WO2019176736A1 - 表示データ生成装置及びプログラム - Google Patents

表示データ生成装置及びプログラム Download PDF

Info

Publication number
WO2019176736A1
WO2019176736A1 PCT/JP2019/009140 JP2019009140W WO2019176736A1 WO 2019176736 A1 WO2019176736 A1 WO 2019176736A1 JP 2019009140 W JP2019009140 W JP 2019009140W WO 2019176736 A1 WO2019176736 A1 WO 2019176736A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
target
display data
images
Prior art date
Application number
PCT/JP2019/009140
Other languages
English (en)
French (fr)
Inventor
克哉 井上
暁郎 二ツ寺
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2020506454A priority Critical patent/JP6964756B2/ja
Publication of WO2019176736A1 publication Critical patent/WO2019176736A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the present invention relates to a display data generation device and a program.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2006-221537
  • a display data generation device may include an image acquisition unit that acquires a plurality of images captured by each of the plurality of imaging devices mounted on each of the plurality of vehicles.
  • the display data generation device may include an object determination unit that determines whether or not a predetermined object is included in each of the plurality of images acquired by the image acquisition unit.
  • the display data generation device may include an image selection unit that selects a plurality of images including the target.
  • the display data generation device generates display data for displaying a plurality of images selected by the image selection unit in association with time based on times when the plurality of images selected by the image selection unit are captured.
  • a display data generation unit may be provided.
  • the target determination unit includes a search condition acquisition unit that acquires a search condition indicating the target, a first image search unit that searches for an image satisfying the search condition from the plurality of images acquired by the image acquisition unit,
  • the display data generation unit associates the image searched by the first image search unit with the time based on the time when the image searched by the first image search unit is captured. Display data to be displayed may be generated.
  • the display data generation device includes the target from the plurality of images acquired by the image acquisition unit based on the captured time and position of the image searched by the first image search unit, and An image specifying unit that specifies an image different from the image searched by the first image search unit, and a search condition generation that generates a search condition based on the target included in the image specified by the image specifying unit And a second image search unit for searching for an image satisfying the search condition generated by the search condition generation unit from the plurality of images acquired by the image acquisition unit.
  • the search condition acquisition unit may acquire an image indicating the target as the search condition, and the search condition generation unit extracts the target image from the image specified by the image specifying unit as the search condition. It's okay.
  • the target angle extracted by the search condition generation unit may be different from the target angle acquired by the search condition acquisition unit.
  • the display data generation device may further include a designation receiving unit that receives designation of a range of a position where the image is captured, and the target determination unit includes the plurality of images acquired by the image acquisition unit. It may be determined whether or not the predetermined target is included in each of the plurality of images whose captured positions are included in the range.
  • the display data generation device may further include a cost setting unit for setting a provision cost for providing an image including the predetermined target, and the cost setting unit is larger as the range received by the designation receiving unit is larger. The provision cost may be set high.
  • the display data generation device includes the plurality of images acquired by the image acquisition unit based on a plurality of images in which a captured position is included in the range and the predetermined target is included.
  • the moving range specifying unit may further include a moving range specifying unit that specifies a moving range of the target, and the target determining unit may specify the captured position of the plurality of images acquired by the image acquiring unit by the moving range specifying unit. Further, it may be determined whether or not each of the plurality of images included in the movement range includes the predetermined target.
  • the display data generation unit may generate display data for displaying the plurality of images selected by the image selection unit in correspondence with positions where the plurality of images are captured.
  • the display data generation unit may generate display data for arranging and displaying the plurality of images selected by the image selection unit at positions on a map corresponding to positions where the plurality of images are captured. .
  • a program for causing a computer to function as the display data generation device for causing a computer to function as the display data generation device.
  • An example of the communication environment of the image management apparatus 100 is shown schematically.
  • generated by the image management apparatus 100 is shown roughly.
  • generated by the image management apparatus 100 is shown roughly.
  • An example of the flow of processing by the image management apparatus 100 is schematically shown.
  • An example of the flow of processing by the image management apparatus 100 is schematically shown.
  • An example of the object 500 imaged with the vehicle 210 and the vehicle 220 is shown schematically.
  • An example of the flow of processing by the image management apparatus 100 is schematically shown.
  • An example of the designated range 602 and the designated range 604 is schematically shown.
  • An example of a functional composition of image management device 100 is shown roughly. 1 schematically shows an exemplary hardware configuration of a computer 1000 functioning as an image management apparatus 100.
  • FIG. 1 schematically shows an example of a communication environment of the image management apparatus 100.
  • the image management device 100 manages images captured by each of the plurality of imaging devices 202 mounted on each of the plurality of vehicles 200.
  • the image captured by the imaging device 202 is an image captured around the vehicle 200.
  • the imaging device 202 is, for example, a drive recorder.
  • the image management apparatus 100 collects images captured by each of the plurality of imaging apparatuses 202 mounted on each of the plurality of vehicles 200 via the network 10.
  • the network 10 may be any network.
  • the network 10 includes the Internet, a mobile phone network such as 3G (3rd Generation), LTE (Long Term Evolution), 4G (4th Generation), and 5G (5th Generation), and a public wireless LAN (Local Area Network). , And / or a dedicated network.
  • the image management apparatus 100 and the network 10 may be connected by wire.
  • the image management apparatus 100 and the network 10 may be wirelessly connected.
  • the network 10 and the vehicle 200 may be wirelessly connected.
  • the network 10 and the vehicle 200 may be wired.
  • the image management apparatus 100 receives an image from the vehicle 200 via the network 10, for example. Further, the image management apparatus 100 receives an image via the network 10 from a reading apparatus that reads an image from a storage medium such as a hard disk of the vehicle 200, for example. The image management apparatus 100 receives and stores images captured by the plurality of imaging apparatuses 202 at various timings at various timings.
  • the image management apparatus 100 selects an image including a specified target from a plurality of stored images, and displays the plurality of images in association with the time based on the time when the selected plurality of images are captured. Display data to be generated. For example, the image management apparatus 100 generates display data for displaying the plurality of images in time series based on the time when the plurality of selected images are captured.
  • the image management apparatus 100 may be an example of a display data generation apparatus.
  • the image management apparatus 100 receives, for example, an image of a lost cat transmitted via the communication terminal 300 by the user 30 searching for the lost cat.
  • the communication terminal 300 may be any terminal as long as it can communicate.
  • the communication terminal 300 is, for example, a mobile phone such as a smartphone, a tablet terminal, and a PC (Personal Computer).
  • the image management apparatus 100 selects an image including the stray cat from a plurality of stored images based on the stray cat image received from the communication terminal 300.
  • the image management apparatus 100 generates display data for displaying a plurality of selected images in association with imaging times of the plurality of images.
  • the image management apparatus 100 transmits the generated display data to the communication terminal 300.
  • FIG. 2 schematically shows an example of the display data 400 generated by the image management apparatus 100.
  • the image management apparatus 100 displays a plurality of images 412, 414, and 416 including the designated target at the positions on the map image 402 corresponding to the captured positions. 400 may be generated.
  • the captured image 416 is disposed at a position on the map image 402 corresponding to the position at which each of the captured images 416 is captured.
  • the plurality of images 412, 414, and 416 are images including a stray cat, by causing the user 30 to browse the display data 400, it is possible to grasp the step of the stray cat and the state of the stray cat.
  • FIG. 3 schematically shows an example of the display data 420 generated by the image management apparatus 100.
  • the image management apparatus 100 generates display data 420 that displays a plurality of images 422, 424, and 426 including a designated target in time series without corresponding to the captured positions. May be.
  • FIG. 4 schematically shows an example of the flow of processing by the image management apparatus 100. Each process illustrated in FIG. 4 is executed mainly by a control unit included in the image management apparatus 100.
  • step 102 step may be abbreviated as S
  • the image management apparatus 100 receives the target image.
  • the image management apparatus 100 may receive the target image from the communication terminal 300.
  • the image management apparatus 100 In S104, the image management apparatus 100 generates a search condition for the target image received in S102. In S106, the image management apparatus 100 searches for an image that satisfies the search condition generated in S104.
  • the image management apparatus 100 In S108, the image management apparatus 100 generates display data for displaying the plurality of images searched in S106. In S110, the image management apparatus 100 transmits the display data generated in S108 to the communication terminal 300. Then, the process ends.
  • FIG. 5 schematically shows an example of the flow of processing by the image management apparatus 100.
  • the image management apparatus 100 receives the front image of the target from the communication terminal 300, selects an image in which the front of the target is captured from the stored image, and captures images other than the front of the target based on the selected image.
  • a flow of processing for specifying a specified image and generating a search condition based on the specified image will be described.
  • Each process illustrated in FIG. 5 is executed mainly by a control unit included in the image management apparatus 100.
  • the image management apparatus 100 receives the target front image from the communication terminal 300.
  • the image management apparatus 100 selects an image in which the front of the target is captured using the front image received in S ⁇ b> 202 from a plurality of stored images.
  • the image management apparatus 100 identifies an image including a target from a plurality of images that are not selected in S204, based on the imaging time and imaging position of the image selected in S204. For example, the image management apparatus 100 first identifies the target position from the image selected in S204 and the imaging position of the image. Next, the image management apparatus 100 specifies an image in which a part other than the front of the target is captured from the position of the identified target and the imaging time of the selected image.
  • an image in which the back surface of the target is imaged, an image in which the side surface of the target is imaged, or the like is specified.
  • the image management apparatus 100 generates a search condition based on the target included in the image specified in S206. For example, the image management device 100 generates a search condition indicating that a subject carries a red backpack when the subject carries a red backpack. For example, the image management apparatus 100 extracts a target from the image specified in S206 as a search condition.
  • the image management apparatus 100 searches for images satisfying the search condition generated in S208 from a plurality of images not selected in S204. For example, when the search condition is generated by cutting out a target from the image specified in S208, the image management apparatus 100 searches for an image including the cut target from a plurality of images not selected in S204. When the image specified in S208 is an image in which the back side of the target is captured, the image management apparatus 100 selects an image in which the back side of the target is captured from among a plurality of images that are not selected in S204. Will search.
  • the image management apparatus 100 executes the process illustrated in FIG. 5, it is possible to search for an image including more targets than when searching for an image including targets using only the target image received in S ⁇ b> 202. it can. Thereby, for example, display data that makes it easier to grasp the target gait can be generated.
  • FIG. 6 schematically shows an example of an object 500 imaged by the vehicle 210 and the vehicle 220.
  • an image captured by the imaging device of the vehicle 210 at the timing shown in FIG. 6 (which may be referred to as a captured image by the vehicle 210) is captured in front of the target 500. It becomes an image.
  • the imaging range 222 of the vehicle 220 the back surface of the target 500 is an image captured by the imaging device of the vehicle 210 at the timing shown in FIG. The image is captured.
  • an image captured by the vehicle 210 is selected in S204.
  • the captured image by the vehicle 220 is specified based on the imaging time and imaging position of the captured image by the vehicle 210.
  • the rear image of the target 500 is extracted as a search condition from the image captured by the vehicle 220.
  • the back image carrying the red rucksack is used as a search condition. Thereby, it becomes possible to search for an image that cannot be searched only by the target image received in S202.
  • FIG. 7 schematically shows an example of the flow of processing by the image management apparatus 100.
  • processing in which the image management apparatus 100 searches for an image while specifying a target movement range will be described.
  • the image management apparatus 100 receives a target image indicating a target from the communication terminal 300.
  • the image management apparatus 100 reads one image from the stored images.
  • the image management apparatus 100 determines whether the read image includes a target. If it is determined that it is included, the process proceeds to S308, and if it is determined that it is not included, the process proceeds to S310. In S308, the image management apparatus 100 selects the image read in S304.
  • the image management apparatus 100 determines whether or not the target movement range can be specified by the image selected in S308. For example, when a plurality of images are selected, the image management apparatus 100 captures an imaging time, an imaging position, and a moving direction, a moving speed, and the like of an object from an object included in the image. The moving range of the object is specified from the moving direction and the moving speed. If it is determined that it can be specified, the process proceeds to S312. If it is determined that it cannot be specified, the process proceeds to S314.
  • the image management apparatus 100 limits an image to be a target for determining whether or not the target is included from the stored images based on the movement range specified in S ⁇ b> 321. For example, the image management apparatus 100 selects an image included in the movement range specified in S310 based on the imaging time and imaging position of the stored image.
  • the image management apparatus 100 determines whether there is an unprocessed image that has not been determined whether the target is included among the images that are targets for determining whether the target is included. . If it is determined that there is, the process returns to S304, and if it is determined that there is not, the process proceeds to S316.
  • the image management apparatus 100 In S316, the image management apparatus 100 generates display data for displaying the plurality of images selected in S308. In S318, the image management apparatus 100 transmits the display data generated in S316 to the communication terminal 300. Then, the process ends.
  • the processing load of the image management apparatus 100 is appropriately set as compared with the case where it is determined whether or not all the stored images are included. Can be reduced.
  • FIG. 7 an example in which the image management apparatus 100 searches for an image while specifying a target movement range has been described.
  • the image management apparatus 100 specifies a range of a position where an image is captured. It may be accepted.
  • the image management apparatus 100 receives information specifying a range together with the target image from the communication terminal 300.
  • FIG. 8 schematically shows an example of the designated range 602 and the designated range 604 designated by the communication terminal 300.
  • the image management apparatus 100 receives information specifying the specified range 602 together with the target image from the communication terminal 300, the image management apparatus 100 extracts the target image from the images in which the captured position is included in the specified range 602. The image including the object indicated by is selected.
  • the image management apparatus 100 determines from the images in which the captured position is included in the specified range 604 among the stored images. An image including a target indicated by the target image is selected.
  • the image management apparatus 100 may set a price for a service that provides an image including a designated target.
  • the consideration may vary depending on, for example, the number of images provided as a result.
  • the consideration may vary depending on the size of the designated range. For example, the image management apparatus 100 may set a higher price when a specified range 604 wider than the specified range 602 is specified compared to when the specified range 602 is specified.
  • FIG. 9 schematically shows an example of the functional configuration of the image management apparatus 100.
  • the image management apparatus 100 includes an image acquisition unit 102, an image storage unit 104, an object determination unit 110, an image selection unit 130, a display data generation unit 132, a display data transmission unit 134, a designation reception unit 140, and a consideration setting unit 142. . Note that it is not essential that the image management apparatus 100 has all these configurations.
  • the image acquisition unit 102 acquires a plurality of images captured by each of the plurality of imaging devices 202 mounted on each of the plurality of vehicles 200.
  • the image acquisition unit 102 may receive an image from the vehicle 200 via the network 10.
  • the image acquisition unit 102 may receive an image via the network 10 from a reading device that reads an image from a storage medium included in the vehicle 200.
  • the image storage unit 104 stores the image acquired by the image acquisition unit 102.
  • the target determination unit 110 determines whether or not a predetermined target is included in each of the plurality of images stored in the image acquisition unit 102.
  • the object determination unit 110 may include a search condition acquisition unit 112, an image search unit 114, an image specification unit 116, a search condition generation unit 118, an image search unit 120, and a movement range specification unit 122. In addition, it is not necessarily essential that the target determination unit 110 has all these configurations.
  • the search condition acquisition unit 112 acquires a search condition indicating the target.
  • the search condition acquisition unit 112 receives the search condition from the communication terminal 300 via the network 10, for example.
  • the search condition is, for example, a target image.
  • the image search unit 114 searches the image stored in the image storage unit 104 for an image that satisfies the search condition acquired by the search condition acquisition unit 112.
  • the image search unit 114 uses, for example, the target image acquired by the search condition acquisition unit 112 to search for an image that matches the target image in whole or in part.
  • the image search unit 114 may be an example of a first image search unit.
  • the image specifying unit 116 specifies an image including a target from the images stored in the image storage unit 104 based on the time and position at which the image searched by the image search unit 114 was captured. For example, the image specifying unit 116 specifies the position of the target from the target included in the image searched by the image search unit 114 and the position where the image is captured. As a specific example, the image specifying unit 116 performs image analysis on the image searched by the image search unit 114 to specify the positional relationship between the imaging device 202 that has captured the image and the target, and the image has been captured. By specifying the position of the target starting from the position, the latitude and longitude of the target position are specified.
  • the image identification unit 116 captures the target from the image stored in the image storage unit 104 from the imaging time of the image retrieved by the image retrieval unit 114 and the position of the identified target. Identify the image. For example, among the images stored in the image storage unit 104, the image specifying unit 116 specifies an image in which the target is imaged based on the time and position at which the image was captured.
  • the search condition generation unit 118 generates a search condition based on the target included in the image specified by the image specifying unit 116.
  • the search condition generation unit 118 generates a search condition by cutting out a target from the image specified by the image specifying unit 116, for example.
  • the image search unit 120 searches the image stored in the image storage unit 104 for an image that satisfies the search condition generated by the search condition generation unit 118. For example, when the search condition is generated by extracting the target from the image specified by the image specifying unit 116 by the search condition generating unit 118, the image search unit 120 includes the images stored in the image storage unit 104. Then, an image whose whole or part matches the target image is searched.
  • the target determination unit 110 may determine that the image searched by the image search unit 114 and the image searched by the image search unit 120 are images including the target.
  • the image search unit 120 may be an example of a second image search unit.
  • the movement range specifying unit 122 specifies a target movement range. For example, based on the plurality of images searched by the image search unit 114, the movement range specifying unit 122 specifies the movement range of the target included in the plurality of images. As a specific example, the moving range specifying unit 122 derives the moving direction and moving speed of the object from the imaging time, the imaging position, and the included object of the plurality of images, the derived moving direction and moving speed, and each image. The moving range of the target is specified from the imaging time.
  • the target determination unit 110 determines the position where the image is captured based on the captured position and time among the images stored in the image storage unit 104. Whether or not a target is included may be determined only for an image included in the specified movement range.
  • the image selection unit 130 selects an image determined to include the target by the target determination unit 110. For example, the image selection unit 130 selects an image searched by the image search unit 114 and an image searched by the image search unit 120.
  • the display data generation unit 132 displays the plurality of images selected by the image selection unit 130 in association with the time taken when the plurality of images selected by the image selection unit 130 are captured. Generate display data. For example, the display data generation unit 132 generates display data for displaying a plurality of images selected by the image selection unit 130 in time series. The display data generation unit 132 may generate display data for displaying the image selected by the image selection unit 130 in correspondence with the positions where the plurality of images are captured. For example, the display data generation unit 132 generates display data for displaying a plurality of images selected by the image selection unit 130 at positions on the map corresponding to positions where the plurality of images are captured.
  • the display data transmission unit 134 transmits the display data generated by the display data generation unit 132.
  • the display data transmission unit 134 transmits the display data generated by the display data generation unit 132 to the communication terminal 300.
  • the designation accepting unit 140 accepts designation of a range of positions where images are captured.
  • the specification receiving unit 140 receives information specifying the range of the position where the image is captured from the communication terminal 300.
  • the object determining unit 110 determines whether or not the image is included in each of the images stored in the image storage unit 104 and the captured position is within the range received by the designation receiving unit 140. You can do it.
  • the consideration setting unit 142 sets a consideration for a service that provides an image including a designated target.
  • the price setting unit 142 sets a price corresponding to the number of images selected by the image selection unit 130, for example. As a specific example, the consideration setting unit 142 sets a higher consideration as the number of images selected by the image selection unit 130 increases. In addition, the price setting unit 142 sets a price corresponding to the size of the range received by the designation receiving unit 140, for example. As a specific example, the consideration setting unit 142 sets a higher consideration as the range is wider.
  • FIG. 10 schematically shows an example of a computer 1000 that functions as the image management apparatus 100.
  • the computer 1000 includes a CPU peripheral unit including a CPU 1010, a RAM 1030, and a graphic controller 1085 that are connected to each other by a host controller 1092; a ROM 1020 that is connected to the host controller 1092 by an input / output controller 1094; An input / output unit having F1040, a hard disk drive 1050, and an input / output chip 1080 is provided.
  • the CPU 1010 operates based on programs stored in the ROM 1020 and the RAM 1030 and controls each unit.
  • the graphic controller 1085 acquires image data generated by the CPU 1010 or the like on a frame buffer provided in the RAM 1030 and displays the image data on the display.
  • the graphic controller 1085 may include a frame buffer that stores image data generated by the CPU 1010 or the like.
  • the communication I / F 1040 communicates with another device via a wired or wireless network.
  • the communication I / F 1040 functions as hardware that performs communication.
  • the hard disk drive 1050 stores programs and data used by the CPU 1010.
  • the ROM 1020 stores a boot program that is executed when the computer 1000 starts up, a program that depends on the hardware of the computer 1000, and the like.
  • the input / output chip 1080 connects various input / output devices to the input / output controller 1094 via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like.
  • the program provided to the hard disk drive 1050 via the RAM 1030 is stored in a recording medium such as an IC card and provided by the user.
  • the program is read from the recording medium, installed in the hard disk drive 1050 via the RAM 1030, and executed by the CPU 1010.
  • a program that is installed in the computer 1000 and causes the computer 1000 to function as the image management apparatus 100 may work on the CPU 1010 or the like to cause the computer 1000 to function as each unit of the image management apparatus 100.
  • Information processing described in these programs is read by the computer 1000, whereby the image acquisition unit 102, the image storage unit 104, and the specific means in which the software and the various hardware resources described above cooperate with each other.
  • the target determination unit 110, the image selection unit 130, the display data generation unit 132, the display data transmission unit 134, the designation reception unit 140, and the consideration setting unit 142 function.
  • the specific image management apparatus 100 according to the use purpose is constructed
  • 10 network 100 image management device, 102 image acquisition unit, 104 image storage unit, 110 target determination unit, 112 search condition acquisition unit, 114 image search unit, 116 image specification unit, 118 search condition generation unit, 120 image search unit, 122, movement range identification unit, 130, image selection unit, 132, display data generation unit, 134, display data transmission unit, 140 designation reception unit, 142 value setting unit, 200 vehicle, 202 imaging device, 210 vehicle, 220 vehicle, 300 communication terminal, 400 display data, 402 map image, 412 image, 414 image, 416 image, 420 display data, 422 image, 424 image, 426 image, 500 target, 602 specified range, 604 specified range, 1000 computer, 1010 CPU, 1020 ROM, 1030 RAM, 1040 communication I / F, 1050 hard disk drive, 1080 input-output chip, 1085 graphics controller, 1092 host controller, 1094 input and output controller

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

複数の車両のそれぞれに搭載された複数の撮像装置のそれぞれによって撮像された複数の画像を取得する画像取得部と、画像取得部によって取得された複数の画像のそれぞれに所定の対象が含まれるか否かを判断する対象判断部と、対象を含む複数の画像を選択する画像選択部と、画像選択部によって選択された複数の画像の撮像された時間に基づいて、画像選択部によって選択された複数の画像を時間と関連付けて表示させるための表示データを生成する表示データ生成部とを備える表示データ生成装置を提供する。

Description

表示データ生成装置及びプログラム
 本発明は、表示データ生成装置及びプログラムに関する。
 車両に搭載された撮像装置から車両周辺の撮像画像を収集するシステムが知られていた(例えば、特許文献1参照)。
 [先行技術文献]
 [特許文献]
 [特許文献1]特開2006-221537号公報
解決しようとする課題
 車両に搭載された撮像装置から収集した撮像画像を用いて有益な情報を提供する技術を提供することが望ましい。
一般的開示
 本発明の第1の態様によれば、表示データ生成装置が提供される。表示データ生成装置は、複数の車両のそれぞれに搭載された複数の撮像装置のそれぞれによって撮像された複数の画像を取得する画像取得部を備えてよい。表示データ生成装置は、画像取得部によって取得された複数の画像のそれぞれに所定の対象が含まれるか否かを判断する対象判断部を備えてよい。表示データ生成装置は、対象を含む複数の画像を選択する画像選択部を備えてよい。表示データ生成装置は、画像選択部によって選択された複数の画像の撮像された時間に基づいて、画像選択部によって選択された複数の画像を時間と関連付けてに表示させるための表示データを生成する表示データ生成部を備えてよい。
 上記対象判断部は、上記対象を示す検索条件を取得する検索条件取得部と、上記画像取得部によって取得された上記複数の画像から、上記検索条件を満たす画像を検索する第1画像検索部とを備えてよく、上記表示データ生成部は、上記第1画像検索部によって検索された上記画像の撮像された時間に基づいて、上記第1画像検索部によって検索された上記画像を上記時間と関連付けて表示させるための表示データを生成してよい。上記表示データ生成装置は、上記第1画像検索部によって検索された上記画像の撮像された時間及び位置に基づいて、上記画像取得部によって取得された上記複数の画像から、上記対象を含み、且つ、上記第1画像検索部によって検索された上記画像とは異なる画像を特定する画像特定部と、上記画像特定部によって特定された画像に含まれる上記対象に基づいて検索条件を生成する検索条件生成部と、上記画像取得部によって取得された上記複数の画像から、上記検索条件生成部によって生成された検索条件を満たす画像を検索する第2画像検索部とを備えてよい。上記検索条件取得部は、上記対象を示す画像を上記検索条件として取得してよく、上記検索条件生成部は、上記画像特定部によって特定された画像から上記対象の画像を上記検索条件として抽出してよい。上記検索条件生成部が抽出した上記対象の画像と、上記検索条件取得部が取得した上記対象を示す画像とは、上記対象のアングルが異なってよい。
 上記表示データ生成装置は、上記画像が撮像された位置の範囲の指定を受け付ける指定受付部をさらに備えてよく、上記対象判断部は、上記画像取得部によって取得された上記複数の画像のうち、撮像された位置が上記範囲内に含まれる複数の画像のそれぞれに上記所定の対象が含まれるか否かを判断してよい。上記表示データ生成装置は、上記所定の対象を含む画像を提供する提供費用を設定する費用設定部をさらに備えてよく、上記費用設定部は、上記指定受付部が受け付けた上記範囲が広いほど、上記提供費用を高額に設定してよい。上記表示データ生成装置は、上記画像取得部によって取得された上記複数の画像のうち、撮像された位置が上記範囲内に含まれ、かつ、上記所定の対象が含まれる複数の画像に基づいて上記対象の移動範囲を特定する移動範囲特定部をさらに備えてよく、上記対象判断部は、上記画像取得部が取得した上記複数の画像のうち、撮像された位置が上記移動範囲特定部によって特定された上記移動範囲内に含まれる複数の画像のそれぞれに上記所定の対象が含まれるか否かを判断してよい。
 上記表示データ生成部は、上記画像選択部によって選択された上記複数の画像を、上記複数の画像が撮像された位置に対応させて表示させる表示データを生成してよい。上記表示データ生成部は、上記画像選択部によって選択された上記複数の画像を、上記複数の画像が撮像された位置に対応する地図上の位置に配置して表示させる表示データを生成してよい。
 本発明の第2の態様によれば、コンピュータを、上記表示データ生成装置として機能させるためのプログラムが提供される。
 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
画像管理装置100の通信環境の一例を概略的に示す。 画像管理装置100によって生成された表示データ400の一例を概略的に示す。 画像管理装置100によって生成された表示データ420の一例を概略的に示す。 画像管理装置100による処理の流れの一例を概略的に示す。 画像管理装置100による処理の流れの一例を概略的に示す。 車両210及び車両220によって撮像される対象500の一例を概略的に示す。 画像管理装置100による処理の流れの一例を概略的に示す。 指定範囲602及び指定範囲604の一例を概略的に示す。 画像管理装置100の機能構成の一例を概略的に示す。 画像管理装置100として機能するコンピュータ1000のハードウエア構成の一例を概略的に示す。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、画像管理装置100の通信環境の一例を概略的に示す。本実施形態に係る画像管理装置100は、複数の車両200のそれぞれに搭載された複数の撮像装置202のそれぞれによって撮像された画像を管理する。撮像装置202によって撮像された画像は、車両200の周囲を撮像した画像である。撮像装置202は、例えば、ドライブレコーダである。
 画像管理装置100は、複数の車両200のそれぞれに搭載された複数の撮像装置202のそれぞれによって撮像された画像を、ネットワーク10を介して収集する。ネットワーク10は、任意のネットワークであってよい。例えば、ネットワーク10は、インターネットと、いわゆる3G(3rd Generation)、LTE(Long Term Evolution)、4G(4th Generation)及び5G(5th Generation)等の携帯電話網と、公衆無線LAN(Local Area Network)と、専用網との少なくともいずれかを含んでよい。画像管理装置100とネットワーク10とは有線接続されよい。画像管理装置100とネットワーク10とは無線接続されてもよい。ネットワーク10と車両200とは、無線接続されてよい。ネットワーク10と車両200とは、有線接続されてもよい。
 画像管理装置100は、例えば、車両200から、ネットワーク10を介して画像を受信する。また、画像管理装置100は、例えば、車両200が有するハードディスク等の記憶媒体から画像を読み取る読取装置から、ネットワーク10を介して画像を受信する。画像管理装置100は、複数の撮像装置202によって様々な場所で様々なタイミングで撮像された画像を受信して格納することになる。
 画像管理装置100は、格納している複数の画像から、指定された対象を含む画像を選択し、選択した複数の画像の撮像された時間に基づいて当該複数の画像を当該時間と関連付けて表示させるための表示データを生成する。画像管理装置100は、例えば、選択した複数の画像の撮像された時間に基づいて当該複数の画像を時系列に表示させるための表示データを生成する。画像管理装置100は、表示データ生成装置の一例であってよい。
 画像管理装置100は、例えば、迷い猫を探しているユーザ30によって通信端末300を介して送信された迷い猫の画像を受信する。通信端末300は、通信可能な端末であればどのような端末であってもよい。通信端末300は、例えば、スマートフォン等の携帯電話、タブレット端末及びPC(Personal Computer)等である。
 画像管理装置100は、通信端末300から受信した迷い猫の画像に基づいて、格納している複数の画像から当該迷い猫を含む画像を選択する。画像管理装置100は、選択した複数の画像を、当該複数の画像の撮像時間と関連付けて表示させるための表示データを生成する。画像管理装置100は、生成した表示データを通信端末300に送信する。
 図2は、画像管理装置100によって生成された表示データ400の一例を概略的に示す。画像管理装置100は、図2に示すように、指定された対象を含む複数の画像412、414、416を、撮像された位置に対応する地図画像402上の位置に配置して表示させる表示データ400を生成してよい。
 図2に示す表示データ400では、1月26日の13時に撮像された画像412と、1月26日の13時5分に撮像された画像414と、1月26日の13時15分に撮像された画像416とが、それぞれが撮像された位置に対応する地図画像402上の位置に配置されている。複数の画像412、414、416が迷い猫を含む画像である場合、ユーザ30に表示データ400を閲覧させることによって、迷い猫の足取り及び迷い猫の様子を把握させることができる。
 図3は、画像管理装置100によって生成された表示データ420の一例を概略的に示す。画像管理装置100は、図3に示すように、指定された対象を含む複数の画像422、424、426を、撮像された位置に対応させることなく、時系列に表示させる表示データ420を生成してもよい。
 図4は、画像管理装置100による処理の流れの一例を概略的に示す。図4に示す各処理は、画像管理装置100が備える制御部が主体となって実行される。
 ステップ(ステップをSと省略して記載する場合がある。)102では、画像管理装置100が、対象画像を受信する。画像管理装置100は、通信端末300から対象画像を受信してよい。
 S104では、画像管理装置100が、S102において受信した対象画像用の検索条件を生成する。S106では、画像管理装置100が、S104において生成した検索条件を満たす画像を検索する。
 S108では、画像管理装置100が、S106において検索された複数の画像を表示させるための表示データを生成する。S110では、画像管理装置100が、S108において生成した表示データを通信端末300に送信する。そして、処理を終了する。
 図5は、画像管理装置100による処理の流れの一例を概略的に示す。ここでは、画像管理装置100が、通信端末300から対象の正面画像を受信し、格納画像から、対象の正面が撮像されている画像を選択し、選択した画像に基づいて対象の正面以外が撮像されている画像を特定し、特定した画像に基づいて検索条件を生成する処理の流れを説明する。図5に示す各処理は、画像管理装置100が備える制御部が主体となって実行される。
 S202では、画像管理装置100が、通信端末300から対象の正面画像を受信する。S204では、画像管理装置100が、格納している複数の画像から、S202において受信した正面画像を用いて、対象の正面が撮像されている画像を選択する。
 S206では、画像管理装置100が、S204において選択した画像の撮像時間及び撮像位置に基づいて、S204において選択されなかった複数の画像から、対象を含む画像を特定する。例えば、画像管理装置100は、まず、S204において選択した画像と当該画像の撮像位置とから、対象の位置を特定する。次に、画像管理装置100は、特定した対象の位置と選択した画像の撮像時間とから、当該対象の正面以外が撮像されている画像を特定する。ここでは、例えば、対象の背面が撮像されている画像や、対象の側面が撮像されている画像等が特定される。
 S208では、画像管理装置100が、S206において特定した画像に含まれる対象に基づいて検索条件を生成する。例えば、画像管理装置100は、対象が赤い色のリュックを背負っていた場合に、赤い色のリュックを背負っていることを示す検索条件を生成する。画像管理装置100は、例えば、検索条件として、S206において特定した画像から対象を切り出す。
 S210では、画像管理装置100が、S204において選択されなかった複数の画像から、S208において生成した検索条件を満たす画像を検索する。例えば、S208において特定した画像から対象を切り出すことによって検索条件を生成した場合、画像管理装置100は、S204において選択されなかった複数の画像から、切り出した対象を含む画像を検索する。S208において特定された画像が、対象の背面が撮像されている画像である場合、画像管理装置100は、S204において選択されなかった複数の画像のうち、当該対象の背面が撮像されている画像を検索することになる。
 図5に示す処理を画像管理装置100が実行することによって、S202において受信した対象画像のみを用いて対象を含む画像を検索する場合に比べて、より多くの対象を含む画像を検索することができる。これにより、例えば、対象の足取りをより把握しやすい表示データを生成することができる。
 図6は、車両210及び車両220によって撮像される対象500の一例を概略的に示す。車両210の撮像範囲212が示すように、図6に示すタイミングで車両210が有する撮像装置によって撮像された画像(車両210による撮像画像と記載する場合がある。)は対象500の正面が撮像されている画像となる。また、車両220の撮像範囲222が示すように、図6に示すタイミングで車両210が有する撮像装置によって撮像された画像(車両220による撮像画像と記載する場合がある。)は対象500の背面が撮像されている画像となる。
 画像管理装置100が図5に示す処理を実行する場合、S204において、車両210による撮像画像が選択される。次に、S206において、車両210による撮像画像の撮像時間及び撮像位置に基づいて、車両220による撮像画像が特定される。そして、S208において、車両220による撮像画像から対象500の背面画像が検索条件として切り出される。
 対象500が例えば赤いリュックを背負っていた場合、赤いリュックを背負っている背面画像が検索条件とされる。これにより、S202において受信した対象画像のみでは検索できない画像を検索できるようになる。
 図7は、画像管理装置100による処理の流れの一例を概略的に示す。ここでは、画像管理装置100が、対象の移動範囲を特定しながら画像を検索していく処理について説明する。
 S302では、画像管理装置100が、対象を示す対象画像を通信端末300から受信する。S304では、画像管理装置100が、格納している画像から一の画像を読み出す。S306では、画像管理装置100が、読み出した画像に対象が含まれるか否かを判定する。含まれると判定した場合、S308に進み、含まれないと判定した場合、S310に進む。S308では、画像管理装置100が、S304において読み出した画像を選択する。
 S310では、画像管理装置100が、S308において選択した画像によって、対象の移動範囲を特定できるか否かを判定する。画像管理装置100は、例えば、複数の画像が選択されている場合に、撮像時間及び撮像位置と、画像に含まれる対象とから、対象の移動方向及び移動速度等を導出できた場合、撮像時間、移動方向、及び移動速度から、対象の移動範囲を特定する。特定できると判定した場合、S312に進み、特定できないと判定した場合、S314に進む。
 S312では、画像管理装置100が、S321において特定した移動範囲に基づいて、格納している画像から、対象が含まれるか否かを判定する対象となる画像を限定する。画像管理装置100は、例えば、格納している画像の撮像時間及び撮像位置に基づいて、S310において特定した移動範囲に含まれる画像を選択する。
 S314では、画像管理装置100が、対象が含まれるか否かを判定する対象となる画像のうち、対象が含まれているか否かを判定していない未処理画像が有るか否かを判定する。有ると判定した場合、S304に戻り、無いと判定した場合、S316に進む。
 S316では、画像管理装置100が、S308において選択された複数の画像を表示させるための表示データを生成する。S318では、画像管理装置100が、S316において生成した表示データを通信端末300に送信する。そして、処理を終了する。
 図7に示す処理を画像管理装置100が実行することによって、格納しているすべての画像について対象が含まれているか否かを判定する場合に比べて、画像管理装置100の処理負荷を適切に低減することができる。なお、図7では、画像管理装置100が対象の移動範囲を特定しながら画像を検索していく例を挙げて説明したが、画像管理装置100は、画像が撮像された位置の範囲の指定を受け付けてもよい。画像管理装置100は、例えば、通信端末300から、対象画像とともに、範囲を指定する情報を受信する。
 図8は、通信端末300によって指定された指定範囲602及び指定範囲604の一例を概略的に示す。画像管理装置100は、通信端末300から対象画像とともに指定範囲602を指定する情報を受信した場合、格納している画像のうち、撮像された位置が指定範囲602内に含まれる画像から、対象画像が示す対象を含む画像を選択する。また、画像管理装置100は、通信端末300から対象画像とともに指定範囲604を指定する情報を受信した場合、格納している画像のうち、撮像された位置が指定範囲604内に含まれる画像から、対象画像が示す対象を含む画像を選択する。
 画像管理装置100は、指定された対象を含む画像を提供するサービスについて、対価を設定してよい。対価は、例えば、結果として提供する画像の数に応じて異なってよい。また、対価は、指定された範囲の広さに応じて異なってもよい。例えば、画像管理装置100は、指定範囲602が指定された場合に比べて、指定範囲602よりも広い指定範囲604が指定された場合の対価を高く設定してよい。
 図9は、画像管理装置100の機能構成の一例を概略的に示す。画像管理装置100は、画像取得部102、画像格納部104、対象判断部110、画像選択部130、表示データ生成部132、表示データ送信部134、指定受付部140、及び対価設定部142を備える。なお、画像管理装置100がこれらのすべての構成を備えることは必須とは限らない。
 画像取得部102は、複数の車両200のそれぞれに搭載された複数の撮像装置202のそれぞれによって撮像された複数の画像を取得する。画像取得部102は、車両200から、ネットワーク10を介して画像を受信してよい。画像取得部102は、車両200が有する記憶媒体から画像を読み取る読取装置から、ネットワーク10を介して画像を受信してもよい。画像格納部104は、画像取得部102が取得した画像を格納する。
 対象判断部110は、画像取得部102に格納されている複数の画像のそれぞれに予め定められた対象が含まれるか否かを判断する。対象判断部110は、検索条件取得部112、画像検索部114、画像特定部116、検索条件生成部118、画像検索部120、及び移動範囲特定部122を有してよい。なお、対象判断部110がこれらのすべての構成を有することは必須とは限らない。
 検索条件取得部112は、対象を示す検索条件を取得する。検索条件取得部112は、例えば、通信端末300から、ネットワーク10を介して検索条件を受信する。検索条件は、例えば、対象の画像である。
 画像検索部114は、画像格納部104に格納されている画像から、検索条件取得部112が取得した検索条件を満たす画像を検索する。画像検索部114は、例えば、検索条件取得部112が取得した対象の画像を用いて、当該対象の画像と全体又は一部がマッチングする画像を検索する。画像検索部114は、第1画像検索部の一例であってよい。
 画像特定部116は、画像検索部114によって検索された画像が撮像された時間及び位置に基づいて、画像格納部104に格納されている画像から、対象を含む画像を特定する。例えば、画像特定部116は、画像検索部114によって検索された画像に含まれる対象と、当該画像が撮像された位置とから、対象の位置を特定する。具体例として、画像特定部116は、画像検索部114によって検索された画像を画像解析することによって、当該画像を撮像した撮像装置202と対象との位置関係を特定し、当該画像が撮像された位置を起点とした対象の位置を特定することによって、対象の位置の緯度経度を特定する。
 次に、画像特定部116は、画像検索部114によって検索された画像の撮像時間と、特定した対象の位置とから、画像格納部104に格納されている画像から、当該対象が撮像されている画像を特定する。画像特定部116は、例えば、画像格納部104に格納されている画像のうち、画像が撮像された時間及び位置によって、当該対象が撮像されている画像を特定する。
 検索条件生成部118は、画像特定部116によって特定された画像に含まれる対象に基づいて、検索条件を生成する。検索条件生成部118は、例えば、画像特定部116によって特定された画像から対象を切り出すことによって検索条件を生成する。
 画像検索部120は、画像格納部104に格納されている画像から、検索条件生成部118によって生成された検索条件を満たす画像を検索する。画像検索部120は、例えば、検索条件生成部118によって、画像特定部116によって特定された画像から対象を切り出すことによって検索条件が生成された場合、画像格納部104に格納されている画像のうち、当該対象の画像と全体又は一部がマッチングする画像を検索する。対象判断部110は、画像検索部114によって検索された画像及び画像検索部120によって検索された画像が対象を含む画像であると判断してよい。画像検索部120は、第2画像検索部の一例であってよい。
 移動範囲特定部122は、対象の移動範囲を特定する。移動範囲特定部122は、例えば、画像検索部114によって検索された複数の画像に基づいて、当該複数の画像に含まれる対象の移動範囲を特定する。具体例として、移動範囲特定部122は、複数の画像の撮像時間、撮像位置、及び含まれる対象とから、対象の移動方向及び移動速度を導出し、導出した移動方向及び移動速度と、各画像の撮像時間とから、対象の移動範囲を特定する。
 対象判断部110は、移動範囲特定部122によって対象の移動範囲が特定された場合、画像格納部104に格納されている画像のうち、撮像された位置及び時間に基づいて、撮像された位置が特定した移動範囲に含まれる画像のみを対象として、対象が含まれるか否かを判断してよい。
 画像選択部130は、対象判断部110によって対象を含むと判断された画像を選択する。画像選択部130は、例えば、画像検索部114によって検索された画像及び画像検索部120によって検索された画像を選択する。
 表示データ生成部132は、画像選択部130によって選択された複数の画像が撮像された時間に基づいて、画像選択部130によって選択された複数の画像を、撮像された時間に関連付けて表示させるための表示データを生成する。表示データ生成部132は、例えば、画像選択部130によって選択された複数の画像を時系列に表示させるための表示データを生成する。表示データ生成部132は、画像選択部130によって選択された画像を、当該複数の画像が撮像された位置に対応させて表示させる表示データを生成してもよい。例えば、表示データ生成部132は、画像選択部130によって選択された複数の画像を、当該複数の画像が撮像された位置に対応する地図上の位置に配置して表示させる表示データを生成する。
 表示データ送信部134は、表示データ生成部132によって生成された表示データを送信する。表示データ送信部134は、例えば、表示データ生成部132によって生成された表示データを通信端末300に送信する。
 指定受付部140は、画像が撮像された位置の範囲の指定を受け付ける。指定受付部140は、例えば、画像が撮像された位置の範囲を指定する情報を通信端末300から受信する。対象判断部110は、画像格納部104に格納されている画像のうち、撮像された位置が、指定受付部140が受け付けた範囲内に含まれる画像のそれぞれに対象が含まれるか否かを判断してよい。
 対価設定部142は、指定された対象を含む画像を提供するサービスについての対価を設定する。対価設定部142は、例えば、画像選択部130によって選択された画像の数に応じた対価を設定する。具体例として、対価設定部142は、画像選択部130によって選択された画像の数が多いほど高い対価を設定する。また、対価設定部142は、例えば、指定受付部140が受け付けた範囲の広さに応じた対価を設定する。具体例として、対価設定部142は、範囲が広いほど高い対価を設定する。
 図10は、画像管理装置100として機能するコンピュータ1000の一例を概略的に示す。本実施形態に係るコンピュータ1000は、ホストコントローラ1092により相互に接続されるCPU1010、RAM1030、及びグラフィックコントローラ1085を有するCPU周辺部と、入出力コントローラ1094によりホストコントローラ1092に接続されるROM1020、通信I/F1040、ハードディスクドライブ1050、及び入出力チップ1080を有する入出力部を備える。
 CPU1010は、ROM1020及びRAM1030に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィックコントローラ1085は、CPU1010などがRAM1030内に設けたフレーム・バッファ上に生成する画像データを取得し、ディスプレイ上に表示させる。これに代えて、グラフィックコントローラ1085は、CPU1010などが生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
 通信I/F1040は、有線又は無線によりネットワークを介して他の装置と通信する。また、通信I/F1040は、通信を行うハードウエアとして機能する。ハードディスクドライブ1050は、CPU1010が使用するプログラム及びデータを格納する。
 ROM1020は、コンピュータ1000が起動時に実行するブート・プログラム及びコンピュータ1000のハードウエアに依存するプログラムなどを格納する。入出力チップ1080は、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポートなどを介して各種の入出力装置を入出力コントローラ1094へと接続する。
 RAM1030を介してハードディスクドライブ1050に提供されるプログラムは、ICカードなどの記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM1030を介してハードディスクドライブ1050にインストールされ、CPU1010において実行される。
 コンピュータ1000にインストールされ、コンピュータ1000を画像管理装置100として機能させるプログラムは、CPU1010などに働きかけて、コンピュータ1000を、画像管理装置100の各部としてそれぞれ機能させてよい。これらのプログラムに記述された情報処理は、コンピュータ1000に読込まれることにより、ソフトウエアと上述した各種のハードウエア資源とが協働した具体的手段である画像取得部102、画像格納部104、対象判断部110、画像選択部130、表示データ生成部132、表示データ送信部134、指定受付部140、及び対価設定部142として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1000の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の画像管理装置100が構築される。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 ネットワーク、100 画像管理装置、102 画像取得部、104 画像格納部、110 対象判断部、112 検索条件取得部、114 画像検索部、116 画像特定部、118 検索条件生成部、120 画像検索部、122 移動範囲特定部、130 画像選択部、132 表示データ生成部、134 表示データ送信部、140 指定受付部、142 対価設定部、200 車両、202 撮像装置、210 車両、220 車両、300 通信端末、400 表示データ、402 地図画像、412 画像、414 画像、416 画像、420 表示データ、422 画像、424 画像、426 画像、500 対象、602 指定範囲、604 指定範囲、1000 コンピュータ、1010 CPU、1020 ROM、1030 RAM、1040 通信I/F、1050 ハードディスクドライブ、1080 入出力チップ、1085 グラフィックコントローラ、1092 ホストコントローラ、1094 入出力コントローラ

Claims (15)

  1.  複数の車両のそれぞれに搭載された複数の撮像装置のそれぞれによって撮像された複数の画像を取得する画像取得部と、
     前記画像取得部によって取得された前記複数の画像のそれぞれに所定の対象が含まれるか否かを判断する対象判断部と、
     前記対象を含む複数の画像を選択する画像選択部と、
     前記画像選択部によって選択された前記複数の画像の撮像された時間に基づいて、前記画像選択部によって選択された前記複数の画像を前記時間と関連付けて表示させるための表示データを生成する表示データ生成部と
     を備える表示データ生成装置。
  2.  前記表示データ生成部は、前記画像選択部によって選択された前記複数の画像を時系列に表示させるための前記表示データを生成する、請求項1に記載の表示データ生成装置。
  3.  前記対象判断部は、
     前記対象を示す検索条件を取得する検索条件取得部と、
     前記画像取得部によって取得された前記複数の画像から、前記検索条件を満たす画像を検索する第1画像検索部と、
    を有し、
     前記表示データ生成部は、前記第1画像検索部によって検索された前記画像の撮像された時間に基づいて、前記第1画像検索部によって検索された前記画像を前記時間と関連付けて表示させるための表示データを生成する
     請求項1又は2に記載の表示データ生成装置。
  4.  前記第1画像検索部によって検索された前記画像の撮像された時間及び位置に基づいて、前記画像取得部によって取得された前記複数の画像から、前記対象を含み、且つ前記第1画像検索部によって検索された前記画像とは異なる画像を特定する画像特定部と、
     前記画像特定部によって特定された画像に含まれる前記対象に基づいて検索条件を生成する検索条件生成部と、
     前記画像取得部によって取得された前記複数の画像から、前記検索条件生成部によって生成された検索条件を満たす画像を検索する第2画像検索部と、
     を備える
     請求項3に記載の表示データ生成装置。
  5.  前記画像特定部は、前記第1画像検索部によって検索された前記画像を解析することによって、当該画像を撮像した撮像装置と前記対象との位置関係を特定し、当該画像が撮像された位置を起点とした前記対象の位置を特定することによって、前記対象の位置の緯度経度を特定する、請求項4に記載の表示データ生成装置。
  6.  前記検索条件取得部は、前記対象を示す画像を前記検索条件として取得し、
     前記検索条件生成部は、前記画像特定部によって特定された画像から前記対象の画像を前記検索条件として抽出する、請求項4又は5に記載の表示データ生成装置。
  7.  前記検索条件生成部が抽出した前記対象の画像と、前記検索条件取得部が取得した前記対象を示す画像とは、前記対象のアングルが異なる、請求項6に記載の表示データ生成装置。
  8.  前記検索条件生成部が抽出した前記対象の画像は、前記対象の正面が撮像されている画像であり、前記検索条件取得部が取得した前記対象を示す画像は、前記対象の背面又は前記対象の側面が撮像されている画像である、請求項7に記載の表示データ生成装置。
  9.  画像が撮像された位置の範囲の指定を受け付ける指定受付部
     をさらに備え、
     前記対象判断部は、前記画像取得部によって取得された前記複数の画像のうち、撮像された位置が前記範囲内に含まれる複数の画像のそれぞれに前記所定の対象が含まれるか否かを判断する、請求項1から8のいずれか一項に記載の表示データ生成装置。
  10.  前記所定の対象を含む画像を提供する提供費用を設定する費用設定部
     をさらに備え、
     前記費用設定部は、前記指定受付部が受け付けた前記範囲が広いほど、前記提供費用を高額に設定する、請求項9に記載の表示データ生成装置。
  11.  前記画像取得部によって取得された前記複数の画像のうち、撮像された位置が前記範囲内に含まれ、かつ、前記所定の対象が含まれる複数の画像に基づいて前記対象の移動範囲を特定する移動範囲特定部
     をさらに備え、
     前記対象判断部は、前記画像取得部が取得した前記複数の画像のうち、撮像された位置が前記移動範囲特定部によって特定された前記移動範囲内に含まれる複数の画像のそれぞれに前記所定の対象が含まれるか否かを判断する、請求項9に記載の表示データ生成装置。
  12.  前記移動範囲特定部は、撮像された位置が前記範囲内に含まれ、かつ、前記所定の対象が含まれる前記複数の画像の撮像時間、撮像位置、及び含まれる対象から、前記対象の移動方向及び移動速度を導出し、導出した移動方向及び移動速度と、当該複数の画像の撮像時間とから、前記対象の移動範囲を特定する、請求項11に記載の表示データ生成装置。
  13.  前記表示データ生成部は、前記画像選択部によって選択された前記複数の画像を、前記複数の画像が撮像された位置に対応させて表示させる表示データを生成する、請求項1から12のいずれか一項に記載の表示データ生成装置。
  14.  前記表示データ生成部は、前記画像選択部によって選択された前記複数の画像を、前記複数の画像が撮像された位置に対応する地図上の位置に配置して表示させる表示データを生成する、請求項13に記載の表示データ生成装置。
  15.  コンピュータを、請求項1から14のいずれか一項に記載の表示データ生成装置として機能させるためのプログラム。
PCT/JP2019/009140 2018-03-13 2019-03-07 表示データ生成装置及びプログラム WO2019176736A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020506454A JP6964756B2 (ja) 2018-03-13 2019-03-07 表示データ生成装置及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018045810 2018-03-13
JP2018-045810 2018-03-13

Publications (1)

Publication Number Publication Date
WO2019176736A1 true WO2019176736A1 (ja) 2019-09-19

Family

ID=67907069

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009140 WO2019176736A1 (ja) 2018-03-13 2019-03-07 表示データ生成装置及びプログラム

Country Status (2)

Country Link
JP (1) JP6964756B2 (ja)
WO (1) WO2019176736A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092279A (ja) * 2006-10-02 2008-04-17 Fuji Electric Systems Co Ltd 監視システム及び監視方法
JP2011186733A (ja) * 2010-03-08 2011-09-22 Hitachi Kokusai Electric Inc 画像検索装置
JP2017069917A (ja) * 2015-10-02 2017-04-06 株式会社東芝 通信処理装置、車載装置、及び通信処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3734021B2 (ja) * 2001-04-17 2006-01-11 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びプログラム
JP4367353B2 (ja) * 2005-02-14 2009-11-18 株式会社デンソー 交通情報提供システム、交通情報提供センタ、車載用情報収集装置
JP2012216102A (ja) * 2011-04-01 2012-11-08 Hitachi Kokusai Electric Inc 画像蓄積システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092279A (ja) * 2006-10-02 2008-04-17 Fuji Electric Systems Co Ltd 監視システム及び監視方法
JP2011186733A (ja) * 2010-03-08 2011-09-22 Hitachi Kokusai Electric Inc 画像検索装置
JP2017069917A (ja) * 2015-10-02 2017-04-06 株式会社東芝 通信処理装置、車載装置、及び通信処理方法

Also Published As

Publication number Publication date
JPWO2019176736A1 (ja) 2021-01-14
JP6964756B2 (ja) 2021-11-10

Similar Documents

Publication Publication Date Title
US11886489B2 (en) System and method of identifying visual objects
CN109978931B (zh) 三维场景重建方法及设备、存储介质
JP2008217695A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP6480042B1 (ja) 情報処理装置及びプログラム
US20220382788A1 (en) Electronic device and method for operating content using same
US20160112656A1 (en) Thermal imaging device, analyzing device, thermal image photographing method, and analyzing method
WO2019176736A1 (ja) 表示データ生成装置及びプログラム
KR20140134154A (ko) 이미지에서 객체를 추출하기 위한 방법 및 단말기
JP6179315B2 (ja) 情報処理装置、画像処理システム、情報処理装置における画像処理方法及びプログラム
JP2019083532A (ja) 画像処理システム、画像処理方法および画像処理プログラム
CN110967036A (zh) 导航产品的测试方法和设备
KR20220002626A (ko) 픽쳐 기반의 다차원 정보 통합 방법 및 관련 기기
WO2019176728A1 (ja) 情報生成装置及びプログラム
CN114911418A (zh) 一种无线电信号存储与回放装置
CN112751928B (zh) 跨终端信息互联方法、装置、计算机设备和存储介质
US20230319236A1 (en) Image selection apparatus, portable terminal, image selection method, and non-transitory computer-readable medium
CN111368170B (zh) 页面数据的巡检方法、装置及设备
US20150112975A1 (en) Context-aware search apparatus and method
CN118057328A (zh) 采集众包数据的方法及设备
CN115578208A (zh) 理赔取证数据处理方法、装置、电子设备及存储介质
WO2014108952A1 (ja) 情報処理装置、プログラム及び方法
CN107079075A (zh) 有效传送生活日志照相机捕获到的数字图像的方法和系统
JP2013149230A (ja) 情報処理システム、その制御方法及びプログラム
CN116124122A (zh) 一种通用组合导航系统测试软件架构
CN105306851A (zh) 投影的方法及移动热点设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19767062

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020506454

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19767062

Country of ref document: EP

Kind code of ref document: A1