WO2020095925A1 - 情報処理装置、情報処理システム、及び、プログラム - Google Patents

情報処理装置、情報処理システム、及び、プログラム Download PDF

Info

Publication number
WO2020095925A1
WO2020095925A1 PCT/JP2019/043418 JP2019043418W WO2020095925A1 WO 2020095925 A1 WO2020095925 A1 WO 2020095925A1 JP 2019043418 W JP2019043418 W JP 2019043418W WO 2020095925 A1 WO2020095925 A1 WO 2020095925A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
information
image
server
position information
Prior art date
Application number
PCT/JP2019/043418
Other languages
English (en)
French (fr)
Inventor
広毅 元垣内
Original Assignee
株式会社スマートドライブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社スマートドライブ filed Critical 株式会社スマートドライブ
Publication of WO2020095925A1 publication Critical patent/WO2020095925A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an information processing device, an information processing system, and a program.
  • the vehicle-mounted device disclosed in Japanese Patent Laid-Open No. 2011-154494 discretely records the position and time of a passing point while the vehicle is traveling, and creates probe information based on the position and time.
  • the probe information processing device collects probe information transmitted from a plurality of vehicles.
  • the information transmitted from the vehicle to the server may be discontinuous because the communication between the vehicle and the server is wireless.
  • the vehicle travels in an area where communication is poor for example, a tunnel
  • the position information acquired in the area is not transmitted to the server.
  • the continuity of the position information stored in the server is lost.
  • the Japanese Patent Laid-Open No. 2011-154494 presupposes that the communication between the vehicle-mounted device arranged in each vehicle and the probe information processing device is established. Therefore, in an area where the communication state between the vehicle-mounted device and the probe information processing device is poor, the position information acquired by the vehicle-mounted device is not stored in the probe information processing device. Therefore, the continuity of the position information cannot be maintained.
  • the position information stored in the server has continuity only when the vehicle in which the communication module is installed is driving in an area with good communication conditions.
  • the purpose of the present invention is to improve the continuity of the position information stored in the server regardless of the presence or absence of the communication module and the communication state.
  • One aspect of the present invention is A means for acquiring subject information regarding the subject identified from the images of the subject captured by each of the plurality of image capturing devices, position information regarding the position of the subject, and capturing time information regarding the capturing time of the image.
  • FIG. 1 is a block diagram showing the configuration of the information processing system of this embodiment.
  • FIG. 2 is a functional block diagram of the information processing system of FIG.
  • the information processing system 1 includes a client device 10, a server 30, and an image acquisition device 50.
  • the client device 10, the server 30, and the image acquisition device 50 are connected via a network (for example, the Internet or an intranet) NW.
  • NW for example, the Internet or an intranet
  • the client device 10 is an example of an information processing device that transmits a request to the server 30.
  • the client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.
  • the server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request transmitted from the client device 10.
  • the server 30 is, for example, a web server.
  • the image acquisition device 50 is configured to acquire an image.
  • the image acquisition device 50 is, for example, a vehicle-mounted camera unit.
  • the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, and a communication interface 14.
  • the storage device 11 is configured to store programs and data.
  • the storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs.
  • -OS Operating System
  • Application for example, web browser
  • the data includes, for example, the following data.
  • -Database referred to in information processing-Data obtained by executing information processing that is, execution result of information processing
  • the processor 12 is configured to realize the function of the client device 10 by activating a program stored in the storage device 11.
  • the processor 12 is an example of a computer.
  • the input / output interface 13 is configured to acquire a user instruction from an input device connected to the client apparatus 10 and output information to an output device connected to the client apparatus 10.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 14 is configured to control communication between the client device 10 and the server 30.
  • the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.
  • the storage device 31 is configured to store programs and data.
  • the storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs.
  • -OS program-Application program that executes information processing
  • the data includes, for example, the following data.
  • ⁇ Database referred to in information processing ⁇ Results of information processing execution
  • the processor 32 is configured to realize the function of the server 30 by activating a program stored in the storage device 31.
  • the processor 32 is an example of a computer.
  • the input / output interface 33 is configured to acquire a user instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 34 is configured to control communication between the server 30 and the client device 10 and the image acquisition device 50.
  • the image acquisition device 50 includes a storage device 51, a processor 52, an input / output interface 53, a communication interface 54, a camera 55, and a position measurement device 56.
  • the storage device 51 is configured to store programs and data.
  • the storage device 51 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).
  • the programs include, for example, the following programs.
  • -OS Operating System
  • program-Application program that executes information processing (for example, processing of transmitting an image captured by the camera 55 to the server 30)
  • the data includes, for example, the following data.
  • -Database referred to in information processing-Data obtained by executing information processing that is, execution result of information processing
  • the processor 52 is configured to realize the function of the image acquisition device 50 by activating a program stored in the storage device 51.
  • the processor 52 is an example of a computer.
  • the input / output interface 53 is configured to acquire a user instruction from an input device connected to the image acquisition apparatus 50 and output information to an output device connected to the image acquisition apparatus 50.
  • the input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
  • the output device is, for example, a display.
  • the communication interface 54 is configured to control communication between the image acquisition device 50 and the server 30.
  • the camera 55 is configured to take an image.
  • the position measurement device 56 is configured to acquire position information regarding the position of the image acquisition device 50.
  • the position measuring device 56 is, for example, a GPS (Global Positioning System) receiver.
  • FIG. 3 is an explanatory diagram of the outline of the present embodiment.
  • the image acquisition device 50 of FIG. 2 is arranged in each of the plurality of mobile units MB1 and MB2 of FIG. 3A.
  • the mobile bodies MB1 and MB2 are, for example, at least one of the following. ⁇ Motorcycles ⁇ Automobiles ⁇ Bicycles ⁇ Railways ⁇ Personal mobility ⁇ Carts ⁇ Drones ⁇ People ⁇ Animals
  • the position of the subject TA1 changes with the passage of time.
  • the subject TA1 is, for example, at least one of the following. ⁇ Mobile objects, articles whose position is displaced by mechanical energy (eg containers)
  • the image acquisition device 50 arranged in the moving body MB1 acquires an image of the subject TA1 located at the position POS1 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID for identifying the subject TA1 by analyzing the image of the subject TA1.
  • the image acquisition device 50 arranged in the moving body MB2 acquires an image of the subject TA1 located at the position POS2 at time T2.
  • the image acquisition device 50 specifies the subject identification information MBID for identifying the subject TA2 by analyzing the image of the subject TA2.
  • the server 30 accumulates the position information (X1, Y1) at time T1 and the position information (X2, Y2) at time T2.
  • the server 30 synthesizes the position information (X1, Y1) at the time T1 and the position information (X2, Y2) at the time T2 to obtain the subject TA1 from the time T1 to the time T2. Specify the locus of movement of.
  • the server 30 stores the combination of the image of the subject TA1 captured by the plurality of image acquisition devices 50 and the position information.
  • the server 30 stores the combination of the image of the subject TA1 captured by the plurality of image acquisition devices 50 and the position information.
  • the subject TA1 cannot transmit the position information to the server 30 (for example, when the module that transmits the position information to the subject TA1 is not arranged, or the communication state of the module arranged on the subject TA1 is bad).
  • the continuity of the position information accumulated in the server 30 is improved, so that the server 30 can specify the trajectory of the movement of the subject TA1.
  • FIG. 4 is a diagram showing a data structure of the subject information database of this embodiment.
  • the subject information database of FIG. 4 stores subject information regarding the subject.
  • the subject information database includes a “subject ID” field, a “subject name” field, and a “subject attribute” field. Each field is associated with each other.
  • the subject ID is stored in the “subject ID” field.
  • the subject ID is an example of subject identification information that identifies a subject.
  • the subject ID is, for example, a car number written on a number plate attached to the four-wheeled vehicle.
  • the subject attribute information regarding the attributes of the subject is stored in the “subject attribute” field.
  • the “subject attribute” field stores a plurality of subfields (“maker” field and “type” field).
  • the “maker” field stores information (for example, text) related to the maker of the subject (for example, the manufacturer of the automobile).
  • the "type” field stores information about the type of subject (for example, the type of automobile).
  • FIG. 5 is a diagram showing the data structure of the image information database of this embodiment.
  • the image information database of FIG. 5 stores image information regarding the image of the subject.
  • the image information database includes an “image ID” field, a “shooting time” field, a “position” field, and a “subject ID” field. Each field is associated with each other.
  • the image ID is stored in the “image ID” field.
  • the image ID is an example of image identification information that identifies an image.
  • the "shooting time” field stores shooting time information related to the shooting time of the image.
  • the “position” field stores position information regarding the position where the image was captured.
  • the subject ID of the subject included in the image is stored in the “subject ID” field.
  • FIG. 6 is a diagram showing the data structure of the movement log information database of this embodiment.
  • the movement log information database in FIG. 6 stores movement log information regarding a movement log of a subject.
  • the movement log information database includes a "movement log ID” field, a "shooting time” field, and a "position” field. Each field is associated with each other.
  • the movement log information database is associated with the subject ID.
  • the migration log ID is stored in the "migration log ID" field.
  • the movement log ID is an example of movement log identification information for identifying a movement log.
  • the "shooting time” field stores shooting time information related to the shooting time of the image.
  • the “position” field stores position information regarding the position where the image was captured.
  • FIG. 7 is a sequence diagram of the position information acquisition process of this embodiment.
  • the image acquisition device 50 executes image acquisition (S150). Specifically, as shown in FIG. 3A, the camera 55 of the image acquisition device 50 arranged in the moving body MB captures an image of the subject TA.
  • the position measurement device 56 measures position information regarding the position of the image acquisition device 50. Since the image acquisition device 50 is arranged in the moving body MB, the position information indicates the position of the moving body MB when step S150 is executed.
  • the processor 52 acquires an image from the camera 55 and also acquires position information from the position measuring device 56 via the input / output interface 53.
  • the image acquisition device 50 identifies a subject (S151). Specifically, the processor 52 specifies the subject information regarding the subject TA included in the image by performing image analysis on the image captured in step S150.
  • the specified subject information is at least one of the following, for example. ⁇ Subject identification information about the subject (for example, the vehicle number shown on the number plate of the four-wheeled vehicle) ⁇ Subject maker ⁇ Subject type
  • the image acquisition device 50 executes an update request (S152). Specifically, the processor 52 transmits the update request data to the server 30.
  • the update request data includes the following information. -Position information acquired in step S150-Subject information specified in step S151-Information regarding execution date and time of step S150 (that is, shooting time information)
  • the server 30 updates the database (S130). Specifically, the processor 32 adds a new record to the mobile body log information database (FIG. 6) associated with the subject information included in the update request data. The following information is stored in each field of the new record. A new movement log ID is stored in the "movement log ID” field. The shooting time information included in the update request data is stored in the “shooting time” field. The position information contained in the update request data is stored in the "position" field.
  • FIG. 8 is a flowchart of the movement log generation process of this embodiment.
  • FIG. 9 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • the client device 10 receives a user instruction (S210). Specifically, the processor 12 displays the screen P20 (FIG. 9) on the display.
  • the screen P20 includes an operation object B200 and field objects F200a and F200b.
  • the field object F200a is an object that receives a user instruction for designating a target subject ID of a subject TA1 (FIG. 3) for which a movement log is to be generated.
  • the field object F200b is an object that receives a user instruction for designating a target period for which a movement log is to be generated.
  • the operation object B200 is an object that receives a user instruction for executing the log request (S211).
  • the client device 10 executes a log request (S211). Specifically, when the user inputs a user instruction to the field objects F200a and F200b and operates the operation object B200, the processor 12 transmits the log request data to the server 30.
  • the log request data includes the following information. -Target subject ID input to the field object F200a -Target period entered in the field object F200b
  • the server 30 executes the movement log generation (S230). Specifically, the processor 32 refers to the “shooting time” field of the movement log information database (FIG. 6) associated with the target subject ID included in the log request data, and refers to the target period included in the log request data. Identify the applicable target record. The processor 32 refers to the information in the “position” field of the target record to generate movement log information regarding a temporal change in the position of the subject TA1 (hereinafter referred to as “movement log”).
  • movement log a temporal change in the position of the subject TA1
  • the server 30 executes a log response (S231). Specifically, the processor 32 transmits the log response data to the client device 10.
  • the log response data includes the movement log information generated in step S230.
  • the client device 10 presents a movement log (S212). Specifically, the processor 12 displays the screen P21 (FIG. 9) on the display.
  • the screen P21 includes a display object A210.
  • the image object IMG210 is displayed on the display object A210.
  • the display object A210 represents the locus of movement corresponding to the movement log information drawn on the map image (that is, the locus of movement of the subject TA1 during the target period).
  • the server 30 stores the combination of the image of the subject TA1 captured by the plurality of image acquisition devices 50 and the position information.
  • the server 30 stores the combination of the image of the subject TA1 captured by the plurality of image acquisition devices 50 and the position information.
  • Modification 1 is an example of specifying the distribution of the positions of the subject.
  • FIG. 10 is an explanatory diagram of the outline of the first modification.
  • the image acquisition device 50 of FIG. 2 is arranged in each of the plurality of mobile units MB1 and MB2 of FIG. 10A.
  • the positions of the subjects TA1 and TA2 change over time.
  • the image acquisition device 50 arranged in the moving body MB1 acquires an image of the subject TA1 located at the position POS1 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA1 by analyzing the image of the subject TA1.
  • the image acquisition device 50 arranged in the moving body MB2 acquires an image of the subject TA2 located at the position POS2 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA2 by analyzing the image of the subject TA2.
  • the position information of the subjects TA1 and TA2 at time T1 is stored in the server 30.
  • the server 30 combines the position information (X1, Y1) of the subject TA1 at time T1 and the position information (X2, Y2) of the subject TA2 at time T1 to generate the position information at time T1.
  • the distribution of the positions of the plurality of subjects TA1 to TA2 is specified.
  • FIG. 11 is a flowchart of the position distribution generation process of the first modification.
  • FIG. 12 is a diagram showing an example of a screen displayed in the information processing of FIG.
  • the client device 10 receives a user instruction (S310). Specifically, the processor 12 displays the screen P30 (FIG. 12) on the display.
  • the screen P30 includes an operation object B300 and field objects F300a and F300b.
  • the field object F300a is an object that receives a user instruction for specifying subject information (for example, vehicle type) of a subject for which position distribution is to be generated.
  • the field object F300b is an object that receives a user instruction for designating a target period for which the position distribution is to be generated.
  • the operation object B300 is an object that receives a user instruction for executing the distribution request (S311).
  • the client device 10 executes a distribution request (S311). Specifically, when the user inputs a user instruction to the field objects F300a and F300b and operates the operation object B300, the processor 12 transmits the distribution request data to the server 30.
  • the distribution request data includes the following information. -Subject information input to the field object F300a-Target period input to the field object F300b
  • the server 30 executes position distribution generation (S330).
  • the processor 32 refers to the subject information database (FIG. 4) and identifies at least one subject ID associated with the subject information included in the distribution request data.
  • the processor 32 refers to the “shooting time” field of the movement log information database (FIG. 6) associated with the identified subject ID, and identifies the target record corresponding to the target period included in the log request data.
  • the processor 32 identifies the position of the subject by referring to the information in the “position” field of the target record.
  • the processor 32 generates position distribution information regarding the distribution of the position of the subject corresponding to the subject information input to the field object F301a and the subject information input to the field object F300a.
  • the server 30 executes the distribution response (S331). Specifically, the processor 32 transmits the distribution response data to the client device 10.
  • the distribution response data includes the position distribution information generated in step S330.
  • the client device 10 presents the position distribution (S312). Specifically, the processor 12 displays the screen P31 (FIG. 12) on the display.
  • the screen P31 includes a display object A310.
  • the image object IMG310 is displayed on the display object A310.
  • the display object A310 represents the distribution of the positions of the subjects drawn on the map image (that is, the distribution of the positions of the subjects corresponding to the subject attributes in the target period designated by the user).
  • the server 30 stores a combination of images and position information of a plurality of subjects TA1 and TA2. As a result, even when the plurality of subjects TA1 to TA2 cannot transmit the position information to the server 30, the continuity of the position information accumulated in the server 30 is improved. It is possible to specify the distribution of the positions.
  • Modification 2 is an example in which the moving body and the subject are people.
  • the first example of the second modification is an example in which the image acquisition device 50 carried by a person photographs a subject (for example, a person).
  • FIG. 13 is an explanatory diagram of the outline of the first example of the second modification.
  • Each of the plurality of persons HU1 to HU2 has the image acquisition device 50 of FIG.
  • the image acquisition device 50 possessed by the person HU1 acquires an image of the subject TA1 located at the position POS1 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA1 by analyzing the image of the subject TA1.
  • the subject identification information MBID is, for example, at least one of the following. -Subject ID that identifies the subject (for example, insurance card number) ⁇ Subject's gender ⁇ Subject's age
  • the image acquisition device 50 carried by the person HU2 acquires an image of the subject TA1 located at the position POS2 at time T2.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA2 by analyzing the image of the subject TA2.
  • the server 30 accumulates the position information (X1, Y1) at time T1 and the position information (X2, Y2) at time T2.
  • the server 30 synthesizes the position information (X1, Y1) at time T1 and the position information (X2, Y2) at time T2 to specify the trajectory of movement of the subject TA1 from time T1 to time T2. ..
  • the server 30 stores the combination of the image and the position information of the subject TA1 captured by the plurality of image acquisition devices 50 possessed by the plurality of persons HU1 to HU2. Accordingly, even when the subject TA1 cannot transmit the position information to the server 30, the continuity of the position information accumulated in the server 30 is improved, and therefore the server 30 specifies the trajectory of the movement of the subject TA1. You can
  • the first example of the modified example 2 is also applicable when the subject TA1 is other than a person (for example, a moving body).
  • the plurality of people HU1 to HU2 in FIG. 13B each have the image acquisition device 50 in FIG.
  • the positions of the subjects TA1 and TA2 change over time.
  • the image acquisition device 50 possessed by the person HU1 acquires an image of the subject TA1 located at the position POS1 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA1 by analyzing the image of the subject TA1.
  • the image acquisition device 50 carried by the person HU2 acquires an image of the subject TA2 located at the position POS2 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA2 by analyzing the image of the subject TA2.
  • the position information of the subjects TA1 and TA2 at time T1 is stored in the server 30.
  • the server 30 synthesizes the position information (X1, Y1) of the subject TA1 at time T1 and the position information (X2, Y2) of the subject TA2 at time T1 so as to combine the plurality of subjects TA1 to TA2 at time T1. Identify the location distribution.
  • the server 30 stores the combination of the image and the position information of the subject TA1 captured by the plurality of image acquisition devices 50 possessed by the plurality of persons HU1 to HU2.
  • the server 30 can distribute the positions of the subjects TA1 and TA2. Can be specified.
  • the plurality of image acquisition devices 50 may be attached to an animal instead of being carried by a person.
  • the subjects TA1 and TA2 may be animals instead of people.
  • the subject information is at least one of the following. -Subject ID that identifies the subject (for example, insurance card number) ⁇ Subject's gender ⁇ Subject's age ⁇ Subject's species
  • FIG. 14 is an explanatory diagram of the outline of the second example of the second modification.
  • a plurality of mobile units MB1 and MB2 are running in a specific area (eg, factory).
  • the image acquisition device 50 of FIG. 2 is arranged in each of the plurality of mobile bodies MB1 and MB2.
  • the subjects TA1 and TA2 are, for example, containers.
  • the subjects TA1 and TA2 are transported by a transport device (for example, a belt conveyor) arranged in the area. Therefore, the subjects TA1 and TA2 move with the passage of time.
  • a transport device for example, a belt conveyor
  • the image acquisition device 50 arranged in the moving body MB1 acquires an image of the subject TA1 located at the position POS1 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA1 by analyzing the image of the subject TA1.
  • the image acquisition device 50 arranged in the moving body MB2 acquires an image of the subject TA1 located at the position POS2 at time T2.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA2 by analyzing the image of the subject TA2.
  • the server 30 accumulates the position information (X1, Y1) at time T1 and the position information (X2, Y2) at time T2.
  • the server 30 synthesizes the position information (X1, Y1) at time T1 and the position information (X2, Y2) at time T2 to specify the trajectory of movement of the subject TA1 from time T1 to time T2. ..
  • the server 30 stores the combination of the image and the position information of the subject TA1 captured by the plurality of image acquisition devices 50 arranged in the plurality of mobile bodies MB1 and MB2. Accordingly, even when the subject TA1 cannot transmit the position information to the server 30, the continuity of the position information accumulated in the server 30 is improved, and therefore the server 30 specifies the trajectory of the movement of the subject TA1. You can
  • a plurality of mobile units MB1 and MB2 are running in a specific area (eg, factory).
  • the image acquisition device 50 of FIG. 2 is arranged in each of the plurality of mobile bodies MB1 and MB2.
  • the subjects TA1 and TA2 are, for example, containers.
  • the subjects TA1 and TA2 are transported by a transport device (for example, a belt conveyor) arranged in the area. Therefore, the subjects TA1 and TA2 move with the passage of time.
  • a transport device for example, a belt conveyor
  • the image acquisition device 50 arranged in the moving body MB1 acquires an image of the subject TA1 located at the position POS1 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA1 by analyzing the image of the subject TA1.
  • the image acquisition device 50 arranged in the moving body MB2 acquires an image of the subject TA2 located at the position POS2 at time T1.
  • the image acquisition device 50 specifies the subject identification information MBID regarding the subject TA2 by analyzing the image of the subject TA2.
  • the position information of the subjects TA1 and TA2 at time T1 is stored in the server 30.
  • the server 30 synthesizes the position information (X1, Y1) of the subject TA1 at time T1 and the position information (X2, Y2) of the subject TA2 at time T1 so as to combine the plurality of subjects TA1 to TA2 at time T1. Identify the location distribution.
  • the server 30 stores a combination of images and position information of the subjects TA1 to TA2 captured by the plurality of image acquisition devices 50 arranged in the plurality of mobile bodies MB1 to MB2.
  • the server 30 can distribute the positions of the subjects TA1 and TA2. Can be specified.
  • the second example of the modified example 2 is also applicable to the case where a person owns the image acquisition device 50 as in the first example.
  • Modification 3 is an example in which the server 30 specifies subject information.
  • FIG. 15 is a flowchart of the position information acquisition process of the third modification.
  • the image acquisition device 50 of the third modification executes the update request (S450) after step S150.
  • the processor 52 transmits the update request data to the server 30.
  • the update request data includes the following information. -Position information acquired in step S150-Information regarding execution date and time of step S150 (that is, shooting time information) ⁇ Image acquired in step S150
  • the server 30 executes the identification of the subject (S450). Specifically, the processor 32 specifies the subject information regarding the subject TA included in the image by performing image analysis on the image included in the update request data.
  • Modification 4 will be described. Modification 4 is an example in which the image acquisition device 50 acquires a subject image from above the subject TA.
  • the image acquisition device 50 of the modification 4 is arranged in at least one of the following, for example. -Artificial satellite-A flying object that flies above the subject TA (for example, an aircraft, helicopter, or drone) ⁇ Structure higher than the subject TA
  • the code image is arranged at a position (for example, the roof of the vehicle) that can be photographed from above the moving body MB.
  • the code image has a pixel size recognizable by the image acquisition device 50, a pixel value, and a wavelength of light (that is, the resolution of the code image, depending on the resolution of the camera 55 of the image acquisition device 50 arranged on the artificial satellite). Color and wavelength of light).
  • the wavelength of light does not have a pixel value, and therefore it is preferably a wavelength corresponding to a wavelength band recognizable by the image acquisition device 50 inside and outside the visible light region.
  • Subject information (for example, subject identification information, subject manufacturer, and subject type) is embedded in the code image.
  • the code image includes at least one of the following, for example. ⁇ One-dimensional code ⁇ Two-dimensional code ⁇ Character ⁇ Symbol
  • FIG. 16 is a flowchart of the position information acquisition process of the modified example 4.
  • the image acquisition device 50 executes image acquisition (S550). Specifically, the camera 55 of the image acquisition device 50 arranged in at least one of the artificial satellite, the flying body flying above the subject TA, and the structure higher than the subject TA is above the subject TA (that is, An image of the subject TA is taken from space or above the subject TA).
  • the position measurement device 56 measures position information regarding the position of the image acquisition device 50. Since the image acquisition device 50 is arranged on the artificial satellite, the position information indicates the position of the image acquisition device 50 when step S150 is executed.
  • the processor 52 acquires an image from the camera 55 and also acquires position information from the position measuring device 56 via the input / output interface 53.
  • step S550 the image acquisition device 50 executes position information calculation (S551).
  • the processor 52 in the first example of step S551 uses the position information (eg, position information regarding the position of the intersection of the normal line of the satellite and the ground) acquired in step S550, the information regarding the altitude of the satellite, and the image.
  • the position information regarding the position of the subject TA is calculated with reference to the included distortion of the code image.
  • image position information regarding the position of the image obtained in step S550 is associated with the image in the image information database.
  • the processor 52 refers to the image information database and searches for a code image included in the image obtained in step S551.
  • the processor 52 calculates the position information regarding the position of the subject TA with reference to the image position information associated with the image including the code image corresponding to the search result.
  • step S551 the image acquisition device 50 executes the identification of the subject (S151) as in the present embodiment.
  • the image acquisition device 50 executes an update request (S552). Specifically, the processor 52 transmits the update request data to the server 30.
  • the update request data includes the following information. Position information calculated in step S551 (that is, information about the position of the subject TA) -Subject information specified in step S151-Information regarding the execution date and time of step S550 (that is, shooting time information)
  • step S552 the server 30 updates the database (S130) as in the present embodiment.
  • the image acquisition device 50 is arranged in at least one of the artificial satellite, the flying object flying above the subject TA, and the structure higher than the subject TA (that is, the image acquisition device 50 is Even when the subject TA is photographed from above the subject TA), the same effect as this embodiment can be obtained.
  • the first aspect of this embodiment is A means for acquiring subject information regarding the subject identified from the images of the subject captured by each of the plurality of image acquisition devices 50, position information regarding the position of the subject, and time information regarding the image capturing time of the image (for example, step A processor 32) for executing S130, A unit (for example, the processor 32 that executes step S130) that stores the subject information, the position information, and the shooting time information in association with each other,
  • the information processing apparatus includes means (for example, the processor 32 that executes step 230) that specifies the position of the subject based on the combination of the position information and the shooting time information associated with the subject information.
  • the server 30 stores the combination of the image of the subject TA1 captured by the plurality of image acquisition devices 50 and the position information.
  • the server 30 can specify the position of the subject TA1.
  • the second aspect of the present embodiment is A means for acquiring an image of the subject captured by each of the plurality of image acquisition devices 50, position information regarding the position of the subject, and capturing time information regarding the capturing time of the image (for example, the processor 32 that executes step S430).
  • a unit for example, the processor 32 that executes step S430
  • a unit for example, the processor 32 that executes step S130
  • An information processing apparatus for example, a server 30
  • a unit for example, a processor 32 that executes step S230
  • the server 30 stores a combination of images and position information of the plurality of subjects TA1 and TA2. Thereby, even if the plurality of subjects TA1 to TA2 cannot transmit the position information to the server 30, the server 30 can specify the positions of the plurality of subjects TA1 to TA2.
  • the third aspect of the present embodiment is
  • the specifying unit specifies a locus of movement of the subject based on a history of position information and shooting time information associated with the subject information, It is an information processing device.
  • the third aspect it is possible to specify the locus of movement of the subject whose position information cannot be transmitted.
  • the fourth aspect of the present embodiment is
  • the specifying unit specifies a distribution of positions of a plurality of subjects based on a history of position information and shooting time information associated with the subject information, It is an information processing device.
  • the fourth aspect it is possible to specify the distribution of the positions of the subjects whose position information cannot be transmitted.
  • the fifth aspect of the present embodiment is An information processing system 1 including an image acquisition device 50 arranged in each of a plurality of moving bodies and a server 30,
  • the image acquisition device 50 A means for acquiring an image of the subject (for example, the processor 52 that executes step S150), A unit (for example, the processor 52 that executes step S151) for specifying the subject identification information for identifying the subject by analyzing the image is provided, A unit (for example, the processor 52 that executes step S152) that transmits the subject identification information, the position information regarding the position of the subject, and the shooting time information regarding the shooting time when the image is shot to the server,
  • the server 30 A unit (for example, the processor 32 that executes step S130) that stores the subject identification information transmitted from the image acquisition device 50, the position information, and the shooting time information in association with each other, A unit (for example, the processor 32 that executes step S231) that specifies the trajectory of the movement of the subject based on the history of the position information and the shooting time information associated with the subject identification information is provided
  • the server 30 stores a combination of the image of the subject TA1 captured by the plurality of image acquisition devices 50 and the position information.
  • the server 30 can specify the trajectory of the movement of the subject TA1.
  • the sixth aspect of the present embodiment is An information processing system 1 comprising: an artificial satellite, a flying body flying above an object TA, and an image acquisition device 50 arranged in at least one of structures higher than the object TA; and a server 30.
  • the image acquisition device 50 A means for acquiring an image of the subject (for example, the processor 52 executing step S550), A means for calculating position information relating to the position of the subject with reference to the image (for example, the processor 52 executing step S551), A unit (for example, the processor 52 that executes step S151) for specifying the subject identification information for identifying the subject by analyzing the image is provided, A unit (for example, the processor 52 that executes step S552) that transmits the subject identification information, the position information, and the shooting time information regarding the shooting time when the image is shot to the server, The server 30 A unit (for example, the processor 32 that executes step S130) that stores the subject identification information transmitted from the image acquisition device 50, the position information, and the shooting time information in association with each other, A unit
  • the image acquisition device 50 is arranged on an artificial satellite or a flying object (that is, when the image acquisition device 50 captures the subject TA from above the subject TA), the same as in the first aspect. The effect of is obtained.
  • the seventh aspect of the present embodiment is It is a program for causing a computer (for example, the processor 32) to function as each unit described in any of the above.
  • the storage device 11 may be connected to the client device 10 via the network NW.
  • the storage device 31 may be connected to the server 30 via the network NW.
  • Each of the above information processing steps can be executed by either the client device 10 or the server 30.
  • the present embodiment the example in which the position information indicates the position in the two-dimensional space has been shown, but the present embodiment is also applicable to the example in which the position information indicates the position in the two-dimensional space.
  • the image acquisition device 50 may take any form as long as the position changes.
  • the image acquisition device 50 may be attached to a person or an animal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

情報処理装置は、複数の画像取得装置のそれぞれによって撮影された被写体の画像から特定された被写体に関する被写体情報と、被写体の位置に関する位置情報と、画像の撮影時間に関する時間情報と、を取得する手段を備え、被写体情報と、位置情報と、撮影時間情報と、を関連付けて記憶する手段を備え、被写体情報に関連付けられた位置情報及び撮影時間情報の組合せに基づいて、被写体の位置を特定する手段を備える。

Description

情報処理装置、情報処理システム、及び、プログラム
 本発明は、情報処理装置、情報処理システム、及び、プログラムに関する。
 近年、サーバと通信可能な通信モジュールを備えるコネクテッドカーに注目が集まっている。コネクテッドカーは、車両に関する様々な情報をサーバに送信する。その結果、サーバには、コネクテッドカーから送信された情報が蓄積される。コネクテッドカーからサーバに送信される情報の1つに、車両の位置情報がある。サーバに車両毎の位置情報を蓄積することにより、車両の移動経路を特定することができる。
 例えば、特開2011-154494号公報の車載機は、車両の走行中に通過地点の位置と時刻を離散的に記録し、且つ、位置及び時間に基づいてプローブ情報を作成する。プローブ情報処理装置は、複数の車両から送信されるプローブ情報を収集する。
 サーバに蓄積される位置情報から車両の移動経路を特定するためには、位置情報の連続性が求められる。
 しかし、通信モジュールが配置されていない車両は、位置情報をサーバに送信することができない。
 仮に、通信モジュールが車両に配置されていたとしても、車両とサーバとの通信は無線通信であるため、車両からサーバに送信される情報は不連続になる場合がある。特に、車両が通信状態の悪いエリア(例えば、トンネル)を走行する場合、当該エリア内で取得された位置情報はサーバに送信されない。その結果、サーバに蓄積される位置情報の連続性が損なわれる。
 特開2011-154494号公報は、各車両に配置された車載器とプローブ情報処理装置との通信が確立していることを前提としている。そのため、車載器とプローブ情報処理装置との間の通信状態が悪いエリアでは、プローブ情報処理装置には、車載器によって取得された位置情報は蓄積されない。したがって、位置情報の連続性が保たれない。
 つまり、従来、サーバに蓄積される位置情報は、通信モジュールが配置された車両が通信状態の良いエリアを走行している場合に限り連続性を有する。
 本発明の目的は、通信モジュールの有無及び通信状態に関わらず、サーバに蓄積される位置情報の連続性を向上させることである。
 本発明の一態様は、
 複数の画像取得装置のそれぞれによって撮影された被写体の画像から特定された前記被写体に関する被写体情報と、前記被写体の位置に関する位置情報と、前記画像の撮影時間に関する撮影時間情報と、を取得する手段を備え、
 前記被写体情報と、前記位置情報と、前記撮影時間情報と、を関連付けて記憶する手段を備え、
 前記被写体情報に関連付けられた位置情報及び撮影時間情報の組合せに基づいて、前記被写体の位置を特定する手段を備える、
情報処理装置である。
 本発明によれば、通信モジュールの有無及び通信状態に関わらず、サーバに蓄積される位置情報の連続性を向上させることができる。
本実施形態の情報処理システムの構成を示すブロック図である。 図1の情報処理システムの機能ブロック図である。 本実施形態の概要の説明図である。 本実施形態の被写体情報データベースのデータ構造を示す図である。 本実施形態の画像情報データベースのデータ構造を示す図である。 本実施形態の移動ログ情報データベースのデータ構造を示す図である。 本実施形態の位置情報取得処理のシーケンス図である。 本実施形態の移動ログ生成処理のフローチャートである。 図8の情報処理において表示される画面例を示す図である。 変形例1の概要の説明図である。 変形例1の位置分布生成処理のフローチャートである。 図11の情報処理において表示される画面例を示す図である。 変形例2の第1例の概要の説明図である。 変形例2の第2例の概要の説明図である。 変形例3の位置情報取得処理のフローチャートである。 変形例4の位置情報取得処理のフローチャートである。
 以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
(1)情報処理システムの構成
 情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。図2は、図1の情報処理システムの機能ブロック図である。
 図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30と、画像取得装置50と、を備える。
 クライアント装置10、サーバ30、及び、画像取得装置50は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
 クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
 サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
 画像取得装置50は、画像を取得するように構成される。画像取得装置50は、例えば、車載カメラユニットである。
(1-1)クライアント装置の構成
 クライアント装置10の構成について説明する。
 図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
 記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
 ・OS(Operating System)のプログラム
 ・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
 プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
 入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
 通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
(1-2)サーバの構成
 サーバ30の構成について説明する。
 図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
 記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
 ・OSのプログラム
 ・情報処理を実行するアプリケーションのプログラム
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理の実行結果
 プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
 入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
 通信インタフェース34は、サーバ30とクライアント装置10及び画像取得装置50との間の通信を制御するように構成される。
(1-3)画像取得装置の構成
 画像取得装置50の構成について説明する。
 図2に示すように、画像取得装置50は、記憶装置51と、プロセッサ52と、入出力インタフェース53と、通信インタフェース54と、カメラ55と、位置計測装置56と、を備える。
 記憶装置51は、プログラム及びデータを記憶するように構成される。記憶装置51は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
 プログラムは、例えば、以下のプログラムを含む。
 ・OS(Operating System)のプログラム
 ・情報処理(例えば、カメラ55によって撮影された画像をサーバ30に送信する処理)を実行するアプリケーションのプログラム
 データは、例えば、以下のデータを含む。
 ・情報処理において参照されるデータベース
 ・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
 プロセッサ52は、記憶装置51に記憶されたプログラムを起動することによって、画像取得装置50の機能を実現するように構成される。プロセッサ52は、コンピュータの一例である。
 入出力インタフェース53は、画像取得装置50に接続される入力デバイスからユーザの指示を取得し、かつ、画像取得装置50に接続される出力デバイスに情報を出力するように構成される。
 入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
 出力デバイスは、例えば、ディスプレイである。
 通信インタフェース54は、画像取得装置50とサーバ30との間の通信を制御するように構成される。
 カメラ55は、画像を撮影するように構成される。
 位置計測装置56は、画像取得装置50の位置に関する位置情報を取得するように構成される。位置計測装置56は、例えば、GPS(Global Positioning System)受信機である。
(2)実施形態の概要
 本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
 図3Aの複数の移動体MB1~MB2のそれぞれには、図2の画像取得装置50が配置される。
 移動体MB1~MB2は、例えば、以下の少なくとも1つである。
 ・二輪車
 ・四輪車
 ・自転車
 ・鉄道車両
 ・パーソナルモビリティ
 ・カート
 ・ドローン
 ・人
 ・動物
 被写体TA1の位置は、時間の経過に伴って変化する。
 被写体TA1は、例えば、以下の少なくとも1つである。
・移動体
・機械エネルギーによって位置が変位する物品(例えば、コンテナ)
 移動体MB1に配置された画像取得装置50は、時刻T1において、位置POS1に位置する被写体TA1の画像を取得する。画像取得装置50は、被写体TA1の画像を解析することによって被写体TA1を識別する被写体識別情報MBIDを特定する。画像取得装置50は、被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X1,Y1)と、画像撮影時刻T1と、をサーバ30に送信する。
 移動体MB2に配置された画像取得装置50は、時刻T2において、位置POS2に位置する被写体TA1の画像を取得する。画像取得装置50は、被写体TA2の画像を解析することによって被写体TA2を識別する被写体識別情報MBIDを特定する。画像取得装置50は、当該被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X2,Y2)と、画像撮影時刻T2と、をサーバ30に送信する。
 その結果、サーバ30には、時刻T1における位置情報(X1,Y1)と、時刻T2における位置情報(X2,Y2)と、が蓄積される。
 図3Bに示すように、サーバ30は、時刻T1における位置情報(X1,Y1)と、時刻T2における位置情報(X2,Y2)と、を合成することにより、時刻T1から時刻T2までの被写体TA1の移動の軌跡を特定する。
 このように、本実施形態によれば、サーバ30には、複数の画像取得装置50によって撮影された被写体TA1の画像及び位置情報の組合せが蓄積される。これにより、被写体TA1がサーバ30に位置情報を送信できない場合(例えば、被写体TA1に位置情報を送信するモジュールが配置されていない場合、又は、被写体TA1に配置された当該モジュールの通信状態が悪い場合)であっても、サーバ30に蓄積される位置情報の連続性が向上するので、サーバ30は、被写体TA1の移動の軌跡を特定することができる。
(3)データベース
 本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3-1)被写体情報データベース
 本実施形態の被写体情報データベースについて説明する。図4は、本実施形態の被写体情報データベースのデータ構造を示す図である。
 図4の被写体情報データベースには、被写体に関する被写体情報が格納されている。
 被写体情報データベースは、「被写体ID」フィールドと、「被写体名」フィールドと、「被写体属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
 「被写体ID」フィールドには、被写体IDが格納される。被写体IDは、被写体を識別する被写体識別情報の一例である。被写体IDは、例えば、四輪車に取り付けられたナンバプレートに記載されたカーナンバである。
 「被写体名」フィールドには、被写体の名称に関する情報(例えば、テキスト)が格納される。
 「被写体属性」フィールドには、被写体の属性に関する被写体属性情報が格納される。「被写体属性」フィールドは、複数のサブフィールド(「メーカ」フィールド及び「種類」フィールド)が格納される。
 「メーカ」フィールドには、被写体のメーカ(例えば、四輪車の製造メーカ)に関する情報(例えば、テキスト)が格納される。
 「種類」フィールドには、被写体の種類(例えば、四輪車の車種)に関する情報が格納される。
(3-2)画像情報データベース
 本実施形態の画像情報データベースについて説明する。図5は、本実施形態の画像情報データベースのデータ構造を示す図である。
 図5の画像情報データベースには、被写体の画像に関する画像情報が格納されている。
 画像情報データベースは、「画像ID」フィールドと、「撮影時間」フィールドと、「位置」フィールドと、「被写体ID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
 「画像ID」フィールドには、画像IDが格納される。画像IDは、画像を識別する画像識別情報の一例である。
 「撮影時間」フィールドには、画像の撮影時間に関する撮影時間情報が格納される。
 「位置」フィールドには、画像が撮影された位置に関する位置情報が格納される。
 「被写体ID」フィールドには、画像に含まれる被写体の被写体IDが格納される。
(3-3)移動ログ情報データベース
 本実施形態の移動ログ情報データベースについて説明する。図6は、本実施形態の移動ログ情報データベースのデータ構造を示す図である。
 図6の移動ログ情報データベースには、被写体の移動のログに関する移動ログ情報が格納されている。
 移動ログ情報データベースは、「移動ログID」フィールドと、「撮影時間」フィールドと、「位置」フィールドと、を含む。各フィールドは、互いに関連付けられている。
 移動ログ情報データベースは、被写体IDに関連付けられる。
 「移動ログID」フィールドには、移動ログIDが格納される。移動ログIDは、移動のログを識別する移動ログ識別情報の一例である。
 「撮影時間」フィールドには、画像の撮影時間に関する撮影時間情報が格納される。
 「位置」フィールドには、画像が撮影された位置に関する位置情報が格納される。
(4)情報処理
 本実施形態の情報処理について説明する。
(4-1)位置情報取得処理
 本実施形態の位置情報取得処理について説明する。図7は、本実施形態の位置情報取得処理のシーケンス図である。
 図7に示すように、画像取得装置50は、画像の取得(S150)を実行する。
 具体的には、図3Aに示すように、移動体MBに配置された画像取得装置50のカメラ55は、被写体TAの画像を撮影する。
 位置計測装置56は、画像取得装置50の位置に関する位置情報を計測する。画像取得装置50は、移動体MBに配置されているので、当該位置情報は、ステップS150が実行されたときの移動体MBの位置を示す。
 プロセッサ52は、入出力インタフェース53を介して、カメラ55から画像を取得し、且つ、位置計測装置56から位置情報を取得する。
 ステップS150の後、画像取得装置50は、被写体の特定(S151)を実行する。
 具体的には、プロセッサ52は、ステップS150において撮影された画像に対する画像解析を実行することにより、当該画像に含まれる被写体TAに関する被写体情報を特定する。
 特定される被写体情報は、例えば、以下の少なくとも1つである。
 ・被写体に関する被写体識別情報(例えば、四輪車のナンバプレートに示された車両番号)
 ・被写体のメーカ
 ・被写体の種類
 ステップS151の後、画像取得装置50は、更新リクエスト(S152)を実行する。
 具体的には、プロセッサ52は、更新リクエストデータをサーバ30に送信する。
 更新リクエストデータは、以下の情報を含む。
 ・ステップS150で取得された位置情報
 ・ステップS151で特定された被写体情報
 ・ステップS150の実行日時に関する情報(つまり、撮影時間情報)
 ステップS152の後、サーバ30は、データベースの更新(S130)を実行する。
 具体的には、プロセッサ32は、更新リクエストデータに含まれる被写体情報に関連付けられた移動体ログ情報データベース(図6)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
 ・「移動ログID」フィールドには、新規の移動ログIDが格納される。
 ・「撮影時間」フィールドには、更新リクエストデータに含まれる撮影時間情報が格納される。
 ・「位置」フィールドには、更新リクエストデータに含まれる位置情報が格納される。
(4-2)移動ログ生成処理
 本実施形態の移動ログ生成処理について説明する。図8は、本実施形態の移動ログ生成処理のフローチャートである。図9は、図8の情報処理において表示される画面例を示す図である。
 図8に示すように、クライアント装置10は、ユーザ指示の受付(S210)を実行する。
 具体的には、プロセッサ12は、画面P20(図9)をディスプレイに表示する。
 画面P20は、操作オブジェクトB200と、フィールドオブジェクトF200a~F200bと、を含む。
 フィールドオブジェクトF200aは、移動ログの生成の対象となる被写体TA1(図3)の対象被写体IDを指定するためのユーザ指示を受け付けるオブジェクトである。
 フィールドオブジェクトF200bは、移動ログの生成の対象となる対象期間を指定するためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB200は、ログリクエスト(S211)を実行させるためのユーザ指示を受け付けるオブジェクトである。
 ステップS210の後、クライアント装置10は、ログリクエスト(S211)を実行する。
 具体的には、ユーザがフィールドオブジェクトF200a~F200bにユーザ指示を入力し、且つ、操作オブジェクトB200を操作すると、プロセッサ12は、ログリクエストデータをサーバ30に送信する。ログリクエストデータは、以下の情報を含む。
 ・フィールドオブジェクトF200aに入力された対象被写体ID
 ・フィールドオブジェクトF200bに入力された対象期間
 ステップS211の後、サーバ30は、移動ログの生成(S230)を実行する。
 具体的には、プロセッサ32は、ログリクエストデータに含まれる対象被写体IDに関連付けられた移動ログ情報データベース(図6)の「撮影時間」フィールドを参照して、ログリクエストデータに含まれる対象期間に該当する対象レコードを特定する。
 プロセッサ32は、対象レコードの「位置」フィールドの情報を参照して、被写体TA1の位置の時間変化(以下「移動ログ」という)に関する移動ログ情報を生成する。
 ステップS230の後、サーバ30は、ログレスポンス(S231)を実行する。
 具体的には、プロセッサ32は、ログレスポンスデータをクライアント装置10に送信する。ログレスポンスデータは、ステップS230で生成された移動ログ情報を含む。
 ステップS231の後、クライアント装置10は、移動ログの提示(S212)を実行する。
 具体的には、プロセッサ12は、画面P21(図9)をディスプレイに表示する。
 画面P21は、表示オブジェクトA210を含む。
 表示オブジェクトA210には、画像オブジェクトIMG210が表示される。表示オブジェクトA210は、地図画像上に描画された移動ログ情報に対応する移動の軌跡(つまり、対象期間における被写体TA1の移動の軌跡)を表す。
 本実施形態によれば、サーバ30には、複数の画像取得装置50によって撮影された被写体TA1の画像及び位置情報の組合せが蓄積される。これにより、被写体TA1がサーバ30に位置情報を送信できない場合(例えば、被写体TA1に位置情報を送信するモジュールが配置されていない場合、又は、被写体TA1に配置された当該モジュールの通信状態が悪い場合)であっても、サーバ30に蓄積される位置情報の連続性が向上するので、サーバ30は、被写体TA1の移動の軌跡を特定することができる。
(5)変形例
 本実施形態の変形例について説明する。
(5-1)変形例1
 変形例1について説明する。変形例1は、被写体の位置の分布を特定する例である。
(5-1-1)変形例1の概要
 変形例1の概要について説明する。図10は、変形例1の概要の説明図である。
 図10Aの複数の移動体MB1~MB2のそれぞれには、図2の画像取得装置50が配置される。
 被写体TA1~TA2の位置は、時間の経過に伴って変化する。
 移動体MB1に配置された画像取得装置50は、時刻T1において、位置POS1に位置する被写体TA1の画像を取得する。画像取得装置50は、被写体TA1の画像を解析することによって被写体TA1に関する被写体識別情報MBIDを特定する。画像取得装置50は、被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X1,Y1)と、画像撮影時刻T1と、をサーバ30に送信する。
 移動体MB2に配置された画像取得装置50は、時刻T1において、位置POS2に位置する被写体TA2の画像を取得する。画像取得装置50は、被写体TA2の画像を解析することによって被写体TA2に関する被写体識別情報MBIDを特定する。画像取得装置50は、当該被写体識別情報MBID=TA2と、画像を取得したときの位置情報(X2,Y2)と、画像撮影時刻T1と、をサーバ30に送信する。
 その結果、サーバ30には、時刻T1における被写体TA1~TA2の位置情報が蓄積される。
 図10Bに示すように、サーバ30は、時刻T1における被写体TA1の位置情報(X1,Y1)と、時刻T1における被写体TA2の位置情報(X2,Y2)と、を合成することにより、時刻T1における複数の被写体TA1~TA2の位置の分布を特定する。
(5-1-2)位置分布生成処理
 変形例1の位置分布生成処理について説明する。図11は、変形例1の位置分布生成処理のフローチャートである。図12は、図11の情報処理において表示される画面例を示す図である。
 図11に示すように、クライアント装置10は、ユーザ指示の受付(S310)を実行する。
 具体的には、プロセッサ12は、画面P30(図12)をディスプレイに表示する。
 画面P30は、操作オブジェクトB300と、フィールドオブジェクトF300a~F300bと、を含む。
 フィールドオブジェクトF300aは、位置分布の生成の対象となる被写体の被写体情報(例えば、車種)を指定するためのユーザ指示を受け付けるオブジェクトである。
 フィールドオブジェクトF300bは、位置分布の生成の対象となる対象期間を指定するためのユーザ指示を受け付けるオブジェクトである。
 操作オブジェクトB300は、分布リクエスト(S311)を実行させるためのユーザ指示を受け付けるオブジェクトである。
 ステップS310の後、クライアント装置10は、分布リクエスト(S311)を実行する。
 具体的には、ユーザがフィールドオブジェクトF300a~F300bにユーザ指示を入力し、且つ、操作オブジェクトB300を操作すると、プロセッサ12は、分布リクエストデータをサーバ30に送信する。分布リクエストデータは、以下の情報を含む。
 ・フィールドオブジェクトF300aに入力された被写体情報
 ・フィールドオブジェクトF300bに入力された対象期間
 ステップS311の後、サーバ30は、位置分布の生成(S330)を実行する。
 具体的には、プロセッサ32は、被写体情報データベース(図4)を参照して、分布リクエストデータに含まれる被写体情報に関連付けられた少なくとも1つの被写体IDを特定する。
 プロセッサ32は、特定した被写体IDに関連付けられた移動ログ情報データベース(図6)の「撮影時間」フィールドを参照して、ログリクエストデータに含まれる対象期間に該当する対象レコードを特定する。
 プロセッサ32は、対象レコードの「位置」フィールドの情報を参照して、被写体の位置を特定する。
 プロセッサ32は、フィールドオブジェクトF300aに入力された被写体情報及びフィールドオブジェクトF301aに入力された対象期間に該当する被写体の位置の分布に関する位置分布情報を生成する。
 ステップS330の後、サーバ30は、分布レスポンス(S331)を実行する。
 具体的には、プロセッサ32は、分布レスポンスデータをクライアント装置10に送信する。分布レスポンスデータは、ステップS330で生成された位置分布情報を含む。
 ステップS331の後、クライアント装置10は、位置分布の提示(S312)を実行する。
 具体的には、プロセッサ12は、画面P31(図12)をディスプレイに表示する。
 画面P31は、表示オブジェクトA310を含む。
 表示オブジェクトA310には、画像オブジェクトIMG310が表示される。表示オブジェクトA310は、地図画像上に描画された被写体の位置の分布(つまり、ユーザが指定した対象期間における被写体属性に対応する被写体の位置の分布)を表す。
 このように、変形例1によれば、サーバ30には、複数の被写体TA1~TA2の画像及び位置情報の組合せが蓄積される。これにより、複数の被写体TA1~TA2がサーバ30に位置情報を送信できない場合であっても、サーバ30に蓄積される位置情報の連続性が向上するので、サーバ30は、複数の被写体TA1~TA2の位置の分布を特定することができる。
(5-2)変形例2
 変形例2について説明する。変形例2は、移動体及び被写体が人である場合の例である。
(5-2-1)変形例2の概要
 変形例2の概要について説明する。
(5-2-1-1)変形例2の第1例の概要
 変形例2の第1例の概要について説明する。変形例2の第1例は、人が所持する画像取得装置50が被写体(例えば、人)を撮影する例である。図13は、変形例2の第1例の概要の説明図である。
(5-2-1-1-1)移動の軌跡の特定
 図13Aを参照して、変形例2の第1例の移動の軌跡の特定について説明する。
 複数の人HU1~HU2のそれぞれは、図2の画像取得装置50を所持している。
 被写体TA1~TA2は、時間の経過に伴って移動する。
 人HU1が所持する画像取得装置50は、時刻T1において、位置POS1に位置する被写体TA1の画像を取得する。
 画像取得装置50は、被写体TA1の画像を解析することによって被写体TA1に関する被写体識別情報MBIDを特定する。被写体識別情報MBIDは、例えば、以下の少なくとも1つである。
 ・被写体を識別する被写体ID(例えば、保険証番号)
 ・被写体の性別
 ・被写体の年齢
 画像取得装置50は、被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X1,Y1)と、画像撮影時刻T1と、をサーバ30に送信する。
 人HU2が所持する画像取得装置50は、時刻T2において、位置POS2に位置する被写体TA1の画像を取得する。画像取得装置50は、被写体TA2の画像を解析することによって被写体TA2に関する被写体識別情報MBIDを特定する。画像取得装置50は、当該被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X2,Y2)と、画像撮影時刻T2と、をサーバ30に送信する。
 その結果、サーバ30には、時刻T1における位置情報(X1,Y1)と、時刻T2における位置情報(X2,Y2)と、が蓄積される。
 サーバ30は、時刻T1における位置情報(X1,Y1)と、時刻T2における位置情報(X2,Y2)と、を合成することにより、時刻T1から時刻T2までの被写体TA1の移動の軌跡を特定する。
 このように、サーバ30には、複数の人HU1~HU2が所持する複数の画像取得装置50によって撮影された被写体TA1の画像及び位置情報の組合せが蓄積される。これにより、被写体TA1がサーバ30に位置情報を送信できない場合であっても、サーバ30に蓄積される位置情報の連続性が向上するので、サーバ30は、被写体TA1の移動の軌跡を特定することができる。
 なお、変形例2の第1例は、被写体TA1が人以外の場合(例えば、移動体の場合)にも適用可能である。
(5-2-1-1-2)位置の分布の特定
 図13Bを参照して、変形例2の第1例の位置の分布の特定について説明する。
 図13Bの複数の人HU1~HU2は、それぞれ、図2の画像取得装置50を所持している。
 被写体TA1~TA2の位置は、時間の経過に伴って変化する。
 人HU1が所持する画像取得装置50は、時刻T1において、位置POS1に位置する被写体TA1の画像を取得する。画像取得装置50は、被写体TA1の画像を解析することによって被写体TA1に関する被写体識別情報MBIDを特定する。画像取得装置50は、被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X1,Y1)と、画像撮影時刻T1と、をサーバ30に送信する。
 人HU2が所持する画像取得装置50は、時刻T1において、位置POS2に位置する被写体TA2の画像を取得する。画像取得装置50は、被写体TA2の画像を解析することによって被写体TA2に関する被写体識別情報MBIDを特定する。画像取得装置50は、当該被写体識別情報MBID=TA2と、画像を取得したときの位置情報(X2,Y2)と、画像撮影時刻T1と、をサーバ30に送信する。
 その結果、サーバ30には、時刻T1における被写体TA1~TA2の位置情報が蓄積される。
 サーバ30は、時刻T1における被写体TA1の位置情報(X1,Y1)と、時刻T1における被写体TA2の位置情報(X2,Y2)と、を合成することにより、時刻T1における複数の被写体TA1~TA2の位置の分布を特定する。
 このように、サーバ30には、複数の人HU1~HU2が所持する複数の画像取得装置50によって撮影された被写体TA1の画像及び位置情報の組合せが蓄積される。これにより、被写体TA1~TA2がサーバ30に位置情報を送信できない場合であっても、サーバ30に蓄積される位置情報の連続性が向上するので、サーバ30は、被写体TA1~TA2の位置の分布を特定することができる。
 なお、複数の画像取得装置50は、人が所持する代わりに、動物に装着されても良い。
 被写体TA1~TA2は、人に代えて、動物でも良い。この場合、被写体情報は、以下の少なくとも1つである。
 ・被写体を識別する被写体ID(例えば、保険証番号)
 ・被写体の性別
 ・被写体の年齢
 ・被写体の生物種
(5-2-1-2)変形例2の第2例の概要
 変形例2の第2例の概要について説明する。変形例2の第2例は、被写体が自走する代わりに、機械エネルギーによって移動する例である。図14は、変形例2の第2例の概要の説明図である。
(5-2-1-2-1)移動の軌跡の特定
 図14Aを参照して、変形例2の第2例の移動の軌跡の特定について説明する。
 特定の領域(例えば、工場)内を複数の移動体MB1~MB2が走行している。複数の移動体MB1~MB2のそれぞれには、図2の画像取得装置50が配置される。
 被写体TA1~TA2は、例えば、コンテナである。被写体TA1~TA2は、当該領域内に配置された搬送装置(例えば、ベルトコンベア)によって、搬送される。したがって、被写体TA1~TA2は、時間の経過に伴って移動する。
 移動体MB1に配置された画像取得装置50は、時刻T1において、位置POS1に位置する被写体TA1の画像を取得する。画像取得装置50は、被写体TA1の画像を解析することによって被写体TA1に関する被写体識別情報MBIDを特定する。画像取得装置50は、被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X1,Y1)と、画像撮影時刻T1と、をサーバ30に送信する。
 移動体MB2に配置された画像取得装置50は、時刻T2において、位置POS2に位置する被写体TA1の画像を取得する。画像取得装置50は、被写体TA2の画像を解析することによって被写体TA2に関する被写体識別情報MBIDを特定する。画像取得装置50は、当該被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X2,Y2)と、画像撮影時刻T2と、をサーバ30に送信する。
 その結果、サーバ30には、時刻T1における位置情報(X1,Y1)と、時刻T2における位置情報(X2,Y2)と、が蓄積される。
 サーバ30は、時刻T1における位置情報(X1,Y1)と、時刻T2における位置情報(X2,Y2)と、を合成することにより、時刻T1から時刻T2までの被写体TA1の移動の軌跡を特定する。
 このように、サーバ30には、複数の移動体MB1~MB2に配置された複数の画像取得装置50によって撮影された被写体TA1の画像及び位置情報の組合せが蓄積される。これにより、被写体TA1がサーバ30に位置情報を送信できない場合であっても、サーバ30に蓄積される位置情報の連続性が向上するので、サーバ30は、被写体TA1の移動の軌跡を特定することができる。
(5-2-1-2-2)位置の分布の特定
 図14Bを参照して、変形例2の第2例の位置の分布の特定について説明する。
 特定の領域(例えば、工場)内を複数の移動体MB1~MB2が走行している。複数の移動体MB1~MB2のそれぞれには、図2の画像取得装置50が配置される。
 被写体TA1~TA2は、例えば、コンテナである。被写体TA1~TA2は、当該領域内に配置された搬送装置(例えば、ベルトコンベア)によって、搬送される。したがって、被写体TA1~TA2は、時間の経過に伴って移動する。
 移動体MB1に配置された画像取得装置50は、時刻T1において、位置POS1に位置する被写体TA1の画像を取得する。画像取得装置50は、被写体TA1の画像を解析することによって被写体TA1に関する被写体識別情報MBIDを特定する。画像取得装置50は、被写体識別情報MBID=TA1と、画像を取得したときの位置情報(X1,Y1)と、画像撮影時刻T1と、をサーバ30に送信する。
 移動体MB2に配置された画像取得装置50は、時刻T1において、位置POS2に位置する被写体TA2の画像を取得する。画像取得装置50は、被写体TA2の画像を解析することによって被写体TA2に関する被写体識別情報MBIDを特定する。画像取得装置50は、当該被写体識別情報MBID=TA2と、画像を取得したときの位置情報(X2,Y2)と、画像撮影時刻T1と、をサーバ30に送信する。
 その結果、サーバ30には、時刻T1における被写体TA1~TA2の位置情報が蓄積される。
 サーバ30は、時刻T1における被写体TA1の位置情報(X1,Y1)と、時刻T1における被写体TA2の位置情報(X2,Y2)と、を合成することにより、時刻T1における複数の被写体TA1~TA2の位置の分布を特定する。
 このように、サーバ30には、複数の移動体MB1~MB2に配置された複数の画像取得装置50によって撮影された被写体TA1~TA2の画像及び位置情報の組合せが蓄積される。これにより、被写体TA1~TA2がサーバ30に位置情報を送信できない場合であっても、サーバ30に蓄積される位置情報の連続性が向上するので、サーバ30は、被写体TA1~TA2の位置の分布を特定することができる。
 なお、変形例2の第2例は、第1例のように、人が画像取得装置50を所持している場合にも適用可能である。
(5-3)変形例3
 変形例3について説明する。変形例3は、サーバ30が被写体情報を特定する例である。図15は、変形例3の位置情報取得処理のフローチャートである。
 図15に示すように、変形例3の画像取得装置50は、ステップS150の後、更新リクエスト(S450)を実行する。
 具体的には、プロセッサ52は、更新リクエストデータをサーバ30に送信する。
 更新リクエストデータは、以下の情報を含む。
 ・ステップS150で取得された位置情報
 ・ステップS150の実行日時に関する情報(つまり、撮影時間情報)
 ・ステップS150で取得された画像
 ステップS450の後、サーバ30は、被写体の特定(S450)を実行する。
 具体的には、プロセッサ32は、更新リクエストデータに含まれる画像に対する画像解析を実行することにより、当該画像に含まれる被写体TAに関する被写体情報を特定する。
 変形例3によれば、画像取得装置50が被写体情報を特定する機能を有していない場合であっても、上記の実施形態と同様の効果が得られる。
(5-4)変形例4
 変形例4について説明する。変形例4は、画像取得装置50が被写体TAの上方から被写体画像を取得する例である。
(5.1)画像取得装置の構成
 変形例4の画像取得装置50の構成について説明する。
 変形例4の画像取得装置50は、例えば、以下の少なくとも1つに配置される。
 ・人工衛星
 ・被写体TAの上方を飛行する飛行体(一例として、航空機、ヘリコプタ、又は、ドローン)
 ・被写体TAより高い構造体
 変形例4の移動体MBには、移動体MBの上方から撮影可能な位置(例えば、車両の屋根)にコード画像が配置される。コード画像は、人工衛星に配置された画像取得装置50のカメラ55の分解能に応じて、画像取得装置50が認識可能な画素サイズ、画素値、及び、光の波長(つまり、コード画像の解像度、色、及び、光の波長)の組合せによって形成される。コード画像の色が可視色以外の場合、光の波長は、画素値がないため、可視光線の領域内外で、画像取得装置50が認識可能な波長帯に対応する波長であることが好ましい。コード画像には、被写体情報(一例として、被写体識別情報、被写体のメーカ、及び、被写体の種類)が埋め込まれる。コード画像は、例えば、以下の少なくとも1つを含む。
 ・一次元コード
 ・二次元コード
 ・文字
 ・記号
(5.2)位置情報取得処理
 変形例4の位置情報取得処理について説明する。図16は、変形例4の位置情報取得処理のフローチャートである。
 図14に示すように、画像取得装置50は、画像の取得(S550)を実行する。
 具体的には、人工衛星、被写体TAの上方を飛行する飛行体、及び、被写体TAより高い構造体の少なくとも1つに配置された画像取得装置50のカメラ55は、被写体TAの上方(つまり、宇宙又は被写体TAの上空)から、被写体TAの画像を撮影する。
 位置計測装置56は、画像取得装置50の位置に関する位置情報を計測する。画像取得装置50は、人工衛星に配置されているので、当該位置情報は、ステップS150が実行されたときの画像取得装置50の位置を示す。
 プロセッサ52は、入出力インタフェース53を介して、カメラ55から画像を取得し、且つ、位置計測装置56から位置情報を取得する。
 ステップS550の後、画像取得装置50は、位置情報の計算(S551)を実行する。
 ステップS551の第1例のプロセッサ52は、ステップS550で取得された位置情報(例えば、人工衛星の法線と地上との交点の位置に関する位置情報)と、人工衛星の高度に関する情報と、画像に含まれるコード画像の歪みと、を参照して、被写体TAの位置に関する位置情報を計算する。
 ステップS551の第2例では、画像情報データベースにおいて、ステップS550で得られた画像の位置に関する画像位置情報が当該画像に関連付けられている。
 プロセッサ52は、画像情報データベースを参照して、ステップS551で得られた画像に含まれるコード画像を検索する。
 プロセッサ52は、検索結果に該当するコード画像を含む画像に関連付けられた画像位置情報を参照して、被写体TAの位置に関する位置情報を計算する。
 ステップS551の後、画像取得装置50は、本実施形態と同様に、被写体の特定(S151)を実行する。
 ステップS151の後、画像取得装置50は、更新リクエスト(S552)を実行する。
 具体的には、プロセッサ52は、更新リクエストデータをサーバ30に送信する。
 更新リクエストデータは、以下の情報を含む。
 ・ステップS551で計算された位置情報(つまり、被写体TAの位置に関する情報)
 ・ステップS151で特定された被写体情報
 ・ステップS550の実行日時に関する情報(つまり、撮影時間情報)
 ステップS552の後、サーバ30は、本実施形態と同様に、データベースの更新(S130)を実行する。
 変形例4によれば、画像取得装置50が人工衛星、被写体TAの上方を飛行する飛行体、及び、被写体TAより高い構造体の少なくとも1つに配置される場合(つまり、画像取得装置50が被写体TAの上方から被写体TAを撮影する場合)にも、本実施形態と同様の効果が得られる。
(6)本実施形態の小括
 本実施形態について小括する。
 本実施形態の第1態様は、
 複数の画像取得装置50のそれぞれによって撮影された被写体の画像から特定された被写体に関する被写体情報と、被写体の位置に関する位置情報と、画像の撮影時間に関する時間情報と、を取得する手段(例えば、ステップS130を実行するプロセッサ32)を備え、
 被写体情報と、位置情報と、撮影時間情報と、を関連付けて記憶する手段(例えば、ステップS130を実行するプロセッサ32)を備え、
 被写体情報に関連付けられた位置情報及び撮影時間情報の組合せに基づいて、被写体の位置を特定する手段(例えば、ステップ230を実行するプロセッサ32)を備える、情報処理装置である。
 第1態様によれば、サーバ30には、複数の画像取得装置50によって撮影された被写体TA1の画像及び位置情報の組合せが蓄積される。これにより、被写体TA1がサーバ30に位置情報を送信できない場合(例えば、被写体TA1に位置情報を送信するモジュールが配置されていない場合、又は、被写体TA1に配置された当該モジュールの通信状態が悪い場合)であっても、サーバ30は、被写体TA1の位置を特定することができる。
 本実施形態の第2態様は、
 複数の画像取得装置50のそれぞれによって撮影された被写体の画像と、被写体の位置に関する位置情報と、画像の撮影時間に関する撮影時間情報と、を取得する手段(例えば、ステップS430を実行するプロセッサ32)を備え、
 画像を解析することにより、被写体に関する被写体情報を特定する手段(例えば、ステップS430を実行するプロセッサ32)を備え、
 被写体情報と、位置情報と、撮影時間情報と、を関連付けて記憶する手段(例えば、ステップS130を実行するプロセッサ32)を備え、
 被写体情報に関連付けられた位置情報及び撮影時間情報の組合せに基づいて、被写体の位置を特定する手段(例えば、ステップS230を実行するプロセッサ32)を備える、情報処理装置(例えば、サーバ30)である。
 第2態様によれば、サーバ30には、複数の被写体TA1~TA2の画像及び位置情報の組合せが蓄積される。これにより、複数の被写体TA1~TA2がサーバ30に位置情報を送信できない場合であっても、サーバ30は、複数の被写体TA1~TA2の位置を特定することができる。
 本実施形態の第3態様は、
 特定する手段は、被写体情報に関連付けられた位置情報及び撮影時間情報の履歴に基づいて、被写体の移動の軌跡を特定する、
情報処理装置である。
 第3態様によれば、位置情報を送信できない被写体の移動の軌跡を特定することができる。
 本実施形態の第4態様は、
 特定する手段は、被写体情報に関連付けられた位置情報及び撮影時間情報の履歴に基づいて、複数の被写体の位置の分布を特定する、
情報処理装置である。
 第4態様によれば、位置情報を送信できない被写体の位置の分布を特定することができる。
 本実施形態の第5態様は、
 複数の移動体のそれぞれに配置された画像取得装置50と、サーバ30と、を備える情報処理システム1であって、
 画像取得装置50は、
  被写体の画像を取得する手段(例えば、ステップS150を実行するプロセッサ52)を備え、
  画像を解析することにより、被写体を識別する被写体識別情報を特定する手段(例えば、ステップS151を実行するプロセッサ52)を備え、
  被写体識別情報と、被写体の位置に関する位置情報と、画像が撮影された撮影時間に関する撮影時間情報と、をサーバに送信する手段(例えば、ステップS152を実行するプロセッサ52)を備え、
 サーバ30は、
  画像取得装置50から送信された被写体識別情報と、位置情報と、撮影時間情報と、を関連付けて記憶する手段(例えば、ステップS130を実行するプロセッサ32)を備え、
 被写体識別情報に関連付けられた位置情報及び撮影時間情報の履歴に基づいて、被写体の移動の軌跡を特定する手段(例えば、ステップS231を実行するプロセッサ32)を備える、
情報処理システム1である。
 第5態様によれば、サーバ30には、複数の画像取得装置50によって撮影された被写体TA1の画像及び位置情報の組合せが蓄積される。これにより、被写体TA1がサーバ30に位置情報を送信できない場合(例えば、被写体TA1に位置情報を送信するモジュールが配置されていない場合、又は、被写体TA1に配置された当該モジュールの通信状態が悪い場合)であっても、サーバ30は、被写体TA1の移動の軌跡を特定することができる。
 本実施形態の第6態様は、
 人工衛星、被写体TAの上方を飛行する飛行体、及び、被写体TAより高い構造体の少なくとも1つに配置された画像取得装置50と、サーバ30と、を備える情報処理システム1であって、
 画像取得装置50は、
  被写体の画像を取得する手段(例えば、ステップS550を実行するプロセッサ52)を備え、
  画像を参照して、被写体の位置に関する位置情報を計算する手段(例えば、ステップS551を実行するプロセッサ52)を備え、
  画像を解析することにより、被写体を識別する被写体識別情報を特定する手段(例えば、ステップS151を実行するプロセッサ52)を備え、
  被写体識別情報と、位置情報と、画像が撮影された撮影時間に関する撮影時間情報と、をサーバに送信する手段(例えば、ステップS552を実行するプロセッサ52)を備え、
 サーバ30は、
  画像取得装置50から送信された被写体識別情報と、位置情報と、撮影時間情報と、を関連付けて記憶する手段(例えば、ステップS130を実行するプロセッサ32)を備え、
 被写体識別情報に関連付けられた位置情報及び撮影時間情報の履歴に基づいて、被写体の移動の軌跡を特定する手段(例えば、ステップS231を実行するプロセッサ32)を備える、
情報処理システム1である。
 第6態様によれば、画像取得装置50が人工衛星又は飛行体に配置される場合(つまり、画像取得装置50が被写体TAの上方から被写体TAを撮影する場合)にも、第1態様と同様の効果が得られる。
 本実施形態の第7態様は、
 コンピュータ(例えば、プロセッサ32)を、上記の何れかに記載の各手段として機能させるためのプログラムである。
(7)その他の変形例
 記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
 上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
 本実施形態では、位置情報が2次元空間における位置を示す例を示したが、本実施形態は、位置情報が2次元空間における位置を示す例にも適用可能である。
 本実施形態では、画像取得装置50は、位置が変化すればどのような態様でも良い。例えば、画像取得装置50は、人又は動物に装着されても良い。
 以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1      :情報処理システム
10     :クライアント装置
11     :記憶装置
12     :プロセッサ
13     :入出力インタフェース
14     :通信インタフェース
30     :サーバ
31     :記憶装置
32     :プロセッサ
33     :入出力インタフェース
34     :通信インタフェース
50     :画像取得装置
51     :記憶装置
52     :プロセッサ
53     :入出力インタフェース
54     :通信インタフェース
55     :カメラ
56     :位置計測装置

 

Claims (7)

  1.  複数の画像取得装置のそれぞれによって撮影された被写体の画像から特定された前記被写体に関する被写体情報と、前記被写体の位置に関する位置情報と、前記画像の撮影時間に関する撮影時間情報と、を取得する手段を備え、
     前記被写体情報と、前記位置情報と、前記撮影時間情報と、を関連付けて記憶する手段を備え、
     前記被写体情報に関連付けられた位置情報及び撮影時間情報の組合せに基づいて、前記被写体の位置を特定する手段を備える、
    情報処理装置。
  2.  複数の画像取得装置のそれぞれによって撮影された被写体の画像と、前記被写体の位置に関する位置情報と、前記画像の撮影時間に関する撮影時間情報と、を取得する手段を備え、
     前記画像を解析することにより、前記被写体に関する被写体情報を特定する手段を備え、
     前記被写体情報と、前記位置情報と、前記撮影時間情報と、を関連付けて記憶する手段を備え、
     前記被写体情報に関連付けられた位置情報及び撮影時間情報の組合せに基づいて、前記被写体の位置を特定する手段を備える、
    情報処理装置。
  3.  前記特定する手段は、前記被写体情報に関連付けられた位置情報及び撮影時間情報の履歴に基づいて、前記被写体の移動の軌跡を特定する、
    請求項1又は2に記載の情報処理装置。
  4.  前記特定する手段は、前記被写体情報に関連付けられた位置情報及び撮影時間情報の履歴に基づいて、複数の被写体の位置の分布を特定する、
    請求項1~3の何れかに記載の情報処理装置。
  5.  複数の移動体のそれぞれに配置された画像取得装置と、サーバと、を備える情報処理システムであって、
     前記画像取得装置は、
      被写体の画像を取得する手段を備え、
      前記画像を解析することにより、前記被写体を識別する被写体識別情報を特定する手段を備え、
      前記被写体識別情報と、前記被写体の位置に関する位置情報と、前記画像が撮影された撮影時間に関する撮影時間情報と、を前記サーバに送信する手段を備え、
     前記サーバは、
      前記画像取得装置から送信された前記被写体識別情報と、前記位置情報と、前記撮影時間情報と、を関連付けて記憶する手段を備え、
     前記被写体識別情報に関連付けられた位置情報及び撮影時間情報の履歴に基づいて、前記被写体の移動の軌跡を特定する手段を備える、
    情報処理システム。
  6.  人工衛星、被写体の上方を飛行する飛行体、及び、前記被写体より高い構造体の少なくとも1つに配置された画像取得装置と、サーバと、を備える情報処理システムであって、
     前記画像取得装置は、
      前記被写体の画像を取得する手段を備え、
      前記画像を参照して、被写体の位置に関する位置情報を計算する手段を備え、
      前記画像を解析することにより、前記被写体を識別する被写体識別情報を特定する手段を備え、
      前記被写体識別情報と、前記位置情報と、前記画像が撮影された撮影時間に関する撮影時間情報と、を前記サーバに送信する手段を備え、
     前記サーバは、
      前記画像取得装置から送信された前記被写体識別情報と、前記位置情報と、前記撮影時間情報と、を関連付けて記憶する手段を備え、
     前記被写体識別情報に関連付けられた位置情報及び撮影時間情報の履歴に基づいて、前記被写体の移動の軌跡を特定する手段を備える、
    情報処理システム。
  7.  コンピュータを、請求項1~6の何れかに記載の各手段として機能させるためのプログラム。

     
PCT/JP2019/043418 2018-11-06 2019-11-06 情報処理装置、情報処理システム、及び、プログラム WO2020095925A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018208564A JP2022013960A (ja) 2018-11-06 2018-11-06 情報処理装置、情報処理システム、及び、プログラム
JP2018-208564 2018-11-06

Publications (1)

Publication Number Publication Date
WO2020095925A1 true WO2020095925A1 (ja) 2020-05-14

Family

ID=70610701

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/043418 WO2020095925A1 (ja) 2018-11-06 2019-11-06 情報処理装置、情報処理システム、及び、プログラム

Country Status (2)

Country Link
JP (1) JP2022013960A (ja)
WO (1) WO2020095925A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010122801A (ja) * 2008-11-18 2010-06-03 Denso Corp 不審者撮影システム
JP2012048645A (ja) * 2010-08-30 2012-03-08 Sanyo Electric Co Ltd 車載情報通信装置、路側情報通信装置並びに通信システム
JP2014191664A (ja) * 2013-03-27 2014-10-06 Fujitsu Ltd 車両追跡プログラム、画像送信プログラム、サーバ装置、情報処理装置および車両追跡方法
US20140336848A1 (en) * 2013-05-10 2014-11-13 Palo Alto Research Center Incorporated System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform
JP2016118994A (ja) * 2014-12-22 2016-06-30 セコム株式会社 監視システム
JP2018147157A (ja) * 2017-03-03 2018-09-20 株式会社豊田中央研究所 移動物状態量推定装置及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010122801A (ja) * 2008-11-18 2010-06-03 Denso Corp 不審者撮影システム
JP2012048645A (ja) * 2010-08-30 2012-03-08 Sanyo Electric Co Ltd 車載情報通信装置、路側情報通信装置並びに通信システム
JP2014191664A (ja) * 2013-03-27 2014-10-06 Fujitsu Ltd 車両追跡プログラム、画像送信プログラム、サーバ装置、情報処理装置および車両追跡方法
US20140336848A1 (en) * 2013-05-10 2014-11-13 Palo Alto Research Center Incorporated System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform
JP2016118994A (ja) * 2014-12-22 2016-06-30 セコム株式会社 監視システム
JP2018147157A (ja) * 2017-03-03 2018-09-20 株式会社豊田中央研究所 移動物状態量推定装置及びプログラム

Also Published As

Publication number Publication date
JP2022013960A (ja) 2022-01-19

Similar Documents

Publication Publication Date Title
US10417816B2 (en) System and method for digital environment reconstruction
US11772663B2 (en) Neural network based modeling and simulation of non-stationary traffic objects for testing and development of autonomous vehicle systems
CN110998604B (zh) 有局部外观的对象的识别与重构
CN104133899B (zh) 图片搜索库的生成方法和装置、图片搜索方法和装置
Ma et al. Real-time pose estimation of a dynamic quadruped in GPS-denied environments for 24-hour operation
CN115439831A (zh) 减少乘客相关物品丢失的方法和装置
US11840261B2 (en) Ground truth based metrics for evaluation of machine learning based models for predicting attributes of traffic entities for navigating autonomous vehicles
US20230005169A1 (en) Lidar point selection using image segmentation
JP2014071902A (ja) フィンガープリントを使用してビデオ内で移動オブジェクトを追跡するため方法及びシステム
CN109643256A (zh) 用于推荐资产修复的计算机架构和方法
JP6849256B1 (ja) 3次元モデル構築システム、および3次元モデル構築方法
US20080243425A1 (en) Tracking target objects through occlusions
Morales et al. The UMA-SAR Dataset: Multimodal data collection from a ground vehicle during outdoor disaster response training exercises
Delisle et al. Imperfect detection and wildlife density estimation using aerial surveys with infrared and visible sensors
WO2020095925A1 (ja) 情報処理装置、情報処理システム、及び、プログラム
EP4216100A1 (en) Architecture for distributed artificial intelligence augmentation
JP7450754B2 (ja) 画像解析から得られたフィンガープリントを用いた、画像フレーム全体に亘る脆弱な道路利用者の追跡
CN110781730A (zh) 智能驾驶感知方法及感知装置
WO2023122708A1 (en) Systems and methods of image analysis for automated object location detection and management
TW201944325A (zh) 解析系統
JP2020086969A (ja) 道路側面に並ぶ店舗の訪問者数を推定する訪問者数推定装置、プログラム及び方法
US20230351772A1 (en) Framework for evaluation of machine learning based model used for autonomous vehicle
US20240078763A1 (en) Architecture for distributed artificial intelligence augmentation
JP7486805B2 (ja) 情報処理装置、システム、情報処理方法、及びプログラム
US20230339504A1 (en) Generating training data for machine learning based models for autonomous vehicles

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19883272

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19883272

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP