WO2021166525A1 - 交通リスク低減記録媒体、情報処理装置及び方法 - Google Patents

交通リスク低減記録媒体、情報処理装置及び方法 Download PDF

Info

Publication number
WO2021166525A1
WO2021166525A1 PCT/JP2021/001720 JP2021001720W WO2021166525A1 WO 2021166525 A1 WO2021166525 A1 WO 2021166525A1 JP 2021001720 W JP2021001720 W JP 2021001720W WO 2021166525 A1 WO2021166525 A1 WO 2021166525A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
surveillance camera
camera
information processing
Prior art date
Application number
PCT/JP2021/001720
Other languages
English (en)
French (fr)
Inventor
裕太 山内
紘平 瀬川
隆之 堀
憲一 海老沢
寛樹 中谷
嘉生 鎌倉
Original Assignee
ソフトバンク株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトバンク株式会社 filed Critical ソフトバンク株式会社
Publication of WO2021166525A1 publication Critical patent/WO2021166525A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present application has been made in view of the above, and an object of the present application is to provide a traffic risk reduction recording medium, an information processing device, and a method capable of preferably identifying a moving body satisfying a predetermined condition.
  • the information processing apparatus estimates an image taken by the surveillance camera or taken by an in-vehicle camera mounted on an automobile existing in the vicinity of the surveillance camera based on the surveillance camera image taken by the surveillance camera. It is characterized in that it is provided with an estimation unit for identifying a vehicle equipped with an in-vehicle camera that captures an in-vehicle camera image corresponding to the estimated image among a plurality of vehicles equipped with an in-vehicle camera. ..
  • a moving body satisfying a predetermined condition can be preferably specified.
  • FIG. 1 is a diagram showing an example of a specific process executed by the information processing apparatus according to the embodiment.
  • FIG. 2 is a diagram showing a specific example of a specific process executed by the information processing apparatus according to the embodiment.
  • FIG. 3 is a diagram showing a configuration example of the information processing device according to the embodiment.
  • FIG. 4 is a diagram showing an example of the surveillance camera image storage unit according to the embodiment.
  • FIG. 5 is a diagram showing an example of an in-vehicle camera image storage unit according to the embodiment.
  • FIG. 6 is a diagram showing an example of an estimated image storage unit according to the embodiment.
  • FIG. 7 is a diagram showing an example of a destination storage unit according to the embodiment.
  • FIG. 1 is a diagram showing an example of a specific process executed by the information processing apparatus according to the embodiment.
  • FIG. 2 is a diagram showing a specific example of a specific process executed by the information processing apparatus according to the embodiment.
  • FIG. 3 is a diagram showing a configuration example of the information
  • FIG. 8 is a flowchart showing an example of a flow of specific processing executed by the information processing apparatus according to the embodiment.
  • FIG. 9 is a diagram showing a specific example of the specific processing executed by the information processing apparatus according to the modified example.
  • FIG. 10 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device.
  • an autonomous vehicle has a photographing device such as a camera, and by photographing the surroundings of the autonomous vehicle, the traveling is controlled based on the surrounding environment and the situation.
  • the self-driving car may not be able to recognize the side environment and the situation when traveling at a predetermined speed or higher.
  • the image of the camera that captures the side surface may flow, and other vehicles or objects may not be recognized.
  • the present embodiment a technology for supporting the running of an autonomous vehicle is provided.
  • the information from the side of the autonomous driving vehicle is complemented by utilizing the information acquired from an external device such as a sensor.
  • the present embodiment makes it possible to control the autonomous driving vehicle with high accuracy.
  • FIG. 1 is a diagram showing an example of a specific process executed by the information processing apparatus 100 according to the embodiment.
  • the information processing system 1 includes an automobile 10, a surveillance camera 20, a surveillance camera image providing device FIS, an in-vehicle camera image providing device SIS, and an information processing device 100.
  • the automobile 10, the surveillance camera 20, the surveillance camera image providing device FIS, the in-vehicle camera image providing device SIS, and the information processing device 100 are connected via a wireless network (not shown).
  • the information processing system 1 shown in FIG. 1 includes a plurality of automobiles 10, a plurality of surveillance cameras 20, a plurality of surveillance camera image providing devices FIS, a plurality of in-vehicle camera image providing devices SIS, and the like.
  • a plurality of information processing devices 100 may be included.
  • the automobile 10 is a connected vehicle that communicates with various other devices via a wireless network.
  • the automobile 10 executes communication by an in-vehicle device such as a communication module incorporated in the automobile 10.
  • the surveillance camera 20 is a surveillance camera having a function of being able to communicate with various other devices via a wireless network.
  • the surveillance camera 20 is fixedly installed on a traffic signal or a pillar to which the traffic signal is attached.
  • the surveillance camera 20 acquires an image including a landscape or the like taken from a predetermined angle (hereinafter, may be referred to as a surveillance camera image).
  • a surveillance camera image may be referred to as a surveillance camera image.
  • each of the different surveillance cameras will be referred to as a surveillance camera 2N, and when the surveillance camera 2N is not particularly distinguished, it will be referred to as a surveillance camera 20.
  • the surveillance camera image providing device FIS is realized by, for example, a server device or a cloud system. Specifically, the surveillance camera image providing device FIS constantly acquires the surveillance camera image captured by the surveillance camera 20. Then, the surveillance camera image providing device FIS provides the surveillance camera image to the information processing device 100 in response to the request from the information processing device 100.
  • the information processing device 100 is realized by, for example, a server device or a cloud system. Specifically, the information processing device 100 estimates an image taken by an in-vehicle camera mounted on an automobile based on a surveillance camera image taken by the surveillance camera. Then, the information processing device 100 identifies the vehicle equipped with the vehicle-mounted camera that captures the vehicle-mounted camera image corresponding to the estimated image estimated from the surveillance camera image among the plurality of vehicles equipped with the vehicle-mounted camera.
  • a vehicle CA1 which is not a connected vehicle performing dangerous driving hereinafter, may be referred to as a non-connected vehicle CA1
  • a vehicle 10 which is a connected vehicle are approaching an intersection. show.
  • the unconnected vehicle CA1 is about to enter the intersection by traveling significantly exceeding the legal speed, and the unconnected vehicle CA1 and the automobile 10 collide with each other. It is presumed that the possibility is high. That is, in the example shown in FIG. 1, it is assumed that the surveillance camera 20 has detected that the automobile 10 is likely to have a traffic accident.
  • the surveillance camera 20 wants to alert the automobile 10 regarding a traffic accident, but the image taken by the surveillance camera 20 alone cannot identify the communication destination of the automobile 10, and the notification is given. Is difficult to do.
  • the destination of the automobile 10 photographed by the surveillance camera 20 is specified by the following procedure.
  • the information processing device 100 acquires the surveillance camera images captured by the surveillance cameras 21 and 22 from the surveillance camera image providing device FIS (step S1).
  • the information processing device 100 acquires a surveillance camera image including the unconnected vehicle CA1 taken by the surveillance camera 21. Further, in the example of FIG. 1, the information processing device 100 acquires a surveillance camera image including the automobile 10 taken by the surveillance camera 22. In this case, in the example of FIG. 1, it is assumed that the surveillance camera image taken by the surveillance camera 21 captures the non-connected vehicle CA1 traveling at a speed significantly exceeding the legal speed. Further, it is assumed that the surveillance camera image taken by the surveillance camera 22 includes the surveillance camera image including the automobile 10.
  • the information processing device 100 may acquire a surveillance camera image in advance from the surveillance camera image providing device FIS and acquire an in-vehicle camera image in advance from the in-vehicle camera image providing device SIS. At this time, the information processing device 100 uses the in-vehicle camera images and the like in any order. You may acquire the surveillance camera image.
  • the information processing device 100 identifies a vehicle that is likely to be involved in a traffic accident as a target vehicle based on a surveillance camera image (step S2). For example, the information processing device 100 determines whether or not the vehicle photographed in the surveillance camera image is a dangerous vehicle having a high possibility of causing a traffic accident. To give a specific example, it is assumed that the surveillance camera image taken by the surveillance camera 21 captures the non-connected vehicle CA1 traveling at a speed significantly exceeding the legal speed. In this case, the information processing device 100 determines that the unconnected vehicle CA1 is a dangerous vehicle with a high possibility of causing a traffic accident.
  • the information processing device 100 identifies a vehicle that is likely to be involved in a traffic accident as a target vehicle from a surveillance camera image. For example, it is assumed that the non-connected vehicle CA1 traveling in the blind spot of the vehicle 10 is a dangerous vehicle. In this case, the information processing device 100 identifies the automobile 10 as the target automobile based on the positional relationship between the surveillance camera 21 and the surveillance camera 22.
  • the information processing device 100 is provided with the orientation of the automobile 10 estimated from the surveillance camera image, the orientation of the unconnected vehicle CA1 which is a dangerous automobile, the speeds of the automobile 10 and the unconnected vehicle CA1, and the surveillance camera 20.
  • the target vehicle may be specified in consideration of the positional relationship between the buildings and roads existing on the road. For the identification of such a target vehicle, various known techniques for estimating the occurrence of a traffic accident by image analysis can be adopted.
  • the information processing device 100 estimates the vehicle-mounted camera image predicted to be captured by the vehicle-mounted device of the vehicle 10 which is the target vehicle, based on the surveillance camera image captured by the surveillance camera 20 (step S3).
  • the information processing device 100 uses the estimated in-vehicle camera image (hereinafter, may be referred to as an estimated image) as a search query, and corresponds to the estimated image from the in-vehicle camera image acquired from the in-vehicle camera image providing device SIS.
  • the vehicle-mounted camera image to be searched is searched (step S4).
  • the information processing device 100 identifies the vehicle equipped with the vehicle-mounted device that has captured the vehicle-mounted camera image corresponding to the estimated image as the target vehicle captured by the surveillance camera 20 (step S5).
  • the information processing apparatus 100 captures the connected vehicle in which the in-vehicle camera image corresponding to the estimated image is taken among the connected vehicles whose destinations are known based on the matching result between the estimated image and the in-vehicle camera image. Link to the target vehicle photographed in.
  • the information processing device 100 acquires the image FIM1 indicated by the image including the automobile TC10 and the building TO1 from the surveillance camera 22 as the surveillance camera image (step S21). At this time, the information processing apparatus 100 identifies the automobile TC10 and the building TO1 by using a conventional technique such as image analysis.
  • the information processing device 100 sets the automobile TC10 included in the surveillance camera image taken by the surveillance camera 22 as the target automobile TC10. Then, the information processing device 100 generates an estimated image PIM1 predicted to be captured by the in-vehicle device of the target vehicle TC10 from the image captured by the surveillance camera 22 (step S22). For example, the information processing apparatus 100 uses various surveillance camera images continuously captured by the surveillance camera 22 and various surveillance camera images captured by another surveillance camera 20 installed in the vicinity of the surveillance camera 22. Generate an estimated image PIM1. It should be noted that such an estimated image generation process can be realized by various estimation techniques for estimating an image taken from another viewpoint from an image taken from a certain viewpoint.
  • the information processing device 100 acquires the vehicle-mounted camera image SIM1 captured by the vehicle-mounted device of the automobile 10 (step S23).
  • the in-vehicle camera image SIM1 captured by the in-vehicle device of the automobile 10 is considered to be similar to the estimated image PIM1. Therefore, the information processing device 100 matches the in-vehicle camera image SIM1 with the estimated image PIM1 (step S24).
  • the in-vehicle camera image SIM1 and the estimated image PIM1 Judge that it corresponds.
  • the information processing device 100 includes the building TO1 included in the in-vehicle camera image SIM1 and the building TO1 included in the estimated image PIM1.
  • the degree of similarity is calculated by comparing with.
  • the information processing device 100 includes the outer shape of the building TO1 included in the in-vehicle camera image SIM1, the relative position of the building TO1 estimated from other objects and landscapes, and the construction included in the estimated image PIM1.
  • the degree of similarity is calculated from the outer shape of the object TO1 and the relative position of the building TO1 estimated from other objects and landscapes.
  • the calculation process for calculating such similarity can be realized by conventional techniques such as image analysis and image matching.
  • the information processing apparatus 100 may calculate the similarity by comparing the feature amount extracted from the vehicle-mounted camera image SIM1 with the feature amount extracted from the estimated image PIM1. Then, the information processing apparatus 100 determines that the in-vehicle camera image SIM1 and the estimated image PIM1 correspond to each other when the calculated similarity is equal to or higher than a predetermined threshold value.
  • the information processing device 100 determines that the vehicle-mounted camera image SIM1 and the estimated image PIM1 correspond to (similarly to each other), the target vehicle TC10 and the vehicle 10 equipped with the vehicle-mounted device that captured the vehicle-mounted camera image SIM1 To tie.
  • the information processing device 100 is equipped with an in-vehicle camera that captures an in-vehicle camera image corresponding to the estimated image estimated from the surveillance camera image among a plurality of automobiles equipped with the in-vehicle camera.
  • the vehicle 10 can be specified.
  • the information processing device 100 realizes the association between the target vehicle TC 10 and the vehicle 10 by associating the target vehicle TC 10 captured in the surveillance camera image with the vehicle ID of the specified vehicle 10.
  • the information processing device 100 specifies the destination associated with the specified vehicle ID as the destination of the target vehicle TC10. In this way, the information processing device 100 can specify an appropriate destination of information when transmitting information to the automobile 10 that is likely to be involved in a traffic accident.
  • the information processing device 100 notifies the specified automobile 10 of the alert information regarding the non-connected vehicle CA1 (step S6).
  • the automobile 10 will perform various driving controls based on the notified information indicating the alert regarding the unconnected vehicle CA1.
  • the automobile 10 may be decelerated below a predetermined speed based on the information indicating a warning regarding the unconnected vehicle CA1, or may be stopped by gradually decelerating.
  • the automobile 10 may travel so as to avoid the unconnected vehicle CA1 based on the information indicating the warning regarding the unconnected vehicle CA1.
  • the automobile 10 may travel by controlling the driving operation so as to move to a position away from the unconnected vehicle CA1.
  • the information processing device 100 refers to the automobile 10 which is highly likely to be involved in a traffic accident with the non-connected vehicle CA1 which runs dangerously from the surveillance camera image taken by the surveillance camera 20.
  • the destination of the automobile 10 cannot be specified only by the surveillance camera image taken by the surveillance camera 20.
  • the information processing apparatus 100 uses the estimated image as a search query and searches the in-vehicle camera image providing device SIS for the in-vehicle camera image corresponding to the estimated image, so that the in-vehicle camera image corresponding to the estimated image is searched.
  • the vehicle equipped with the in-vehicle device in which the image is taken is specified as the target vehicle photographed by the surveillance camera 20.
  • the information processing device 100 notifies the automobile 10 of danger information such as a traffic accident caused by the unconnected vehicle CA1.
  • the information processing device 100 can suitably notify the specified automobile 10 of dangerous information such as a traffic accident caused by the unconnected vehicle CA1.
  • the information processing device 100 utilizes the surveillance camera image taken by the surveillance camera 20, and even if the unconnected vehicle CA1 suddenly jumps out from the blind spot of the automobile 10, it is caused by the non-connected vehicle CA1. It is possible to notify the automobile 10 of dangerous information such as a traffic accident.
  • the automobile 10 can perform various driving controls based on the information notified by the information processing device 100.
  • the automobile 10 is controlled to decelerate below a predetermined speed or to stop by gradually decelerating based on the information indicating the alert regarding the unconnected vehicle CA1 notified by the information processing device 100. It can be performed.
  • the automobile 10 performs various driving controls according to various traffic conditions, dangerous situations, and the like, so that it is possible to realize more safe driving. Therefore, the automobile 10 can realize appropriate traveling based on the information notified by the information processing device 100 even when the side environment and the situation cannot be recognized.
  • FIG. 3 is a diagram showing a configuration example of the information processing device 100 according to the embodiment.
  • the information processing device 100 includes a communication unit 110, a storage unit 120, and a control unit 130.
  • the communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 transmits / receives information between the automobile 10, the surveillance camera 20, the surveillance camera image providing device FIS, and the in-vehicle camera image providing device SIS via the wireless network. More specifically, the communication unit 110 is registered in the information registered in the surveillance camera image storage unit FISM of the surveillance camera image providing device FIS and in the in-vehicle camera image storage unit SISM of the in-vehicle camera image providing device SIS. Get information and.
  • the information processing device 100 may acquire the surveillance camera image storage unit FISM and the vehicle-mounted camera image storage unit SISM from the surveillance camera image providing device FIS and the vehicle-mounted camera image providing device SIS and store them in the storage unit 120. ..
  • FIG. 4 shows an example of the surveillance camera image storage unit FISM according to the embodiment according to the embodiment.
  • FIG. 4 is a diagram showing an example of the surveillance camera image storage unit FISM according to the embodiment according to the embodiment.
  • the surveillance camera image storage unit FISM according to the embodiment has items such as "camera ID”, "surveillance camera image”, and "time information”.
  • the "camera ID” is an identifier that identifies the surveillance camera 20.
  • the “surveillance camera image” is information related to the surveillance camera image associated with the “camera ID”.
  • the "time information” is information regarding the time taken by the surveillance camera 20 associated with the “surveillance camera image”.
  • the surveillance camera image of "SC1" identified by the camera ID is “FIM1” and the time information is "DA1".
  • the surveillance camera image and the time information are represented by abstract codes such as "FIM1" and "DA1”, but the surveillance camera image and the time information have a specific file format related to the image and the time information. , A numerical value indicating the date and time, or the like.
  • FIG. 5 shows an example of the vehicle-mounted camera image storage unit SISM according to the embodiment.
  • FIG. 5 is a diagram showing an example of the vehicle-mounted camera image storage unit SISM according to the embodiment.
  • the vehicle-mounted camera image storage unit SISM has items such as "vehicle ID”, "vehicle-mounted camera image”, and "time information”.
  • Car ID is an identifier that identifies the car 10.
  • the "vehicle-mounted camera image” is information related to the vehicle-mounted camera image associated with the “vehicle ID”.
  • the "time information” is information regarding the time taken by the vehicle-mounted device of the vehicle 10 associated with the "vehicle-mounted camera image”.
  • the vehicle-mounted camera image of "MO1" identified by the vehicle ID is “SIM1” and the time information is "DA1".
  • the in-vehicle camera image and time information are represented by abstract codes such as “SIM1” and “DA1”, but the in-vehicle camera image and time information may have a specific file format related to the image or the time information. , A numerical value indicating the date and time, or the like.
  • the storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk.
  • the storage unit 120 has an estimated image storage unit 121 and a destination storage unit 122.
  • the estimated image storage unit 121 stores an estimated image estimated based on the surveillance camera image.
  • FIG. 6 shows an example of the estimated image storage unit 121 according to the embodiment.
  • the estimated image storage unit 121 has items such as "estimated image ID”, "estimated image”, and "time information”.
  • the estimated image of "CA1" identified by the estimated image ID is “PIM1” and the time information is "DA1".
  • the estimated image and time information are represented by abstract codes such as "PIM1" and "DA1”, but the estimated image and time information are represented by a specific file format related to the image and the date and time. It may be a numerical value or the like indicating.
  • FIG. 7 is a diagram showing an example of the destination storage unit 122 according to the embodiment.
  • the destination storage unit 122 has items such as “vehicle ID” and “destination”.
  • the "vehicle ID” is an identifier that identifies the vehicle 10.
  • the "destination” is a destination associated with the "vehicle ID", and is, for example, an e-mail address or the like.
  • the destination of the automobile indicated by the automobile ID “MO1” is “AD1”.
  • the destination is represented by an abstract code such as "AD1”, but the destination is various information for indicating a notification destination such as an e-mail address or an IP address.
  • the control unit 130 is a controller, and for example, various programs (traffic risk reduction record) stored in a storage device inside the information processing device 100 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. It is realized by executing the RAM as a work area (corresponding to an example of a program recorded on a medium). Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the control unit 130 includes an acquisition unit 131, a determination unit 132, an estimation unit 133, a specific unit 134, and a notification unit 135, and functions and operations of information processing described below. To realize or execute.
  • the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it is a configuration for performing information processing described later.
  • the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 3, and may be another connection relationship.
  • the acquisition unit 131 acquires various types of information. Specifically, the acquisition unit 131 acquires an in-vehicle camera image taken by the in-vehicle device of the automobile 10 and a surveillance camera image taken by the surveillance camera 20. To give a more specific example, the acquisition unit 131 acquires various information registered in the surveillance camera image storage unit FISM from the surveillance camera image providing device FIS, and stores the in-vehicle camera image from the in-vehicle camera image providing device SIS. Acquire various information registered in the department SISM.
  • the acquisition unit 131 acquires a surveillance camera image including the non-connected vehicle CA1 taken by the surveillance camera 21. Further, in the example of FIG. 1, the acquisition unit 131 acquires a surveillance camera image including the automobile 10 taken by the surveillance camera 22. In this case, in the example of FIG. 1, it is assumed that the surveillance camera image taken by the surveillance camera 21 captures the non-connected vehicle CA1 traveling at a speed significantly exceeding the legal speed. Further, it is assumed that the surveillance camera image taken by the surveillance camera 22 includes the surveillance camera image including the automobile 10. Then, the acquisition unit 131 registers the acquired various information in the storage unit 120.
  • the acquisition unit 131 acquires the angle information of the surveillance camera, which is the information regarding the angle at which the surveillance camera image was taken, together with the surveillance camera image. In addition, the acquisition unit 131 acquires the angle information of the vehicle-mounted camera that is estimated to have taken the vehicle-mounted camera image together with the vehicle-mounted camera image.
  • the determination unit 132 determines whether or not the other vehicle photographed by the surveillance camera is a dangerous vehicle having a high possibility of causing a traffic accident. Further, when the vehicle photographed by the surveillance camera violates the traffic rule more than a predetermined number of times, the determination unit 132 determines the vehicle as a dangerous vehicle.
  • the determination unit 132 refers to the surveillance camera image taken by the surveillance camera 20 and determines whether or not the vehicle transferred to the surveillance camera image is a dangerous vehicle with a high possibility of causing a traffic accident. For example, when the determination unit 132 receives the surveillance camera image acquired from the surveillance camera image storage unit ISM by the acquisition unit 131, the vehicle 10 is a dangerous vehicle based on whether or not the photographed vehicle 10 satisfies a predetermined condition. It is determined whether or not it is.
  • the determination unit 132 determines at least when the photographed automobile 10 travels by a predetermined driving operation, travels at a speed equal to or higher than a predetermined threshold value, or violates a traffic rule more than a predetermined number of times. If any one of them is used, it is determined that the vehicle is dangerous.
  • the determination unit 132 may determine the automobile 10 as a dangerous automobile when the automobile 10 repeats meandering driving. That is, in the surveillance camera image acquired from the surveillance camera 20, when the unconnected vehicle CA1 repeats the meandering operation, the determination unit 132 performs a predetermined driving operation in which the non-connected vehicle CA1 is likely to cause a traffic accident. Since the vehicle is running, the non-connected vehicle CA1 is determined to be a dangerous vehicle.
  • the determination unit 132 determines that the non-connected vehicle CA1 is unlikely to cause a traffic accident when the non-connected vehicle CA1 is traveling in compliance with the traffic rules.
  • the non-connected vehicle CA1 is not determined to be a dangerous vehicle because it is driven by the driving operation of.
  • the determination unit 132 determines that the non-connected vehicle CA1 is a dangerous vehicle when the unconnected vehicle CA1 is traveling at a speed equal to or higher than the legal speed, and is not a non-connected vehicle.
  • the non-connected vehicle CA1 does not have to be determined as a dangerous vehicle.
  • the license plate of the non-connected vehicle CA1 is specified by using the conventional technology such as image analysis technology for the surveillance camera image including the unconnected vehicle CA1.
  • the determination unit 132 acquires the violation history of violating the traffic rule of the non-connected vehicle CA1 associated with the license plate, and when the violation of the traffic rule more than a predetermined number of times, the non-connected vehicle CA1 May be determined as a dangerous vehicle.
  • the determination unit 132 may not determine the unconnected vehicle CA1 as a dangerous moving vehicle when the unconnected vehicle CA1 violates the traffic rule less than a predetermined number of times.
  • the determination unit 132 determines whether or not the vehicle included in the surveillance camera image is a vehicle that is likely to be involved in a traffic accident. For example, when the determination unit 132 determines that any of the automobiles 10 whose image is included in the surveillance camera image is a dangerous moving object, the determination unit 132 is another automobile 10 whose image is included in the surveillance camera image and is involved in a traffic accident. The other vehicle 10 having a high possibility of being damaged is determined to be the target vehicle. Further, when any one of the automobiles 10 whose image is included in the surveillance camera image is determined to be a dangerous moving object, the determination unit 132 is another automobile 10 whose image is included in the surveillance camera image and is involved in a traffic accident. The other vehicle 10 having a high possibility of being damaged is determined to be the target vehicle.
  • the determination unit 132 determines that the dangerous vehicle and the vehicle 10 are less than a predetermined distance, so that the vehicle 10 whose image is included in the surveillance camera image is a target vehicle that is likely to be involved in a traffic accident. do.
  • the determination unit 132 may involve a vehicle 10 whose image is included in the same surveillance camera image as the dangerous vehicle or another vehicle 10 photographed by the same surveillance camera 20 as the dangerous vehicle within a predetermined time in a traffic accident. It may be determined that the vehicle is a target vehicle having high characteristics.
  • the determination unit 132 determines that the vehicle 10 included in the surveillance camera image is likely to be involved in a traffic accident when the determined dangerous vehicle is located near the blind spot of the vehicle 10.
  • the vehicle 10 is determined to be the target vehicle.
  • the blind spot of the automobile 10 is estimated based on the orientation and speed of the dangerous automobile and the orientation and speed of the automobile 10.
  • the blind spot of the automobile 10 is a side surface of the automobile 10.
  • the estimation unit 133 estimates various types of information. Specifically, the estimation unit 133 is photographed by an in-vehicle camera photographed by the surveillance camera 20 or mounted on a vehicle 10 existing in the vicinity of the surveillance camera 20 based on the surveillance camera image captured by the surveillance camera 20. Estimate the image. Further, the estimation unit 133 estimates the estimated image by setting the vehicle located in a predetermined positional relationship with the dangerous vehicle determined by the determination unit 132 as the target vehicle. For example, the estimation unit 133 generates an estimation image predicted to be taken by the in-vehicle device of the target vehicle from the surveillance camera image acquired by the acquisition unit 131.
  • the estimation unit 133 generates an estimation image using the surveillance camera images acquired from the plurality of surveillance cameras. Specifically, the estimation unit 133 uses an estimated image based on a first surveillance camera image taken by the first surveillance camera and a second surveillance camera image taken by a second surveillance camera different from the first surveillance camera. To estimate. For example, the estimation unit 133 estimates using various surveillance camera images continuously captured by the surveillance camera 20 and various surveillance camera images captured by another surveillance camera 20 installed in the vicinity of the surveillance camera 20. Generate an image. In this case, the estimation unit 133 generates an estimated image based on the orientation, speed, size, vehicle height, and the like of the target vehicle. Then, the estimation unit 133 stores the estimated image in the estimation image storage unit 121.
  • the orientation installed for each surveillance camera and the terrain located for each surveillance camera may differ.
  • the estimation unit 133 performs correction processing based on the orientation installed for each surveillance camera image and the terrain in which the estimation unit 133 is located.
  • the estimation unit 133 determines the target vehicle based on the surveillance camera image, the orientation of the surveillance camera when the surveillance camera 20 is photographed, and the orientation of the in-vehicle camera of the target vehicle captured by the surveillance camera.
  • the image taken by the in-vehicle camera mounted on the vehicle is estimated as an estimated image.
  • the estimation unit 133 generates an estimated image based on the angle information of the surveillance camera acquired by the acquisition unit 131, and stores the estimated image in the estimation image storage unit 121.
  • the angle information of the surveillance camera includes, as the shooting angle of the surveillance camera 20, an angle calculated from the coordinates with respect to each direction based on the terrain in which the surveillance camera 20 is installed. It should be noted that such an estimated image generation process can be realized by various estimation techniques for estimating an image taken from another viewpoint from an image taken from a certain viewpoint.
  • the identification unit 134 specifies various types of information. Specifically, the specific unit 134 refers to the estimated image storage unit 121, and among a plurality of vehicles equipped with the in-vehicle camera, the vehicle equipped with the in-vehicle camera that captures the in-vehicle camera image corresponding to the estimated image. To identify. Then, the specific unit 134 realizes the notification to the target vehicle photographed by the surveillance camera image by associating the specified vehicle with the target vehicle photographed by the surveillance camera image.
  • the specific unit 134 uses the estimated image stored in the estimated image storage unit 121 as a search query, and searches for the in-vehicle camera image corresponding to the estimated image from the in-vehicle camera image acquired from the in-vehicle camera image providing device SIS. Then, the identification unit 134 identifies the vehicle equipped with the vehicle-mounted device that has captured the vehicle-mounted camera image corresponding to the estimated image as the target vehicle photographed by the surveillance camera 20. That is, the specific unit 134 uses the connected vehicle whose destination is known based on the matching result of the estimated image and the vehicle-mounted camera image as the surveillance camera image. Link to the photographed target vehicle.
  • the specific unit 134 matches the estimated image PIM1 generated by the estimation unit 133 with the in-vehicle camera image SIM1.
  • the vehicle-mounted camera image SIM1 and the estimated image PIM1 correspond to each other when the degree of similarity between the estimated image PIM1 and the vehicle-mounted camera image SIM1 indicating the image similarity is equal to or higher than a predetermined threshold value. Then it is determined.
  • the specific unit 134 includes the building TO1 included in the vehicle-mounted camera image SIM1 and the building TO1 included in the estimated image PIM1.
  • the similarity is calculated by comparing.
  • the specific unit 134 includes the outer shape of the building TO1 included in the in-vehicle camera image SIM1, the relative position of the building TO1 estimated from other objects and landscapes, and the building TO1 included in the estimated image PIM1.
  • the degree of similarity is calculated from the outer shape of the building and the relative position of the building TO1 estimated from other objects and landscapes.
  • the calculation process for calculating such similarity can be realized by conventional techniques such as image analysis and image matching.
  • the specific unit 134 may calculate the similarity by comparing the feature amount extracted from the vehicle-mounted camera image SIM1 with the feature amount extracted from the estimated image PIM1. Then, the specific unit 134 determines that the vehicle-mounted camera image SIM1 and the estimated image PIM1 correspond to each other when the calculated similarity is equal to or higher than a predetermined threshold value.
  • the specific unit 134 associates the target vehicle TC10 with the vehicle 10 equipped with the vehicle-mounted device that captured the vehicle-mounted camera image SIM1.
  • the specific unit 134 is equipped with an in-vehicle camera that captures an in-vehicle camera image corresponding to the estimated image estimated from the surveillance camera image among a plurality of automobiles equipped with the in-vehicle camera.
  • the automobile 10 can be specified.
  • the specific unit 134 realizes the association between the target vehicle TC10 and the vehicle 10 by associating the target vehicle TC10 captured in the surveillance camera image with the vehicle ID of the specified vehicle 10.
  • the specifying unit 134 specifies the destination associated with the specified vehicle ID as the destination of the target vehicle TC10.
  • the identification unit 134 may perform identification processing based on the same date and time when the surveillance camera image was taken by the surveillance camera 20 and the date and time when the in-vehicle camera image was taken by the in-vehicle device of the automobile 10. For example, the specific unit 134 predicts that the similarity calculated based on the in-vehicle camera image and the estimated image is equal to or higher than a predetermined threshold value, the date and time when the in-vehicle camera image was taken, and the estimated image is taken. When the date and time to be set are within the same time (for example, within a few seconds), the target vehicle and the vehicle 10 equipped with the vehicle-mounted device that captured the vehicle-mounted camera image may be linked.
  • the notification unit 135 notifies various information. Specifically, the notification unit 135 notifies the vehicle specified by the specific unit 134 of information to be notified to the target vehicle.
  • the information to be notified is determined by analyzing the image taken by the surveillance camera.
  • the notification unit 135 specifies the vehicle ID of the vehicle 10 specified by the specific unit 134. Then, the notification unit 135 makes various notifications with the destination associated with the specified vehicle ID as the destination of the target vehicle. For example, the notification unit 135 may notify information about the characteristics of the vehicle such as the color and shape of the vehicle that is a dangerous moving object and the name of the vehicle model. In addition, the notification unit 135 may notify information regarding the speed of the vehicle that is a dangerous moving object. Further, the notification unit 135 may notify the position of the vehicle which is a dangerous moving object estimated from the image.
  • the notification unit 135 specifies the destination "AD1" of the specified vehicle 10 as the destination of the target vehicle from the destination storage unit 122. Then, the notification unit 135 makes various notifications with the destination "AD1" as the destination of the target vehicle. For example, the notification unit 135 notifies that the non-connected vehicle CA1 is a dangerous mobile body. As a result of such processing, the target vehicle can perform various driving controls based on the information indicating the alert regarding the unconnected vehicle CA1 notified by the notification unit 135.
  • FIG. 8 is a flowchart showing an example of the flow of the linking process executed by the information processing apparatus 100 according to the embodiment.
  • the acquisition unit 131 acquires a surveillance camera image from the surveillance camera image providing device FIS (step S101). Then, the determination unit 132 determines the dangerous vehicle and the target vehicle from the surveillance camera image (step S102). When the determination unit 132 does not determine between the dangerous vehicle and the target vehicle from the surveillance camera image (step S102; No), the determination unit 132 returns to the front of step S101.
  • the estimation unit 133 estimates an estimated image that is predicted to be captured by the in-vehicle device of the target vehicle. (Step S103). Then, the specific unit 134 searches for an image similar to the estimated image estimated by the estimation unit 133 among the vehicle-mounted camera images (step S104). In addition, the identification unit 134 identifies an automobile that is a source of an in-vehicle camera image similar to the estimated image (step S105). Then, the notification unit 135 sets the destination of the specified vehicle as the destination of the target vehicle, and notifies the information of the alert (step S106).
  • the automobile has been described as an example, but the present invention may be applied to any moving body instead of the automobile.
  • the moving body is a bicycle, a drone, a bus, a train, or the like.
  • the moving body may be a vehicle in which a non-connected vehicle becomes a connected vehicle by mounting a communication device, an information processing device, or the like attached later, or an autonomous driving vehicle or the like. That is, the connected vehicle may have a photographing function of photographing 360 ° including the front and the rear and a communication function of transmitting the photographed image (that is, an in-vehicle camera image) to the information processing device 100. It does not matter whether or not the vehicle can realize automatic driving.
  • the surveillance camera has been described as an example, but the surveillance camera may be any camera.
  • a surveillance camera is typically a camera installed outside the vehicle.
  • the surveillance camera may be a camera fixed to the roadside or a camera fixed to a building.
  • the surveillance camera may be a camera mounted on a drone parked above the intersection.
  • the camera may be a depth camera, an infrared camera, or the like.
  • the information processing device 100 is a distance to a target vehicle measured by, for example, an infrared sensor or various radio wave sensors, in addition to a camera that acquires an image in which various pixels and image regions correspond to positions in the real world.
  • the vehicle-mounted device has been described as an example, but the vehicle-mounted device may be applied to any terminal device instead of the vehicle-mounted device.
  • the terminal device may be a terminal device or the like used by a user who accesses content such as a web page displayed on a browser or content for an application.
  • the terminal device may be a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), a smart watch, a wearable device, or the like. ..
  • the in-vehicle device has a function such as a GPS (Global Positioning System) sensor, detects the position information of the automobile, and acquires it at predetermined intervals (for example, once or more per second).
  • the location information may be the location information of the base station communicating with the vehicle, the automobile 10 estimated using the radio waves of WiFi (registered trademark) (Wireless Fidelity), or the like.
  • the information processing device 100 has described an example of determination processing for determining whether or not the non-connected vehicle CA1 is a vehicle having a high possibility of causing a traffic accident from the surveillance camera image. Not limited to. Specifically, the information processing device 100 may determine whether or not the unconnected vehicle CA1 included in the surveillance camera image is an emergency vehicle such as an ambulance.
  • the information processing device 100 analyzes the surveillance camera image by a conventional technique such as image analysis, so that the non-connected vehicle CA1 included in the surveillance camera image is an emergency vehicle based on the vehicle type, license plate, vehicle outline, and the like. Judge whether or not. Then, the information processing device 100 may determine the vehicle that can be an obstacle of the emergency vehicle from the surveillance camera image as the target vehicle, and notify the vehicle 10 associated with the determined target vehicle. In this way, the information processing apparatus 100 can determine the unconnected vehicle CA1 that is characteristic in various situations according to various situations. Thereby, for example, when the ambulance carries a suddenly ill person and heads for the hospital, the information processing device 100 can give a notification so that the automobile 10 does not interfere with the ambulance.
  • a conventional technique such as image analysis
  • the information processing apparatus 100 is photographed by an in-vehicle camera photographed by the surveillance camera 20 or mounted on a vehicle located in the vicinity of the surveillance camera 20 based on the surveillance camera image captured by the surveillance camera 20.
  • the estimation process for estimating the image is described, the present invention is not limited to the above estimation process.
  • the information processing device 100 may generate an estimated image based on the position and orientation of the target vehicle when generating an estimated image of the target vehicle from the surveillance camera image.
  • the information processing device 100 estimates the position and orientation of the target vehicle from the surveillance camera image. Then, the information processing apparatus 100 may generate an image predicted to be captured by the in-vehicle device of the target vehicle as an estimated image by setting the estimated position as the viewpoint and the estimated direction as the direction of the gazing point. As described above, the information processing device 100 according to the embodiment generates an estimated image based on the position and orientation of the target vehicle, so that the accuracy of the estimated image can be improved.
  • the information processing device 100 describes an example of specific processing for identifying a vehicle equipped with an in-vehicle camera that has captured an in-vehicle camera image corresponding to an estimated image among a plurality of vehicles equipped with the in-vehicle camera.
  • it is not limited to the above specific processing.
  • the vehicle ID, the vehicle-mounted camera image, and the attribute information which is information related to the attributes of the vehicle, are associated and stored in the vehicle-mounted camera image providing device SIS.
  • the information processing device 100 estimates the attribute information of the target vehicle photographed by the surveillance camera 20, and the estimated attribute information of the target vehicle and the attribute information of the vehicle 10 acquired from the vehicle-mounted camera image providing device SIS.
  • the automobile 10 may be specified as the target automobile.
  • the information processing device 100 uses the estimated image as a search query and searches for the vehicle-mounted camera image corresponding to the estimated image from the vehicle-mounted camera image acquired from the vehicle-mounted camera image providing device SIS. At this time, the information processing device 100 identifies an in-vehicle camera image including the automobile 10 showing the attribute information corresponding to the attribute information of the target automobile included in the estimated image.
  • the information processing device 100 has the target vehicle and the vehicle-mounted camera image. It is linked with the automobile 10 equipped with the in-vehicle device that photographed the image. As a result, the information processing apparatus 100 can perform specific processing with high accuracy.
  • the information processing device 100 describes an example of specific processing for identifying a vehicle equipped with an in-vehicle camera that has captured an in-vehicle camera image corresponding to an estimated image among a plurality of vehicles equipped with the in-vehicle camera.
  • it is not limited to the above specific processing.
  • the information processing device 100 identifies a bicycle, a child, an animal, or the like from the surveillance camera image acquired from the surveillance camera 20 by using a conventional technique such as image analysis.
  • the information processing device 100 identifies a vehicle in which a bicycle, a child, an animal, or the like is presumed to exist in the blind spot from the surveillance camera image acquired from the surveillance camera 20, and identifies the target vehicle as the specified target vehicle.
  • the destination of the associated vehicle 10 is specified as the destination of the target vehicle.
  • the information processing device 100 can prevent a traffic accident by specifying the destination of the target vehicle even when a bicycle, a child, an animal, or the like jumps out.
  • the bicycle, children, animals, etc. other than the automobile may enter a blind spot that cannot be grasped by the in-vehicle camera, and the in-vehicle camera may not be able to recognize the bicycle, children, animals, etc. rice field.
  • the information processing device 100 can specify the destination of the target vehicle even when a bicycle, a child, an animal, or the like jumps out.
  • the automobile 10 can prevent a traffic accident.
  • the information processing device 100 is an example of a specific process for identifying a vehicle 10 equipped with an in-vehicle camera that has captured an in-vehicle camera image corresponding to an estimated image among a plurality of vehicles equipped with the in-vehicle camera.
  • the present invention is not limited to the above specific processing.
  • the information processing device 100 identifies a target vehicle that violates the stop prohibition based on a surveillance camera image taken by the surveillance camera 20. Further, the information processing device 100 is the specified target vehicle, and by performing the above-mentioned specific processing on the target vehicle that violates the stop prohibition, the vehicle 10 corresponding to the target vehicle that violates the stop prohibition.
  • the car ID and the destination may be specified.
  • the information processing device 100 may provide information regarding a claim for a fine or the like to the police or the like after a predetermined period from the specified automobile ID. Further, the information processing device 100 may store a flag in a predetermined storage unit, such as a dangerous vehicle that repeats violations, in association with the specified vehicle ID. When performing such processing, the information processing apparatus 100 does not have to perform notification using the specific result.
  • a predetermined storage unit such as a dangerous vehicle that repeats violations
  • the information processing device 100 identifies a target vehicle that violates the overtaking prohibition based on a surveillance camera image taken by the surveillance camera 20. Further, the information processing device 100 is the specified target vehicle, and the vehicle 10 of the vehicle 10 corresponding to the target vehicle that violates the overtaking prohibition by performing specific processing on the target vehicle that violates the overtaking prohibition.
  • the ID and the destination may be specified.
  • the information processing device 100 uses the external shape of the building included in the in-vehicle camera image, the relative position of the building estimated from other objects and landscapes, and the building included in the estimated image.
  • An example of the process of calculating the similarity from the outer shape and the relative position of the building estimated from other objects and landscapes has been described, but the above-mentioned specific process is performed on any object instead of the building. May be applied.
  • the object may be a dangerous vehicle or the like.
  • FIG. 9 is a diagram showing a specific example of the specific processing executed by the information processing apparatus according to the modified example.
  • the information processing device 100 identifies the destination of the vehicle 10 from which the vehicle-mounted camera image has been acquired by associating the dangerous vehicle included in the surveillance camera image with the dangerous vehicle included in the vehicle-mounted camera image (step S31).
  • the information processing device 100 acquires the surveillance camera image FIM2 including the automobile CA2 from the surveillance camera image providing device FIS as the surveillance camera image. At this time, the information processing device 100 identifies the automobile CA2 by using a conventional technique such as image analysis. It is assumed that the automobile CA2 included in the surveillance camera image FIM2 is a dangerous automobile.
  • the information processing device 100 acquires the on-board camera image SIM2 including the vehicle CA2 as the vehicle-mounted camera image from the vehicle-mounted camera image providing device SIS. At this time, the information processing device 100 identifies the automobile CA2 by using a conventional technique such as image analysis. It is assumed that the automobile CA2 included in the in-vehicle camera image SIM2 is a dangerous automobile.
  • the information processing device 100 uses a conventional technique such as image analysis, and is included in the surveillance camera image FIM2 based on the similarity of information such as the license plate, the type of the vehicle, the outer shape of the vehicle, and the color of the vehicle. It is determined that the CA2 and the automobile CA2 included in the vehicle-mounted camera image SIM2 are the same. For example, the information processing device 100 calculates the degree of similarity between the automobile CA2 included in the surveillance camera image FIM2 and the automobile CA2 included in the in-vehicle camera image SIM2.
  • the information processing device 100 can be used for information such as the license plate of the automobile CA2 included in the surveillance camera image FIM2 and the automobile CA2 included in the in-vehicle camera image SIM2, the type of vehicle, the outer shape of the vehicle, and the color of the vehicle. Based on this, the similarity is calculated.
  • the calculation process for calculating such similarity can be realized by conventional techniques such as image analysis and image matching.
  • the information processing apparatus 100 compares the feature amount extracted from the image of the automobile CA1 included in the surveillance camera image FIM2 with the feature amount extracted from the image of the automobile CA1 included in the in-vehicle camera image SIM2. Then, the similarity may be calculated. Then, the information processing apparatus 100 determines that the surveillance camera image FIM2 and the vehicle-mounted camera image SIM2 correspond to each other when the calculated similarity is equal to or higher than a predetermined threshold value.
  • the information processing device 100 determines that the surveillance camera image FIM2 and the vehicle-mounted camera image SIM2 correspond to each other, the information processing device 100 can identify the vehicle 10 equipped with the vehicle-mounted camera that captured the vehicle-mounted camera image SIM2. As a result, the information processing device 100 realizes that the vehicle ID of the specified vehicle 10 is specified by associating the surveillance camera image FIM2 with the vehicle-mounted camera image SIM2.
  • the information processing device 100 is equipped with an in-vehicle device that captures an in-vehicle camera image corresponding to the estimated image when the surveillance camera 20 detects that the automobile 10 is likely to have a traffic accident.
  • an example of the specific process for identifying the vehicle 10 as the target vehicle photographed by the surveillance camera 20 the specific process is not limited to the above-mentioned specific process.
  • the information processing device 100 is not limited to the case where the surveillance camera 20 detects that the automobile 10 is likely to have a traffic accident, but the estimated image is used as a search query and acquired from the vehicle-mounted camera image providing device SIS.
  • the in-vehicle camera image corresponding to the estimated image is searched from the in-vehicle camera image, and the vehicle equipped with the in-vehicle device that captured the estimated image and the corresponding in-vehicle camera image is always specified as the target vehicle photographed by the surveillance camera 20. You may.
  • the information processing device 100 can quickly identify an appropriate destination in advance, so that it is possible to prevent a traffic accident or the like.
  • the information processing device 100 may notify any information as information indicating a warning regarding the unconnected vehicle.
  • information indicating a warning regarding a non-connected vehicle includes the characteristics of the non-connected vehicle such as the license plate, the type of the vehicle, the outer shape of the vehicle, the color of the vehicle, the estimated operating speed of the unconnected vehicle, and the unconnected vehicle. Includes location information, etc.
  • the information indicating the warning regarding the non-connected vehicle includes the control information regarding the traveling of the automobile 10.
  • the notification mode of the information indicating the alert regarding the unconnected vehicle may be any mode.
  • the notification mode may be a notification mode acquired only by the automobile 10.
  • the notification mode may be a mode that can be understood by the passengers of the automobile 10.
  • the information processing apparatus 100 has described an example of a notification process for notifying information indicating a warning regarding a non-connected vehicle, but the information processing device 100 is not limited to the above notification process.
  • the information processing device 100 stops the vehicle stop prohibition violation when the vehicle ID or the destination of the vehicle 10 which is the vehicle stop prohibition violation is specified by performing the linking process on the vehicle 10 which is the vehicle stop prohibition violation.
  • the vehicle 10 may be notified of the content such as.
  • the above modification can be applied to the automobile 10 that violates any kind of violation instead of the automobile 10 that is a violation of the prohibition of stopping.
  • the information processing device 100 stops the overtaking prohibition violation when the automobile ID of the automobile 10 which is the overtaking prohibition violation and the destination are specified by performing the linking process on the automobile 10 which is the overtaking prohibition violation.
  • the vehicle 10 may be notified of the content such as.
  • the information processing device 100 is a vehicle equipped with an in-vehicle camera that captures an in-vehicle camera image corresponding to an estimated image estimated from the surveillance camera image among a plurality of vehicles equipped with the in-vehicle camera. An example of the process of specifying is described. In another embodiment, the information processing device 100 identifies the vehicle 10 based on the license plate of the vehicle 10 included in the image when the image includes the vehicle 10 that is likely to be involved in a traffic accident. An example of is shown.
  • the information processing device 100 identifies the automobile 10 based on the license plate of the automobile 10 included in the surveillance camera image. ..
  • the information processing device 100 is a vehicle specified by analyzing a surveillance camera image using a conventional technique such as image analysis when the surveillance camera image includes a vehicle 10 that is likely to be involved in a traffic accident. It is determined whether or not the number plate of 10 and the number plate of the automobile 10 stored in the storage unit match. Then, the information processing device 100 corresponds to the license plate when it is determined that the license plate of the automobile 10 identified by analyzing the surveillance camera image and the license plate of the automobile 10 stored in the storage unit match. The destination of the automobile 10 attached and stored is specified.
  • the information processing device 100 warns the automobile 10 that is likely to be involved in a traffic accident from the surveillance camera image taken by the surveillance camera 20 about the traffic accident.
  • the information processing device 100 corresponds to the license plate when it is determined that the license plate of the automobile 10 identified by analyzing the surveillance camera image and the license plate of the automobile 10 stored in the storage unit match.
  • the destination of the automobile 10 attached and stored is specified.
  • the information processing apparatus 100 can preferably identify a mobile body that satisfies a predetermined condition.
  • the information processing device 100 according to the embodiment exerts an advantageous effect when the license plate of the automobile 10 cannot be identified from the surveillance camera image due to the angle relationship between the surveillance camera 20 and the automobile 10.
  • the information processing device 100 according to the embodiment may be a vehicle equipped with an in-vehicle camera that captures an in-vehicle camera image corresponding to an estimated image estimated from a surveillance camera image among a plurality of vehicles equipped with an in-vehicle camera.
  • the destination of the automobile can be preferably specified. In this way, the information processing device 100 according to the embodiment can specify the destination of the automobile 10 even when the license plate of the automobile 10 cannot be specified. That is, the information processing device 100 according to the embodiment can provide information that supplements the processing performed by the information processing device 100 according to another embodiment.
  • FIG. 10 is a hardware configuration diagram showing an example of a computer 1000 that realizes the functions of the information processing device 100.
  • the computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F). ) Has 1700.
  • the CPU 1100 operates based on the program stored in the ROM 1300 or the HDD 1400, and controls each part.
  • the ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.
  • the HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like.
  • the communication interface 1500 receives data from another device via the network N and sends it to the CPU 1100, and the CPU 1100 transmits the data generated by the CPU 1100 via the network N to the other device.
  • the CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600.
  • the CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the data generated via the input / output interface 1600 to the output device.
  • the media interface 1700 reads the program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200.
  • the CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program.
  • the recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.
  • the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the RAM 1200. Further, the data in the storage unit 120 is stored in the HDD 1400. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via the network N.
  • each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.
  • the information processing device 100, the surveillance camera image providing device FIS, and the in-vehicle camera image providing device SIS may be integrated into one information processing device. In this case, the information processing device acquires a surveillance camera image taken from the surveillance camera 20, and acquires an in-vehicle camera image taken by the in-vehicle device of the automobile 10.
  • section, module, unit can be read as “means” or “circuit”.
  • specific unit can be read as a specific means or a specific circuit.
  • the information processing apparatus 100 has an estimation unit 133 and a specific unit 134.
  • the estimation unit 133 estimates an image taken by the surveillance camera or taken by an in-vehicle camera mounted on a vehicle located in the vicinity of the surveillance camera.
  • the identification unit 134 identifies the vehicle equipped with the vehicle-mounted camera that has captured the vehicle-mounted camera image corresponding to the estimated image among the plurality of vehicles equipped with the vehicle-mounted camera.
  • the information processing device 100 is predetermined in order to identify the vehicle equipped with the vehicle-mounted camera that has captured the vehicle-mounted camera image corresponding to the estimated image among the plurality of vehicles equipped with the vehicle-mounted camera.
  • a moving body satisfying the above conditions can be preferably specified.
  • the estimation unit 133 estimates an image taken by the vehicle-mounted camera mounted on the target vehicle taken by the surveillance camera as an estimated image
  • the specific unit 134 has a plurality of specific units 134.
  • the automobile equipped with the in-vehicle camera that captured the in-vehicle camera image corresponding to the estimated image is associated with the target automobile.
  • the information processing device 100 is provided with a predetermined condition for associating the vehicle equipped with the vehicle-mounted camera that has captured the vehicle-mounted camera image corresponding to the estimated image among the plurality of vehicles and the target vehicle.
  • a moving body satisfying the above conditions can be preferably specified.
  • the image taken by the vehicle-mounted camera and the information that can identify the vehicle on which the vehicle-mounted camera is mounted are associated and stored in the vehicle-mounted camera image storage unit SISM so as to be accessible.
  • the identification unit 134 searches the vehicle-mounted camera image storage unit SISM based on the estimated image, and identifies a vehicle equipped with the vehicle-mounted camera that has captured the vehicle-mounted camera image corresponding to the estimated image.
  • the information processing apparatus 100 searches the vehicle-mounted camera image storage unit SISM based on the estimated image, and identifies the vehicle equipped with the vehicle-mounted camera that has captured the vehicle-mounted camera image corresponding to the estimated image.
  • a moving body satisfying a predetermined condition can be preferably specified.
  • the estimation unit 133 has a predetermined positional relationship with the dangerous vehicle when the other vehicle photographed by the surveillance camera is a dangerous vehicle having a high possibility of causing a traffic accident.
  • the estimated image is estimated with the located vehicle as the target vehicle.
  • the information processing device 100 can use a vehicle located in a predetermined positional relationship with the dangerous vehicle when the other vehicle photographed by the surveillance camera is a dangerous vehicle having a high possibility of causing a traffic accident. Since the estimated image is estimated as the target vehicle, a moving body satisfying a predetermined condition can be preferably specified.
  • the estimation unit 133 estimates the estimated image with the vehicle as the target vehicle.
  • the information processing device 100 estimates the estimated image of the vehicle as the target vehicle when it is determined that the vehicle photographed by the surveillance camera violates the traffic rules.
  • a moving body satisfying the above conditions can be preferably specified.
  • the estimation unit 133 determines the surveillance camera image, the orientation of the surveillance camera when the surveillance camera is photographed, and the orientation of the in-vehicle camera of the target vehicle photographed by the surveillance camera. Based on the above, an image taken by an in-vehicle camera mounted on the target vehicle is estimated as an estimated image.
  • the information processing apparatus 100 is based on the surveillance camera image, the orientation of the surveillance camera when the surveillance camera is photographed, and the orientation of the in-vehicle camera of the target vehicle photographed by the surveillance camera. Since the image taken by the in-vehicle camera mounted on the target vehicle is estimated as an estimated image, a moving body satisfying a predetermined condition can be preferably specified.
  • the estimation unit 133 estimates the estimated image based on how the landmark is displayed when viewed from the vehicle-mounted camera.
  • the identification unit 134 identifies and identifies, among a plurality of automobiles, an automobile equipped with an in-vehicle camera that captures an in-vehicle camera image showing the landmark so as to correspond to the appearance of the landmark in the estimated image. Link the car with the target car.
  • the information processing device 100 is equipped with an in-vehicle camera that captures an in-vehicle camera image showing the landmark so as to correspond to the appearance of the landmark in the estimated image among a plurality of automobiles. Since the vehicle is specified and the specified vehicle is associated with the target vehicle, a moving body satisfying a predetermined condition can be preferably specified.
  • the estimation unit 133 estimates the estimated image based on how the dangerous automobile is reflected when viewed from the in-vehicle camera.
  • the identification unit 134 identifies an automobile equipped with an in-vehicle camera that captures an in-vehicle camera image showing the automobile so as to correspond to the appearance of the automobile in the estimated image, and identifies the automobile and the target. Link with a car.
  • the information processing device 100 is equipped with an in-vehicle camera that captures an in-vehicle camera image of the dangerous vehicle so as to correspond to the appearance of the dangerous vehicle in the estimated image among the plurality of automobiles. Since the vehicle is specified and the specified vehicle is associated with the target vehicle, a moving body satisfying a predetermined condition can be preferably specified.
  • the information processing device 100 further includes a notification unit 135 for notifying the vehicle specified by the specific unit 134 of information to be notified to the target vehicle, and the information to be notified is a surveillance camera. It is determined by analyzing the images taken by.
  • the information processing device 100 should notify the specified vehicle of the information to be notified to the target vehicle, which is determined by analyzing the image taken by the surveillance camera.
  • the information it is possible to preferably identify a moving body that satisfies a predetermined condition.
  • the notification unit 135 notifies the automobile of information indicating a warning regarding the automobile having a high possibility of causing a traffic accident or information including control information regarding the running of the automobile.
  • the information processing device 100 satisfies a predetermined condition in order to notify the automobile of information including alert information regarding the automobile having a high possibility of causing a traffic accident or control information regarding the traveling of the automobile.
  • the moving body can be preferably specified.

Abstract

本願に係る情報処理装置は、推定部と、特定部とを有する。推定部は、監視カメラによって撮影された監視カメラ画像に基づいて、監視カメラによって撮影された又は監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する。特定部は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。

Description

交通リスク低減記録媒体、情報処理装置及び方法
 本発明は、交通リスク低減記録媒体、情報処理装置及び方法に関する。
 近年、自動運転技術の進展により、自動運転車が普及しつつある。例えば、インフラセンサから見た場合におけるオブジェクトによって生じる死角領域を示す第1死角情報と、車載センサから見た場合におけるオブジェクトによって生じる死角領域を示す第2死角情報とに基づく各々の死角領域に共通する第1共通死角領域を示す共通死角情報を外部装置に出力する技術が知られている。
特開2018-195289号公報
 しかしながら、上記の従来技術では、所定の条件を満たす移動体を好適に特定することができるとは限らない。例えば、上記の従来技術では、各々の死角領域に共通する第1共通死角領域を示す共通死角情報を外部装置に出力しているに過ぎず、交通事故に巻き込まれる可能性が高い移動体に対して交通事故を回避するための情報を提供する場合に、かかる移動体を特定することができるとは限らない。
 本願は、上記に鑑みてなされたものであって、所定の条件を満たす移動体を好適に特定することができる交通リスク低減記録媒体、情報処理装置及び方法を提供することを目的とする。
 本願に係る情報処理装置は、監視カメラによって撮影された監視カメラ画像に基づいて、前記監視カメラによって撮影された又は前記監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する推定部と、車載カメラが搭載された複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定部とを備えたことを特徴とする。
 実施形態の一態様によれば、所定の条件を満たす移動体を好適に特定することができるという効果を奏する。
図1は、実施形態に係る情報処理装置が実行する特定処理の一例を示す図である。 図2は、実施形態に係る情報処理装置が実行する特定処理の具体例を示す図である。 図3は、実施形態に係る情報処理装置の構成例を示す図である。 図4は、実施形態に係る監視カメラ画像記憶部の一例を示す図である。 図5は、実施形態に係る車載カメラ画像記憶部の一例を示す図である。 図6は、実施形態に係る推定画像記憶部の一例を示す図である。 図7は、実施形態に係る宛先記憶部の一例を示す図である。 図8は、実施形態に係る情報処理装置が実行する特定処理の流れの一例を示すフローチャートである。 図9は、変形例に係る情報処理装置が実行する特定処理の具体例を示す図である。 図10は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
 以下に、本願に係る交通リスク低減記録媒体、情報処理装置及び方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る交通リスク低減記録媒体、情報処理装置及び方法が限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.着想背景〕
 近年の自動運転技術の進展により、自動運転車が普及しつつあるが、交通システムの整備が十分とは言えない点がある。例えば、自動運転車が普及しつつある過程では、自動運転車と、運転手によって運転される自動車である手動自動車とが、混在する過程が存在する。この場合、自動運転車のみが交通ルールに従って走行したとしても、手動自動車に起因する交通事故等を防ぐことが難しい。このため、手動自動車の走行を考慮した上で、自動運転車を高精度に制御する必要があった。
 しかしながら、自動運転車の走行技術が十分とは限らない。例えば、自動運転車は、カメラ等の撮影装置を有し、自動運転車の周辺を撮影することで、周辺の環境や、状況に基づいて、走行を制御する。この場合、自動運転車は、所定の速度以上で走行した場合に、側面の環境や、状況を認識できない場合がある。例えば、自動運転車は、高速で走行した場合に、側面を撮影するカメラの映像が流れてしまい、他の車両や、物体を認識できない場合がある。この場合、自動運転車は、側面からの情報を取得することが困難になるため、側面からの交通事故等のリスクが高くなる。このように、自動運転車の走行技術に関して、側面からの情報を如何に取得するかが課題であった。
 そこで、本実施形態では、自動運転車の走行を支援する技術を提供する。本実施形態では、センサ等の外部装置等から取得される情報を活用することで、自動運転車の側面からの情報を補完する。これにより、本実施形態は、自動運転車に対して高精度に制御を行うことを可能とする。
〔2.情報処理装置が示す特定処理の一例〕
 図1を用いて、実施形態に係る情報処理装置100が実行する特定処理の一例について説明する。図1は、実施形態に係る情報処理装置100が実行する特定処理の一例を示す図である。
 図1に示すように、情報処理システム1は、自動車10と、監視カメラ20と、監視カメラ画像提供装置FISと、車載カメラ画像提供装置SISと、情報処理装置100とを含む。自動車10、監視カメラ20、監視カメラ画像提供装置FIS、車載カメラ画像提供装置SIS及び情報処理装置100は、図示しない無線ネットワークを介して接続される。なお、図1に示す情報処理システム1には、複数台の自動車10や、複数台の監視カメラ20や、複数台の監視カメラ画像提供装置FISや、複数台の車載カメラ画像提供装置SISや、複数台の情報処理装置100が含まれてもよい。
 実施形態に係る自動車10は、無線ネットワークを介して他の各種装置と通信するコネクテッド車両である。例えば、自動車10は、自動車10に組み込まれた通信モジュール等の車載装置により通信を実行する。
 また、自動車10は、カメラ機能付きの車載装置を有する。例えば、車載装置は、ドライブレコーダや、カーナビゲーションシステムや、ドライブレコーダ機能を有するカーナビゲーションシステム等である。例えば、各自動車10に組み込まれた車載装置は、所定の角度から撮影された風景等を含む画像(以下、車載カメラ画像と表記する場合がある)と、車載装置が搭載された自動車10を識別するための自動車ID(Identifier)とを常時、車載カメラ画像提供装置SISに送信する。
 実施形態に係る監視カメラ20は、無線ネットワークを介して他の各種装置と通信可能な機能を有する監視カメラである。例えば、監視カメラ20は、交通信号機又は交通信号機が取り付けられる柱に固定されて設置される。監視カメラ20は、所定の角度から撮影された風景等を含む画像(以下、監視カメラ画像と表記する場合がある)を取得する。なお、以下では、異なる監視カメラ毎に、監視カメラ2Nと表記し、監視カメラ2Nを特に区別しない場合には、監視カメラ20と表記する。
 実施形態に係る監視カメラ画像提供装置FISは、例えば、サーバ装置又はクラウドシステム等により実現される。具体的には、監視カメラ画像提供装置FISは、監視カメラ20によって撮影された監視カメラ画像を常時、取得する。そして、監視カメラ画像提供装置FISは、情報処理装置100からの要求に応じて、情報処理装置100に監視カメラ画像を提供する。
 実施形態に係る車載カメラ画像提供装置SISは、例えば、サーバ装置又はクラウドシステム等により実現される。具体的には、車載カメラ画像提供装置SISは、自動車10が有する車載装置によって撮影された画像と自動車IDとを常時又は所定の間隔(例えば毎秒30回)毎に取得する。そして、車載カメラ画像提供装置SISは、情報処理装置100からの要求に応じて、情報処理装置100に車載カメラ画像と自動車IDとを提供する。また、情報処理装置100は、自動車10を識別する自動車IDと連絡先とを対応付けて所定の記憶部に記憶する。
 実施形態に係る情報処理装置100は、例えば、サーバ装置又はクラウドシステム等により実現される。具体的には、情報処理装置100は、監視カメラによって撮影された監視カメラ画像に基づいて、自動車に搭載された車載カメラによって撮影される画像を推定する。そして、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。
 以下、図1を用いて、情報処理装置100による特定処理の一例を流れに沿って説明する。
 図1の例では、危険な走行を行うコネクテッド車両ではない自動車CA1(以下では、非コネクテッド車両CA1と表記する場合がある)と、コネクテッド車両である自動車10が、交差点に接近している例を示す。
 ここで、監視カメラ20により撮影された画像を解析した結果、非コネクテッド車両CA1が法定速度を大幅に超えて走行して交差点に進入しようとしており、非コネクテッド車両CA1と、自動車10とが衝突する可能性が高いと推定されたものとする。すなわち、図1に示す例において、自動車10が交通事故に遭う可能性が高いことが監視カメラ20によって検出されているものとする。
 この場合、監視カメラ20から自動車10に対して、交通事故に関する注意喚起等を行いたいが、監視カメラ20によって撮影された画像だけでは、自動車10の通信の宛先を特定することができず、通知を行うことが困難である。この課題に対して、本実施形態では、監視カメラ20によって撮影された自動車10の宛先を以下の手順により特定する。
 まず、図1に示すように、情報処理装置100は、監視カメラ21及び22によって撮影された監視カメラ画像を監視カメラ画像提供装置FISから取得する(ステップS1)。
 例えば、図1の例では、情報処理装置100は、監視カメラ21によって撮影された非コネクテッド車両CA1を含む監視カメラ画像を取得する。また、図1の例では、情報処理装置100は、監視カメラ22によって撮影された自動車10を含む監視カメラ画像を取得する。この場合、図1の例では、監視カメラ21によって撮影された監視カメラ画像には、法定速度を大幅に超えて走行する非コネクテッド車両CA1が撮影されているものとする。また、監視カメラ22によって撮影された監視カメラ画像には、自動車10を含む監視カメラ画像が撮影されているものとする。なお、情報処理装置100は、監視カメラ画像提供装置FISから予め監視カメラ画像を取得し、車載カメラ画像提供装置SISから予め車載カメラ画像を取得していてもよい。このとき、情報処理装置100は、任意の順序で、車載カメラ画像や。監視カメラ画像を取得して良い。
 ここで、情報処理装置100は、監視カメラ画像に基づいて、交通事故に巻き込まれる可能性が高い自動車を対象自動車として特定する(ステップS2)。例えば、情報処理装置100は、監視カメラ画像に撮影された自動車が交通事故を起こす可能性が高い危険自動車であるか否かを判定する。具体的な例を挙げると、監視カメラ21によって撮影された監視カメラ画像には、法定速度を大幅に超えて走行する非コネクテッド車両CA1が撮影されているものとする。この場合、情報処理装置100は、非コネクテッド車両CA1が交通事故を起こす可能性が高い危険自動車であると判定する。
 そして、情報処理装置100は、危険自動車が撮影された場合、監視カメラ画像から、交通事故に巻き込まれる可能性が高い自動車を対象自動車として特定する。例えば、自動車10の死角を走行している非コネクテッド車両CA1が危険自動車であるものとする。この場合、情報処理装置100は、監視カメラ21と監視カメラ22との位置関係に基づいて、自動車10を対象自動車として特定する。
 なお、情報処理装置100は、監視カメラ画像から推定される自動車10の向きや、危険自動車である非コネクテッド車両CA1の向きや、自動車10及び非コネクテッド車両CA1の速度や、監視カメラ20が設置された道路に存在する建物や道路の位置関係等を考慮して、対象自動車の特定を行ってもよい。このような対象自動車の特定については、画像解析により交通事故の発生を推定する各種の公知技術が採用可能である。
 ここで、監視カメラ画像から自動車10を対象自動車として特定したとしても、監視カメラ画像からは、自動車10の宛先を特定するのが困難となる。そこで、情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像に基づいて、対象自動車である自動車10の車載装置によって撮影されると予測される車載カメラ画像を推定する(ステップS3)。
 また、情報処理装置100は、推定された車載カメラ画像(以下、推定画像と表記する場合がある)を検索クエリとし、車載カメラ画像提供装置SISから取得された車載カメラ画像から、推定画像と対応する車載カメラ画像を検索する(ステップS4)。そして、情報処理装置100は、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車を、監視カメラ20により撮影された対象自動車として特定する(ステップS5)。すなわち、情報処理装置100は、推定画像と車載カメラ画像とのマッチング結果に基づいて、宛先が既知となるコネクテッド車両のうち、推定画像と対応する車載カメラ画像を撮影したコネクテッド車両を、監視カメラ画像に撮影された対象自動車に紐付ける。
 ここで、図2を用いて推定画像と車載カメラ画像とのマッチングを行う処理について説明する。図2は、実施形態に係る情報処理装置が実行する特定処理の具体例を示す図である。なお、図2に示す処理は、図1に示すステップS1~S5に相当する。
 図2の例では、情報処理装置100は、監視カメラ画像として、自動車TC10及び建造物TO1を含む画像が示す画像FIM1を監視カメラ22から取得する(ステップS21)。このとき、情報処理装置100は、画像解析等の従来技術を用いることで、自動車TC10及び建造物TO1を特定する。
 このような場合、情報処理装置100は、監視カメラ22によって撮影された監視カメラ画像に含まれる自動車TC10を対象自動車TC10とする。そして、情報処理装置100は、監視カメラ22によって撮影された画像から、対象自動車TC10の車載装置によって撮影されると予測される推定画像PIM1を生成する(ステップS22)。例えば、情報処理装置100は、監視カメラ22によって継続的に撮影された各種監視カメラ画像や、監視カメラ22の近傍に設置された他の監視カメラ20によって撮影された各種監視カメラ画像を用いて、推定画像PIM1を生成する。なお、このような推定画像の生成処理は、ある視点から撮影された画像から、他の視点から撮影された画像を推定する各種推定技術等により実現可能である。
 一方、情報処理装置100は、自動車10の車載装置によって撮影された車載カメラ画像SIM1を取得する(ステップS23)。ここで、自動車10が対象自動車TC10である場合、自動車10の車載装置が撮影する車載カメラ画像SIM1は、推定画像PIM1と類似すると考えられる。そこで、情報処理装置100は、車載カメラ画像SIM1と推定画像PIM1のマッチングを行う(ステップS24)。例えば、情報処理装置100は、推定画像PIM1と、車載カメラ画像SIM1との画像の類似性を示す度合いである類似度が所定の閾値以上である場合に、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定する。
 この場合、情報処理装置100は、車載カメラ画像SIM1と推定画像PIM1とに既知の建造物TO1が含まれる場合、車載カメラ画像SIM1に含まれる建造物TO1と、推定画像PIM1に含まれる建造物TO1とを比較することで類似度を算出する。
 例えば、情報処理装置100は、車載カメラ画像SIM1に含まれる建造物TO1の外形や、他の物体及び風景等から推定される建造物TO1の相対的な位置等と、推定画像PIM1に含まれる建造物TO1の外形や、他の物体及び風景等から推定される建造物TO1の相対的な位置等とから、類似度を算出する。なお、このような類似度を算出する算出処理は、画像解析や、画像マッチング等の従来技術により実現可能である。また、情報処理装置100は、車載カメラ画像SIM1から抽出された特徴量と、推定画像PIM1から抽出された特徴量との比較を行うことで、類似度を算出してもよい。そして、情報処理装置100は、算出された類似度が所定の閾値以上である場合に、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定する。
 そして、情報処理装置100は、車載カメラ画像SIM1と推定画像PIM1とが対応する(類似する)と判定した場合、対象自動車TC10と、車載カメラ画像SIM1を撮影した車載装置が搭載された自動車10とを紐付ける。このような処理を行うことで、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車10を特定することができる。これにより、情報処理装置100は、監視カメラ画像に撮影された対象自動車TC10と、特定した自動車10の自動車IDとを紐付けることで、対象自動車TC10と自動車10との紐付けを実現する。そして、情報処理装置100は、特定した自動車IDと対応付けられた宛先を、対象自動車TC10の宛先として特定する。このように、情報処理装置100は、交通事故に巻き込まれる可能性が高い自動車10に対して情報を送信する際に、適切な情報の宛先を特定することができる。
 図1に戻り、説明を続ける。情報処理装置100は、特定された自動車10に非コネクテッド車両CA1に関する注意喚起の情報を通知する(ステップS6)。このような処理の結果、自動車10は、通知された非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、各種運転制御を行うこととなる。例えば、自動車10は、非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、所定の速度以下に減速してもよく、徐々に減速することで、停車してもよい。
 また、例えば、自動車10は、非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、非コネクテッド車両CA1から回避するような走行を行ってもよい。例えば、自動車10は、非コネクテッド車両CA1と離れる位置に移動するように運転操作を制御して走行してもよい。
 このように、実施形態に係る情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像から、危険な走行を行う非コネクテッド車両CA1との交通事故に巻き込まれる可能性が高い自動車10に対して、交通事故に関する注意喚起等を行いたい場合に対して解決方法を提供する。従来、監視カメラ20によって撮影された監視カメラ画像だけでは、自動車10の宛先を特定できなかった。この課題に対して、情報処理装置100は、推定画像を検索クエリとし、車載カメラ画像提供装置SISに対して推定画像と対応する車載カメラ画像を検索することで、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車を、監視カメラ20により撮影された対象自動車として特定する。そして、情報処理装置100は、非コネクテッド車両CA1に起因する交通事故等の危険情報を自動車10に通知する。このように、情報処理装置100は、非コネクテッド車両CA1に起因する交通事故等の危険情報を特定された自動車10に好適に通知することができる。例えば、自動車10は、車載カメラによって撮影できない領域(死角)に位置する物体に関する情報を取得することが困難であった。しかしながら、情報処理装置100は、監視カメラ20によって撮影される監視カメラ画像を活用することで、自動車10の死角から非コネクテッド車両CA1が突然、飛び出した場合であっても、非コネクテッド車両CA1に起因する交通事故等の危険情報を自動車10に通知することができる。
 上述した処理の結果、自動車10は、情報処理装置100によって通知される情報に基づいて、各種運転制御を行うことができる。例えば、自動車10は、情報処理装置100によって通知される非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、所定の速度以下に減速することや、徐々に減速することで、停車することといった制御を行うことができる。これにより、自動車10は、各種交通状況や、危険な状況等に応じた各種運転制御を行うため、より安全性の高い走行を実現することができる。したがって、自動車10は、側面の環境や、状況を認識できない場合であっても、情報処理装置100によって通知される情報に基づいて、適切な走行を実現することができる。
〔3.情報処理装置の構成〕
 次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
(通信部110について)
 通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、無線ネットワークを介して、自動車10と、監視カメラ20と、監視カメラ画像提供装置FISと、車載カメラ画像提供装置SISとの間で情報の送受信を行う。より具体的には、通信部110は、監視カメラ画像提供装置FISが有する監視カメラ画像記憶部FISMに登録された情報と、車載カメラ画像提供装置SISが有する車載カメラ画像記憶部SISMに登録された情報とを取得する。
 なお、図3に示す例では、監視カメラ画像記憶部FISMと車載カメラ画像記憶部SISMが情報処理装置100の外部に設けられている例について記載したが、実施形態は、これに限定されるものではない。例えば、情報処理装置100は、監視カメラ画像記憶部FISMと車載カメラ画像記憶部SISMとを監視カメラ画像提供装置FIS及び車載カメラ画像提供装置SISから取得し、記憶部120内に記憶してもよい。
(監視カメラ画像記憶部FISMについて)
 ここで、図4に、実施形態に係る実施形態に係る監視カメラ画像記憶部FISMの一例を示す。図4は、実施形態に係る実施形態に係る監視カメラ画像記憶部FISMの一例を示す図である。図4に示した例では、実施形態に係る監視カメラ画像記憶部FISMは、「カメラID」、「監視カメラ画像」、「時刻情報」といった項目を有する。
 「カメラID」は、監視カメラ20を識別する識別子である。「監視カメラ画像」は、「カメラID」に対応付けられた監視カメラ画像に関する情報である。「時刻情報」は、「監視カメラ画像」に対応付けられた監視カメラ20によって撮影された時刻に関する情報である。
 例えば、図4では、カメラIDによって識別された「SC1」は、監視カメラ画像が「FIM1」であり、時刻情報が「DA1」である。なお、図4に示した例では、監視カメラ画像及び時刻情報を「FIM1」及び「DA1」といった抽象的な符号で表現したが、監視カメラ画像及び時刻情報は、画像に関する具体的なファイル形式や、日時を示す数値等であってもよい。
(車載カメラ画像記憶部SISMについて)
 続いて、図5に、実施形態に係る車載カメラ画像記憶部SISMの一例を示す。図5は、実施形態に係る車載カメラ画像記憶部SISMの一例を示す図である。図5に示した例では、車載カメラ画像記憶部SISMは、「自動車ID」、「車載カメラ画像」、「時刻情報」といった項目を有する。
 「自動車ID」は、自動車10を識別する識別子である。「車載カメラ画像」は、「自動車ID」に対応付けられた車載カメラ画像に関する情報である。「時刻情報」は、「車載カメラ画像」に対応付けられた自動車10が有する車載装置によって撮影された時刻に関する情報である。
 例えば、図5では、自動車IDによって識別された「MO1」は、車載カメラ画像が「SIM1」であり、時刻情報が「DA1」である。なお、図5に示した例では、車載カメラ画像及び時刻情報を「SIM1」及び「DA1」といった抽象的な符号で表現したが、車載カメラ画像及び時刻情報は、画像に関する具体的なファイル形式や、日時を示す数値等であってもよい。
(記憶部120について)
 記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、推定画像記憶部121と、宛先記憶部122を有する。
(推定画像記憶部121について)
 実施形態に係る推定画像記憶部121は、監視カメラ画像に基づいて推定された推定画像を記憶する。ここで、図6に、実施形態に係る推定画像記憶部121の一例を示す。図6に示した例では、推定画像記憶部121は、「推定画像ID」、「推定画像」、「時刻情報」といった項目を有する。
 「推定画像ID」は、推定画像を識別する識別子である。「推定画像」は、「推定画像ID」に対応付けられた推定画像に関する情報である。「時刻情報」は、「推定画像」に対応付けられた推定画像が撮影されたと推定された時刻に関する情報である。
 例えば、図6では、推定画像IDによって識別された「CA1」は、推定画像が「PIM1」であり、時刻情報が「DA1」である。なお、図6に示した例では、推定画像及び時刻情報を「PIM1」及び「DA1」といった抽象的な符号で表現したが、推定画像及び時刻情報は、画像に関する具体的なファイル形式や、日時を示す数値等であってもよい。
(宛先記憶部122について)
 実施形態に係る宛先記憶部122では、自動車の自動車IDと連絡先といった宛先とが対応付けて記憶される。ここで、図7は、実施形態に係る宛先記憶部122の一例を示す図である。図7に示した例では、宛先記憶部122は、「自動車ID」と「宛先」といった項目を有する。「自動車ID」は、自動車10を識別する識別子である。「宛先」は、「自動車ID」に対応付けられた宛先であり、例えば、メールアドレス等である。
 例えば、図7では、宛先記憶部122は、自動車ID「MO1」が示す自動車の宛先が「AD1」である。なお、図6では、宛先を「AD1」等の抽象的な符号で表現したが、宛先は、メールアドレスや、IPアドレス等の通知先を示すための各種情報である。
(制御部130について)
 制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(交通リスク低減記録媒体に記録されるプログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
 図3に示すように、制御部130は、取得部131と、判定部132と、推定部133と、特定部134と、通知部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131について)
 取得部131は、各種情報を取得する。具体的には、取得部131は、自動車10の車載装置によって撮影された車載カメラ画像と、監視カメラ20によって撮影された監視カメラ画像とを取得する。より具体的な例を挙げると、取得部131は、監視カメラ画像提供装置FISから、監視カメラ画像記憶部FISMに登録された各種情報を取得し、車載カメラ画像提供装置SISから、車載カメラ画像記憶部SISMに登録された各種情報を取得する。
 例えば、図1の例では、取得部131は、監視カメラ21によって撮影された非コネクテッド車両CA1を含む監視カメラ画像を取得する。また、図1の例では、取得部131は、監視カメラ22によって撮影された自動車10を含む監視カメラ画像を取得する。この場合、図1の例では、監視カメラ21によって撮影された監視カメラ画像には、法定速度を大幅に超えて走行する非コネクテッド車両CA1が撮影されているものとする。また、監視カメラ22によって撮影された監視カメラ画像には、自動車10を含む監視カメラ画像が撮影されているものとする。そして、取得部131は、取得された各種情報を記憶部120に登録する。
 また、取得部131は、監視カメラ画像とともに、監視カメラ画像が撮影された角度に関する情報である監視カメラの角度情報を取得する。また、取得部131は、車載カメラ画像とともに、車載カメラ画像が撮影されたと推定される車載カメラの角度情報を取得する。
(判定部132について)
 判定部132は、監視カメラによって撮影された他の自動車が交通事故を起こす可能性が高い危険自動車であるか否かを判定する。また、判定部132は、監視カメラによって撮影された自動車が交通ルールを所定の回数以上違反している自動車である場合は、自動車を危険自動車と判定する。
 判定部132は、監視カメラ20によって撮影された監視カメラ画像を参照し、監視カメラ画像に移る自動車が交通事故を起こす可能性が高い危険自動車であるか否かを判定する。例えば、判定部132は、取得部131が監視カメラ画像記憶部ISMから取得した監視カメラ画像を受付けると、撮影された自動車10が所定の条件を満たすか否かに基づいて、自動車10が危険自動車であるか否かを判定する。
 例えば、判定部132は、撮影された自動車10が所定の運転操作で走行する場合、所定の閾値以上の速度で走行する場合、又は、所定の回数以上の交通ルールに違反していた場合の少なくともいずれか1つである場合に、危険自動車であると判定する。
 なお、判定部132は、自動車10が蛇行運転を繰り返す場合に、自動車10を危険自動車と判定してもよい。すなわち、判定部132は、監視カメラ20から取得した監視カメラ画像において、非コネクテッド車両CA1が蛇行運転を繰り返している場合は、非コネクテッド車両CA1が交通事故を起こす可能性が高い所定の運転操作で走行しているため、非コネクテッド車両CA1を危険自動車と判定する。
 一方、判定部132は、監視カメラ20から取得した監視カメラ画像において、非コネクテッド車両CA1が交通ルールを遵守した走行を行っている場合に、非コネクテッド車両CA1が交通事故を起こす可能性が低い所定の運転操作で走行しているため、非コネクテッド車両CA1を危険自動車と判定しない。
 また、例えば、判定部132は、監視カメラ20から取得した監視カメラ画像において、非コネクテッド車両CA1が法定速度以上の速度で走行している場合に、非コネクテッド車両CA1を危険自動車と判定し、非コネクテッド車両CA1が法定速度未満の速度で走行している場合に、非コネクテッド車両CA1を危険自動車と判定せずともよい。
 また、例えば、非コネクテッド車両CA1を含む監視カメラ画像を画像解析技術等の従来技術を用いることで、非コネクテッド車両CA1のナンバープレートを特定したものとする。この場合、判定部132は、ナンバープレートに対応付けられた非コネクテッド車両CA1の交通ルールに違反した違反履歴を取得し、所定の回数以上の交通ルールに違反しているときに、非コネクテッド車両CA1を危険自動車と判定してもよい。一方、判定部132は、非コネクテッド車両CA1が所定の回数未満しか交通ルールに違反していなかったときに、非コネクテッド車両CA1を危険移動体と判定せずともよい。
 また、判定部132は、監視カメラ画像に含まれる自動車が交通事故に巻き込まれる可能性が高い自動車であるか否かを判定する。例えば、判定部132は、監視カメラ画像に像が含まれる自動車10のいずれかを危険移動体と判定した場合に、監視カメラ画像に像が含まれる他の自動車10であって、交通事故に巻き込まれる可能性が高い他の自動車10を対象自動車と判定する。また、判定部132は、監視カメラ画像に像が含まれる自動車10のいずれかを危険移動体と判定した場合に、監視カメラ画像に像が含まれる他の自動車10であって、交通事故に巻き込まれる可能性が高い他の自動車10を対象自動車と判定する。
 例えば、危険自動車が撮影された監視カメラ21と、他の自動車10が撮影された監視カメラ22との位置関係が既知であり、監視カメラ21と、監視カメラ22との距離が所定の距離未満であるものとする。この場合、判定部132は、危険自動車と、自動車10とが所定の距離未満であるため、監視カメラ画像に像が含まれる自動車10が交通事故に巻き込まれる可能性が高い対象自動車であると判定する。なお、判定部132は、危険自動車と同じ監視カメラ画像に像が含まれる自動車10や、所定の時間内に危険自動車と同じ監視カメラ20により撮影された他の自動車10を交通事故に巻き込まれる可能性が高い対象自動車であると判定してもよい。
 また、例えば、判定部132は、判定された危険自動車が自動車10の死角近傍に位置する場合に、監視カメラ画像に含まれる自動車10が交通事故に巻き込まれる可能性が高い自動車であると判定し、かかる自動車10を対象自動車と判定する。ここで、自動車10の死角は、危険自動車の向き及び速度と、自動車10の向き及び速度とに基づいて推定される。例えば、自動車10の死角は、自動車10の側面等である。
(推定部133について)
 推定部133は、各種情報を推定する。具体的には、推定部133は、監視カメラ20によって撮影された監視カメラ画像に基づいて、監視カメラ20によって撮影された又は監視カメラ20近傍に存在する自動車10に搭載された車載カメラによって撮影される画像を推定する。また、推定部133は、判定部132によって判定された危険自動車と所定の位置関係に所在する自動車を対象自動車として、推定画像を推定する。例えば、推定部133は、取得部131によって取得された監視カメラ画像から、対象自動車の車載装置によって撮影されると予測される推定画像を生成する。
 ここで、一の監視カメラ画像だけでは、取得される情報に限りがあり、一の監視カメラ画像に基づいて推定画像を生成してしまうと、精度の低い推定画像が生成される恐れがある。そのため、推定部133は、複数の監視カメラから取得された監視カメラ画像を用いて、推定画像を生成する。具体的には、推定部133は、第1監視カメラが撮影した第1監視カメラ画像と、第1監視カメラとは異なる第2監視カメラが撮影した第2監視カメラ画像とに基づいて、推定画像を推定する。例えば、推定部133は、監視カメラ20によって継続的に撮影された各種監視カメラ画像や、監視カメラ20の近傍に設置された他の監視カメラ20によって撮影された各種監視カメラ画像を用いて、推定画像を生成する。この場合、推定部133は、対象自動車の向きや、速度や、大きさ及び車高等に基づいて、推定画像を生成する。そして、推定部133は、かかる推定画像を推定画像記憶部121に記憶する。
 また、監視カメラ毎に設置される向きや、監視カメラ毎に位置する地形等が異なる場合がある。この場合、監視カメラ画像毎に設置される向きや、位置する地形に基づく補正処理を行わないで、推定画像を生成してしまうと、精度の低い推定画像が生成される恐れがある。そのため、推定部133は、監視カメラ画像毎に設置される向きや、位置する地形に基づく補正処理を行う。具体的には、推定部133は、監視カメラ画像と、監視カメラ20が撮影された際の監視カメラの向きと、監視カメラに撮影された対象自動車の車載カメラの向きとに基づいて、対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定する。
 例えば、推定部133は、取得部131によって取得された監視カメラの角度情報に基づいて、推定画像を生成し、かかる推定画像を推定画像記憶部121に記憶する。例えば、監視カメラの角度情報には、監視カメラ20の撮影角度として、監視カメラ20が設置された地形に基づいて、各方位に対する座標から算出された角度等が含まれる。なお、このような推定画像の生成処理は、ある視点から撮影された画像から、他の視点から撮影された画像を推定する各種推定技術等により実現可能である。
(特定部134について)
 特定部134は、各種情報を特定する。具体的には、特定部134は、推定画像記憶部121を参照して、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。そして、特定部134は、特定した自動車と、監視カメラ画像に撮影された対象自動車とを紐付けることで、監視カメラ画像に撮影された対象自動車への通知を実現する。
 例えば、特定部134は、推定画像記憶部121に記憶される推定画像を検索クエリとし、車載カメラ画像提供装置SISから取得された車載カメラ画像から、推定画像と対応する車載カメラ画像を検索する。そして、特定部134は、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車を、監視カメラ20により撮影された対象自動車として特定する。すなわち、特定部134は、推定画像と車載カメラ画像とのマッチング結果に基づいて、宛先が既知となるコネクテッド車両のうち、推定画像と対応する車載カメラ画像を撮影したコネクテッド車両を、監視カメラ画像に撮影された対象自動車に紐付ける。
 特定処理についてより具体的な例を挙げると、図2の例では、特定部134は、推定部133によって生成された推定画像PIM1と、車載カメラ画像SIM1とのマッチングを行う。例えば、特定部134は、推定画像PIM1と、車載カメラ画像SIM1との画像の類似性を示す度合いである類似度が所定の閾値以上である場合に、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定する。
 この場合、特定部134は、車載カメラ画像SIM1と推定画像PIM1とに既知の建造物TO1が含まれる場合、車載カメラ画像SIM1に含まれる建造物TO1と、推定画像PIM1に含まれる建造物TO1とを比較することで類似度を算出する。
 例えば、特定部134は、車載カメラ画像SIM1に含まれる建造物TO1の外形や、他の物体及び風景等から推定される建造物TO1の相対的な位置と、推定画像PIM1に含まれる建造物TO1の外形や、他の物体及び風景等から推定される建造物TO1の相対的な位置とから、類似度を算出する。なお、このような類似度を算出する算出処理は、画像解析や、画像マッチング等の従来技術により実現可能である。また、特定部134は、車載カメラ画像SIM1から抽出された特徴量と、推定画像PIM1から抽出された特徴量との比較を行うことで、類似度を算出してもよい。そして、特定部134は、算出された類似度が所定の閾値以上である場合に、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定する。
 そして、特定部134は、車載カメラ画像SIM1と推定画像PIM1とが対応すると判定した場合、対象自動車TC10と、車載カメラ画像SIM1を撮影した車載装置が搭載された自動車10とを紐付ける。このような処理を行うことで、特定部134は、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車10を特定することができる。これにより、特定部134は、監視カメラ画像に撮影された対象自動車TC10と、特定した自動車10の自動車IDとを紐付けることで、対象自動車TC10と自動車10との紐付けを実現する。そして、特定部134は、特定した自動車IDと対応付けられた宛先を、対象自動車TC10の宛先として特定する。
 なお、特定部134は、監視カメラ20によって監視カメラ画像が撮影された日時と、自動車10の車載装置によって車載カメラ画像が撮影された日時との同一性に基づく特定処理を行ってもよい。例えば、特定部134は、車載カメラ画像と推定画像とに基づいて算出された類似度が所定の閾値以上であり、かつ、車載カメラ画像が撮影された日時と、推定画像が撮影されると予測される日時とが同時刻(例えば、数秒以内)に収まる場合は、対象自動車と、車載カメラ画像を撮影した車載装置が搭載された自動車10とを紐付けてもよい。
(通知部135について)
 通知部135は、各種情報を通知する。具体的には、通知部135は、特定部134により特定された自動車に対し、対象自動車に対して通知すべき情報を通知する。ここで、通知すべき情報は、監視カメラが撮影した映像を分析することにより決定される。
 例えば、通知部135は、特定部134により特定された自動車10の自動車IDを特定する。そして、通知部135は、特定された自動車IDと対応付けられた宛先を対象自動車の宛先として、各種の通知を行う。例えば、通知部135は、危険移動体となる車両の色や形状、車種名といった車両の特徴に関する情報を通知してもよい。また、通知部135は、危険移動体となる車両の速度に関する情報を通知してもよい。また、通知部135は、画像から推定される危険移動体となる車両の位置を通知してもよい。
 例えば、特定部134は、対象自動車に対し、自動車ID「MO1」により識別される自動車10を紐付けたものとする。このような場合、通知部135は、対象自動車の宛先として、特定された自動車10の宛先「AD1」を宛先記憶部122から特定する。そして、通知部135は、宛先「AD1」を対象自動車の宛先として、各種の通知を行う。例えば、通知部135は、非コネクテッド車両CA1が危険移動体である旨を通知する。このような処理の結果、対象自動車は、通知部135によって通知された非コネクテッド車両CA1に関する注意喚起を示す情報に基づいて、各種運転制御を行うことができる。
〔4.処理手順〕
 次に、図8を用いて、実施形態に係る情報処理装置100が実行する紐付処理の手順について説明する。図8は、実施形態に係る情報処理装置100が実行する紐付処理の流れの一例を示すフローチャートである。
 図8に示すように、取得部131は、監視カメラ画像提供装置FISから監視カメラ画像を取得する(ステップS101)。そして、判定部132は、監視カメラ画像から、危険自動車と対象自動車とを判定する(ステップS102)。判定部132は、監視カメラ画像から、危険自動車と対象自動車とを判定しない場合(ステップS102;No)、ステップS101の前まで戻る。
 一方、推定部133は、判定部132が監視カメラ画像から、危険自動車と対象自動車とを判定した場合(ステップS102;Yes)、対象自動車の車載装置によって撮影されると予測される推定画像を推定する(ステップS103)。そして、特定部134は、車載カメラ画像のうち、推定部133によって推定された推定画像と類似する画像を検索する(ステップS104)。また、特定部134は、推定画像と類似する車載カメラ画像の送信元となる自動車を特定する(ステップS105)。そして、通知部135は、特定した自動車の宛先を対象自動車の宛先とし、注意喚起の情報を通知する(ステップS106)。
〔5.変形例〕
 上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
〔5-1.移動体〕
 上記実施形態では、自動車を例に挙げて説明してきたが、自動車の代わりに、如何なる移動体に対して適用してもよい。例えば、移動体は、自転車、ドローン、バス又は電車等である。また、移動体は、非コネクテッド車両が後付の通信装置や情報処理装置等搭載することによりコネクテッド車両になった場合の自動車や、自動運転車等でもよい。すなわち、コネクテッド車両とは、前方や後方を含む360°を撮影する撮影機能と、撮影した画像(すなわち、車載カメラ画像)を情報処理装置100へと送信する通信機能とを有していればよく、自動運転を実現可能な車両であるか否かは、問わない概念である。
〔5-2.カメラ〕
 上記実施形態では、監視カメラを例に挙げて説明してきたが、監視カメラは、如何なるカメラであってもよい。例えば、典型的には、監視カメラは、車外に設置されているカメラである。例えば、監視カメラは、路側に固定されているカメラや、建築物に固定されているカメラであってもよい。また、例えば、監視カメラは、交差点上空に停留するドローンに搭載されているカメラであってもよい。例えば、カメラは、深度カメラ又は赤外線カメラ等であってもよい。また、情報処理装置100は、各種画素や画像の領域が現実世界の位置に対応するような画像を取得するカメラ以外にも、例えば、赤外線センサや各種電波センサ等が測定した対象自動車までの距離と、センサが設置された位置や向き等から、対象自動車の存在を判定し、対象自動車の各種センサが取得しうるセンサ情報を推定し、各自動車10から取得されたセンサ情報のうち、推定したセンサ情報と類似するセンサ情報の取得元となる自動車を対象自動車と紐付けてもよい。
〔5-3.車載装置〕
 上記実施形態では、車載装置を例に挙げて説明してきたが、車載装置の代わりに、如何なる端末装置に対して適用してもよい。具体的には、端末装置は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される端末装置等であってもよい。例えば、端末装置は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)、スマートウォッチ、ウェアラブルデバイス(Wearable Device)等であってもよい。
 また、例えば、車載装置は、GPS(Global Positioning System)センサ等の機能を有し、自動車の位置情報を検知し、所定の間隔(例えば毎秒1回以上)毎に取得するものとする。例えば、位置情報は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いて推定された自動車10等であってもよい。
〔5-4.判定処理 緊急車両〕
 上記実施形態では、情報処理装置100は、非コネクテッド車両CA1が、監視カメラ画像から交通事故を起こす可能性が高い自動車であるか否かを判定する判定処理の一例を説明したが、上記判定処理に限定されない。具体的には、情報処理装置100は、監視カメラ画像に含まれる非コネクテッド車両CA1が、救急車等の緊急車両か否かを判定してもよい。
 例えば、情報処理装置100は、画像解析等の従来技術によって監視カメラ画像を解析することで、車種や、ナンバープレート、車両の外形等から、監視カメラ画像に含まれる非コネクテッド車両CA1が、緊急車両か否かを判定する。そして、情報処理装置100は、監視カメラ画像から緊急車両の障害になりえる自動車を対象自動車と判定し、判定した対象自動車と紐付られた自動車10に通知を行ってもよい。このように、情報処理装置100は、各種状況に応じて、各種状況において特徴的な非コネクテッド車両CA1を判定することができる。これにより、情報処理装置100は、例えば、救急車が急病人を乗せ、病院に向かう場合に、自動車10が救急車の障害にならないような通知を行うことができる。
〔5-5.推定処理 位置や、進行方向から推定画像を生成〕
 上記実施形態では、情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像に基づいて、監視カメラ20によって撮影された又は監視カメラ20近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する推定処理の一例を説明したが、上記推定処理に限定されない。例えば、情報処理装置100は、監視カメラ画像から対象自動車の推定画像を生成する際に、対象自動車の位置や向きに基づく推定画像を生成してもよい。
 例えば、情報処理装置100は、監視カメラ画像から対象自動車の位置と向きとを推定する。そして、情報処理装置100は、推定した位置を視点とし、推定した向きを注視点の方向とすることで、対象自動車の車載装置が撮影すると予測される画像を推定画像として生成してもよい。このように、実施形態に係る情報処理装置100は、対象自動車の位置や向きに基づく推定画像を生成するため、推定画像の精度を向上させることができる。
〔5-6.特定処理(1)自動車の属性情報〕
 上記実施形態では、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定処理の一例を説明したが、上記特定処理に限定されない。例えば、車載カメラ画像提供装置SISに、自動車IDと、車載カメラ画像と、自動車の属性に関する情報である属性情報とが対応付けられて記憶されているものとする。この場合、情報処理装置100は、監視カメラ20によって撮影された対象自動車の属性情報を推定し、推定された対象自動車の属性情報と、車載カメラ画像提供装置SISから取得された自動車10の属性情報とが類似する場合に、自動車10を対象自動車として特定してもよい。
 例えば、自動車10の属性情報として、車両の外形、車両の色、車両の種別又は速度等に関する情報を車載カメラ画像提供装置SISから予め取得しているものとする。この場合、情報処理装置100は、推定画像を検索クエリとし、車載カメラ画像提供装置SISから取得された車載カメラ画像から、推定画像と対応する車載カメラ画像を検索する。このとき、情報処理装置100は、推定画像に含まれる対象自動車の属性情報と対応する属性情報を示す自動車10が含まれる車載カメラ画像を特定する。
 例えば、情報処理装置100は、推定画像に含まれる対象自動車の属性情報と、車載カメラ画像に含まれる自動車10の属性情報とが同一である場合又は類似する場合に、対象自動車と、車載カメラ画像を撮影した車載装置が搭載された自動車10とを紐付ける。これにより、情報処理装置100は、高精度に特定処理を行うことができる。
〔5-7.特定処理(2)自動車以外の危険行為〕
 上記実施形態では、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定処理の一例を説明したが、上記特定処理に限定されない。例えば、自転車や、子供や、動物等と、対象自動車とが所定の距離未満であるものとして説明する。この場合、情報処理装置100は、画像解析等の従来技術を用いることで、監視カメラ20から取得された監視カメラ画像から、自転車や、子供や、動物等を特定したものとする。この場合、情報処理装置100は、監視カメラ20から取得された監視カメラ画像から、自転車や、子供や、動物等が死角に存在すると推定される自動車を対象自動車として特定し、特定した対象自動車と紐付られた自動車10の宛先を対象自動車の宛先として特定する。
 このように、実施形態に係る情報処理装置100は、自転車や、子供や、動物等が飛び出した場合でも対象自動車の宛先を特定することで、交通事故を未然に防ぐことができる。従来、自動車10が車載カメラを有する場合でも、自動車以外の自転車や、子供や、動物等が車載カメラで把握できない死角に入りこみ、車載カメラから自転車や、子供や、動物等を認識できない場合があった。この場合、自動車10の死角から、自転車や、子供や、動物等が飛び出してきた場合に交通事故に遭遇してしまう。この課題に対して、情報処理装置100は、自転車や、子供や、動物等が飛び出した場合でも対象自動車の宛先を特定することができる。これにより、自動車10は、交通事故を未然に防ぐことができる。
〔5-8.特定処理(3)違反車両〕
 上記実施形態では、情報処理装置100は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車10を特定する特定処理の一例を説明したが、上記特定処理に限定されない。例えば、情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像に基づいて、停車禁止違反である対象自動車を特定する。また、情報処理装置100は、かかる特定された対象自動車であって、停車禁止違反である対象自動車に対して、上述した特定処理を行うことで、停車禁止違反である対象自動車に対応する自動車10の自動車IDや、宛先を特定してもよい。
 そして、情報処理装置100は、特定された自動車IDから、所定の期間後に、罰金等の請求に関する情報を警察等に提供してもよい。また、情報処理装置100は、特定された自動車IDに対応付けて、違反を繰り返す危険自動車であるといったフラグを所定の記憶部に記憶してもよい。このような処理を行う場合、情報処理装置100は、特定結果を用いた通知を行わずともよい。
 なお、上記変形例は、停車禁止違反である自動車の代わりに、如何なる違反をした自動車に適用可能である。例えば、情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像に基づいて、追越し禁止違反である対象自動車を特定する。また、情報処理装置100は、かかる特定された対象自動車であって、追越し禁止違反である対象自動車に対して、特定処理を行うことで、追越し禁止違反である対象自動車に対応する自動車10の自動車IDや、宛先を特定してもよい。
〔5-9.特定処理(4)危険走行を行う非コネクテッド車両を特定〕
 上記実施形態では、情報処理装置100は、車載カメラ画像に含まれる建造物の外形や、他の物体及び風景等から推定される建造物の相対的な位置と、推定画像に含まれる建造物の外形や、他の物体及び風景等から推定される建造物の相対的な位置とから、類似度を算出する処理の一例を説明したが、建造物の代わりに、如何なる物体に対して上記特定処理を適用してもよい。例えば、物体は、危険自動車等であってもよい。
 ここで、図9を用いて特定処理について説明する。図9は、変形例に係る情報処理装置が実行する特定処理の具体例を示す図である。情報処理装置100は、監視カメラ画像に含まれる危険自動車と、車載カメラ画像に含まれる危険自動車とを対応付けることで、車載カメラ画像が取得された自動車10の宛先を特定する(ステップS31)。
 例えば、図9の例では、情報処理装置100は、監視カメラ画像として、自動車CA2を含む監視カメラ画像FIM2を監視カメラ画像提供装置FISから取得する。このとき、情報処理装置100は、画像解析等の従来技術を用いることで、自動車CA2を特定する。なお、監視カメラ画像FIM2に含まれる自動車CA2が危険自動車であるものとする。
 また、情報処理装置100は、車載カメラ画像として、自動車CA2を含む載カメラ画像SIM2を車載カメラ画像提供装置SISから取得する。このとき、情報処理装置100は、画像解析等の従来技術を用いることで、自動車CA2を特定する。なお、車載カメラ画像SIM2に含まれる自動車CA2が危険自動車であるものとする。
 そして、情報処理装置100は、画像解析等の従来技術を用いて、ナンバープレートや、車両の種別、車両の外形や、車両の色等の情報の類似性から、監視カメラ画像FIM2に含まれる自動車CA2と、車載カメラ画像SIM2に含まれる自動車CA2とが同一であると判定する。例えば、情報処理装置100は、監視カメラ画像FIM2に含まれる自動車CA2と、車載カメラ画像SIM2に含まれる自動車CA2との類似度を算出する。
 例えば、情報処理装置100は、監視カメラ画像FIM2に含まれる自動車CA2と、車載カメラ画像SIM2に含まれる自動車CA2とのナンバープレートや、車両の種別、車両の外形や、車両の色等の情報に基づいて、類似度を算出する。なお、このような類似度を算出する算出処理は、画像解析や、画像マッチング等の従来技術により実現可能である。また、情報処理装置100は、監視カメラ画像FIM2に含まれる自動車CA1の像から抽出された特徴量と、車載カメラ画像SIM2に含まれる自動車CA1の像から抽出された特徴量との比較を行うことで、類似度を算出してもよい。そして、情報処理装置100は、算出された類似度が所定の閾値以上である場合に、監視カメラ画像FIM2と車載カメラ画像SIM2とが対応すると判定する。
 そして、情報処理装置100は、監視カメラ画像FIM2と車載カメラ画像SIM2とが対応すると判定した場合、車載カメラ画像SIM2を撮影した車載カメラが搭載された自動車10を特定することができる。これにより、情報処理装置100は、監視カメラ画像FIM2と、車載カメラ画像SIM2とを紐付けることで特定した自動車10の自動車IDを特定することを実現する。
〔5-10.特定処理(5)常時特定〕
 上記実施形態では、情報処理装置100は、自動車10が交通事故に遭う可能性が高いことが監視カメラ20によって検出された場合に、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車10を、監視カメラ20により撮影された対象自動車として特定する特定処理の一例を説明したが、上記特定処理に限定されない。例えば、情報処理装置100は、自動車10が交通事故に遭う可能性が高いことが監視カメラ20によって検出された場合に限らず、推定画像を検索クエリとし、車載カメラ画像提供装置SISから取得された車載カメラ画像から、推定画像と対応する車載カメラ画像を検索し、推定画像と対応する車載カメラ画像を撮影した車載装置を搭載する自動車を、監視カメラ20によって撮影された対象自動車として常時、特定してもよい。これにより、情報処理装置100は、予め適切な宛先を迅速に特定することができるため、交通事故等を未然に防ぐことができる。
〔5-11.通知処理(1)通知内容〕
 上記実施形態では、情報処理装置100は、非コネクテッド車両に関する注意喚起を示す情報として、如何なる情報を通知してもよい。例えば、非コネクテッド車両に関する注意喚起を示す情報は、ナンバープレートや、車両の種別、車両の外形や、車両の色等の非コネクテッド車両の特徴や、非コネクテッド車両の推定運行速度や、非コネクテッド車両の位置情報等を含む。また、非コネクテッド車両に関する注意喚起を示す情報は、自動車10に対する走行に関する制御情報等を含む。
〔5-12.通知処理(2)通知態様〕
 上記実施形態では、非コネクテッド車両に関する注意喚起を示す情報の通知態様は、如何なる態様であってもよい。例えば、通知態様は、自動車10のみが取得する通知態様であってもよい。また、通知態様は、自動車10の搭乗者に理解できる態様であってもよい。
〔5-13.通知処理(3)違反車両〕
 上記実施形態では、情報処理装置100は、非コネクテッド車両に関する注意喚起を示す情報を通知する通知処理の一例を説明したが、上記通知処理に限定されない。例えば、情報処理装置100は、停車禁止違反である自動車10に対して、紐付処理を行うことで、停車禁止違反である自動車10の自動車IDや、宛先を特定した場合に、停車禁止違反を止めるようにといった旨の内容を、かかる自動車10に通知してもよい。
 なお、上記変形例は、停車禁止違反である自動車10の代わりに、如何なる違反をした自動車10に適用可能である。例えば、情報処理装置100は、追越し禁止違反である自動車10に対して、紐付処理を行うことで、追越し禁止違反である自動車10の自動車IDや、宛先を特定した場合に、追越し禁止違反を止めるようにといった旨の内容を、かかる自動車10に通知してもよい。
〔6.他の実施形態〕
 また、他の実施形態について説明する。上述してきた実施形態では、情報処理装置100が、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する処理の一例を説明した。他の実施形態では、情報処理装置100が、画像に交通事故に巻き込まれる可能性が高い自動車10が含まれる場合に、画像に含まれる自動車10のナンバープレートに基づいて、自動車10を特定する処理の例を示す。
 他の実施形態では、自動車10のナンバープレートと、自動車10の宛先とが対応付けられて記憶部に記憶されているものとする。この場合、情報処理装置100は、監視カメラ画像に交通事故に巻き込まれる可能性が高い自動車10が含まれる場合に、監視カメラ画像に含まれる自動車10のナンバープレートに基づいて、自動車10を特定する。
 例えば、情報処理装置100は、監視カメラ画像に交通事故に巻き込まれる可能性が高い自動車10が含まれる場合に、画像解析等の従来技術を用いて監視カメラ画像を解析することで特定された自動車10のナンバープレートと、記憶部に記憶される自動車10のナンバープレートとが一致するか否かを判定する。そして、情報処理装置100は、監視カメラ画像を解析することで特定された自動車10のナンバープレートと、記憶部に記憶される自動車10のナンバープレートとが一致すると判定した場合に、ナンバープレートに対応付けられて記憶される自動車10の宛先を特定する。
 このように、他の実施形態に係る情報処理装置100は、監視カメラ20によって撮影された監視カメラ画像から、交通事故に巻き込まれる可能性が高い自動車10に対して、交通事故に関する注意喚起等を行いたい場合に対して解決方法を提供する。例えば、情報処理装置100は、監視カメラ画像を解析することで特定された自動車10のナンバープレートと、記憶部に記憶される自動車10のナンバープレートとが一致すると判定した場合に、ナンバープレートに対応付けられて記憶される自動車10の宛先を特定する。これにより、情報処理装置100は、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態と、他の実施形態との関係性について以下に説明する。実施形態に係る情報処理装置100は、監視カメラ20と、自動車10との角度の関係から、自動車10のナンバープレートが監視カメラ画像から特定できない場合に、優位な効果を奏する。例えば、実施形態に係る情報処理装置100は、車載カメラが搭載された複数の自動車のうち、監視カメラ画像から推定された推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定することで、自動車の宛先を好適に特定することができる。このように、実施形態に係る情報処理装置100は、自動車10のナンバープレートが特定できない場合でも、自動車10の宛先を特定することができる。すなわち、実施形態に係る情報処理装置100は、他の実施形態に係る情報処理装置100によって行われる処理を補足する情報を提供することができる。
〔7.ハードウェア構成〕
 また、上述してきた実施形態に係る自動車10の車載装置、監視カメラ20、監視カメラ画像提供装置FIS、車載カメラ画像提供装置SIS及び情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図10は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
 CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。
 CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
 メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が実施形態に係るウェアラブルデバイス200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
〔8.その他〕
 また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報処理装置100と、監視カメラ画像提供装置FISと、車載カメラ画像提供装置SISとを統合して一つの情報処理装置としてもよい。この場合、かかる情報処理装置は、監視カメラ20から撮影された監視カメラ画像を取得し、自動車10が有する車載装置によって撮影された車載カメラ画像を取得する。
 また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
 また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、特定部は、特定手段や特定回路に読み替えることができる。
〔9.効果〕
 上述してきたように、実施形態に係る情報処理装置100は、推定部133と、特定部134とを有する。推定部133は、監視カメラによって撮影された監視カメラ画像に基づいて、監視カメラによって撮影された又は監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する。特定部134は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。
 このように、実施形態に係る情報処理装置100は、車載カメラが搭載された複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定するため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、推定部133は、監視カメラによって撮影された対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定し、特定部134は、複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車と、対象自動車とを紐付ける。
 これにより、実施形態に係る情報処理装置100は、複数の自動車のうち、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車と、対象自動車とを紐付けるため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、車載カメラが撮影した画像と、車載カメラが搭載された自動車を識別可能な情報とが関連付けて蓄積される車載カメラ画像記憶部SISMにアクセス可能に接続され、特定部134は、推定画像に基づいて車載カメラ画像記憶部SISMを検索し、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する。
 これにより、実施形態に係る情報処理装置100は、推定画像に基づいて車載カメラ画像記憶部SISMを検索し、推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定するため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、推定部133は、監視カメラによって撮影された他の自動車が交通事故を起こす可能性が高い危険自動車である場合に、危険自動車と所定の位置関係に所在する自動車を対象自動車として、推定画像を推定する。
 これにより、実施形態に係る情報処理装置100は、監視カメラによって撮影された他の自動車が交通事故を起こす可能性が高い危険自動車である場合に、危険自動車と所定の位置関係に所在する自動車を対象自動車として、推定画像を推定するため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、推定部133は、監視カメラによって撮影された自動車が交通ルール違反を行っていると判断された場合に、自動車を対象自動車として推定画像を推定する。
 これにより、実施形態に係る情報処理装置100は、監視カメラによって撮影された自動車が交通ルール違反を行っていると判断された場合に、自動車を対象自動車として推定画像を推定するため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、推定部133は、監視カメラ画像と、監視カメラが撮影された際の監視カメラの向きと、監視カメラに撮影された対象自動車の車載カメラの向きとに基づいて、対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定する。
 これにより、実施形態に係る情報処理装置100は、監視カメラ画像と、監視カメラが撮影された際の監視カメラの向きと、監視カメラに撮影された対象自動車の車載カメラの向きとに基づいて、対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定するため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、監視カメラにランドマークが映っている場合に、推定部133は、車載カメラから見てランドマークがどのように映るかに基づいて推定画像を推定し、特定部134は、複数の自動車のうち、推定画像におけるランドマークの映り方と対応するようにランドマークを映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と対象自動車とを紐付ける。
 これにより、実施形態に係る情報処理装置100は、複数の自動車のうち、推定画像におけるランドマークの映り方と対応するようにランドマークを映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と対象自動車とを紐付けるため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、監視カメラに自動車が映っている場合に、推定部133は、車載カメラから見て危険自動車がどのように映るかに基づいて推定画像を推定し、特定部134は、複数の自動車のうち、推定画像における自動車の映り方と対応するように自動車を映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と対象自動車とを紐付ける。
 これにより、実施形態に係る情報処理装置100は、複数の自動車のうち、推定画像における危険自動車の映り方と対応するように危険自動車を映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と対象自動車とを紐付けるため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、特定部134により特定された自動車に対し、対象自動車に対して通知すべき情報を通知する通知部135をさらに備え、通知すべき情報は、監視カメラが撮影した映像を分析することにより決定される。
 これにより、実施形態に係る情報処理装置100は、特定された自動車に対し、対象自動車に対して通知すべき情報であって、監視カメラが撮影した映像を分析することにより決定される通知すべき情報を通知するため、所定の条件を満たす移動体を好適に特定することができる。
 また、実施形態に係る情報処理装置100において、通知部135は、交通事故を起こす可能性が高い自動車に関する注意喚起を示す情報又は自動車の走行に関する制御情報を含む情報を自動車に通知する。
 これにより、実施形態に係る情報処理装置100は、交通事故を起こす可能性が高い自動車に関する注意喚起を示す情報又は自動車の走行に関する制御情報を含む情報を自動車に通知するため、所定の条件を満たす移動体を好適に特定することができる。
 以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
   N ネットワーク
   1 情報処理システム
  10 自動車
  20、21、22 監視カメラ
 100 情報処理装置
 110 通信部
 120 記憶部
 121 推定画像記憶部
 122 宛先記憶部
 130 制御部
 131 取得部
 132 判定部
 133 推定部
 134 特定部
 135 通知部
 FIS 監視カメラ画像提供装置
FISM 監視カメラ画像記憶部
 SIS 車載カメラ画像提供装置
SISM 車載カメラ画像記憶部

Claims (14)

  1.  監視カメラによって撮影された監視カメラ画像に基づいて、前記監視カメラによって撮影された又は前記監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する推定部と、
     車載カメラが搭載された複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定部と
     を備えたことを特徴とする情報処理装置。
  2.  前記推定部は、
     前記監視カメラによって撮影された対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定し、
     前記特定部は、
     前記複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車と、前記対象自動車とを紐付ける
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  車載カメラが撮影した画像と、当該車載カメラが搭載された自動車を識別可能な情報とが関連付けて蓄積される記憶部にアクセス可能に接続され、
     前記特定部は、前記推定画像に基づいて前記記憶部を検索し、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する
     ことを特徴とする請求項2に記載の情報処理装置。
  4.  前記推定部は、
     前記監視カメラによって撮影された自動車のうち、交通事故に巻き込まれる可能性が高い自動車を前記対象自動車として、前記推定画像を推定する
     ことを特徴とする請求項2に記載の情報処理装置。
  5.  前記推定部は、
     前記監視カメラによって撮影された他の自動車が交通事故を起こす可能性が高い危険自動車である場合に、前記危険自動車と所定の位置関係に所在する自動車を前記対象自動車として、前記推定画像を推定する
     ことを特徴とする請求項4に記載の情報処理装置。
  6.  前記推定部は、
     前記監視カメラによって撮影された自動車が交通ルール違反を行っていると判断された場合に、当該自動車を前記対象自動車として前記推定画像を推定する
     ことを特徴とする請求項2に記載の情報処理装置。
  7.  前記推定部は、
     前記監視カメラ画像と、当該監視カメラが撮影された際の前記監視カメラの向きと、前記監視カメラに撮影された対象自動車の車載カメラの向きとに基づいて、当該対象自動車に搭載された車載カメラによって撮影される画像を推定画像として推定する
     ことを特徴とする請求項2に記載の情報処理装置。
  8.  前記監視カメラにランドマークが映っている場合に、
     前記推定部は、
     前記車載カメラから見て前記ランドマークがどのように映るかに基づいて前記推定画像を推定し、
     前記特定部は、
     前記複数の自動車のうち、前記推定画像における前記ランドマークの映り方と対応するように前記ランドマークを映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と前記対象自動車とを紐付ける
     ことを特徴とする請求項2に記載の情報処理装置。
  9.  前記監視カメラに前記自動車が映っている場合に、
     前記推定部は、前記車載カメラから見て前記自動車がどのように映るかに基づいて前記推定画像を推定し、
     前記特定部は、前記複数の自動車のうち、前記推定画像における前記自動車の映り方と対応するように前記自動車を映している車載カメラ画像を撮影した車載カメラが搭載された自動車を特定し、特定した自動車と前記対象自動車とを紐付ける
     ことを特徴とする請求項4に記載の情報処理装置。
  10.  前記推定部は、
     第1監視カメラが撮影した第1監視カメラ画像と、当該第1監視カメラとは異なる第2監視カメラが撮影した第2監視カメラ画像とに基づいて、推定画像を推定する
     ことを特徴とする請求項1に記載の情報処理装置。
  11.  前記特定部により特定された自動車に対し、対象自動車に対して通知すべき情報を通知する通知部をさらに備え、
     前記通知すべき情報は、前記監視カメラが撮影した映像を分析することにより決定される
     ことを特徴とする請求項1に記載の情報処理装置。
  12.  前記通知部は、
     交通事故を起こす可能性が高い自動車に関する注意喚起を示す情報又は前記自動車の走行に関する制御情報を含む情報を前記自動車に通知する
     ことを特徴とする請求項11に記載の情報処理装置。
  13.  コンピュータが実行する方法であって、
     監視カメラによって撮影された監視カメラ画像に基づいて、前記監視カメラによって撮影された又は前記監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する推定工程と、
     車載カメラが搭載された複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定する特定工程と
     を含むことを特徴とする方法。
  14.  監視カメラによって撮影された監視カメラ画像に基づいて、前記監視カメラによって撮影された又は前記監視カメラ近傍に存在する自動車に搭載された車載カメラによって撮影される画像を推定する推定手順と、
     車載カメラが搭載された複数の自動車のうち、前記推定画像と対応する車載カメラ画像を撮影した車載カメラが搭載された自動車を特定する特定する特定手順と
     をコンピュータに実行させるプログラムを記録することを特徴とする交通リスク低減記録媒体。
PCT/JP2021/001720 2020-02-18 2021-01-19 交通リスク低減記録媒体、情報処理装置及び方法 WO2021166525A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020025474A JP7047001B2 (ja) 2020-02-18 2020-02-18 交通リスク低減プログラム、情報処理装置及び方法
JP2020-025474 2020-02-18

Publications (1)

Publication Number Publication Date
WO2021166525A1 true WO2021166525A1 (ja) 2021-08-26

Family

ID=77392123

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/001720 WO2021166525A1 (ja) 2020-02-18 2021-01-19 交通リスク低減記録媒体、情報処理装置及び方法

Country Status (2)

Country Link
JP (1) JP7047001B2 (ja)
WO (1) WO2021166525A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058142A1 (ja) * 2021-10-06 2023-04-13 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055177A (ja) * 2015-09-07 2017-03-16 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム
WO2018138980A1 (ja) * 2017-01-30 2018-08-02 日本電気株式会社 制御システム、制御方法及びプログラム
JP2019125234A (ja) * 2018-01-18 2019-07-25 株式会社日立製作所 サービス管理装置及びサービス管理方法
JP2019185756A (ja) * 2018-04-05 2019-10-24 トヨタ自動車株式会社 コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム
JP2019196981A (ja) * 2018-05-10 2019-11-14 株式会社Soken 走行支援装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055177A (ja) * 2015-09-07 2017-03-16 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム
WO2018138980A1 (ja) * 2017-01-30 2018-08-02 日本電気株式会社 制御システム、制御方法及びプログラム
JP2019125234A (ja) * 2018-01-18 2019-07-25 株式会社日立製作所 サービス管理装置及びサービス管理方法
JP2019185756A (ja) * 2018-04-05 2019-10-24 トヨタ自動車株式会社 コネクテッド・カーを用いるリアルタイム交通監視方法、及び、リアルタイム交通監視システム
JP2019196981A (ja) * 2018-05-10 2019-11-14 株式会社Soken 走行支援装置

Also Published As

Publication number Publication date
JP7047001B2 (ja) 2022-04-04
JP2021131623A (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
JP6894471B2 (ja) 自動運転車(adv)のサブシステムによるパトロールカーのパトロール
JP7362721B2 (ja) 早期警告および衝突回避
EP3324556B1 (en) Visual communication system for autonomous driving vehicles (adv)
US9786171B2 (en) Systems and methods for detecting and distributing hazard data by a vehicle
US11685371B2 (en) Extension to safety protocols for autonomous vehicle operation
JP2019537530A (ja) 自律走行車の停車位置のプランニング
JP2019184603A (ja) 自動運転車と警告サービスの操作方法、システム及び機械可読メディア
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
EP3794571A2 (en) System and method for using v2x and sensor data
US11860631B2 (en) Detecting and responding to processions for autonomous vehicles
WO2021161741A1 (ja) 情報処理装置、方法及び記録媒体、並びに、交通リスク低減装置
CN111052193B (zh) 用于运输货物的自动驾驶车辆的防盗技术
WO2021166525A1 (ja) 交通リスク低減記録媒体、情報処理装置及び方法
WO2021010083A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7038152B2 (ja) 情報処理装置
JP2017126213A (ja) 交差点状況確認システム、撮像装置、車載装置、交差点状況確認プログラムおよび交差点状況確認方法
US11967230B2 (en) System and method for using V2X and sensor data
JP7367014B2 (ja) 信号処理装置、信号処理方法、プログラム、及び、撮像装置
WO2023179494A1 (zh) 危险预警的方法、装置和车辆
CN117581172A (zh) 用于自主交通工具的多级人工干预服务

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21756285

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21756285

Country of ref document: EP

Kind code of ref document: A1