WO2021024798A1 - 走行支援方法、道路撮影画像収集方法、および路側装置 - Google Patents

走行支援方法、道路撮影画像収集方法、および路側装置 Download PDF

Info

Publication number
WO2021024798A1
WO2021024798A1 PCT/JP2020/028268 JP2020028268W WO2021024798A1 WO 2021024798 A1 WO2021024798 A1 WO 2021024798A1 JP 2020028268 W JP2020028268 W JP 2020028268W WO 2021024798 A1 WO2021024798 A1 WO 2021024798A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
event
interest
information
captured image
Prior art date
Application number
PCT/JP2020/028268
Other languages
English (en)
French (fr)
Inventor
剛 上野
慎太郎 村松
中川 洋一
相原 弘一
安木 慎
須藤 浩章
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN202080055211.9A priority Critical patent/CN114175123B/zh
Priority to US17/633,168 priority patent/US20220301427A1/en
Publication of WO2021024798A1 publication Critical patent/WO2021024798A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]

Definitions

  • the present disclosure relates to a driving support method for assisting vehicle driving control, a road photographing image collecting method for collecting road captured images, and a roadside device for assisting vehicle traveling control or collecting road captured images. is there.
  • ITS Intelligent Transport System
  • a camera (drive recorder) mounted on the vehicle traveling in that location is related to supporting the driving control of the autonomous driving vehicle by exchanging information such as road conditions. ) Is collected and the photographed image is presented to the user (see Patent Document 1).
  • driving-related information that is, traffic conditions around the vehicle and abnormal events (rockfall, etc.) are detected based on images taken by a camera mounted on the vehicle, and the driving-related information is transmitted to other vehicles by vehicle-to-vehicle communication.
  • a technique for transmitting is known (see Patent Document 2).
  • ITS communication vehicle-to-vehicle communication
  • ITS communication can be used to transmit travel-related information consisting of a small amount of character information, as in the technique disclosed in Patent Document 2.
  • ITS communication when a captured image having a large amount of data is transmitted from a moving vehicle, there is a problem that it is not desirable because the load of ITS communication is remarkably increased.
  • the present disclosure is to reduce the load of control that detects an event of interest in advance and performs a danger avoidance operation without significantly increasing the load of ITS communication, and appropriately supports the driving control of an autonomous driving vehicle.
  • the main purpose is to provide a driving support method, a road-photographed image collection method, and a roadside device capable of driving.
  • an in-vehicle device of an information provider mounted on a vehicle that has finished passing through a target section of a road detects a noteworthy event while passing through the target section, a photographed image and a photographed image relating to the noteworthy event and
  • the additional information is transmitted to the roadside device, and the roadside device transmits the photographed image and the additional information regarding the event of interest directly or separately to the in-vehicle device of the information providing destination mounted on the vehicle that starts the passage of the target section.
  • the vehicle-mounted device of the information providing destination performs processing related to the traveling control of the own vehicle based on the photographed image and the additional information regarding the event of interest.
  • the road photographed image collecting method of the present disclosure when an in-vehicle device mounted on a vehicle that has finished passing through a target section of a road detects a noteworthy event while passing through the target section, a photographed image relating to the noteworthy event and The additional information is transmitted to the roadside device, the roadside device transmits the captured image and additional information regarding the attention event to the server device, and the server device accumulates the captured image and additional information regarding the attention event.
  • a photographed image and additional information regarding the event of interest at the designated point are presented to the user.
  • the roadside device of the present disclosure includes a road-to-vehicle communication unit that communicates with an in-vehicle device and a processor, and the processor is an in-vehicle information provider mounted on a vehicle that has completed passage in a target section of the road.
  • the device receives the captured image and additional information regarding the attention event detected while passing through the target section from the in-vehicle device of the information provider by the road-to-vehicle communication unit, the captured image and additional information regarding the attention event are received.
  • the configuration is such that the vehicle-mounted device of the information providing destination mounted on the vehicle that starts the passage of the target section is transmitted directly by the road-to-vehicle communication unit or via another roadside device.
  • the roadside device of the present disclosure includes a road-to-vehicle communication unit that communicates with an in-vehicle device and a processor, and the processor is an in-vehicle information provider mounted on a vehicle that has completed passage in a target section of the road.
  • the device receives the captured image and additional information regarding the attention event detected while passing through the target section from the in-vehicle device of the information provider by the road-to-vehicle communication unit, the captured image and additional information regarding the attention event are received. It is configured to send to the server device.
  • a photographed image and additional information regarding a noteworthy event detected by a vehicle passing through a target section are provided to a vehicle passing through the target section via a roadside device to control the running of the vehicle. Can be assisted. As a result, it is possible to reduce the load of control that detects a dangerous event in advance and performs a danger avoidance operation without significantly increasing the load of ITS communication, and appropriately supports the safe driving of the autonomous driving vehicle.
  • Explanatory drawing which shows the outline of the driving support system which concerns on 2nd Embodiment
  • Explanatory drawing which shows the photographed image of the camera 2 which concerns on 2nd Embodiment, and the attention event information generated by an in-vehicle terminal 4.
  • Explanatory drawing which shows the outline of the opposite lane image composition processing performed by the roadside machine 6 which concerns on 2nd Embodiment
  • a block diagram showing a schematic configuration of a vehicle 1 and a roadside machine 6 according to a second embodiment.
  • a sequence diagram showing a procedure of processing performed by the vehicle and the roadside machine 6 according to the second embodiment.
  • Explanatory drawing which shows the outline of the driving support system which concerns on 3rd Embodiment
  • Explanatory drawing which shows the photographed image of the camera 2 which concerns on 3rd Embodiment and the attention event information generated by an in-vehicle terminal 4.
  • Explanatory drawing which shows the outline of the driving support system which concerns on 4th Embodiment
  • a block diagram showing a schematic configuration of a vehicle 1, a roadside machine 6, and a server 8 according to a fourth embodiment.
  • the first invention made to solve the above problem is that when an in-vehicle device of an information provider mounted on a vehicle that has finished passing through a target section of a road detects an event of interest while passing through the target section, The photographed image and additional information regarding the attention event are transmitted to the roadside device, and the roadside device transmits the photographed image and additional information regarding the attention event to the information providing destination mounted on the vehicle that starts the passage of the target section.
  • a configuration in which the vehicle-mounted device is transmitted directly to the vehicle-mounted device or via another roadside device, and the vehicle-mounted device to which the information is provided performs processing related to the traveling control of the own vehicle based on the captured image and additional information regarding the event of interest. And.
  • the photographed image and additional information regarding the attention event detected by the vehicle passing through the target section are provided to the vehicle passing through the target section via the roadside device to support the traveling control of the vehicle. can do.
  • the additional information includes section information of the section in which the vehicle is currently located, information on the traveling direction of the vehicle, information on the content of the event of interest, and position information on the map of the vehicle when the event of interest is detected.
  • the configuration includes position information on the captured image of the point where the attention event occurred and time information at the time of detecting the attention event.
  • the in-vehicle device to which the information is provided has the own vehicle approaching the occurrence point of the attention event based on the similarity between the captured image related to the attention event and the current captured image. It is configured to determine that.
  • the accuracy of the position information acquired by satellite positioning is low due to the poor condition of the satellite radio waves, it is possible to accurately determine that the own vehicle is approaching the point of interest. In this case, if the determination is made based on the similarity of the background image in which the moving object is removed from the captured image, the accuracy can be further improved.
  • the fourth invention has a configuration in which the in-vehicle device of the information providing destination outputs a danger avoidance operation instruction to the traveling control device when it is determined that the own vehicle is approaching the occurrence point of the event of interest. To do.
  • the in-vehicle device of the information provider transmits a photographed image and additional information regarding the event of interest to the roadside device on the end point side located at the end point of the target section, and the roadside on the end point side.
  • the device transmits the captured image and additional information regarding the attention event to the roadside device on the start point side located at the start point of the target section, and the roadside device on the start point side transmits the captured image and additional information regarding the attention event. It is configured to be transmitted to the in-vehicle device to which the information is provided.
  • the target section between the two roadside devices it is possible to reliably acquire captured images and additional information regarding the event of interest that has occurred in the target section from the in-vehicle device of the vehicle that has passed through the target section. In addition, it is possible to reliably provide the captured image and additional information regarding the event of interest to the in-vehicle device of the vehicle entering the target section from now on.
  • the in-vehicle device of the information providing source is mounted on a vehicle passing through the target section in the first direction, and the in-vehicle device of the information providing destination covers the target section. It is mounted on a vehicle traveling in a second direction opposite to the first direction, and the roadside device is a shield in the photographed image acquired from the in-vehicle device of the information provider that passes in the first direction.
  • the position of the moving object on the photographed image of the moving object in the second direction acquired from the in-vehicle device of the vehicle that has passed in the second direction in the past is calculated by extracting the photographed image of the moving object reflected in the front side of the vehicle.
  • a composite image of a moving object for example, a pedestrian
  • a shield for example, a stopped vehicle
  • the attention event is a traffic accident
  • the roadside device accumulates a photographed image and additional information regarding the attention event acquired from the in-vehicle device of the information provider in the own device, and is the latest.
  • the photographed image and additional information related to the attention event are also transmitted to the in-vehicle device to which the information is provided.
  • an in-vehicle device mounted on a vehicle that has finished passing through a target section of a road detects a noteworthy event while passing through the target section, a photographed image and additional information regarding the noteworthy event are provided. It is transmitted to the roadside device, the roadside device transmits a photographed image and additional information regarding the attention event to the server device, the server device accumulates the photographed image and additional information regarding the attention event, and a point from the user. In response to the viewing request specified in, the photographed image and additional information regarding the event of interest at the specified point are presented to the user.
  • the captured images of each point can be collected in the same way as when there is a fixed point camera. Further, when the user specifies a point, the photographed image of the point is presented to the user, so that the past situation of the required point can be confirmed.
  • the ninth invention includes a road-to-vehicle communication unit that communicates with an in-vehicle device and a processor, and the processor is an in-vehicle device of an information provider mounted on a vehicle that has completed passage in a target section of a road.
  • the photographed image and additional information regarding the attention event detected while passing through the target section are received from the in-vehicle device of the information provider by the road-to-vehicle communication unit, the photographed image and additional information regarding the attention event are obtained.
  • the configuration is such that the vehicle-mounted device of the information providing destination mounted on the vehicle that starts the passage of the target section is transmitted directly by the road-to-vehicle communication unit or via another roadside device.
  • the road-to-vehicle communication unit when the own device is located at the end point of the target section, the road-to-vehicle communication unit receives a photographed image and additional information regarding the attention event from the in-vehicle device of the information providing source. However, when the own device is located at the start point of the target section, the captured image and additional information regarding the event of interest are transmitted to the in-vehicle device to which the information is provided.
  • the target section between the two roadside devices it is possible to reliably acquire captured images and additional information regarding the event of interest that has occurred in the target section from the in-vehicle device of the vehicle that has passed through the target section. In addition, it is possible to reliably provide the captured image and additional information regarding the event of interest to the in-vehicle device of the vehicle entering the target section from now on.
  • the road-to-vehicle communication unit receives a photographed image and additional information regarding the event of interest from the in-vehicle device of the information provider mounted on the vehicle passing through the target section in the first direction. Then, a photographed image and additional information regarding the event of interest are transmitted to the in-vehicle device to which the information is provided, which is mounted on the vehicle traveling in the second direction opposite to the first direction in the target section, and the processor causes the processor. , An image of a moving object appearing in front of a shield is extracted from the photographed image acquired from the vehicle-mounted device of the information provider that passes in the first direction, and the vehicle that has passed in the second direction in the past is mounted on the vehicle.
  • the position of the moving object on the captured image in the second direction acquired from the apparatus is calculated, and a composite image in which the captured image of the moving object is superimposed on the captured image in the second direction is generated based on the calculated position.
  • the composite image is transmitted to the in-vehicle device to which the information is provided as a captured image related to the event of interest.
  • a composite image of a moving object for example, a pedestrian
  • a shield for example, a stopped vehicle
  • the attention event is a traffic accident
  • the processor stores a photographed image and additional information regarding the attention event acquired from the in-vehicle device of the information provider in a storage means of the own device.
  • the photographed image and additional information regarding the previous attention event stored in the storage means are also transmitted to the in-vehicle device to which the information is provided.
  • the thirteenth invention includes a road-to-vehicle communication unit that communicates with an in-vehicle device and a processor, and the processor is an in-vehicle device of an information provider mounted on a vehicle that has completed passage in a target section of a road.
  • the photographed image and additional information regarding the attention event detected while passing through the target section are received from the in-vehicle device of the information provider by the road-to-vehicle communication unit, the photographed image and additional information regarding the attention event are transmitted to the server. It is configured to be transmitted to the device.
  • the captured images of each point can be collected in the same way as when there is a fixed point camera.
  • FIG. 1 is an overall configuration diagram of a traveling support system according to the first embodiment.
  • This driving support system supports the driving of the vehicle 1 (autonomous driving vehicle), and is a camera 2, a sensor 3, an in-vehicle terminal 4 (in-vehicle device), and an automatic driving ECU 5 (movement control device) mounted on the vehicle 1. , Travel control device) and a roadside machine 6 (roadside device) installed on the road.
  • the sensor 3 is a radar, a rider, an acceleration sensor, a gyro sensor, a steering angle sensor, a speed sensor, or the like.
  • the automatic driving ECU 5 detects obstacles around the vehicle 1 based on the output of the sensor 3, detects the state of the vehicle 1, and controls the traveling of the own vehicle 1.
  • ITS communication is performed between the in-vehicle terminal 4 and the roadside device 6.
  • This ITS communication is a wireless communication using a frequency band (for example, 700 MHz band or 5.8 GHz band) adopted in a safe driving support wireless system using ITS (Intelligent Transport System).
  • ITS Intelligent Transport System
  • a message including necessary information such as the position information of the vehicle 1 is transmitted and received.
  • ITS communications those performed between the in-vehicle terminals 4 are referred to as vehicle-to-vehicle communication, and those performed between the roadside unit 6 and the in-vehicle terminal 4 are referred to as road-to-vehicle communication. Further, the in-vehicle terminal 4 and the roadside device 6 can perform ITS communication (pedestrian-to-vehicle communication, road-to-walk communication) with a pedestrian terminal (not shown).
  • ITS communication pedestrian-to-vehicle communication, road-to-walk communication
  • the in-vehicle terminal 4 transmits and receives a message including position information and the like to and from another in-vehicle terminal 4 by ITS communication (vehicle-to-vehicle communication), determines the risk of collision between vehicles 1, and determines the risk of collision. If there is, a warning activation operation for the driver is performed. The alert activation operation may be performed using a car navigation device (not shown) connected to the in-vehicle terminal 4. Further, the in-vehicle terminal 4 transmits and receives a message between the pedestrian terminal and the pedestrian terminal by ITS communication (pedestrian-vehicle communication), and determines the risk of collision between the pedestrian and the vehicle 1.
  • ITS communication vehicle-to-vehicle communication
  • the roadside unit 6 notifies the in-vehicle terminal 4 and the pedestrian terminal of the existence of the vehicle 1 and the pedestrian located in the vicinity of the own device by ITS communication (road-to-vehicle communication, road-walking communication). This makes it possible to prevent a collision when turning left or right at an intersection outside the line of sight. In addition to this, the roadside machine 6 distributes traffic information to the in-vehicle terminal 4 and the pedestrian terminal.
  • ITS communication road-to-vehicle communication, road-walking communication
  • wireless LAN communication such as WiFi (registered trademark) is performed between the roadside unit 6 and the in-vehicle terminal 4. Further, communication (inter-road communication) is performed between the roadside units 6 via a dedicated roadside network (wired or wireless) or a network such as cellular communication.
  • FIG. 2 is an explanatory diagram showing an outline of the traveling support system.
  • FIG. 3 is an explanatory diagram showing an image captured by the camera 2 and information on the event of interest generated by the in-vehicle terminal 4.
  • FIG. 4 is an explanatory diagram showing an outline of the attention point approach determination process performed by the vehicle 1.
  • the roadside machine 6 is installed at an appropriate place on the road, for example, at an intersection.
  • the road between the two roadside machines 6 is the target section.
  • two roadside machines 6 are installed on the road, but when three or more roadside machines 6 are installed on the road, the target section between the two roadside machines 6 is continuous. Can be set multiple times.
  • the roadside machine 6 on the end point side is the roadside machine 6 on the start point side located at the start point of the next target section.
  • the camera 2 photographs the front of the vehicle 1, and the in-vehicle terminal 4 detects a notable event that has occurred on the road in front of the vehicle 1 based on the captured image of the camera 2.
  • the notable event is an object or state that may hinder the safe passage of the vehicle 1, for example, an obstacle existing on the road (for example, a falling object such as a tire or a seat) or a vehicle. , Traces of slipping by vehicles formed on the road surface, depressions that occurred on the road surface, etc.
  • a bicycle or a motorcycle passing on the left side of the vehicle 1 may also be included in the event of interest because it may cause an accident when the vehicle 1 turns left, for example.
  • a vehicle that turns right, a vehicle whose speed is equal to or higher than a predetermined value, a vehicle whose traveling position is unstable, and the like may cause an accident with the vehicle 1, and may be included in the event of interest.
  • the in-vehicle terminal 4 also determines the content of the event of interest based on the captured image. For example, when the in-vehicle terminal 4 detects an object of interest (such as a falling object), the in-vehicle terminal 4 determines the type of the object of interest. Further, when the in-vehicle terminal 4 detects the event of interest, the in-vehicle terminal 4 captures an image of the point of interest, that is, the point where the event of interest occurs, for example, the point where an accident occurs or the point where an obstacle (such as a falling object of a vehicle) exists. Acquire the above position information (coordinate values in the image coordinate system).
  • the attention event information includes section information of the section in which the own vehicle 1 is currently located, information on the traveling direction of the own vehicle 1, information on the content of the attention event (type of obstacle, etc.), and vehicle 1 at the time of detecting the attention event. It includes position information (latitude, longitude), position information on the captured image of the point of interest (point where the event of interest occurred), and time information when the event of interest is detected.
  • the section information may be acquired from the roadside machine 6 on the start point side located at the start point of the target section when the vehicle 1 passes through the target section.
  • FIG. 3 is a case where a falling object (tire) is present on the road as a noteworthy event, and at the time shown in FIG. 3 (A), there is no obstacle on the road in front of the vehicle 1. Although it is photographed, at the time shown in FIG. 3B, the situation where a falling object exists on the road is photographed, and at the time shown in FIG. 3C, it passes the point of interest and is in front of the vehicle 1. The situation where there are no obstacles on the road is photographed.
  • the in-vehicle terminal 4 displays the captured image and the attention event information at the time of detecting the attention event. It is transmitted to the roadside machine 6 on the end point side located at the end point of the target section.
  • the roadside machine 6 on the end point side transmits the captured image and the attention event information at the time of detecting the attention event received from the in-vehicle terminal 4 to the roadside machine 6 on the start point side located at the start point of the target section.
  • the roadside machine 6 on the start point side transmits the captured image and the attention event information at the time of detecting the attention event received from the roadside machine 6 on the end point side to the in-vehicle terminal 4 of the vehicle 1 trying to pass through the target section.
  • the in-vehicle terminal 4 instructs the danger avoidance operation based on the captured image and the attention event information at the time of detecting the attention event received from the roadside machine 6 on the starting point side, and the automatic driving ECU 5 ,
  • the driving control is performed according to the instruction of the danger avoidance operation from the in-vehicle terminal 4.
  • the in-vehicle terminal 4 is based on the current captured image output from the camera 2 and stored in the memory 14 constituting the drive recorder and the captured image at the time of detecting the event of interest. It is determined whether or not the own vehicle 1 has reached the vicinity of the point of interest (point of interest approach determination process).
  • the background image is extracted from the currently captured image. Further, the in-vehicle terminal 4 extracts a background image from the captured image at the time of detecting the event of interest (background image extraction process). Then, the background image extracted from the captured image at the present time is compared with the background image extracted from the captured image at the time of detecting the event of interest, and whether or not they match, that is, the degree of similarity between the two becomes higher than a predetermined value. By determining whether or not the vehicle 1 has reached the point of interest, it is determined whether or not the vehicle 1 has reached the point of interest (image matching process). It should be noted that the similarity of the images gradually increases as the own vehicle 1 approaches the point of interest, and when the similarity becomes higher than a predetermined value, the own vehicle 1 reaches the vicinity of the point of interest. It is judged.
  • the captured image at the same point is discriminated by the similarity of the background image from which the moving object such as the vehicle 1 or the pedestrian is removed, the position acquired by the positioning unit due to the poor state of the satellite radio wave. Even when the accuracy of the information is low, it can be accurately determined that the own vehicle 1 has reached the vicinity of the point of interest.
  • the in-vehicle terminal 4 When the own vehicle 1 reaches the point of interest, the in-vehicle terminal 4 outputs a danger avoidance operation instruction to the automatic driving ECU 5.
  • the automatic driving ECU 5 performs traveling control based on a danger avoidance operation instruction from the in-vehicle terminal 4.
  • traveling control can be performed while predicting the existence of obstacles such as objects and accident vehicles. For example, since the traveling of the vehicle 1 is controlled so as to bypass the obstacle at an early stage, it is possible to safely and surely and smoothly avoid the collision with the obstacle.
  • the background image extraction process the area of an obstacle or a moving object in the captured image is detected based on the detection result of the obstacle based on the output of the sensor 3 and the detection result of the motion detection for the captured image of the camera 2.
  • a background image is generated with the obstacles and moving object areas removed.
  • a known method such as template matching may be adopted.
  • the attention point approach determination process it is advisable to refer to the position information (latitude, longitude) of the vehicle 1 at the time of detecting the attention event.
  • the in-vehicle terminal 4 performs a process of extracting a background image from the captured image at the time of detecting the attention event (background image extraction process), but the captured image at the time of detecting the attention event is a roadside machine. Since it is provided to the vehicle-mounted terminal 4 from No. 6, the roadside machine 6 may perform the background image extraction process on the captured image at the time of detecting the event of interest in advance. As a result, the processing load of the in-vehicle terminal 4 can be reduced.
  • FIG. 5 is a block diagram showing a schematic configuration of the vehicle 1 and the roadside machine 6.
  • the in-vehicle terminal 4 includes an ITS communication unit 11 (vehicle-to-vehicle communication unit, first road-to-vehicle communication unit), a wireless LAN communication unit 12 (second road-vehicle communication unit), a positioning unit 13, a memory 14, and so on. It includes a processor 15.
  • ITS communication unit 11 vehicle-to-vehicle communication unit, first road-to-vehicle communication unit
  • wireless LAN communication unit 12 second road-vehicle communication unit
  • positioning unit 13 a memory 14, and so on. It includes a processor 15.
  • the ITS communication unit 11 broadcasts a message to another in-vehicle terminal 4 by ITS communication (vehicle-to-vehicle communication), and also receives a message transmitted from the other in-vehicle terminal 4. Further, the ITS communication unit 11 transmits a message to the roadside unit 6 by ITS communication (road-to-vehicle communication), and also receives a message transmitted from the roadside unit 6. In particular, in the present embodiment, the ITS communication unit 11 transmits and receives information related to the collision risk determination.
  • the wireless LAN communication unit 12 transmits a message to the roadside unit 6 by wireless LAN communication such as WiGig (registered trademark) or WiFi (registered trademark), and also receives a message transmitted from the roadside unit 6.
  • wireless LAN communication such as WiGig (registered trademark) or WiFi (registered trademark)
  • the wireless LAN communication unit 12 transmits and receives the captured image and its additional information.
  • the positioning unit 13 measures the position of its own device by a satellite positioning system such as GPS (Global Positioning System) or QZSS (Quasi-Zenith Satellite System), and acquires the position information (latitude, longitude) of its own device.
  • a satellite positioning system such as GPS (Global Positioning System) or QZSS (Quasi-Zenith Satellite System)
  • GPS Global Positioning System
  • QZSS Quadasi-Zenith Satellite System
  • the memory 14 stores map information, a program executed by the processor 15, and the like.
  • the processor 15 performs various processes related to driving support by executing the program stored in the memory 14.
  • the processor 15 performs drive recorder processing, attention event detection processing, and attention point approach determination processing.
  • the processor 15 records the captured image of the camera 2 in the memory 14.
  • the processor 15 detects the attention event that has occurred on the road in front of the vehicle 1 based on the image captured by the camera 2, and generates the attention event information.
  • the processor 15 determines that the own vehicle 1 is based on the current captured image output from the camera 2 and stored in the memory 14 constituting the drive recorder and the captured image at the time of detecting the attention event. Determine if you have reached the point of interest. In the present embodiment, whether or not the background image extracted from the current captured image and the background image extracted from the captured image at the time of detecting the event of interest are compared and whether or not they match, that is, the degree of similarity between the two is a predetermined value. By determining whether or not the height is higher, it is determined whether or not the own vehicle 1 has reached the vicinity of the point of interest.
  • the automatic driving ECU 5 is connected to the steering ECU 31, the driving ECU 32, and the braking ECU 33, and controls the steering ECU 31, the driving ECU 32, and the braking ECU 33 based on the detection result of the sensor 3 to automatically drive the vehicle 1 (autonomous driving). To realize.
  • the steering ECU 31 controls the steering mechanism of the own vehicle 1
  • the drive ECU 32 controls the drive mechanism (engine, electric motor, etc.) of the own vehicle 1
  • the braking ECU 33 controls the own vehicle. It controls the braking mechanism of 1.
  • automatic driving includes autonomous driving that does not require a driver and driving support that assists the driver's driving, and it may be possible to switch between two modes, autonomous driving and driving support. ..
  • driving assistance it is necessary to call attention to the driver when there is a risk of collision.
  • the voice output and image display functions are used. A warning to the driver will be activated.
  • the roadside unit 6 includes an ITS communication unit 21 (first road-to-vehicle communication unit), a wireless LAN communication unit 22 (second road-vehicle communication unit), and a road-to-road communication unit 23 (third communication unit). , A memory 24, and a processor 25.
  • the ITS communication unit 21 broadcasts a message to the in-vehicle terminal 4 by ITS communication (road-to-vehicle communication), and also receives a message transmitted from the in-vehicle terminal 4.
  • the ITS communication unit 21 transmits and receives information related to the collision risk determination.
  • the wireless LAN communication unit 22 receives a message transmitted from the vehicle-mounted terminal 4 by wireless LAN communication such as WiFi (registered trademark), and also transmits the received message to the vehicle-mounted terminal 4.
  • wireless LAN communication such as WiFi (registered trademark)
  • the wireless LAN communication unit 22 transmits and receives a captured image and its additional information.
  • the roadside communication unit 23 communicates with the adjacent roadside unit 6 via a dedicated roadside network (wired or wireless) or a network such as cellular communication.
  • the memory 24 stores a program or the like executed by the processor 25.
  • the processor 25 performs various processes by executing the program stored in the memory 24.
  • the processor 25 performs information transfer processing and information distribution processing.
  • the processor 25 selects the roadside machine 6 on the start point side located at the start point of the target section as the transfer destination based on the attention event information included in the message transmitted from the in-vehicle terminal 4, particularly the section information. Then, control is performed to transmit a message including a captured image at the time of detecting the event of interest and information on the event of interest from the road-to-road communication unit 23 to the roadside machine 6 on the starting point side.
  • the processor 25 acquires the captured image and the attention event information at the time of attention event detection included in the message transmitted from the roadside machine 6 on the end point side and stores them in the memory 24, and stores the image at the time of attention event detection. Control is performed to transmit a message including a captured image and information on an event of interest from the inter-road communication unit 23 to the in-vehicle terminal 4 passing through the periphery.
  • FIG. 6 is a sequence diagram showing a procedure of processing performed by the vehicle 1 and the roadside machine 6.
  • the camera 2 photographs the front of the own vehicle 1. Then, when the processor 15 of the in-vehicle terminal 4 detects an obstacle (falling object) on the road ahead as a noticeable event, the attention event information is generated, and the attention event information is used as additional information of the captured image. , Stored in the memory 14 constituting the drive recorder.
  • the processor 15 of the in-vehicle terminal 4 detects that the own vehicle 1 has reached the end point of the target section based on the positioning result of the positioning unit 13, the image taken at the time of the event of interest and the attention from the memory 14 Acquire event information. Then, the wireless LAN communication unit 12 of the in-vehicle terminal 4 transmits a message including a captured image at the time of the occurrence of the attention event and the attention event information to the roadside machine 6 on the end point side located at the end point of the target section.
  • the processor 25 sets the forwarding destination based on the attention event information included in the message, particularly the section information.
  • the roadside machine 6 on the start point side located at the start point of the target section is selected.
  • the roadside communication unit 23 transmits a message including a captured image at the time of detecting the event of interest and information on the event of interest to the roadside machine 6 on the starting point side.
  • the processor 25 receives the captured image and the attention event information at the time of detecting the attention event included in the message. Is acquired and stored in the memory 24. Then, the wireless LAN communication unit 22 transmits a message including a captured image and information on the event of interest at the time of occurrence of the event of interest to the in-vehicle terminal 4 passing through the periphery.
  • the processor 15 of the vehicle-mounted terminal 4 is included in the message.
  • the captured image at the time of event detection and information on the event of interest are acquired and stored in the memory 14.
  • the processor 15 of the in-vehicle terminal 4 selects a danger avoidance operation (deceleration, detour, etc.) for avoiding an accident based on the captured image at the time of detecting the event of interest (danger avoidance operation selection process).
  • the processor 15 of the vehicle-mounted terminal 4 uses the current captured image output from the camera 2 and stored in the memory 14 constituting the drive recorder, and the captured image at the time of the accident at the point of interest, based on the own vehicle 1 Determines whether or not has reached the vicinity of the point of interest (point of interest approach determination process).
  • the processor 15 outputs a danger avoidance operation instruction to the automatic driving ECU 5.
  • the automatic driving ECU 5 performs traveling control so as to avoid obstacles based on a danger avoidance operation instruction from the in-vehicle terminal 4.
  • FIG. 7 is an explanatory diagram showing an outline of the traveling support system according to the second embodiment.
  • FIG. 8 is an explanatory diagram showing an image captured by the camera 2 and information on the event of interest generated by the in-vehicle terminal 4.
  • FIG. 9 is an explanatory diagram showing an outline of the opposite lane image compositing process performed by the roadside machine 6.
  • the example shown in FIG. 8 is a case where a pedestrian is in front of a vehicle stopped in the opposite lane.
  • the pedestrian since the pedestrian is hidden behind the stopped vehicle and cannot be seen from the oncoming vehicle traveling in the opposite lane, the pedestrian suddenly appears behind the stopped vehicle and the pedestrian is in the opposite lane. There is a risk of collision with a vehicle traveling on.
  • the roadside machine 6 located at the end of the target section provides non-line-of-sight information that there is an invisible moving object (pedestrian or the like) hidden behind a stationary shield (stopped vehicle or the like). , Acquiring the opposite lane from an oncoming vehicle that has passed in the first direction (see FIG. 7), and trying to pass the non-line-of-sight information in the second direction (see FIG. 7) opposite to the first direction in the target section. It is provided to the in-vehicle terminal 4 of the vehicle to be used. In the vehicle to which the information is provided, the automatic driving ECU 5 performs traveling control so as to avoid pedestrians jumping out.
  • the roadside machine 6 determines the point of interest (the point where an obstacle exists) from the opposite lane based on the captured image at the time of detecting the event of interest and the information of the event of interest acquired from the vehicle passing through the target section.
  • a composite image is generated by synthesizing a moving object image with the captured image (opposite lane image composition processing).
  • a moving object (pedestrian, etc.) and a shielding object having a positional relationship that shields the moving object when viewed from the opposite lane are detected.
  • moving objects are pedestrians, bicycles, animals, and the like.
  • the shield is a stopped vehicle or the like.
  • the photographed image of the attention point taken from the opposite lane is taken from the photographed images of the target section accumulated in the own device. Select as a reverse shot image. At this time, the photographed image having the latest shooting time, that is, the photographed image taken by the vehicle passing immediately before and the photographed image showing the obstruction is selected.
  • the moving object image is flipped left and right to generate an inverted moving object image so that the orientation of the moving object is the actual orientation.
  • the image processing for flipping the moving object image horizontally is performed, but the image processing for the moving object image is not limited to the flipping.
  • the moving object image may not be subjected to image processing such as inversion. Further, in addition to the inversion, other image processing (for example, rotation) may be applied to the moving object image.
  • a composite image in which the inverted moving object image is superimposed on the reverse-direction captured image is generated.
  • the position of the moving object on the reverse-direction captured image is calculated, and the inverted moving object image is superimposed on the reverse-direction captured image based on the calculated position.
  • the inverted moving object image is superimposed so as to overlap the shield in the reverse-direction captured image.
  • the inverted moving object image may be enlarged or reduced so that the inverted moving object image matches the size of the shield.
  • the in-vehicle terminal 4 includes a captured image at the present time, which is output from the camera 2 and stored in the memo constituting the drive recorder, and a captured image at the time of detecting the attention event at the attention point (point where the attention event occurs). Based on, it is determined whether or not the own vehicle has reached the vicinity of the point of interest (point of interest approach determination process). At this time, the in-vehicle terminal 4 performs the attention point approach determination process based on the composite image generated by the roadside machine 6 as the captured image at the time of detecting the attention event.
  • FIG. 10 is a block diagram showing a schematic configuration of the vehicle 1 and the roadside machine 6.
  • the configuration of the vehicle 1 is the same as that of the first embodiment (FIG. 5).
  • the roadside machine 6 is substantially the same as the above embodiment, but the processor 25 performs the opposite lane image composition processing in addition to the information transfer processing and the information distribution processing.
  • the processor 25 transfers a moving object image to a captured image captured from the opposite lane to a focused point (a point where an obstacle exists) based on the captured image at the time of detecting the attention event and the attention event information included in the message. Generate a composite image.
  • FIG. 11 is a sequence diagram showing a procedure of processing performed by the vehicle and the roadside machine 6.
  • the camera 2 photographs the front of the own vehicle. Then, when the processor 15 of the in-vehicle terminal 4 detects that there is an obstacle in front of the own vehicle as a noticeable event, the attention event information is generated, and the attention event information is driven as additional information of the captured image. It is stored in the memory 14 that constitutes the recorder.
  • the processor 15 of the in-vehicle terminal 4 detects that the own vehicle has reached the end point of the target section based on the positioning result of the positioning unit 13, the captured image at the time of the attention event and the attention event occur from the memory 14. Get information. Then, the wireless LAN communication unit 12 of the in-vehicle terminal 4 transmits a message including a captured image at the time of the occurrence of the attention event and the attention event information to the roadside machine 6 on the end point side located at the end point of the target section.
  • the processor 25 starts from the opposite lane based on the captured image and the attention event information at the time of detecting the attention event included in the message.
  • a composite image is generated by synthesizing a moving object image with a captured image of a point of interest (a point where an obstacle exists) (opposite lane image composition processing).
  • the wireless LAN communication unit 22 transmits a message including a composite image and information on the event of interest to the peripheral in-vehicle terminal 4.
  • the processor 15 of the vehicle-mounted terminal 4 In the vehicle 1 passing through the target section in the second direction, when the wireless LAN communication unit 12 of the vehicle-mounted terminal 4 receives the message transmitted from the roadside unit 6, the processor 15 of the vehicle-mounted terminal 4 is included in the message.
  • the photographed image at the time of the accident and the information on the event of interest are acquired and stored in the memory 14. Then, the processor 15 of the in-vehicle terminal 4 selects a danger avoidance operation (deceleration, detour, etc.) for avoiding the accident based on the captured image at the time of the accident at the point of interest.
  • a danger avoidance operation deceleration, detour, etc.
  • the processor 15 of the in-vehicle terminal 4 makes the own vehicle based on the current captured image output from the camera 2 and stored in the memory 14 constituting the drive recorder and the captured image at the time of the accident at the point of interest. It is determined whether or not the vehicle has reached the point of interest (point of interest approach determination process).
  • the processor 15 outputs a danger avoidance operation instruction to the automatic driving ECU 5.
  • the automatic driving ECU 5 performs traveling control based on a danger avoidance operation instruction from the in-vehicle terminal 4.
  • FIG. 12 is an explanatory diagram showing an outline of the traveling support system according to the third embodiment.
  • FIG. 13 is an explanatory diagram showing an image captured by the camera 2 and information on the event of interest generated by the in-vehicle terminal 4.
  • the camera 2 photographs the front of the vehicle, and the in-vehicle terminal 4 detects a notable event that has occurred on the road in front of the vehicle based on the image captured by the camera 2.
  • Generates attention event information attention event detection processing.
  • a notable event it is detected that the own vehicle has caused an accident.
  • a noteworthy event it is detected that the own vehicle is in a state on the verge of an accident, for example, a state in which the vehicle is likely to collide with a pedestrian who has jumped out onto the roadway.
  • the example shown in FIG. 13 is a case where a collision accident occurs due to a pedestrian jumping out as a notable event, and at the time shown in FIG. 13A, a situation where there is no obstacle on the road in front of the vehicle is photographed.
  • the situation in which the pedestrian jumps out onto the roadway is photographed in the photographed image
  • the own vehicle collides with the pedestrian in the photographed image.
  • the situation where a pedestrian fell down was photographed.
  • the captured image at the time of detecting the event of interest the captured image at the time shown in FIGS. 13 (B) and 13 (C) is uploaded to the roadside machine 6 on the end point side.
  • the roadside machine 6 on the end point side transmits the captured image and the attention event information at the time of detecting the attention event received from the in-vehicle terminal 4 to the roadside machine 6 on the start point side located at the start point of the target section. Send.
  • the roadside machine 6 on the start point side stores the captured image and the attention event information at the time of detecting the attention event received from the roadside machine 6 on the end point side in its own device. Then, the captured image and the attention event information at the time of detecting the attention event are transmitted to the in-vehicle terminal 4 of the vehicle trying to pass through the target section.
  • the in-vehicle terminal 4 instructs a danger avoidance operation (deceleration, detour, etc.) based on the captured image at the time of detecting the attention event and the attention event information received from the roadside unit 6 on the starting point side.
  • the automatic driving ECU 5 performs traveling control in response to an instruction of a danger avoidance operation from the in-vehicle terminal 4.
  • the captured image at the time of detecting the event of interest (at the time of occurrence of the accident) is provided to the vehicle passing through the target section thereafter to support the running control of the vehicle, but the event of interest is detected.
  • the captured image at the time point may be uploaded from the roadside machine 6 to the server and used as the reinforcement learning data of AI (artificial intelligence) used for the traveling control of the autonomous driving vehicle. Further, the captured image at the time of detecting the event of interest stored in the server may be distributed to the user terminal.
  • AI artificial intelligence
  • FIG. 14 is a block diagram showing a schematic configuration of the vehicle 1 and the roadside machine 6.
  • the vehicle 1 is substantially the same as the first embodiment (see FIG. 5), but in particular, in the present embodiment, the processor 15 of the in-vehicle terminal 4 outputs the sensor 3 (accelerometer or the like) as the attention event detection process. Based on this, it detects that the own vehicle has caused an accident. Further, the processor 15 detects the state of the own vehicle on the verge of an accident based on the captured image of the camera 2 and the output of the sensor 3. Then, the captured image at the time of detecting the event of interest is stored in the memory 14.
  • the sensor 3 accelerometer or the like
  • the roadside machine 6 is substantially the same as that of the first embodiment (see FIG. 5), but in particular, in the present embodiment, the processor 25 starts from another roadside machine 6 on the end side of the target section in which the own device is the start side.
  • the captured image and the attention event information at the time of detecting the acquired attention event are acquired and stored in the memory 24 (captured image storage process).
  • the accumulated captured image and attention event information are retained for a predetermined period.
  • a large-capacity storage device may be provided in order to store a large amount of captured images.
  • FIG. 15 is a sequence diagram showing a procedure of processing performed by the vehicle and the roadside machine 6.
  • the camera 2 photographs the front of the own vehicle 1.
  • the processor 15 of the in-vehicle terminal 4 detects that an event of interest (an accident or a state on the verge of an accident) has occurred in the own vehicle, it generates information on the event of interest, and the information on the event of interest is added to the captured image. As a result, it is stored in the memory 14 constituting the drive recorder.
  • the processor 15 of the in-vehicle terminal 4 detects that the own vehicle has reached the vicinity of the end point of the target section based on the positioning result of the positioning unit 13, the captured image at the time of the event of interest and the captured image from the memory 14 Acquire attention event information. Then, the wireless LAN communication unit 12 of the in-vehicle terminal 4 transmits a message including a captured image at the time of the occurrence of the attention event and the attention event information to the roadside machine 6 on the end point side located at the end point of the target section.
  • the processor 25 sets the notification destination based on the attention event information included in the message, particularly the section information.
  • the roadside machine 6 on the start point side located at the start point of the target section is selected.
  • the roadside communication unit 23 transmits a message including a captured image at the time of detecting the event of interest and information on the event of interest to the roadside machine 6 on the starting point side.
  • the processor 25 receives the captured image and the attention event information at the time of detecting the attention event included in the message. Is acquired and stored in the memory 24. Then, the wireless LAN communication unit 22 transmits a message including a captured image at the time of detecting the event of interest and information on the event of interest to the in-vehicle terminal 4 passing through the periphery. At this time, the captured image and the attention event information at the time of detecting the attention event in the past predetermined period are stored in the memory 24, and in addition to the captured image and the attention event information at the latest attention event detection time, the attention before that. The captured image at the time of event detection and information on the event of interest are also transmitted to the in-vehicle terminal 4.
  • the processor 15 of the vehicle-mounted terminal 4 is included in the message.
  • the photographed image at the time of the accident at the point and the information on the event of interest are acquired and stored in the memory 14.
  • the processor 15 of the in-vehicle terminal 4 selects a danger avoidance operation (deceleration, detour, etc.) for avoiding the accident based on the captured image at the time of the accident at the point of interest.
  • the processor 15 of the in-vehicle terminal 4 approaches the attention point based on the current captured image output from the camera 2 and stored in the memory 14 constituting the drive recorder and the captured image at the time of the accident at the attention point. Judgment processing is performed.
  • a background image is extracted from the currently captured image (background extraction process).
  • the background image is compared with the background image extracted from the captured image at the time of detecting the event of interest, and it is determined whether or not they match, that is, whether or not the similarity between the two is higher than a predetermined value. By doing so, it is determined whether or not the own vehicle has reached the vicinity of the point of interest.
  • the processor 15 outputs a danger avoidance operation instruction to the automatic driving ECU 5.
  • the automatic driving ECU 5 performs traveling control based on a danger avoidance operation instruction from the in-vehicle terminal 4.
  • FIG. 16 is an explanatory diagram showing an outline of the traveling support system according to the fourth embodiment.
  • the camera 2 photographs the front of the vehicle, and the in-vehicle terminal 4 captures the road in front of the vehicle based on the image captured by the camera 2. Detects the event of interest that occurred above. For example, the in-vehicle terminal 4 detects that an accident has occurred in which a pedestrian jumping out of the shadow of a stopped vehicle collides with the own vehicle. Then, the in-vehicle terminal 4 transmits the captured image and the attention event information at the time of detecting the attention event to the roadside machine 6 on the end point side located at the end point of the target section.
  • the captured image and the attention event information at the time of detecting the attention event received from the in-vehicle terminal 4 are the start point located at the start point of the target section. It is transmitted to the roadside machine 6 on the side.
  • the roadside machine 6 on the start point side transmits the captured image and the attention event information at the time of detecting the attention event to the in-vehicle terminal 4 of the vehicle that is going to pass through the target section.
  • the automatic driving ECU 5 is made to start the danger avoidance operation at an early stage.
  • the roadside machine 6 on the end point side located at the end point of the target section first receives a captured image and a state of interest event from the vehicle that has detected the event of interest. After that, every time another vehicle passes through the target section, a photographed image of the point of interest is acquired from that vehicle.
  • the server 8 (server device) first acquires the captured image and the attention event state at the time of detecting the attention event from the roadside machine 6 on the end point side located at the end point of the target section, and then acquires the captured image of the attention point. ..
  • the server 8 can collect the captured images of the attention points whose shooting times are slightly deviated, including the captured images during the occurrence of the attention event. Therefore, even at a point where there is no fixed point camera (fixed camera), the observer can confirm the situation at the site where the event of interest (accident, etc.) has occurred.
  • the server 8 distributes the captured image of the point designated by the administrator to the user terminal 9 in response to the access (browsing request) from the user terminal 9 (user device) operated by the administrator.
  • the user terminal 9 an icon indicating a point where an accident has occurred in the past is displayed on the map.
  • the administrator specifies a point by operating the icon, the captured image of the specified point is displayed.
  • the in-vehicle terminal 4 determines whether or not the own vehicle has reached the point of interest, and the captured image taken when the own vehicle reaches the point of interest, that is, The current captured image of the point of interest is uploaded to the roadside machine 6, but the in-vehicle terminal 4 uploads all the captured images in the target section, not limited to the point of interest, to the roadside machine 6, and the roadside machine 6
  • the captured image of the point of interest in the target section may be extracted by position information, image matching, or the like.
  • not only the point of interest but all the captured images in the target section may be collected.
  • the latest captured image of that point can be displayed, and the recent situation of the arbitrary point on the road can be confirmed.
  • it can be used for searching for a person such as an elderly person with dementia or a lost child.
  • it can also be used, for example, for crime prevention and disaster prevention.
  • all the captured images in the target section may be collected only in a specific time zone. For example, by collecting all the captured images in the target section only during the time when the child goes to and from school, it can be used for watching over the child when going to and from school.
  • the observer can confirm the situation at the site before and after the event of interest occurs.
  • FIG. 17 is a block diagram showing a schematic configuration of the vehicle 1, the roadside machine 6, and the server 8.
  • the configuration of the vehicle 1 is the same as that of the first embodiment (see FIG. 5).
  • the roadside unit 6 is substantially the same as the above embodiment, but includes a network communication unit 26 in addition to the ITS communication unit 21, the wireless LAN communication unit 22, and the road-to-road communication unit 23.
  • the network communication unit 26 communicates with the server 8 via the network.
  • the server 8 includes a network communication unit 41, a memory 42, and a processor 43.
  • the network communication unit 41 communicates with the roadside unit 6 via the network. In addition, the network communication unit 41 communicates with the user terminal 9 operated by the observer via the network.
  • the memory 42 stores the captured images of each point collected from the roadside machine 6. Further, the memory 42 stores a program or the like executed by the processor 43. A large-capacity storage device may be provided in order to store a large amount of captured images.
  • the processor 43 performs various processes by executing the program stored in the memory 42.
  • the processor 43 performs the point image composition processing, the monitoring map generation processing, and the captured image display processing.
  • the processor 43 synthesizes the captured images of each point collected from the roadside machine 6 by arranging them in order of shooting time for each point.
  • the processor 43 In the monitoring map generation process, the processor 43 generates screen information in which an icon representing the point of interest is superimposed on the map based on the position information of the point of interest. This screen information is transmitted from the communication unit to the user terminal 9, and the user terminal 9 displays a screen on which icons representing each point are superimposed on the map. The observer can specify the point by operating the icon.
  • the processor 43 acquires the photographed image of the point designated by the observer from the memory 42, and generates screen information for displaying (reproducing) the currently photographed image of the designated point.
  • This screen information is transmitted from the network communication unit 41 to the user terminal 9, and the user terminal 9 displays a screen for displaying the captured image.
  • the captured images for each point are combined, but the captured images at the points specified by the observer are sequentially reproduced according to the shooting time without synthesizing the captured images for each point. You may.
  • the captured image of the point designated by the observer is reproduced, but a plurality of notable events (accident and state on the verge of accident) having different forms (pedestrian accident, bicycle accident, etc.) at the same point. ) Occurs, the captured images may be classified according to the type of accident, and the captured images in the form specified by the observer may be reproduced.
  • FIG. 18 is a sequence diagram showing a procedure of processing performed by the vehicle 1, the roadside machine 6, and the server 8.
  • the processor 15 of the in-vehicle terminal 4 detects that an event of interest (an accident or a state on the verge of an accident) has occurred in the own vehicle, it generates information on the event of interest and pays attention to it.
  • the event information is stored in the memory 14 constituting the drive recorder as additional information of the captured image.
  • the processor 15 of the in-vehicle terminal 4 detects that the own vehicle has reached the vicinity of the end point of the target section based on the positioning result of the positioning unit 13, a noteworthy event is generated from the memory 14 constituting the drive recorder. Acquires the captured image of the time and information on the event of interest. Then, the wireless LAN communication unit 12 of the in-vehicle terminal 4 transmits a message including a captured image at the time of the occurrence of the attention event and the attention event information to the roadside machine 6 on the end point side located at the end point of the target section.
  • the processor 25 sets the notification destination based on the attention event information included in the message, particularly the section information.
  • the roadside machine 6 on the start point side located at the start point of the target section is selected.
  • the roadside communication unit 23 transmits a message including a captured image at the time of detecting the event of interest and information on the event of interest to the roadside machine 6 on the starting point side.
  • the network communication unit 26 transmits a attention point report including a photographed image at the time of detecting the attention event and the attention event information to the server 8.
  • the processor 25 receives the captured image and the attention event information at the time of detecting the attention event included in the message. To get. Then, the wireless LAN communication unit 22 transmits a message including a captured image at the time of detecting the event of interest and information on the event of interest to the in-vehicle terminal 4 passing through the periphery.
  • the processor 15 of the vehicle-mounted terminal 4 is included in the message.
  • the background image is extracted from the captured image at the time of event detection (background extraction process). Further, the background image is extracted from the currently captured image output from the camera 2 and stored in the memory 14 constituting the drive recorder (background extraction process).
  • the processor 15 of the in-vehicle terminal 4 starts the attention point approach determination process.
  • the background image extracted from the captured image at the present time is compared with the background image extracted from the captured image at the time of detecting the event of interest, and whether or not they match, that is, the degree of similarity between the two is more than a predetermined value. Determine if it will be higher.
  • the processor 15 uses the attention event information as additional information of the captured image, and the memory 14 constituting the drive recorder. Store in.
  • the processor 15 of the in-vehicle terminal 4 detects that the own vehicle has reached the end point of the target section based on the positioning result of the positioning unit 13, the captured image of the point of interest is acquired from the memory 14. Then, the wireless LAN communication unit 12 transmits a message including the captured image of the point of interest to the roadside machine 6 on the end point side located at the end point of the target section.
  • the in-vehicle terminal 4 performs the attention point image search process, but all the captured images of the target section are provided to the roadside machine 6, and the attention point image search process is performed on the roadside machine 6. You may do so.
  • the processor 25 acquires the captured image and the attention event information at the time of detecting the attention event included in the message. Then, the network communication unit 26 transmits a message of the attention point report including the captured image at the time of detecting the attention event and the attention event information to the server 8.
  • the processor 43 when the network communication unit 41 receives the message of the attention point traffic report transmitted from the roadside unit 6, the processor 43 outputs the captured image of the attention point and the attention event information included in the message of the attention point traffic report. It is stored in the memory 42. At this time, the processor 43 arranges the captured images for each point in the order of the photographing time, synthesizes them, and stores them in the memory 42 (image composition processing). Next, based on the position information of the point of interest, an icon representing the point of interest is superimposed on the map (monitoring map generation processing). When the observer specifies the attention point by operating the icon on the map displayed on the screen on the user terminal 9 connected to the server 8, the processor 43 acquires the captured image of the designated attention point from the memory 42. Then, a screen for reproducing the captured image of the current point of interest is generated and displayed on the user terminal 9 (image reproduction processing).
  • the information when information is provided from one vehicle to another, the information is transmitted from one vehicle to another vehicle via the roadside unit 6 by indirect communication between the road vehicles.
  • You may switch between direct communication between vehicles (ITS communication) and indirect communication between road vehicles (wireless LAN communication).
  • Direct communication may be selected under certain conditions, and indirect communication may be selected in other cases.
  • pedestrian information about a person (dangerous person) who has taken a dangerous action (jumping out, etc.) in the past is highly urgent, and therefore is transmitted to a peripheral in-vehicle terminal 4 by direct communication between vehicles.
  • road information related to construction work, traffic jams, etc. is less urgent, it is transmitted to the surrounding in-vehicle terminals 4 via the roadside device 6 by indirect communication between road vehicles.
  • ITS communication direct communication between vehicles
  • wireless LAN communication wireless local area network
  • the captured image and the attention event information acquired by the vehicle passing through the target section are provided to the vehicle passing through the target section after that, but the camera 2 of the roadside machine 6 is used to provide the peripheral ( For example, the photographed image acquired by photographing the intersection) and the information on the event of interest may be provided to the vehicle.
  • the attention event information collected by the roadside machine 6 ahead of the traveling direction of the vehicle may be provided to the vehicle via the roadside machine 6 located in front of the traveling direction of the vehicle. This makes it possible to grasp in advance the situation of the road (for example, an intersection) ahead in the direction of travel.
  • the information processing of the roadside machine 6 is started.
  • the roadside machine 6 can detect a vehicle equipped with a drive recorder and an image distribution function.
  • a flying robot such as a drone equipped with a drive recorder and an image distribution function, or a walking robot or the like is arranged around the roadside machine 6, and the flying robot or the walking robot collects and distributes the above information. May be done. Furthermore, if it is difficult to shoot with the drive recorder mounted on the vehicle (for example, a bicycle or motorcycle is running immediately to the left and behind the vehicle, and the drive recorder and image distribution function are installed behind the vehicle. In cases such as when a vehicle does not exist), the roadside machine 6, a flying robot, a walking robot, or the like may collect and distribute the above information.
  • the driving support method, the road photographed image collecting method, and the roadside device according to the present disclosure shall reduce the load of control for detecting an event of interest and performing a danger avoidance operation, and appropriately support the driving control of an automatically driven vehicle.
  • a driving support method that supports the driving control of a vehicle, a road photographing image collecting method that collects a photographed image of a road, and a roadside device that supports a driving control of a vehicle or collects a photographed image of a road It is useful as such.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】ITS通信の負荷を著しく増大させることなく、注目事象を検知して危険回避動作を行う制御の負荷を軽減して、自動運転車両の走行制御を適切に支援できるようにする。 【解決手段】道路の対象区間の通行を終了した車両(1)に搭載された情報提供元の車載端末(4)が、対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、対象区間の終点に位置する終点側の路側機(6)に送信し、終点側の路側機(6)が、注目事象に関する撮影画像および付加情報を、対象区間の始点に位置する始点側の路側機(6)に送信し、始点側の路側機(6)が、注目事象に関する撮影画像および付加情報を、対象区間の通行を開始する車両に搭載された情報提供先の車載端末に送信し、情報提供先の車載端末が、注目事象に関する撮影画像および付加情報に基づいて、自車両の走行制御に関係する処理を行う。

Description

走行支援方法、道路撮影画像収集方法、および路側装置
 本開示は、車両の走行制御を支援する走行支援方法、道路の撮影画像を収集する道路撮影画像収集方法、および車両の走行制御を支援し、または道路の撮影画像を収集する路側装置に関するものである。
 近年、ITS(Intelligent Transport System:高度道路交通システム)を利用した安全運転支援無線システムが実用化されている。また、近年、自動運転車の走行を支援する自動走行システムの実用化に向けた検討が進められており、特に自動走行システムにITS通信を適用するための検討も行われている。このような自動走行システムにITS通信を適用し、車両同士の通信(車車間通信)や、道路に設置された路側機と車両との間の通信(路車間通信)を利用して、道路状況などの様々な情報を交換することで、自動運転車両の走行制御を支援することができる。
 このような道路状況などの情報の交換により自動運転車両の走行制御を支援することに関連するものとして、ユーザが場所を指定すると、その場所を走行している車両に搭載されたカメラ(ドライブレコーダ)による撮影画像を収集して、その撮影画像をユーザに提示する技術が知られている(特許文献1参照)。また、車両に搭載されたカメラによる撮影画像に基づいて走行関連情報、すなわち、車両の周囲の交通状況や異常事象(落石など)を検出して、その走行関連情報を車車間通信で他車両に送信する技術が知られている(特許文献2参照)。
特開2017-182757号公報 特開2001-283381号公報
 さて、道路に発生した注目事象、例えば、道路上の障害物や交通事故の発生状況などに関する情報を、先に通行した車両で取得して、その情報を、後から通行する別の車両に提供することが考えられる。このようにすると、その車両では注目事象を予測しながら走行することができることから、危険回避動作を行う制御の負荷を軽減することができ、特に自動運転車両の走行制御を適切に支援することができる。この場合、注目事象に関する情報とし、特許文献1に開示された技術のように、車両に搭載されたカメラの撮影画像を送信することが考えられる。
 しかしながら、ITS通信(車車間通信)は、多数の端末間の情報交換を行うものであり、データ量が少ない情報の送受信を前提としている。このため、特許文献2に開示された技術のように、小容量の文字情報からなる走行関連情報を送信するには、ITS通信を利用することができる。一方、特許文献1に開示された技術のように、走行中の車両からデータ量が多い撮影画像を送信する場合、ITS通信の負荷が著しく増大するために望ましくないという問題があった。
 そこで、本開示は、ITS通信の負荷を著しく増大させることなく、事前に注目事象を検知して危険回避動作を行う制御の負荷を軽減して、自動運転車両の走行制御を適切に支援することができる走行支援方法、道路撮影画像収集方法、および路側装置を提供することを主な目的とする。
 本開示の走行支援方法は、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置が、前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、前記路側装置が、前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、直接または別の路側装置を介して送信し、前記情報提供先の車載装置が、前記注目事象に関する撮影画像および付加情報に基づいて、自車両の走行制御に関係する処理を行う構成とする。
 また、本開示の道路撮影画像収集方法は、道路の対象区間の通行を終了した車両に搭載された車載装置が、前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、前記路側装置が、前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信し、前記サーバ装置が、前記注目事象に関する撮影画像および付加情報を蓄積し、ユーザからの地点を指定した閲覧要求に応じて、指定された地点における前記注目事象に関する撮影画像および付加情報をユーザに提示する構成とする。
 また、本開示の路側装置は、車載装置と通信を行う路車間通信部と、プロセッサと、を備え、前記プロセッサは、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、前記路車間通信部により直接または別の路側装置を介して送信する構成とする。
 また、本開示の路側装置は、車載装置と通信を行う路車間通信部と、プロセッサと、を備え、前記プロセッサは、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信する構成とする。
 本開示によれば、対象区間を通行した車両が検知した注目事象に関する撮影画像および付加情報を、路側装置を経由して、その後に対象区間を通行する車両に提供して、その車両の走行制御を支援することができる。これにより、ITS通信の負荷を著しく増大させることなく、事前に危険事象を検知して危険回避動作を行う制御の負荷を軽減すると共に、自動運転車両の安全走行を適切に支援することができる。
第1実施形態に係る走行支援システムの全体構成図 第1実施形態に係る走行支援システムの概要を示す説明図 第1実施形態に係るカメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図 第1実施形態に係る車両1で行われる注目地点接近判定処理の概要を示す説明図 第1実施形態に係る車両1および路側機6の概略構成を示すブロック図 第1実施形態に係る車両1および路側機6で行われる処理の手順を示すシーケンス図 第2実施形態に係る走行支援システムの概要を示す説明図 第2実施形態に係るカメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図 第2実施形態に係る路側機6で行われる反対車線画像合成処理の概要を示す説明図 第2実施形態に係る車両1および路側機6の概略構成を示すブロック図 第2実施形態に係る車両および路側機6で行われる処理の手順を示すシーケンス図 第3実施形態に係る走行支援システムの概要を示す説明図 第3実施形態に係るカメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図 第3実施形態に係る車両1および路側機6の概略構成を示すブロック図 第3実施形態に係る車両および路側機6で行われる処理の手順を示すシーケンス図 第4実施形態に係る走行支援システムの概要を示す説明図 第4実施形態に係る車両1、路側機6、およびサーバ8の概略構成を示すブロック図 第4実施形態に係る車両1、路側機6、およびサーバ8で行われる処理の手順を示すシーケンス図
 前記課題を解決するためになされた第1の発明は、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置が、前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、前記路側装置が、前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、直接または別の路側装置を介して送信し、前記情報提供先の車載装置が、前記注目事象に関する撮影画像および付加情報に基づいて、自車両の走行制御に関係する処理を行う構成とする。
 これによると、対象区間を通行した車両が検知した注目事象に関する撮影画像および付加情報を、路側装置を経由して、その後に対象区間を通行する車両に提供して、その車両の走行制御を支援することができる。これにより、ITS通信の負荷を著しく増大させることなく、事前に注目事象を検知して危険回避動作を行う制御の負荷を軽減すると共に、自動運転車両の走行制御を適切に支援することができる。
 また、第2の発明は、前記付加情報は、車両が現在位置する区間の区間情報、車両の進行方向に関する情報、注目事象の内容に関する情報、注目事象検知時の車両の地図上における位置情報、注目事象が発生した地点の撮影画像上における位置情報、および注目事象検知時の時間情報を含む構成とする。
 これによると、注目事象の発生状況を適切に把握することができる。
 また、第3の発明は、前記情報提供先の車載装置が、前記注目事象に関する撮影画像と現時点の撮影画像との類似性に基づいて、自車両が前記注目事象の発生地点に接近していることを判定する構成とする。
 これによると、衛星電波の状態が悪いために衛星測位で取得する位置情報の精度が低い場合でも、自車両が注目地点に接近していることを精度よく判定することができる。この場合、撮影画像から移動物を除去した背景画像の類似性に基づいて判定を行うと、より一層精度を高めることができる。
 また、第4の発明は、前記情報提供先の車載装置が、自車両が前記注目事象の発生地点に接近していると判定した場合に、危険回避動作指示を走行制御装置に出力する構成とする。
 これによると、危険回避動作を走行制御装置に適切に行わせることができる。
 また、第5の発明は、前記情報提供元の車載装置が、前記注目事象に関する撮影画像および付加情報を、前記対象区間の終点に位置する終点側の路側装置に送信し、前記終点側の路側装置が、前記注目事象に関する撮影画像および付加情報を、前記対象区間の始点に位置する始点側の路側装置に送信し、前記始点側の路側装置が、前記注目事象に関する撮影画像および付加情報を、前記情報提供先の車載装置に送信する構成とする。
 これによると、2つの路側装置の間を対象区間として、今まで対象区間を通行した車両の車載装置から、対象区間内で発生した注目事象に関する撮影画像および付加情報を確実に取得することができ、また、これから対象区間に進入する車両の車載装置に、注目事象に関する撮影画像および付加情報を確実に提供することができる。
 また、第6の発明は、前記情報提供元の車載装置は、前記対象区間を第1方向に通行する車両に搭載されたものであり、前記情報提供先の車載装置は、前記対象区間を前記第1方向とは逆の第2方向に通行する車両に搭載されたものであり、前記路側装置が、前記第1方向に通行する前記情報提供元の車載装置から取得した前記撮影画像において遮蔽物の手前側に写る移動物の撮影画像を抽出し、過去に前記第2方向に通行した車両の車載装置から取得した第2方向の撮影画像上の前記移動物の位置を算出し、算出された位置に基づいて前記移動物の撮影画像を前記第2方向の撮影画像に重畳した合成画像を生成し、前記合成画像を前記注目事象に関する撮影画像として前記情報提供先の車載装置に送信する構成とする。
 これによると、遮蔽物(例えば停車車両)に遮られて見通し外となった移動物(例えば歩行者)が仮想的に見える状態の合成画像が車載装置に提供されるため、移動物の状況に基づいて、移動物との衝突事故を回避する適切な走行制御を行うことができる。
 また、第7の発明は、前記注目事象は、交通事故であり、前記路側装置が、前記情報提供元の車載装置から取得した前記注目事象に関する撮影画像および付加情報を自装置に蓄積し、最新の前記注目事象に関する撮影画像および付加情報の他に、それ以前の前記注目事象に関する撮影画像および付加情報も前記情報提供先の車載装置に送信する構成とする。
 これによると、交通事故が頻繁に発生する地点において、過去の交通事故の状況に基づいて、交通事故を回避する適切な走行制御を行うことができる。
 また、第8の発明は、道路の対象区間の通行を終了した車両に搭載された車載装置が、前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、前記路側装置が、前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信し、前記サーバ装置が、前記注目事象に関する撮影画像および付加情報を蓄積し、ユーザからの地点を指定した閲覧要求に応じて、指定された地点における前記注目事象に関する撮影画像および付加情報をユーザに提示する構成とする。
 これによると、各地点の撮影画像を、定点カメラがある場合と同様に収集することができる。また、ユーザが地点を指定することで、その地点の撮影画像がユーザに提示されるため、所要の地点の過去の状況を確認することができる。
 また、第9の発明は、車載装置と通信を行う路車間通信部と、プロセッサと、を備え、前記プロセッサは、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、前記路車間通信部により直接または別の路側装置を介して送信する構成とする。
 これによると、対象区間を通行した車両が検知した注目事象に関する撮影画像および付加情報を、その後に対象区間を通行する車両に提供して、その車両の走行制御を支援することができる。これにより、注目事象を検知して危険回避動作を行う制御の負荷を軽減すると共に、自動運転車両の走行制御を適切に支援することができる。
 また、第10の発明は、前記路車間通信部は、自装置が前記対象区間の終点に位置する場合には、前記注目事象に関する撮影画像および付加情報を、前記情報提供元の車載装置から受信し、自装置が前記対象区間の始点に位置する場合には、前記注目事象に関する撮影画像および付加情報を、前記情報提供先の車載装置に送信する構成とする。
 これによると、2つの路側装置の間を対象区間として、今まで対象区間を通行した車両の車載装置から、対象区間内で発生した注目事象に関する撮影画像および付加情報を確実に取得することができ、また、これから対象区間に進入する車両の車載装置に、注目事象に関する撮影画像および付加情報を確実に提供することができる。
 また、第11の発明は、前記路車間通信部は、前記対象区間を第1方向に通行する車両に搭載された前記情報提供元の車載装置から、前記注目事象に関する撮影画像および付加情報を受信し、前記対象区間を前記第1方向とは逆の第2方向に通行する車両に搭載された前記情報提供先の車載装置に、前記注目事象に関する撮影画像および付加情報を送信し、前記プロセッサは、前記第1方向に通行する前記情報提供元の車載装置から取得した前記撮影画像において遮蔽物の手前側に写る移動物の撮影画像を抽出し、過去に前記第2方向に通行した車両の車載装置から取得した第2方向の撮影画像上の前記移動物の位置を算出し、算出された位置に基づいて前記移動物の撮影画像を前記第2方向の撮影画像に重畳した合成画像を生成し、前記合成画像を前記注目事象に関する撮影画像として前記情報提供先の車載装置に送信する構成とする。
 これによると、遮蔽物(例えば停車車両)に遮られて見通し外となった移動物(例えば歩行者)が仮想的に見える状態の合成画像が車載装置に提供されるため、移動物の状況に基づいて、移動物との衝突事故を回避する適切な走行制御を行うことができる。
 また、第12の発明は、前記注目事象は、交通事故であり、前記プロセッサは、前記情報提供元の車載装置から取得した前記注目事象に関する撮影画像および付加情報を自装置の記憶手段に蓄積し、最新の前記注目事象に関する撮影画像および付加情報の他に、前記記憶手段に蓄積されたそれ以前の前記注目事象に関する撮影画像および付加情報も前記情報提供先の車載装置に送信する構成とする。
 これによると、交通事故が頻繁に発生する地点において、過去の交通事故の状況に基づいて、交通事故を回避する適切な走行制御を行うことができる。
 また、第13の発明は、車載装置と通信を行う路車間通信部と、プロセッサと、を備え、前記プロセッサは、道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信する構成とする。
 これによると、各地点の撮影画像を、定点カメラがある場合と同様に収集することができる。
 以下、本開示の実施の形態を、図面を参照しながら説明する。
(第1実施形態)
 図1は、第1実施形態に係る走行支援システムの全体構成図である。
 この走行支援システムは、車両1(自動運転車両)の走行を支援するものであり、車両1に搭載されるカメラ2、センサ3、車載端末4(車載装置)、および自動運転ECU5(移動制御装置、走行制御装置)と、道路に設置される路側機6(路側装置)と、を備えている。
 カメラ2は、車両1の前方を撮影する。センサ3は、レーダー、ライダー、加速度センサ、ジャイロセンサ、舵角センサ、速度センサなどである。自動運転ECU5は、センサ3の出力に基づいて、車両1の周囲の障害物を検知し、また、車両1の状態を検出して、自車両1の走行を制御する。
 車載端末4および路側機6の間ではITS通信が行われる。このITS通信は、ITS(Intelligent Transport System:高度道路交通システム)を利用した安全運転支援無線システムで採用されている周波数帯(例えば700MHz帯や5.8GHz帯)を利用した無線通信である。このITS通信では、車両1の位置情報などの所要の情報を含むメッセージを送受信する。
 なお、このITS通信のうち、車載端末4同士の間で行われるものを車車間通信、路側機6と車載端末4との間で行われるものを路車間通信とそれぞれ呼称する。また、車載端末4および路側機6は、歩行者端末(図示せず)との間でITS通信(歩車間通信、路歩間通信)を行うことができる。
 車載端末4は、ITS通信(車車間通信)により他の車載端末4との間で、位置情報などを含むメッセージを送受信して、車両1同士の衝突の危険性を判定し、衝突の危険性がある場合には、運転者に対する注意喚起動作を行う。なお、注意喚起動作は、車載端末4と接続されたカーナビゲーション装置(図示せず)を用いて行うとよい。また、車載端末4は、ITS通信(歩車間通信)により歩行者端末との間でメッセージを送受信して、歩行者と車両1との衝突の危険性を判定する。
 路側機6は、ITS通信(路車間通信、路歩間通信)により、自装置の周辺に位置する車両1や歩行者の存在を、車載端末4や歩行者端末に通知する。これにより、見通し外の交差点における右左折の際の衝突を防止することができる。なお、路側機6では、この他に、交通情報を車載端末4や歩行者端末に配信する。
 また、路側機6と車載端末4との間では、WiFi(登録商標)などの無線LAN通信が行われる。また、路側機6同士の間では、専用の路側ネットワーク(有線または無線)やセルラー通信などによるネットワークを介して通信(路路間通信)が行われる。
 次に、第1実施形態に係る走行支援システムの概要について説明する。図2は、走行支援システムの概要を示す説明図である。図3は、カメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図である。図4は、車両1で行われる注目地点接近判定処理の概要を示す説明図である。
 図2に示すように、路側機6は、道路の適所、例えば交差点に設置される。本実施形態では、2台の路側機6の間の道路を対象区間とする。図2に示す例では、2台の路側機6が道路に設置されているが、3台以上の路側機6が道路に設置される場合、2台の路側機6の間の対象区間を連続して複数設定することができる。この場合、終点側の路側機6は、次の対象区間の始点に位置する始点側の路側機6となる。
 対象区間を通行する車両1では、カメラ2が車両1の前方を撮影し、車載端末4が、カメラ2の撮影画像に基づいて、車両1の前方の道路上に発生した注目事象を検知する(注目事象検知処理)。ここで、注目事象とは、車両1の安全な通行の支障となる可能性がある物体や状態であり、例えば、道路上に存在する障害物(例えば、タイヤ、シートなどの車両落下物)や、路面に形成された車両によるスリップの痕跡や、路面に発生した陥没などである。また、車両1の左側を通行する自転車や自動二輪なども、例えば車両1の左折時に事故の原因となる可能性があるため、注目事象に含めてもよい。さらに、右折する車両、速度が所定値以上の車両、走行位置が不安定な車両なども、車両1との事故の原因となる可能性があるため、注目事象に含めてもよい。
 このとき、車載端末4は、撮影画像に基づいて、その注目事象の内容も判別する。例えば、車載端末4は、注目物体(落下物など)を検知した場合には、その注目物体の種類を判別する。また、車載端末4は、注目事象を検知すると、注目地点、すなわち、注目事象が発生した地点、例えば、事故が発生した地点や、障害物(車両の落下物など)が存在する地点の撮影画像上の位置情報(画像座標系における座標値)を取得する。
 また、車載端末4は、注目事象を検知すると、注目事象情報を生成する。この注目事象情報は、注目事象検知時点の撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納される。この注目事象情報には、自車両1が現在位置する区間の区間情報、自車両1の進行方向に関する情報、注目事象の内容(障害物の種類など)に関する情報、注目事象検知時の車両1の位置情報(緯度,経度)、注目地点(注目事象が発生した地点)の撮影画像上の位置情報、および注目事象検知時の時間情報が含まれる。なお、区間情報は、車両1が対象区間を通行する際に、対象区間の始点に位置する始点側の路側機6から取得すればよい。
 図3に示す例は、注目事象として、道路上に落下物(タイヤ)が存在する場合であり、図3(A)に示す時点では、車両1の前方の道路上に障害物がない状況が撮影されているが、図3(B)に示す時点では、道路上に落下物が存在する状況が撮影され、図3(C)に示す時点では、注目地点を通り過ぎて、車両1の前方の道路上に障害物がない状況が撮影されている。
 また、図2に示すように、対象区間を通行した車両1では、自車両1が対象区間の終点の近傍に到達すると、車載端末4が、注目事象検知時点の撮影画像および注目事象情報を、対象区間の終点に位置する終点側の路側機6に送信する。
 終点側の路側機6は、車載端末4から受信した注目事象検知時点の撮影画像および注目事象情報を、対象区間の始点に位置する始点側の路側機6に送信する。
 始点側の路側機6は、終点側の路側機6から受信した注目事象検知時点の撮影画像および注目事象情報を、対象区間を通行しようとする車両1の車載端末4に送信する。
 対象区間を通行しようとする車両1では、車載端末4は、始点側の路側機6から受信した注目事象検知時点の撮影画像および注目事象情報に基づいて危険回避動作を指示し、自動運転ECU5は、車載端末4からの危険回避動作の指示に応じて走行制御を行う。
 このとき、図4に示すように、車載端末4は、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目事象検知時点の撮影画像とに基づいて、自車両1が注目地点の近くに到達したか否かを判定する(注目地点接近判定処理)。
 この判定処理では、現時点の撮影画像から背景画像が抽出される。また、車載端末4は、注目事象検知時点の撮影画像から背景画像を抽出する(背景画像抽出処理)。そして、現時点の撮影画像から抽出した背景画像と、注目事象検知時点の撮影画像から抽出した背景画像とを比較して両者が一致するか否か、すなわち、両者の類似度が所定値より高くなるか否かを判定することにより、自車両1が注目地点の近くに到達したか否かが判定される(画像マッチング処理)。なお、自車両1が注目地点に近づくのに応じて、画像の類似度が徐々に高くなり、類似度が所定値より高くなった時点で、自車両1が注目地点の近くに到達したものと判定される。
 このように本実施形態では、車両1や歩行者などの移動物を除去した背景画像の類似度で同一地点の撮影画像を判別するため、衛星電波の状態が悪いために測位部で取得する位置情報の精度が低い場合でも、自車両1が注目地点の近くに到達したことを精度よく判定することができる。
 車載端末4は、自車両1が注目地点の近くに到達すると、自動運転ECU5に危険回避動作指示を出力する。自動運転ECU5は、車載端末4からの危険回避動作指示に基づいて走行制御を行う。これにより、車両1に搭載されたセンサ3の検出結果や、カメラ2の撮影画像に対する画像認識結果に基づくリアルタイムな障害物検知に先だって、車両1の前方に注目地点がある、すなわち、車両の落下物や事故車両などの障害物が存在することを予測しながら走行制御を行うことができる。例えば、早期に障害物を迂回するように車両1の走行を制御するため、障害物との衝突の回避を安全に確実に円滑に行うことができる。
 なお、背景画像抽出処理では、センサ3の出力に基づく障害物の検知結果や、カメラ2の撮影画像に対する動体検知の検知結果に基づいて、撮影画像における障害物や移動物の領域を検出して、その障害物や移動物の領域を除去した背景画像が生成される。画像マッチング処理では、例えば、テンプレートマッチングなどの公知の方法を採用すればよい。
 また、注目地点接近判定処理では、注目事象検知時の車両1の位置情報(緯度,経度)を参考にするとよい。
 また、本実施形態では、注目事象検知時点の撮影画像から背景画像を抽出する処理(背景画像抽出処理)を車載端末4が行うようにしたが、この注目事象検知時点の撮影画像は、路側機6から車載端末4に提供されるものであるため、事前に、注目事象検知時点の撮影画像に対する背景画像抽出処理を路側機6が行うようにしてもよい。これにより、車載端末4の処理負荷を軽減することができる。
 次に、第1実施形態に係る車両1および路側機6の概略構成について説明する。図5は、車両1および路側機6の概略構成を示すブロック図である。
 車載端末4は、ITS通信部11(車車間通信部、第1の路車間通信部)と、無線LAN通信部12(第2の路車間通信部)と、測位部13と、メモリ14と、プロセッサ15と、を備えている。
 ITS通信部11は、ITS通信(車車間通信)により、メッセージをブロードキャストで他の車載端末4に送信し、また、他の車載端末4から送信されるメッセージを受信する。また、ITS通信部11は、ITS通信(路車間通信)により、メッセージを路側機6に送信し、また、路側機6から送信されるメッセージを受信する。特に本実施形態では、ITS通信部11は、衝突危険性判定に関係する情報を送受信する。
 無線LAN通信部12は、WiGig(登録商標)やWiFi(登録商標)などの無線LAN通信により、メッセージを路側機6に送信し、また、路側機6から送信されるメッセージを受信する。特に本実施形態では、無線LAN通信部12は、撮影画像およびその付加情報を送受信する。
 測位部13は、GPS(Global Positioning System)、QZSS(Quasi-Zenith Satellite System)などの衛星測位システムにより自装置の位置を測定して、自装置の位置情報(緯度、経度)を取得する。
 メモリ14は、地図情報や、プロセッサ15で実行されるプログラムなどを記憶する。
 プロセッサ15は、メモリ14に記憶されたプログラムを実行することで走行支援に係る各種の処理を行う。本実施形態では、プロセッサ15が、ドライブレコーダ処理、注目事象検知処理、および注目地点接近判定処理を行う。
 ドライブレコーダ処理では、プロセッサ15が、カメラ2の撮影画像をメモリ14に格納する録画を行う。
 注目事象検知処理では、プロセッサ15が、カメラ2による撮影画像に基づいて、車両1の前方の道路上に発生した注目事象を検知して、注目事象情報を生成する。
 注目地点接近判定処理では、プロセッサ15が、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目事象検知時点の撮影画像とに基づいて、自車両1が注目地点の近くに到達したか否かを判定する。本実施形態では、現時点の撮影画像から抽出した背景画像と、注目事象検知時点の撮影画像から抽出した背景画像とを比較して両者が一致するか否か、すなわち、両者の類似度が所定値より高くなるか否かを判定することにより、自車両1が注目地点の近くに到達したか否かが判定される。
 自動運転ECU5は、操舵ECU31、駆動ECU32、および制動ECU33と接続され、センサ3の検出結果に基づいて、操舵ECU31、駆動ECU32、および制動ECU33を制御して、車両1の自動運転(自律走行)を実現する。
 ここで、操舵ECU31は、自車両1の操舵機構を制御するものであり、駆動ECU32は、自車両1の駆動機構(エンジンや電動モータなど)を制御するものであり、制動ECU33は、自車両1の制動機構を制御するものである。
 なお、自動運転には、運転者を必要としない自律走行と、運転者の運転を支援する運転支援とがあり、自律走行と運転支援との2つのモードを切り替えることができるようにしてもよい。運転支援の場合、衝突の危険性がある場合に、運転者に対する注意喚起が必要であり、例えば、カーナビゲーションにおいて、車載端末4の制御に基づいて、音声出力および画像表示の機能を用いて、運転者に対する注意喚起動作を実施する。
 路側機6は、ITS通信部21(第1の路車間通信部)と、無線LAN通信部22(第2の路車間通信部)と、路路間通信部23(第3の通信部)と、メモリ24と、プロセッサ25と、を備えている。
 ITS通信部21は、ITS通信(路車間通信)により、メッセージをブロードキャストで車載端末4に送信し、また、車載端末4から送信されるメッセージを受信する。特に本実施形態では、ITS通信部21は、衝突危険性判定に関係する情報を送受信する。
 無線LAN通信部22は、WiFi(登録商標)などの無線LAN通信により、車載端末4から送信されるメッセージを受信し、また、受信したメッセージを車載端末4に送信する。特に本実施形態では、無線LAN通信部22は、撮影画像およびその付加情報を送受信する。
 路路間通信部23は、専用の路側ネットワーク(有線または無線)、またはセルラー通信などによるネットワークを介して、隣り合う路側機6と通信を行う。
 メモリ24は、プロセッサ25で実行されるプログラムなどを記憶する。
 プロセッサ25は、メモリ24に記憶されたプログラムを実行することで各種の処理を行う。本実施形態では、プロセッサ25が、情報転送処理、および情報配信処理を行う。
 情報転送処理では、プロセッサ25が、車載端末4から送信されたメッセージに含まれる注目事象情報、特に区間情報に基づいて、転送先として、対象区間の始点に位置する始点側の路側機6を選択し、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを、路路間通信部23から始点側の路側機6に送信する制御を行う。
 情報配信処理では、プロセッサ25が、終点側の路側機6から送信されるメッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得してメモリ24に格納し、その注目事象検知時点の撮影画像および注目事象情報を含むメッセージを、路路間通信部23から周辺を通過する車載端末4に送信する制御を行う。
 次に、第1実施形態に係る車両1および路側機6で行われる処理の手順について説明する。図6は、車両1および路側機6で行われる処理の手順を示すシーケンス図である。
 対象区間を先に通行した車両1では、カメラ2が自車両1の前方を撮影する。そして、車載端末4のプロセッサ15が、注目事象として、前方の道路上にある障害物(落下物)を検知すると、注目事象情報を生成して、その注目事象情報を、撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納する。
 次に、車載端末4のプロセッサ15は、測位部13の測位結果に基づいて、自車両1が対象区間の終点に到達したことを検知すると、メモリ14から、注目事象発生時の撮影画像および注目事象情報を取得する。そして、車載端末4の無線LAN通信部12が、注目事象発生時の撮影画像および注目事象情報を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
 終点側の路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象情報、特に区間情報に基づいて、転送先として、対象区間の始点に位置する始点側の路側機6を選択する。そして、路路間通信部23が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを始点側の路側機6に送信する。
 始点側の路側機6では、路路間通信部23が、終点側の路側機6から送信されるメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得してメモリ24に格納する。そして、無線LAN通信部22が、注目地点の注目事象発生時点の撮影画像および注目事象情報を含むメッセージを、周辺を通過する車載端末4に送信する。
 後から対象区間を通行する車両1では、車載端末4の無線LAN通信部12が、始点側の路側機6から送信されるメッセージを受信すると、車載端末4のプロセッサ15が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得してメモリ14に格納する。そして、車載端末4のプロセッサ15が、注目事象検知時点の撮影画像に基づいて、事故を回避するための危険回避動作(減速や迂回など)を選択する(危険回避動作選択処理)。
 次に、車載端末4のプロセッサ15が、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目地点の事故時点の撮影画像とに基づいて、自車両1が注目地点の近くに到達したか否かを判定する(注目地点接近判定処理)。
 そして、自車両1が注目地点の近くに到達した場合には、プロセッサ15が、自動運転ECU5に危険回避動作指示を出力する。自動運転ECU5は、車載端末4からの危険回避動作指示に基づいて、障害物を回避するように走行制御を行う。
(第2実施形態)
 次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図7は、第2実施形態に係る走行支援システムの概要を示す説明図である。図8は、カメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図である。図9は、路側機6で行われる反対車線画像合成処理の概要を示す説明図である。
 図7に示すように、道路に停車中の車両の陰から歩行者が飛び出すと、車両1は歩行者をよける余裕がないため、車両1が歩行者に衝突する事故が起きる。一方、道路に停車中の車両の陰に隠れて見えない歩行者も、反対車線を走行する対向車両からは見え、その対向車両のカメラ2では、停車車両の手前側に歩行者が写る撮影画像を得ることができる。
 図8に示す例は、反対車線に停車中の車両の手前に歩行者がいる場合である。この場合、反対車線を走行する対向車両からは歩行者が停車中の車両の陰に隠れて見えないため、停車中の車両の陰から歩行者が急に現れることで、その歩行者が反対車線を走行する車両と衝突する危険性がある。
 そこで、本実施形態では、対象区間の端に位置する路側機6が、静止した遮蔽物(停車車両など)の陰に隠れて見えない移動物(歩行者など)が存在するという見通し外情報を、反対車線を第1方向(図7参照)に通行した対向車両から取得して、その見通し外情報を、対象区間を第1方向とは逆の第2方向(図7参照)に通行しようとする車両の車載端末4に提供する。情報提供先の車両では、自動運転ECU5により、飛び出す歩行者を避けるように走行制御が行われる。
 図9に示すように、路側機6は、対象区間を通行した車両から取得した注目事象検知時点の撮影画像および注目事象情報に基づいて、反対車線から注目地点(障害物が存在する地点)を撮影した撮影画像に移動物画像を合成した合成画像を生成する(反対車線画像合成処理)。
 具体的には、まず、メッセージに含まれる注目事象検知時点の撮影画像から、移動物(歩行者など)と、反対車線から見た場合に移動物を遮蔽する位置関係にある遮蔽物とを検知する。ここで、移動物は歩行者、自転車、および動物などである。また、遮蔽物は停車車両などである。
 また、メッセージに含まれる注目事象情報、特に注目事象検知時点の車両の位置情報に基づいて、自装置に蓄積された対象区間の撮影画像の中から、反対車線から注目地点を撮影した撮影画像を逆方向撮影画像として選択する。このとき、撮影時刻が最も新しい撮影画像、すなわち、直前に通行した車両で撮影された撮影画像で、かつ、遮蔽物が写っている撮影画像を選択する。
 そして、メッセージに含まれる注目事象情報、特に注目事象検知時点の撮影画像上の障害物の位置情報に基づいて、注目事象検知時点の撮影画像から障害物、特に移動物の領域を切り出して移動物画像を取得する。次に、移動物の向きが実際の向きになるように、移動物画像を左右反転して反転移動物画像を生成する。なお、本実施形態では、移動物画像を左右反転する画像処理を行うようにしたが、移動物画像に対する画像処理は反転に限られない。また、反転などの画像処理を移動物画像に施さないようにしてもよい。また、反転に加えて他の画像処理(例えば回転など)を移動物画像に施すようにしてもよい。
 次に、注目事象検知時点の撮影画像上の障害物の位置情報に基づいて、逆方向撮影画像に反転移動物画像を重畳した合成画像を生成する。このとき、逆方向撮影画像上の移動物の位置を算出し、算出された位置に基づいて反転移動物画像を逆方向撮影画像に重畳する。これにより、逆方向撮影画像内の遮蔽物に重なり合うように反転移動物画像が重畳される。なお、逆方向撮影画像に反転移動物画像を重畳する際に、反転移動物画像が遮蔽物の大きさと整合するように、反転移動物画像を拡大縮小するようにしてもよい。
 また、車載端末4は、カメラ2から出力されてドライブレコーダを構成するメモに14に蓄積された現時点の撮影画像と、注目地点(注目事象が発生した地点)の注目事象検知時点の撮影画像とに基づいて、自車両が注目地点の近くに到達したか否かを判定する(注目地点接近判定処理)。このとき、車載端末4は注目事象検知時点の撮影画像として、路側機6において生成した合成画像に基づいて、注目地点接近判定処理を行う。
 次に、第2実施形態に係る車両および路側機6の概略構成について説明する。図10は、車両1および路側機6の概略構成を示すブロック図である。
 車両1の構成は、第1実施形態(図5)と同様である。
 路側機6は、前記の実施形態と概ね同様であるが、プロセッサ25が、情報転送処理および情報配信処理の他に、反対車線画像合成処理を行う。この処理では、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報に基づいて、反対車線から注目地点(障害物が存在する地点)を撮影した撮影画像に移動物画像を合成した合成画像を生成する。
 次に、第2実施形態に係る車両および路側機6で行われる処理の手順について説明する。図11は、車両および路側機6で行われる処理の手順を示すシーケンス図である。
 対象区間を第1方向に走行する車両1では、カメラ2が自車両の前方を撮影する。そして、車載端末4のプロセッサ15が、注目事象として、自車両の前方に障害物があることを検知すると、注目事象情報を生成して、その注目事象情報を、撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納する。
 次に、車載端末4のプロセッサ15は、測位部13の測位結果に基づいて、自車両が対象区間の終点に到達したことを検知すると、メモリ14から、注目事象発生時の撮影画像および注目事象情報を取得する。そして、車載端末4の無線LAN通信部12が、注目事象発生時の撮影画像および注目事象情報を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
 路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報に基づいて、反対車線から注目地点(障害物が存在する地点)を撮影した撮影画像に移動物画像を合成した合成画像を生成する(反対車線画像合成処理)。
 次に、無線LAN通信部22が、合成画像および注目事象情報を含むメッセージを、周辺の車載端末4に送信する。
 対象区間を第2方向に通行する車両1では、車載端末4の無線LAN通信部12が、路側機6から送信されるメッセージを受信すると、車載端末4のプロセッサ15が、メッセージに含まれる注目地点の事故時点の撮影画像および注目事象情報を取得してメモリ14に格納する。そして、車載端末4のプロセッサ15が、注目地点の事故時点の撮影画像に基づいて、事故を回避するための危険回避動作(減速や迂回など)を選択する。
 次に、車載端末4のプロセッサ15が、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目地点の事故時点の撮影画像とに基づいて、自車両が注目地点の近くに到達したか否かを判定する(注目地点接近判定処理)。
 そして、自車両が注目地点の近くに到達した場合には、プロセッサ15が、自動運転ECU5に危険回避動作指示を出力する。自動運転ECU5は、車載端末4からの危険回避動作指示に基づいて走行制御を行う。
(第3実施形態)
 次に、第3実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図12は、第3実施形態に係る走行支援システムの概要を示す説明図である。図13は、カメラ2の撮影画像および車載端末4が生成する注目事象情報を示す説明図である。
 図12に示すように、車両1では、カメラ2が車両の前方を撮影し、車載端末4が、カメラ2による撮影画像に基づいて、車両の前方の道路上に発生した注目事象を検知して、注目事象情報を生成する(注目事象検知処理)。本実施形態では、注目事象として、自車両が事故を起こしたことを検知する。また、注目事象として、自車両が事故寸前の状態、例えば、車道に飛び出した歩行者と衝突しそうな状態になったことを検知する。
 図13に示す例は、注目事象として、歩行者の飛び出しによる衝突事故が発生した場合であり、図13(A)に示す時点では、車両の前方の道路上に障害物がない状況が撮影されているが、図13(B)に示す時点では、撮影画像に、歩行者が車道に飛び出す状況が撮影され、図13(C)に示す時点では、撮影画像に、歩行者に自車両が衝突して歩行者が転倒した状況が撮影されている。この場合、注目事象検知時点の撮影画像として、図13(B),(C)に示す時点の撮影画像が、終点側の路側機6にアップロードされる。
 また、図12に示すように、終点側の路側機6は、車載端末4から受信した注目事象検知時点の撮影画像および注目事象情報を、対象区間の始点に位置する始点側の路側機6に送信する。
 始点側の路側機6は、終点側の路側機6から受信した注目事象検知時点の撮影画像および注目事象情報を、自装置に蓄積する。そして、注目事象検知時点の撮影画像および注目事象情報を、対象区間を通行しようとする車両の車載端末4に送信する。
 対象区間を通行しようとする車両では、車載端末4は、始点側の路側機6から受信した注目事象検知時点の撮影画像および注目事象情報に基づいて危険回避動作(減速や迂回など)を指示し、自動運転ECU5は、車載端末4からの危険回避動作の指示に応じて走行制御を行う。
 なお、本実施形態では、注目事象検知時点(事故発生時点)の撮影画像を、その後に対象区間を通行する車両に提供して、その車両の走行制御を支援するようにしたが、注目事象検知時点の撮影画像を路側機6からサーバにアップロードして、自動運転車両の走行制御に用いられるAI(人工知能)の強化学習用データとして利用するようにしてもよい。また、サーバに蓄積された注目事象検知時点の撮影画像をユーザ端末に配信するようにしてもよい。
 次に、第3実施形態に係る車両1および路側機6の概略構成について説明する。図14は、車両1および路側機6の概略構成を示すブロック図である。
 車両1は、第1実施形態(図5参照)と概ね同様であるが、特に本実施形態では、車載端末4のプロセッサ15が、注目事象検知処理として、センサ3(加速度センサなど)の出力に基づいて自車両が事故を起こしたことを検知する。また、プロセッサ15が、カメラ2の撮影画像やセンサ3の出力に基づいて自車両が事故寸前の状態を検知する。そして、注目事象検知時点の撮影画像がメモリ14に格納される。
 路側機6は、第1実施形態(図5参照)と概ね同様であるが、特に本実施形態では、プロセッサ25が、自装置が始端側となる対象区間の終端側の別の路側機6から取得した注目事象検知時点の撮影画像および注目事象情報を取得してメモリ24に蓄積する(撮影画像蓄積処理)。なお、蓄積された撮影画像および注目事象情報は所定期間保持される。また、撮影画像を大量に蓄積するために大容量の記憶デバイスを設けるようにしてもよい。
 次に、第3実施形態に係る車両および路側機6で行われる処理の手順について説明する。図15は、車両および路側機6で行われる処理の手順を示すシーケンス図である。
 対象区間を先に通行した車両1では、カメラ2が自車両1の前方を撮影する。そして、車載端末4のプロセッサ15が、自車両に注目事象(事故や事故寸前の状態)が発生したことを検知すると、注目事象情報を生成して、その注目事象情報を、撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納する。
 次に、車載端末4のプロセッサ15は、測位部13の測位結果に基づいて、自車両が対象区間の終点の近傍に到達したことを検知すると、メモリ14から、注目事象発生時の撮影画像および注目事象情報を取得する。そして、車載端末4の無線LAN通信部12が、注目事象発生時の撮影画像および注目事象情報を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
 終点側の路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象情報、特に区間情報に基づいて、通知先として、対象区間の始点に位置する始点側の路側機6を選択する。そして、路路間通信部23が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを始点側の路側機6に送信する。
 始点側の路側機6では、路路間通信部23が、終点側の路側機6から送信されるメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得してメモリ24に蓄積する。そして、無線LAN通信部22が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを、周辺を通過する車載端末4に送信する。このとき、過去の所定期間内における注目事象検知時点の撮影画像および注目事象情報がメモリ24に蓄積されており、最新の注目事象検知時点の撮影画像および注目事象情報の他に、それ以前の注目事象検知時点の撮影画像および注目事象情報も車載端末4に送信される。
 後から対象区間を通行する車両1では、車載端末4の無線LAN通信部12が、始点側の路側機6から送信されるメッセージを受信すると、車載端末4のプロセッサ15が、メッセージに含まれる注目地点の事故時点の撮影画像および注目事象情報を取得してメモリ14に格納する。そして、車載端末4のプロセッサ15が、注目地点の事故時点の撮影画像に基づいて、事故を回避するための危険回避動作(減速や迂回など)を選択する。
 次に、車載端末4のプロセッサ15が、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像と、注目地点の事故時点の撮影画像とに基づいて、注目地点接近判定処理を行う。この処理では、現時点の撮影画像から背景画像を抽出する(背景抽出処理)。次に、その背景画像と、注目事象検知時点の撮影画像から抽出した背景画像とを比較して両者が一致するか否か、すなわち、両者の類似度が所定値より高くなるか否かを判定することにより、自車両が注目地点の近くに到達したか否かを判定する。
 そして、自車両が注目地点の近くに到達した場合には、プロセッサ15が、自動運転ECU5に危険回避動作指示を出力する。自動運転ECU5は、車載端末4からの危険回避動作指示に基づいて走行制御を行う。
(第4実施形態)
 次に、第4実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図16は、第4実施形態に係る走行支援システムの概要を示す説明図である。
 本実施形態では、前記の実施形態と同様に、対象区間を通行する車両において、カメラ2が車両の前方を撮影し、車載端末4が、カメラ2による撮影画像に基づいて、車両の前方の道路上に発生した注目事象を検知する。例えば、車載端末4は、停車車両の陰から飛び出した歩行者が自車両と衝突する事故が発生したことを検知する。そして、車載端末4は、注目事象検知時点の撮影画像および注目事象情報を、対象区間の終点に位置する終点側の路側機6に送信する。
 また、本実施形態では、前記の実施形態と同様に、終点側の路側機6において、車載端末4から受信した注目事象検知時点の撮影画像および注目事象情報を、対象区間の始点に位置する始点側の路側機6に送信する。次に、始点側の路側機6が、対象区間を通行しようとする車両の車載端末4に、注目事象検知時点の撮影画像および注目事象情報を送信する。そして、車両において、注目事象検知時点の撮影画像に基づいて自車両が注目地点の近くに到達したことを判定して、自動運転ECU5に早期に危険回避動作を開始させる。
 一方、本実施形態では、前記の実施形態と異なり、対象区間の終点に位置する終点側の路側機6は、まず、注目事象を検知した車両から、注目事象検知時点の撮影画像および注目事象状態を取得し、その後、対象区間を別の車両が通行する度に、その車両から、注目地点の撮影画像を取得する。
 サーバ8(サーバ装置)は、対象区間の終点に位置する終点側の路側機6から、まず、注目事象検知時点の撮影画像および注目事象状態を取得し、その後、注目地点の撮影画像を取得する。これにより、サーバ8は、注目事象が発生している最中の撮影画像を始めとして、撮影時刻が少しずつずれた注目地点の撮影画像を収集することができる。このため、定点カメラ(固定カメラ)がない地点でも、注目事象(事故など)が発生した現場の状況を監視者が確認することができる。
 また、サーバ8は、管理者が操作するユーザ端末9(ユーザ装置)からのアクセス(閲覧要求)に応じて、管理者が指定した地点の撮影画像をユーザ端末9に配信する。このとき、ユーザ端末9では、地図上に、過去に事故が発生した地点を表すアイコンが表示される。管理者がアイコンを操作することで地点を指定すると、指定された地点の撮影画像が表示される。
 なお、本実施形態では、車載端末4が、自車両が注目地点の近くに到達したか否かを判定して、自車両が注目地点の近くに到達した際に撮影された撮影画像、すなわち、注目地点の現時点の撮影画像を、路側機6にアップロードするようにしたが、車載端末4が、注目地点に限らず対象区間内の全ての撮影画像を路側機6にアップロードして、路側機6が、位置情報や画像マッチングなどにより、対象区間内の注目地点の撮影画像を抽出するようにしてもよい。
 また、注目地点に限らず対象区間内の全ての撮影画像を収集するようにしてもよい。これにより、地図で道路上の任意の地点を指定することで、その地点の最近の撮影画像を表示させることで、道路上の任意の地点の最近の状況を確認することができる。例えば、認知症の高齢者や迷子などの人物を捜索する用途に利用することができる。また、例えば、防犯や防災などの用途にも利用することができる。さらに、特定の時間帯にのみ対象区間内の全ての撮影画像が収集されるようにしてもよい。例えば、児童の登下校時間帯にのみ対象区間内の全ての撮影画像が収集されることにより、登下校時の児童の見守りの用途に利用することができる。
 また、対象区間内の全ての撮影画像を収集するようにすると、画像マッチングおよび位置情報に基づいて、注目事象(事故など)が発生する以前の注目地点の撮影画像を取得することができる。これにより、注目事象が発生する前後の現場の状況を監視者が確認することができる。
 次に、第4実施形態に係る車両1、路側機6、およびサーバ8の概略構成について説明する。図17は、車両1、路側機6、およびサーバ8の概略構成を示すブロック図である。
 車両1の構成は、第1実施形態(図5参照)と同様である。
 路側機6は、前記の実施形態と概ね同様であるが、ITS通信部21、無線LAN通信部22および路路間通信部23の他に、ネットワーク通信部26を備えている。このネットワーク通信部26は、ネットワークを介してサーバ8との間で通信を行う。
 サーバ8は、ネットワーク通信部41と、メモリ42と、プロセッサ43と、を備えている。
 ネットワーク通信部41は、ネットワークを介して路側機6と通信を行う。また、ネットワーク通信部41は、監視者が操作するユーザ端末9とネットワークを介して通信を行う。
 メモリ42は、路側機6から収集した各地点の撮影画像を蓄積する。また、メモリ42は、プロセッサ43で実行されるプログラムなどを記憶する。なお、撮影画像を大量に蓄積するために大容量の記憶デバイスを設けるようにしてもよい。
 プロセッサ43は、メモリ42に記憶されたプログラムを実行することで各種の処理を行う。本実施形態では、プロセッサ43が、地点画像合成処理、監視地図生成処理および撮影画像表示処理を行う。
 地点画像合成処理では、プロセッサ43が、路側機6から収集した各地点の撮影画像を、地点ごとに撮影時刻順に並べて合成する。
 監視地図生成処理では、プロセッサ43が、注目地点の位置情報に基づいて、注目地点を表すアイコンを地図上に重畳した画面情報を生成する。この画面情報は、通信部からユーザ端末9に送信されて、ユーザ端末9において、各地点を表すアイコンを地図上に重畳した画面が表示される。監視者は、アイコンを操作することで地点を指定することができる。
 撮影画像表示処理では、プロセッサ43が、監視者が指定した地点の撮影画像をメモリ42から取得して、指定地点の現在の撮影画像を表示(再生)する画面情報を生成する。この画面情報は、ネットワーク通信部41からユーザ端末9に送信されて、ユーザ端末9において、撮影画像を表示する画面が表示される。
 なお、本実施形態では、地点ごとの撮影画像を合成するようにしたが、地点ごとの撮影画像を合成せずに、監視者が指定した地点の撮影画像を撮影時刻にしたがって順次再生するようにしてもよい。
 また、本実施形態では、監視者が指定した地点の撮影画像を再生するようにしたが、同一地点で形態(歩行者事故、自転車事故など)が異なる複数の注目事象(事故および事故寸前の状態)が発生している場合には、事故の形態ごとに撮影画像を分類して、監視者が指定した形態の撮影画像を再生するようにしてもよい。
 次に、第4実施形態に係る車両1、路側機6、およびサーバ8で行われる処理の手順について説明する。図18は、車両1、路側機6、およびサーバ8で行われる処理の手順を示すシーケンス図である。
 対象区間を先に通行した車両1では、車載端末4のプロセッサ15が、自車両に注目事象(事故や事故寸前の状態)が発生したことを検知すると、注目事象情報を生成して、その注目事象情報を、撮影画像の付加情報として、ドライブレコーダを構成するメモリ14に格納する。
 次に、車載端末4のプロセッサ15は、測位部13の測位結果に基づいて、自車両が対象区間の終点の近傍に到達したことを検知すると、ドライブレコーダを構成するメモリ14から、注目事象発生時の撮影画像および注目事象情報を取得する。そして、車載端末4の無線LAN通信部12が、注目事象発生時の撮影画像および注目事象情報を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
 終点側の路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象情報、特に区間情報に基づいて、通知先として、対象区間の始点に位置する始点側の路側機6を選択する。そして、路路間通信部23が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを始点側の路側機6に送信する。また、ネットワーク通信部26が、注目事象検知時点の撮影画像および注目事象情報を含む注目地点報告をサーバ8に送信する。
 始点側の路側機6では、路路間通信部23が、終点側の路側機6から送信されるメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得する。そして、無線LAN通信部22が、注目事象検知時点の撮影画像および注目事象情報を含むメッセージを、周辺を通過する車載端末4に送信する。
 後から対象区間を通行する車両1では、車載端末4の無線LAN通信部12が、始点側の路側機6から送信されるメッセージを受信すると、車載端末4のプロセッサ15が、メッセージに含まれる注目事象検知時点の撮影画像から背景画像を抽出する(背景抽出処理)。また、カメラ2から出力されてドライブレコーダを構成するメモリ14に蓄積された現時点の撮影画像から背景画像を抽出する(背景抽出処理)。
 次に、車載端末4のプロセッサ15が、注目地点接近判定処理を開始する。この処理では、現時点の撮影画像から抽出した背景画像と、注目事象検知時点の撮影画像から抽出した背景画像とを比較して両者が一致するか否か、すなわち、両者の類似度が所定値より高くなるか否かを判定する。そして、現時点の撮影画像の中から該当する撮影画像、すなわち、注目地点の現時点の撮影画像が見つかると、プロセッサ15が、その撮影画像の付加情報として注目事象情報を、ドライブレコーダを構成するメモリ14に格納する。
 次に、車載端末4のプロセッサ15が、測位部13の測位結果に基づいて、自車両が対象区間の終点に到達したことを検知すると、注目地点の撮影画像をメモリ14から取得する。そして、無線LAN通信部12が、注目地点の撮影画像を含むメッセージを、対象区間の終点に位置する終点側の路側機6に送信する。
 なお、本実施形態では、車載端末4において注目地点画像探索処理を行うようにしたが、対象区間の全ての撮影画像を路側機6に提供して、路側機6において注目地点画像探索処理を行うようにしてもよい。
 終点側の路側機6では、無線LAN通信部22が、車載端末4から送信されたメッセージを受信すると、プロセッサ25が、メッセージに含まれる注目事象検知時点の撮影画像および注目事象情報を取得する。そして、ネットワーク通信部26が、注目事象検知時点の撮影画像および注目事象情報を含む注目地点報告のメッセージをサーバ8に送信する。
 サーバ8では、ネットワーク通信部41が、路側機6から送信される注目地点通行報告のメッセージを受信すると、プロセッサ43が、注目地点通行報告のメッセージに含まれる注目地点の撮影画像および注目事象情報をメモリ42に蓄積する。このとき、プロセッサ43が、地点ごとに撮影画像を撮影時刻順に並べて合成してメモリ42に格納する(画像合成処理)。次に、注目地点の位置情報に基づいて、注目地点を表すアイコンを地図上に重畳する(監視地図生成処理)。監視者が、サーバ8に接続されたユーザ端末9において、画面表示された地図上のアイコンを操作して注目地点を指定すると、プロセッサ43が、指定された注目地点の撮影画像をメモリ42から取得して、現在の注目地点の撮影画像を再生する画面を生成してユーザ端末9に表示する(画像再生処理)。
 ところで、前記の実施形態では、ある車両から別の車両に情報を提供する場合に、路車間の間接通信により路側機6を介したある車両から別の車両に情報を送信するようにしたが、車車間の直接通信(ITS通信)と路車間の間接通信(無線LAN通信)とを切り替えるようにしてもよい。所定の条件の場合に、直接通信を選択し、それ以外の場合は間接通信を選択するようにしてもよい。例えば、過去に危険行動(飛び出しなど)をとった人物(危険人物)に関する歩行者情報は、緊急性が高いため、車車間の直接通信で周辺の車載端末4に送信する。一方、工事や渋滞などに関する道路情報などは、緊急性が低いため、路車間の間接通信で周辺の車載端末4に路側機6を介して送信する。
 また、車車間の直接通信(ITS通信)と路車間の間接通信(無線LAN通信)とを同時に利用するようにしてもよい。これは、特に緊急性が高い場合、例えば緊急車両(救急車など)の場合に、通信の安定性を高めることができる。
 また、前記の実施形態では、対象区間を通行した車両で取得した撮影画像および注目事象情報を、その後に対象区間を通行する車両に提供するようにしたが、路側機6のカメラ2で周辺(例えば交差点)を撮影することで取得した撮影画像および注目事象情報を車両に提供するようにしてもよい。この場合、車両の進行方向の先にある路側機6が収集した注目事象情報を、車両の進行方向の手前側にある路側機6を経由して車両に提供すればよい。これにより、進行方向の先の道路(例えば交差点)の状況を事前に把握することができる。
 また、ドライブレコーダおよび画像配信の機能を搭載した車両が長時間通行しない場合、道路の状況を長時間収集できなくなる。そこで、ドライブレコーダ機能を搭載した車両が通行しない状態が所定時間継続すると、路側機6の情報処理を開始するようにする。
この場合、車両がドライブレコーダおよび画像配信の機能を搭載していることを表す情報を路側機6に通知するようにするとよい。これにより、ドライブレコーダおよび画像配信の機能を搭載した車両を路側機6が検知することができる。路側機6では、この情報を受信したら、注目事象の検知および注目事象情報(撮影画像を含む)の送信の処理を停止すればよい。
 あるいは、ドライブレコーダおよび画像配信の機能を搭載したドローンなどの飛行型ロボット、または歩行型ロボットなどを路側機6の周辺に配置し、当該飛行型ロボットまたは歩行型ロボットが上記情報の収集および配信などを行ってもよい。さらに、車両に搭載したドライブレコーダでは撮影が困難である場合(例えば、自車両の直ぐ左側後方に自転車や自動二輪が走行しており、自車両の後方にドライブレコーダおよび画像配信の機能を搭載した車両が存在しない場合など)においては、路側機6あるいは飛行型ロボット、歩行型ロボットなどが上記情報の収集および配信を行ってもよい。
 また、収集した注目事象情報を、例えばサーバなどに集約して分析を行い、該当箇所付近にいる車両などに事前に通知することも可能である。これにより、事故が発生しやすい場所については、事故件数が多いことだけでなく、例えば事故の種類または発生原因に関する情報についても事前に通知することが可能となる。
 また、危険と思われる行動に結びつく注目事象情報を検知した場合、例えば、所定値以上の車両の速度、所定値以下の車間距離などを検知した場合には、すぐに警察などに通知されるようにしてもよい。これにより、例えば、飲酒運転や煽り運転などの危険な行動の抑制が可能となる。
 以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
 本開示に係る走行支援方法、道路撮影画像収集方法、および路側装置は、注目事象を検知して危険回避動作を行う制御の負荷を軽減すると共に、自動運転車両の走行制御を適切に支援することができる効果を有し、車両の走行制御を支援する走行支援方法、道路の撮影画像を収集する道路撮影画像収集方法、および車両の走行制御を支援し、または道路の撮影画像を収集する路側装置などとして有用である。
1 車両
2 カメラ
3 センサ
4 車載端末(車載装置)
5 自動運転ECU(走行制御装置)
6 路側機(路側装置)
8 サーバ(サーバ装置)
9 ユーザ端末(ユーザ装置)
11 ITS通信部
12 無線LAN通信部
13 測位部
14 メモリ
15 プロセッサ
21 ITS通信部
22 無線LAN通信部
23 路路間通信部
24 メモリ
25 プロセッサ
26 ネットワーク通信部
31 操舵ECU
32 駆動ECU
33 制動ECU
41 ネットワーク通信部
42 メモリ
43 プロセッサ

Claims (13)

  1.  道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置が、
     前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、
     前記路側装置が、
     前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、直接または別の路側装置を介して送信し、
     前記情報提供先の車載装置が、
     前記注目事象に関する撮影画像および付加情報に基づいて、自車両の走行制御に関係する処理を行うことを特徴とする走行支援方法。
  2.  前記付加情報は、
     車両が現在位置する区間の区間情報、車両の進行方向に関する情報、注目事象の内容に関する情報、注目事象検知時の車両の地図上における位置情報、注目事象が発生した地点の撮影画像上における位置情報、および注目事象検知時の時間情報を含むことを特徴とする請求項1に記載の走行支援方法。
  3.  前記情報提供先の車載装置が、
     前記注目事象に関する撮影画像と現時点の撮影画像との類似性に基づいて、自車両が前記注目事象の発生地点に接近していることを判定することを特徴とする請求項1に記載の走行支援方法。
  4.  前記情報提供先の車載装置が、
     自車両が前記注目事象の発生地点に接近していると判定した場合に、危険回避動作指示を走行制御装置に出力することを特徴とする請求項3に記載の走行支援方法。
  5.  前記情報提供元の車載装置が、
     前記注目事象に関する撮影画像および付加情報を、前記対象区間の終点に位置する終点側の路側装置に送信し、
     前記終点側の路側装置が、
     前記注目事象に関する撮影画像および付加情報を、前記対象区間の始点に位置する始点側の路側装置に送信し、
     前記始点側の路側装置が、
     前記注目事象に関する撮影画像および付加情報を、前記情報提供先の車載装置に送信することを特徴とする請求項1に記載の走行支援方法。
  6.  前記情報提供元の車載装置は、前記対象区間を第1方向に通行する車両に搭載されたものであり、
     前記情報提供先の車載装置は、前記対象区間を前記第1方向とは逆の第2方向に通行する車両に搭載されたものであり、
     前記路側装置が、
     前記第1方向に通行する前記情報提供元の車載装置から取得した前記撮影画像において遮蔽物の手前側に写る移動物の撮影画像を抽出し、過去に前記第2方向に通行した車両の車載装置から取得した第2方向の撮影画像上の前記移動物の位置を算出し、算出された位置に基づいて前記移動物の撮影画像を前記第2方向の撮影画像に重畳した合成画像を生成し、
     前記合成画像を前記注目事象に関する撮影画像として前記情報提供先の車載装置に送信することを特徴とする請求項1に記載の走行支援方法。
  7.  前記注目事象は、交通事故であり、
     前記路側装置が、
     前記情報提供元の車載装置から取得した前記注目事象に関する撮影画像および付加情報を自装置に蓄積し、
     最新の前記注目事象に関する撮影画像および付加情報の他に、前記自装置に蓄積されたそれ以前の前記注目事象に関する撮影画像および付加情報も前記情報提供先の車載装置に送信することを特徴とする請求項1に記載の走行支援方法。
  8.  道路の対象区間の通行を終了した車両に搭載された車載装置が、
     前記対象区間を通行中に注目事象を検知すると、その注目事象に関する撮影画像および付加情報を、路側装置に送信し、
     前記路側装置が、
     前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信し、
     前記サーバ装置が、
     前記注目事象に関する撮影画像および付加情報を蓄積し、
     ユーザからの地点を指定した閲覧要求に応じて、指定された地点における前記注目事象に関する撮影画像および付加情報をユーザに提示することを特徴とする道路撮影画像収集方法。
  9.  車載装置と通信を行う路車間通信部と、
     プロセッサと、
    を備え、
     前記プロセッサは、
     道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、
     前記注目事象に関する撮影画像および付加情報を、前記対象区間の通行を開始する車両に搭載された情報提供先の車載装置に、前記路車間通信部により直接または別の路側装置を介して送信することを特徴とする路側装置。
  10.  前記路車間通信部は、
     自装置が前記対象区間の終点に位置する場合には、前記注目事象に関する撮影画像および付加情報を、前記情報提供元の車載装置から受信し、
     自装置が前記対象区間の始点に位置する場合には、前記注目事象に関する撮影画像および付加情報を、前記情報提供先の車載装置に送信することを特徴とする請求項9に記載の路側装置。
  11.  前記路車間通信部は、
     前記対象区間を第1方向に通行する車両に搭載された前記情報提供元の車載装置から、前記注目事象に関する撮影画像および付加情報を受信し、
     前記対象区間を前記第1方向とは逆の第2方向に通行する車両に搭載された前記情報提供先の車載装置に、前記注目事象に関する撮影画像および付加情報を送信し、
     前記プロセッサは、
     前記第1方向に通行する前記情報提供元の車載装置から取得した前記撮影画像において遮蔽物の手前側に写る移動物の撮影画像を抽出し、過去に前記第2方向に通行した車両の車載装置から取得した第2方向の撮影画像上の前記移動物の位置を算出し、算出された位置に基づいて前記移動物の撮影画像を前記第2方向の撮影画像に重畳した合成画像を生成し、
     前記合成画像を前記注目事象に関する撮影画像として前記情報提供先の車載装置に送信することを特徴とする請求項9に記載の路側装置。
  12.  前記注目事象は、交通事故であり、
     前記プロセッサは、
     前記情報提供元の車載装置から取得した前記注目事象に関する撮影画像および付加情報を自装置の記憶手段に蓄積し、
     最新の前記注目事象に関する撮影画像および付加情報の他に、前記記憶手段に蓄積されたそれ以前の前記注目事象に関する撮影画像および付加情報も前記情報提供先の車載装置に送信することを特徴とする請求項9に記載の路側装置。
  13.  車載装置と通信を行う路車間通信部と、
     プロセッサと、
    を備え、
     前記プロセッサは、
     道路の対象区間の通行を終了した車両に搭載された情報提供元の車載装置において、前記対象区間を通行中に検知した注目事象に関する撮影画像および付加情報を、前記路車間通信部により前記情報提供元の車載装置から受信すると、
     前記注目事象に関する撮影画像および付加情報を、サーバ装置に送信することを特徴とする路側装置。
PCT/JP2020/028268 2019-08-06 2020-07-21 走行支援方法、道路撮影画像収集方法、および路側装置 WO2021024798A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080055211.9A CN114175123B (zh) 2019-08-06 2020-07-21 行驶辅助方法、道路摄影图像收集方法以及路侧装置
US17/633,168 US20220301427A1 (en) 2019-08-06 2020-07-21 Travel assistance method, road captured image collection method, and roadside device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-144711 2019-08-06
JP2019144711A JP7445882B2 (ja) 2019-08-06 2019-08-06 走行支援方法、道路撮影画像収集方法、および路側装置

Publications (1)

Publication Number Publication Date
WO2021024798A1 true WO2021024798A1 (ja) 2021-02-11

Family

ID=74503821

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/028268 WO2021024798A1 (ja) 2019-08-06 2020-07-21 走行支援方法、道路撮影画像収集方法、および路側装置

Country Status (4)

Country Link
US (1) US20220301427A1 (ja)
JP (1) JP7445882B2 (ja)
CN (1) CN114175123B (ja)
WO (1) WO2021024798A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145403A1 (ja) * 2022-01-26 2023-08-03 パナソニックホールディングス株式会社 交通流計測システムおよび交通流計測方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726640B2 (en) * 2016-11-15 2020-07-28 At&T Mobility Ii Llc Facilitation of smart communications hub to support driverless vehicles in 5G networks or other next generation networks
JP7161458B2 (ja) * 2019-09-09 2022-10-26 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7141480B2 (ja) * 2021-02-25 2022-09-22 本田技研工業株式会社 地図生成装置
WO2023175660A1 (ja) * 2022-03-14 2023-09-21 日本電気株式会社 移動体、管理サーバ、データの送信方法及び記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283381A (ja) * 2000-03-30 2001-10-12 Toshiba Corp 車車間通信システム
JP2007051973A (ja) * 2005-08-19 2007-03-01 Denso Corp 危険箇所情報表示装置
JP2017021745A (ja) * 2015-07-15 2017-01-26 パイオニア株式会社 情報収集装置、情報収集サーバ及び情報収集システム
JP2017151148A (ja) * 2016-02-22 2017-08-31 Necプラットフォームズ株式会社 位置推定装置、位置検出方法及びプログラム
JP2018147055A (ja) * 2017-03-01 2018-09-20 ソフトバンク株式会社 情報報知装置、移動体及び情報報知システム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08124069A (ja) * 1994-10-25 1996-05-17 Toyota Motor Corp 車両事故情報伝達装置
JP3833845B2 (ja) 1999-04-21 2006-10-18 株式会社東芝 自動走行支援システム
JP5664129B2 (ja) 2010-10-29 2015-02-04 住友電気工業株式会社 車両位置情報出力装置及びこの装置を備えた路側装置
US20180299284A1 (en) * 2014-12-02 2018-10-18 Kevin Sunlin Wang Method and System For Avoidance of Accidents
JP6823650B2 (ja) * 2016-04-28 2021-02-03 住友電気工業株式会社 安全運転支援システム、車両、プログラム、および車載装置
US10137890B2 (en) * 2016-06-28 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded obstacle classification for vehicles
US10169999B2 (en) * 2016-11-10 2019-01-01 Allstate Solutions Private Limited Identifying roadway obstacles based on vehicular data
US10012993B1 (en) * 2016-12-09 2018-07-03 Zendrive, Inc. Method and system for risk modeling in autonomous vehicles
CN110832417B (zh) * 2016-12-30 2023-06-09 辉达公司 使用高清地图为自主车辆生成路线
US10095234B2 (en) * 2017-03-07 2018-10-09 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10234864B2 (en) * 2017-03-07 2019-03-19 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10281920B2 (en) * 2017-03-07 2019-05-07 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US11198436B2 (en) * 2017-04-03 2021-12-14 Motional Ad Llc Processing a request signal regarding operation of an autonomous vehicle
US10850734B2 (en) * 2017-04-03 2020-12-01 Motional Ad Llc Processing a request signal regarding operation of an autonomous vehicle
US20180281795A1 (en) * 2017-04-03 2018-10-04 nuTonomy Inc. Processing a request signal regarding operation of an autonomous vehicle
US11377108B2 (en) * 2017-04-03 2022-07-05 Motional Ad Llc Processing a request signal regarding operation of an autonomous vehicle
US10384690B2 (en) * 2017-04-03 2019-08-20 nuTonomy Inc. Processing a request signal regarding operation of an autonomous vehicle
US20180284772A1 (en) * 2017-04-03 2018-10-04 nuTonomy Inc. Processing a request signal regarding operation of an autonomous vehicle
WO2018217784A1 (en) * 2017-05-22 2018-11-29 Chase Arnold Bi-directional beacon information system
US10599141B2 (en) * 2017-06-16 2020-03-24 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US11112789B2 (en) * 2017-06-16 2021-09-07 Motional Ad Llc Intervention in operation of a vehicle having autonomous driving capabilities
US10627810B2 (en) * 2017-06-16 2020-04-21 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10740988B2 (en) * 2017-06-16 2020-08-11 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10317899B2 (en) * 2017-06-16 2019-06-11 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10595175B2 (en) * 2017-06-23 2020-03-17 Veniam, Inc. Methods and systems for detecting anomalies and forecasting optimizations to improve smart city or region infrastructure management using networks of autonomous vehicles
US10606259B2 (en) * 2017-07-07 2020-03-31 Zoox, Inc. Interactions between vehicle and teleoperations system
US10386836B2 (en) * 2017-07-07 2019-08-20 Zoox, Inc. Interactions between vehicle and teleoperations system
US10922903B2 (en) * 2017-07-11 2021-02-16 Waymo Llc Methods and systems for providing remote assistance to a stopped vehicle
JP2020527805A (ja) * 2017-07-20 2020-09-10 ニューロ・インコーポレーテッドNuro Incorporated 自律車両の再配置
US11009868B2 (en) * 2017-07-20 2021-05-18 Nuro, Inc. Fleet of autonomous vehicles with lane positioning and platooning behaviors
US10518729B2 (en) * 2017-08-02 2019-12-31 Allstate Insurance Company Event-based connected vehicle control and response systems
US10902720B2 (en) * 2018-02-09 2021-01-26 Here Global B.V. Traffic light signal adjustment notification improvement
CN109559558A (zh) * 2018-12-14 2019-04-02 深圳市元征科技股份有限公司 事故提醒方法、智能警示牌、路侧单元及事故提醒系统
WO2020139392A1 (en) * 2018-12-28 2020-07-02 Didi Research America, Llc Vehicle-based road obstacle identification system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283381A (ja) * 2000-03-30 2001-10-12 Toshiba Corp 車車間通信システム
JP2007051973A (ja) * 2005-08-19 2007-03-01 Denso Corp 危険箇所情報表示装置
JP2017021745A (ja) * 2015-07-15 2017-01-26 パイオニア株式会社 情報収集装置、情報収集サーバ及び情報収集システム
JP2017151148A (ja) * 2016-02-22 2017-08-31 Necプラットフォームズ株式会社 位置推定装置、位置検出方法及びプログラム
JP2018147055A (ja) * 2017-03-01 2018-09-20 ソフトバンク株式会社 情報報知装置、移動体及び情報報知システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145403A1 (ja) * 2022-01-26 2023-08-03 パナソニックホールディングス株式会社 交通流計測システムおよび交通流計測方法

Also Published As

Publication number Publication date
JP7445882B2 (ja) 2024-03-08
JP2021026554A (ja) 2021-02-22
CN114175123A (zh) 2022-03-11
US20220301427A1 (en) 2022-09-22
CN114175123B (zh) 2024-01-12

Similar Documents

Publication Publication Date Title
WO2021024798A1 (ja) 走行支援方法、道路撮影画像収集方法、および路側装置
US10166934B2 (en) Capturing driving risk based on vehicle state and automatic detection of a state of a location
WO2016186039A1 (ja) 自動車周辺情報表示システム
JP5070809B2 (ja) 運転支援装置、運転支援方法、及び、プログラム
JP4990421B2 (ja) 路車協調型安全運転支援装置
JP6459220B2 (ja) 事故防止システム、事故防止装置、事故防止方法
CN111915915A (zh) 驾驶场景重构方法、装置、系统、车辆、设备及存储介质
US20130147955A1 (en) Warning system, vehicular apparatus, and server
JP4258485B2 (ja) 車両の追い越し支援装置
CN110920521B (zh) 显示系统、显示方法及存储介质
JP5585194B2 (ja) 事故状況記録システム
JP2008139320A (ja) 道路環境情報通知装置及び道路環境情報通知プログラム
JP2008250503A (ja) 運転支援装置
JP2008059082A (ja) 交差点情報提供システム及び運転支援システム
CN107406072B (zh) 车辆辅助系统
JP2013033324A (ja) 周辺車両情報通知装置
JP2004171159A (ja) 道路環境情報通知装置、車載報知装置、情報センタ内装置、及び道路環境情報通知プログラム
JP2020052559A (ja) 車両制御装置、車両制御方法、及びプログラム
CN111830859A (zh) 车辆远程指示系统
JP2015219736A (ja) 運転支援装置
JP2019079363A (ja) 車両制御装置
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
CN113696893A (zh) 跟车方法、车辆及计算机可读存储介质
JP2017111498A (ja) 運転支援装置
JP2019109795A (ja) 運転支援装置および運転支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20850256

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20850256

Country of ref document: EP

Kind code of ref document: A1