WO2020213512A1 - 渋滞情報提供装置、渋滞情報処理方法及び記録媒体 - Google Patents

渋滞情報提供装置、渋滞情報処理方法及び記録媒体 Download PDF

Info

Publication number
WO2020213512A1
WO2020213512A1 PCT/JP2020/015988 JP2020015988W WO2020213512A1 WO 2020213512 A1 WO2020213512 A1 WO 2020213512A1 JP 2020015988 W JP2020015988 W JP 2020015988W WO 2020213512 A1 WO2020213512 A1 WO 2020213512A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
traffic jam
sensing information
vehicle
sensing
Prior art date
Application number
PCT/JP2020/015988
Other languages
English (en)
French (fr)
Inventor
奈々 十文字
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/602,388 priority Critical patent/US20220165151A1/en
Priority to JP2021514913A priority patent/JP7347502B2/ja
Publication of WO2020213512A1 publication Critical patent/WO2020213512A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Definitions

  • the present invention relates to a traffic jam information providing device, a traffic jam information processing method, and a recording medium.
  • Patent Document 1 discloses a traffic congestion prediction device that predicts the occurrence of traffic congestion based on the distance between the own vehicle and the vehicle in front and the speed of the own vehicle by a drive recorder device equipped with a GPS receiver and an in-vehicle camera.
  • Patent Document 2 recognizes a speed limit pattern from an image taken by an on-board camera of an on-board unit mounted on a vehicle, and transmits the difference between the speed limit and the current vehicle speed and the position of the vehicle to a vehicle travel management device (server).
  • server vehicle travel management device
  • Discloses a traffic jam detection system that detects traffic jams based on the difference and transmits the traffic jam information to the on-board unit.
  • the inter-vehicle distance is calculated by dividing the inter-vehicle distance calculated based on the image of the in-vehicle camera by the speed of the own vehicle, and the inter-vehicle distance and the inter-vehicle time satisfy the predetermined conditions, and the traffic congestion occurs. Although it makes predictions and predicts the elimination of traffic jams, it is difficult to expect high prediction accuracy because the traffic jam state is predicted only by the drive recorder device mounted on the own vehicle.
  • congestion is detected when the difference between the speed limit and the current vehicle speed is equal to or greater than the reference value for a predetermined time or longer, and the congestion section is determined by referring to the road map database according to the position of the vehicle.
  • Patent Document 1 Although it is identified, it was difficult to detect traffic congestion with high accuracy if the number of vehicles that could communicate with the vehicle operation management device was small. In addition, there are traffic lights, railroad crossings, intersections, signs, etc. on the road, and it is necessary to generate congestion information by reflecting these road conditions.
  • Patent Document 1 only the drive recorder device mounted on the vehicle autonomously predicts the traffic jam, and it is difficult to predict the traffic jam reflecting the road condition.
  • Patent Document 2 aims to manage the operation status of a plurality of vehicles in a transportation company using a freight vehicle such as a truck, and the vehicle operation management device is installed in the office of the transportation company or the like. Therefore, the labor and management cost of the manager are required. For this reason, there has been a demand for the development of a technology for providing highly accurate traffic jam information without the labor and cost of the administrator.
  • An example of an object of the present invention is to provide a traffic jam information providing device, a traffic jam information processing method, and a recording medium that can solve the above-mentioned problems.
  • the traffic jam information providing device is an object determining means for determining the position of the object based on the first sensing information regarding the position of the object that causes the speed of the moving body to decrease.
  • the moving body moves along a route having a plurality of sections, it is the second sensing information regarding the moving state of the moving body, and is a predetermined section based on the position of the object detected based on the first sensing information.
  • a traffic jam information calculation means for calculating traffic jam information on a route on which a moving body moves is provided based on the second sensing information in the outer section.
  • the traffic jam information processing method causes a computer to determine the position of the object based on the first sensing information regarding the position of the object that causes the speed of the moving body to decrease.
  • the moving body moves along a route having a plurality of sections, it is the second sensing information regarding the moving state of the moving body, and is outside the predetermined section based on the position of the object detected based on the first sensing information.
  • the congestion information on the route on which the moving body moves is calculated.
  • the recording medium has an object determination function that determines the position of the object based on the first sensing information regarding the position of the object that causes the speed of the moving object to decrease.
  • the moving body moves along a path having a plurality of sections, it is the second sensing information regarding the moving state of the moving body, and is predetermined based on the position of the object detected based on the first sensing information.
  • a program for executing a congestion information calculation function that calculates congestion information on a route on which a moving body moves based on the second sensing information in a section outside the section is stored.
  • FIG. 1 shows the configuration of a traffic jam information providing system 100 composed of a traffic jam information providing device 1 according to the present embodiment and a drive recorder 2 mounted on a vehicle 20.
  • the traffic jam information providing device 1 is connected to a drive recorder 2 mounted on each of a plurality of vehicles 20 via a communication network (wireless communication network, wired communication network, etc.).
  • the traffic jam information providing device 1 is a computer server (cloud server) installed in the company's own room by a business operator that provides traffic jam information to the drive recorder 2 mounted on the vehicle 20 and connected to a communication network.
  • a plurality of drive recorders 2 are mounted on a plurality of vehicles 20 respectively.
  • the vehicle 20 is an example of a moving body
  • the drive recorder 2 is an example of a sensing device that senses the moving body and its surroundings.
  • the drive recorder 2 has a camera, takes an image of the outside of the vehicle 20, and transmits it to the traffic jam information providing device 1.
  • FIG. 2 is a hardware configuration diagram of the traffic jam information providing device 1.
  • the congestion information providing device 1 includes a CPU (Central Processing Unit) 101, a ROM (Read-Only Memory) 102, a RAM (Random-Access Memory) 103, an HDD (Hard-Disk Drive) 104, a communication module 105, a database 106, and the like. It consists of a computer equipped with a hardware device.
  • CPU Central Processing Unit
  • ROM Read-Only Memory
  • RAM Random-Access Memory
  • HDD Hard-Disk Drive
  • FIG. 3 is a functional block diagram of the traffic jam information providing device 1.
  • the traffic jam information providing device 1 is activated when the power is turned on and executes a traffic jam information providing program stored in a storage medium in advance to realize a plurality of functional units 11 to 16 shown in FIG. That is, the traffic jam information providing device 1 includes a first sensing information acquisition unit 11, a second sensing information acquisition unit 12, an object determination unit 13, a recording unit 14, a traffic jam information calculation unit 15, and a traffic jam information output unit 16.
  • the first sensing information acquisition unit 1 acquires the first sensing information regarding the position of the object that causes the speed of the vehicle 20 to decrease.
  • the object that causes the speed of the vehicle 20 to decrease is, for example, a road attachment such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop installed on the road.
  • a road attachment such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop installed on the road.
  • other vehicles In the vicinity of road attachments, other vehicles are stagnant and there are humans (pedestrians, people getting on and off other vehicles, workers, etc.), and the driver of vehicle 20 needs to slow down. Yes, it is likely to cause congestion.
  • the first sensing information acquisition unit 11 acquires the first sensing information regarding the position of an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop from the drive recorder 2.
  • the drive recorder 2 includes an object identifier, position information, and a drive recorder 2 identifier transmitted from a transmitter installed near an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop.
  • the signal including at least the above is received, and the first sensing information including the object identifier and the position information is transmitted to the traffic jam information providing device 1.
  • the first sensing information acquisition unit 11 acquires the first sensing information from the drive recorder 2 mounted on the vehicle 20. That is, the first sensing information is used for grasping the position of the object that causes the traffic jam information providing device 1 to reduce the speed of the vehicle 20.
  • the first sensing information acquisition unit 11 may acquire the image taken by the drive recorder 2 as the first sensing information.
  • the captured image of the drive recorder 2 may show an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop.
  • the captured image of the drive recorder 2 includes the position information of the place where the drive recorder 2 captured the image and the identifier of the drive recorder 2. Therefore, the traffic jam information providing device 1 can recognize the shooting position of the image including the image of the object by acquiring the shot image of the drive recorder 2 as the first sensing information.
  • the second sensing information acquisition unit 12 acquires the second sensing information regarding the moving state of the vehicle 20.
  • the second sensing information includes data capable of detecting the speed of the vehicle 20, the distance between the vehicle 20 and the vehicle in front, and the like.
  • the second sensing information may include an image taken by the drive recorder 2 of the vehicle 20.
  • the images of objects houses, trees, signs, electric poles, etc.
  • the providing device 1 may estimate the speed of the vehicle 20 based on the change in the position of the object.
  • the traffic jam information providing device 1 determines the distance (inter-vehicle distance) between the vehicle in front and the vehicle 20 based on the positional relationship with the vehicle in front reflected in the captured image. You may estimate. That is, the speed of the vehicle 20 and the distance from the vehicle in front are information regarding the moving state of the vehicle 20.
  • the second sensing information may include information on the moving state of the vehicle 20, an identifier of the drive recorder 2, a time, position information indicating a sensing position, and the like.
  • the object determination unit 13 detects that the vehicle 20 is approaching an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop based on the first sensing information. Alternatively, the object determination unit 13 may detect the position of the object that the vehicle 20 is approaching. When the recording unit 14 detects that the vehicle 20 is approaching the object, the recording unit 14 adds an object proximity flag indicating that the object has been determined to the second sensing information acquired from the drive recorder 2 of the vehicle 20. Record in database 106.
  • the second sensing information can store a flag in the database 106 indicating whether or not the second sensing information is acquired in the vicinity of an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop. it can.
  • a plurality of second sensing information acquired from a plurality of drive recorders 2 mounted on each of the plurality of vehicles 20 is recorded in the database 106 of the traffic jam information providing device 1, and the traffic jam information calculation unit 15 is used for a plurality of thirds.
  • the traffic jam information providing device 1 calculates the statistical values of the speeds of the plurality of moving objects, but the statistical values of the speeds of the plurality of moving objects for each section are not necessarily average values.
  • the statistical value of the speed of the vehicle 20 may be the average value of the speed of the vehicle 20.
  • the traffic jam information calculation unit 15 calculates the average value of the speeds of the vehicle 20, the section outside the predetermined section based on the position of the object detected based on the first sensing information among the plurality of second sensing information.
  • the route on which the vehicle 20 moves is calculated based on the second sensing information acquired in.
  • the average value of the speed of the vehicle 20 and the route on which the vehicle 20 travels constitute congestion information.
  • the traffic jam information calculation unit 15 is an object proximity flag indicating that the traffic jam information calculation unit 15 has determined an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop among a plurality of second sensing information.
  • the second sensing information to which is given is excluded from the calculation of the average value of the speed of the vehicle 20.
  • the traffic jam information calculation unit 15 uses the second sensing information including the position information of a predetermined section based on the position information included in the second sensing information to which the object proximity flag is attached as the average of the speeds of the vehicles 20. It may be excluded from the calculation of the value.
  • the traffic jam information output unit 16 generates traffic jam output information based on the average value of the speeds of the vehicles 20 calculated by the traffic jam information calculation unit 15.
  • the traffic jam output information may include at least road information and map information indicating a section of the road where the average speed of the vehicle 20 traveling on the road is equal to or less than a predetermined threshold value and the occurrence of traffic jam is estimated.
  • the traffic jam information output unit 16 has the average speed of the vehicle 20 in the road position and the traveling section calculated by the traffic jam information calculating unit 15, and the speed limit (upper limit speed, lower limit speed, etc.) indicated by the sign installed in the road position and the traveling section. ) May be used to determine whether or not there is a traffic jam on the road.
  • FIG. 4 is a hardware configuration diagram of the drive recorder 2 mounted on the vehicle 20.
  • the drive recorder 2 includes a sensor 21, a communication device 22, a camera 23, a control device 24, and a storage device 25.
  • the sensor 21 may include an acceleration sensor 211, a raindrop detection sensor 212, a GPS (Global Positioning System) 213, and a speed sensor 214.
  • the sensor 21 may be a sensing device installed at a predetermined position inside the vehicle 20 and outside the drive recorder 2 and communicated with the drive recorder 2. In this case, the drive recorder 2 acquires the sensing information detected by the sensor 21.
  • the acceleration sensor 211 detects the acceleration of the vehicle 20.
  • the raindrop detection sensor 212 detects the presence or absence of raindrops hitting the windshield of the vehicle 20.
  • the GPS sensor 213 receives radio waves from artificial satellites and detects the current position (longitude, latitude, altitude) of the vehicle 20.
  • the speed sensor 214 detects the speed of the vehicle 20.
  • the communication device 22 communicates with the congestion information providing device 1 via an exchange station, a base station, or the like using the public line communication function. Further, the communication device 22 may receive a signal transmitted from a transmitter installed near an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop.
  • the camera 23 captures at least the scenery in front of the vehicle 20.
  • the camera 23 is provided with a wide-angle lens, and may capture a landscape in the left-side direction or the right-side direction of the vehicle 20 in addition to the front of the vehicle 20. Further, the camera 23 may take a picture of the inside of the vehicle 20.
  • the camera 23 captures a moving image. Further, the camera 23 may repeatedly take still images at predetermined time intervals.
  • the control device 24 controls the function of the drive recorder 2.
  • the storage device 25 stores sensing information including moving images, still images, detection information of the sensor 21, and the like taken by the camera 23.
  • the drive recorder 2 is connected to the traffic jam information providing device 1 via a communication network, and has a moving image, a still image, detection information of the sensor 21, current time, drive recorder ID (identifier), etc. taken by the camera 23.
  • the sensing information including the above is transmitted to the traffic jam information providing device 1.
  • the control device 24 of the drive recorder 2 is composed of a computer equipped with a CPU, a ROM, a RAM, and the like.
  • FIG. 5 is a functional block diagram of the control device 24 of the drive recorder 2.
  • the control device 24 activates a control program to realize a plurality of functional units 240 to 244. That is, the control device 24 includes an upload image generation unit 240, a transmitter signal acquisition unit 241, a position information acquisition unit 242, a sensor information acquisition unit 243, and a sensing information transmission unit 244.
  • the upload image generation unit 240 acquires image data of moving images and still images taken by the camera 23, and generates captured images for upload at predetermined intervals based on the image data. For example, the upload image generation unit 240 may generate one to several tens of frames (1 to several tens of fps) of the uploaded image per second.
  • the transmitter signal acquisition unit 241 acquires object information included in a signal transmitted from a transmitter installed near an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop. ..
  • the position information acquisition unit 242 acquires the position information (latitude information, longitude information) of the vehicle 20 according to the time from the GPS sensor 213.
  • the sensor information acquisition unit 243 acquires sensor information detected by the acceleration sensor 211, the raindrop detection sensor 212, the speed sensor 214, and other sensors.
  • the sensing information includes the uploaded image of the uploaded image generation unit 240, the object information of the transmitter signal acquisition unit 241, the sensor information of the sensor information acquisition unit 243, the ID of the drive recorder 2, the current time, and the like, and transmits the sensing information.
  • the unit 244 sends the sensing information to the communication device 22.
  • the sensing information includes the first sensing information regarding the position of the object that causes the speed of the vehicle 2 to decrease, and the second sensing information regarding the moving state of the vehicle 20.
  • the uploaded image can be the first sensing information regarding the position of the object that causes the speed of the vehicle 20 to decrease.
  • the position information of the object is confirmed based on the object information contained in the signal transmitted from the transmitter installed near the object such as a traffic light, railroad crossing, intersection, sign, pedestrian crossing, stop line, bus stop, etc. Therefore, the object information can be the first sensing information regarding the position of the object that causes the speed of the vehicle 20 to decrease.
  • the position information acquired by the position information acquisition unit 242 indicates the traveling position of the vehicle 20, and the sensor information acquired by the sensor information acquisition unit 243 is detected by the acceleration sensor 211, the raindrop detection sensor 212, the speed sensor 214, and other sensors. Since the moving state of the vehicle 20 is shown, the position information and the sensor information can be the second sensing information regarding the moving state of the vehicle 20. Further, the uploaded image can be used to estimate the distance between the vehicle 20 and the vehicle in front, and the speed of the vehicle 20 can be estimated based on the transition of the positions of other objects shown in the plurality of images. It can be the second sensing information.
  • the sensing information transmission unit 244 may transmit the first sensing information and the second sensing information individually.
  • the sensing information transmission unit 244 stores the ID of the drive recorder 2 and the transmission time of the sensing information in the first sensing information and the second sensing information.
  • the traffic jam information providing device 1 can grasp the correspondence between the first sensing information and the second sensing information.
  • FIG. 6 is a flowchart showing information processing of the drive recorder 2.
  • information processing of the drive recorder 2 processing procedure related to sensing information and uploaded images
  • the drive recorder 2 starts operation (S101).
  • Each of the plurality of sensors 21 of the drive recorder 2 starts the sensing operation after the drive recorder 2 is started (S102).
  • the camera 23 starts taking a picture of the scenery outside the vehicle 20 (S103).
  • the functional units 240 to 244 of the control device 24 are executing the above-mentioned operations, and the position information acquisition unit 242 acquires the position information of the vehicle 20 (S104).
  • the sensor information acquisition unit 243 acquires the detection information of the sensor 21 (S105).
  • the upload image generation unit 240 generates an upload image based on the captured image of the camera 23 (S106). Further, when the transmitter signal acquisition unit 241 receives a signal from a transmitter installed near an object such as a traffic light, a railroad crossing, an intersection, a sign, a pedestrian crossing, a stop line, or a bus stop, the signal is transmitted to the signal. Acquire information on the included object (S107).
  • the sensing information transmission unit 244 acquires the uploaded image from the upload image generation unit 240, acquires the object information included in the transmitter signal from the transmitter signal acquisition unit 241, and the current position information acquisition unit 242 of the vehicle 20.
  • the position information indicating the position is acquired, and the detection information of the sensor 21 is acquired from the sensor information acquisition unit 243.
  • the sensing information includes the ID of the drive recorder 2 and the current time in addition to the uploaded image, the object information, the position information, and the detection information.
  • the sensing information transmission unit 244 sends the sensing information to the communication device 22, and the communication device 22 transmits the sensing information to the traffic jam information providing device 1 (S108).
  • the sensing information includes the first sensing information regarding the position of the object that causes the speed of the vehicle 20 to decrease, and the second sensing information regarding the moving state of the vehicle 20.
  • the sensing information transmission unit 244 individually generates the first sensing information and the second sensing information and transmits them to the communication device 22, and the communication device 22 individually provides the first sensing information and the second sensing information as congestion information. It may be transmitted to the device 1.
  • the drive recorder 2 mounted on the vehicle 20 is communicated with the traffic jam information providing device 1, and the above-mentioned sensing information is transmitted to the traffic jam information providing device 1.
  • the traffic jam information providing device 1 repeatedly receives a plurality of sensing information from the drive recorders 2 mounted on the plurality of vehicles 20.
  • the drive recorder 2 generates an uploaded image based on image data such as a moving image or a still image taken by the camera 23 (S109), and transmits the uploaded image to the traffic jam information providing device 1 via the communication device 22. It may be (S110).
  • the drive recorder 2 completes the transmission of the sensing information and the uploaded image, the drive recorder 2 ends the processing procedure of FIG. 6 (S211).
  • FIG. 7 is a flowchart showing a traffic jam information calculation process of the traffic jam information providing device 1 according to the embodiment of the present invention (steps S201 to S208).
  • the first sensing information acquisition unit 11 and the second sensing information acquisition unit 12 acquire sensing information, respectively.
  • the first sensing information acquisition unit 11 extracts the first sensing information included in the sensing information
  • the second sensing information acquisition unit 12 extracts the second sensing information included in the sensing information.
  • the drive recorder 2 transmits the first sensing information and the second sensing information separately, the first sensing information acquisition unit 11 acquires the first sensing information, and the second sensing information acquisition unit 12 acquires the second sensing information.
  • the first sensing information and the second sensing information include the ID, position information, and time information of the drive recorder 2. Therefore, the first sensing information and the second sensing information correspond to each other.
  • the first sensing information acquisition unit 11 sends the captured image (moving image, still image, etc.) or the object information included in the first sensing information to the object determination unit 13.
  • the object determination unit 13 inputs a photographed image from the first sensing information acquisition unit 11, whether or not the first sensing information and the second sensing information are detected in the vicinity of the object by using the photographed image.
  • the object determination unit 13 determines whether or not an object is included in the captured image by image recognition.
  • the object determination unit 13 has an object determination model generated by machine learning past sensing information, and is based on an object determination result obtained by inputting a captured image into the object determination model. The presence or absence of an object in the captured image may be determined.
  • the object determination unit 13 determines that the captured image contains an object (traffic light, railroad crossing, intersection, sign, pedestrian crossing, stop line, bus stop, etc.) that causes the speed of the vehicle 20 to decrease, the captured image is taken.
  • the ID, position information, and time information of the drive recorder 2 are extracted from the first sensing information including the above and sent to the recording unit 14. Further, the recording unit 14 inputs the second sensing information from the second sensing information acquisition unit 12.
  • the object determination unit 13 acquires the object information from the first sensing information acquisition unit 11, the first sensing information and the second sensing information are detected in the vicinity of the object based on the object information. You may determine if there is. If the object determination unit 13 can acquire the object information, it determines that the first sensing information and the second sensing information are detected in the vicinity of the object.
  • the object determination unit 13 may determine that the first sensing information and the second sensing information are detected in the vicinity of the object based on the position information included in the first sensing information. For example, the object determination unit 13 extracts the position information included in the first sensing information and transmits the object presence / absence determination request including the position information to the determination device (not shown). The determination device stores the map information and the position information of the object on the map indicated by the map information in advance. The determination device compares the position information included in the object presence / absence determination request with the position information of the object stored in advance, and when the position indicated by the position information exists within a predetermined distance, the position information is used. Judge that it is in the vicinity. In that case, the determination device returns the response information indicating the existence of the object. When the object determination unit 13 receives the response information from the determination device and the response information indicates the existence of the object, the first sensing information and the second sensing information are detected in the vicinity of the object. Is determined to be.
  • the combination of the ID, position information, and time information of the drive recorder 2 included in the second sensing information acquired from the second sensing information acquisition unit 12 is the ID of the drive recorder 2 acquired from the object determination unit 13. , Position information, and time information are determined to match.
  • the recording unit 14 determines that the combination of the ID, the position information, and the time information of the drive recorder 2 described above matches, the recording unit 14 adds an object proximity flag indicating the determination result that the object exists to the first sensing information. Record in the database 106 (S203).
  • the recording unit 14 determines that the combinations of the ID, the position information, and the time information of the drive recorder 2 described above do not match, the recording unit 14 records the first sensing information as it is in the database 106 without adding the object neighborhood flag. (S204).
  • the first sensing information to which the object proximity flag indicating the determination result of the existence of the object is added is acquired by the drive recorder 2 in the vicinity of the object that causes the speed of the vehicle 20 to decrease.
  • the drive It may be determined that the combination of the ID, the position information, and the time information of the recorder 2 matches.
  • the recording unit 14 has added the first sensing information transmitted from the plurality of drive recorders 2 mounted on the plurality of vehicles 20 or the object proximity flag indicating the determination result that the object exists.
  • Sensing information is sequentially recorded in the database 106. As the number of drive recorders 2 that communicate with the traffic jam information providing device 1 and transmit sensing information increases, the number of first sensing information recorded by the recording unit 14 increases, and the sensing information detected at a plurality of points. Is recorded in database 106.
  • the traffic jam information calculation unit 15 calculates the traffic jam information (S205).
  • the traffic jam information calculation unit 15 stores a plurality of position information of the road traffic jam calculation target shown in the map information.
  • the traffic jam information calculation unit 15 stores a plurality of position information of traffic jam calculation targets set for roads all over Japan and the entire metropolitan area.
  • the traffic jam information calculation unit 15 reads out the position information of the traffic jam calculation target, and determines the position information indicating the position existing within a predetermined distance (for example, within 10 meters or 20 meters) from the position information and the position information from the current time.
  • the traffic jam information calculation unit 15 acquires the speed value included in one or a plurality of second sensing information extracted from the database 106, and calculates the average value of the speed value.
  • the traffic jam information calculation unit 15 records the position information of the traffic jam calculation target and the average value of the speed values included in the second sensing information in the database 106 (S206). After that, the traffic jam information calculation unit 15 determines whether or not the traffic jam information has been calculated for all the position information of the traffic jam calculation target stored in advance (S207).
  • the traffic jam information calculation unit 15 repeatedly calculates the traffic jam information for all the position information of the traffic jam calculation target (S205 to S207). After that, the traffic jam information calculation unit 15 calculates the traffic jam information for all the position information of the traffic jam calculation target, and determines whether to end the traffic jam information calculation process (S208). If the traffic jam information calculation process is not completed, the process returns to step S201, and the traffic jam information calculation unit 15 repeats the calculation of the traffic jam information for all the position information of the traffic jam calculation target at predetermined time intervals. As a result, the traffic jam information providing device 1 can update the average speed of the vehicle 20 in real time for the position information of all the traffic jam calculation targets.
  • the average speed at the position indicated in the position information of the traffic jam calculation target is calculated using the second sensing information to which the object neighborhood flag is not added. That is, since the average speed of the vehicle 20 is calculated excluding the second sensing information acquired in the vicinity of the position where the object that causes the speed of the vehicle 20 to decrease exists, the object that causes the speed of the vehicle to decrease.
  • the average speed of the vehicle 20 can be calculated excluding the influence of traffic congestion caused by objects. As a result, the traffic jam information can be calculated with high accuracy.
  • the traffic jam information providing device 1 stores the position information of the traffic jam calculation target in advance, and calculates the average speed of the vehicle 20 at the position indicated by the position information, but the limitation is limited to this. It is not something that is done.
  • the traffic jam information providing device 1 may divide the traffic jam calculation target into a plurality of sections and store them in advance, and calculate the average speed of the vehicle 20 at the position included in the sections.
  • the traffic jam information calculation unit 15 may calculate the traffic jam information indicating whether or not the traffic jam has occurred based on the captured image of the drive recorder 2. For example, the traffic jam information calculation unit 15 acquires the position information of the traffic jam calculation target stored in advance, and determines from the position information within a predetermined distance range (for example, within 10 meters, within 20 meters, etc.) and the current time. One or a plurality of second sensing information including the time information up to the time before (1 minute before, etc.) and not including the object proximity flag is extracted from the plurality of second sensing information recorded in the database 106. Then, the traffic jam information calculation unit 15 acquires the captured image included in the second sensing information extracted from the database 106.
  • a predetermined distance range for example, within 10 meters, within 20 meters, etc.
  • One or a plurality of second sensing information including the time information up to the time before (1 minute before, etc.) and not including the object proximity flag is extracted from the plurality of second sensing information recorded in the database 106. Then, the
  • the traffic jam information calculation unit 15 determines whether or not the distance between the vehicle 20 and the vehicle in front is equal to or less than a predetermined threshold value based on the captured image.
  • a predetermined threshold for example, the presence or absence of the vehicle in front is determined by recognizing the rear shape of the object reflected in the captured image, and It is possible to determine whether or not the inter-vehicle distance is equal to or less than a predetermined threshold value based on the range of the vehicle in front reflected in the captured image.
  • the traffic jam information calculation unit 15 has a distance determination model obtained by machine learning the past captured images in advance, inputs the captured images of the drive recorder 2 into the distance determination model, and determines the inter-vehicle distance. The determination result of whether or not it is below the threshold value may be calculated.
  • the recording unit 14 may add a weather flag to the second sensing information in addition to the object proximity flag and record it in the database 106.
  • the weather flag indicates that the sensing information is not suitable for calculating the congestion information.
  • the recording unit 14 is based on the captured image included in the second sensing information and the detection value of the raindrop detection sensor 212, when the second sensing information is in a bad driving environment of the vehicle 20 (for example, the road surface condition or the weather is bad, It is determined whether or not the information is detected (when the driving environment is equal to or less than a predetermined threshold value that satisfies the external environment detection standard) and is not suitable for calculating the traffic congestion information.
  • the second A weather flag is added to the sensing information and recorded in the database 106.
  • the traffic jam information calculation unit 15 may calculate the traffic jam information by excluding the second sensing information to which the weather flag is added.
  • the traffic jam information output unit 16 generates traffic jam output information using the traffic jam information calculated by the traffic jam information calculation unit 15. Specifically, the traffic jam information output unit 16 inputs a plurality of position information indicating a predetermined map area. For example, the traffic jam information output unit 16 may input a plurality of position information from an external device. The external device may be the drive recorder 2. The traffic jam information output unit 16 refers to a plurality of position information within a predetermined map area and acquires the average speed of the position information of the traffic jam calculation target previously recorded in the database 106. The traffic jam information output unit 16 compares the average speed in the position information with the minimum speed displayed on the road sign indicated by the position information. The traffic jam information output unit 16 estimates the degree of traffic congestion in the position information according to the degree of difference between the average speed and the minimum speed and the average speed in the position information is less than the minimum speed.
  • the average speed va of the vehicle is less than the minimum speed vr, and the difference D between the average speed va and the minimum speed vr is less than the first threshold value la (va ⁇ vr, D). If ⁇ la), it is determined that the degree of congestion is "low”. Further, in the traffic jam information output unit 16, the average speed vah is less than the minimum speed vl, the difference D is equal to or more than the first threshold value la, and less than the second threshold value lb higher than the first threshold value la (va ⁇ vr, If la ⁇ D ⁇ lb), it is determined that the degree of congestion is “medium”.
  • the average speed va is less than the minimum speed lv
  • the difference D is not less than the second threshold lb
  • the third threshold lc which is higher than the second threshold lb (va ⁇ vr, If lb ⁇ D ⁇ lc)
  • the degree of traffic congestion may be calculated by the traffic congestion information calculation unit 15 by the above processing.
  • the minimum speed indicated by the road sign may be stored in advance by the traffic jam information providing device 1 based on the position information included in the second sensing information.
  • the traffic jam information output unit 16 may recognize the captured image included in the second sensing information and detect the minimum speed indicated by the road sign. Further, the traffic jam information output unit 16 may calculate the degree of traffic jam by using the maximum speed indicated by the road sign instead of the minimum speed indicated by the road sign.
  • the road sign may indicate the maximum speed instead of the minimum speed.
  • the speed limit (maximum speed) indicated by the road sign is vh
  • the average speed va of the vehicle is equal to or less than the speed limit vh
  • the difference Dh between the average speed va of the vehicle and the speed limit vh is a predetermined threshold ld (congestion degree degree). If it is less than (the threshold value for determination) (Dh ⁇ ld), the vehicle is running smoothly and it can be determined that the degree of congestion is "low”. Further, when the difference Dh is equal to or more than a predetermined threshold value ld (Dh ⁇ ld), the vehicle is traveling at a low speed and it can be determined that the degree of congestion is “high”.
  • the traffic jam information output unit 16 calculates the degree of traffic jam for the position information of a plurality of traffic jam calculation targets included in the map area input from the external device and outputs it to the external device.
  • the congestion information output unit 16 performs color coding according to the degree of congestion at the position of the road in the map area, generates map information with a color indicating the degree of congestion as congestion output information, and outputs the map information to an external device. You may.
  • the external device can output map information indicating the degree of congestion to a monitor or the like.
  • the traffic jam information providing device 1 can generate the traffic jam output information with high accuracy and provide it to the external device (or the traffic jam information output device).
  • the traffic jam information providing device 1 installed at a remote point from the vehicle 20 communicated with the drive recorder 2 calculates the traffic jam information.
  • the function of the traffic jam information providing device 1 may be mounted on an in-vehicle device connected to the drive recorder 2 by communication.
  • the average speed of the vehicle in the position information of the road is calculated by using the speed value included in the second sensing information, but the present invention is not limited to this.
  • the congestion information calculation unit 15 applies optical flow technology (motion vector analysis method of an object in a digital image) to a captured image included in the second sensing information, and transmits the second sensing information to the drive recorder.
  • the speed of the vehicle 20 equipped with the 2 may be calculated, and the average value thereof may be calculated.
  • the traffic jam information calculation unit 15 may calculate the degree of traffic jam based on the number of other vehicles traveling in the vicinity of the vehicle 20 in addition to the captured image and sensing information of the drive recorder 2. Then, the traffic jam information output unit 16 may generate the traffic jam output information based on the degree of traffic jam calculated based on the number of other vehicles traveling in the vicinity of the vehicle 20. Specifically, the traffic jam information calculation unit 15 counts the number of other vehicles appearing in the captured image included in the second sensing information. When traffic jams occur, the number of other vehicles traveling in the vicinity of the vehicle 20 increases. Therefore, the traffic jam information calculation unit 15 may calculate the degree of traffic jam by a predetermined process according to the number of other vehicles shown in the captured image.
  • the traffic jam information calculation unit 15 or the traffic jam information output unit 16 may calculate the traffic jam degree by a predetermined traffic jam degree calculation formula using a plurality of parameters such as the average speed in the position information, the number of vehicles, and the type of road. Good.
  • the traffic jam information providing device 1 calculates the average speed in the position information using the second sensing information that does not include the object proximity flag. .. That is, since the traffic jam information providing device 1 calculates the average speed by excluding the second sensing information acquired in the vicinity of the position of the object that causes the speed of the vehicle 20 to decrease, the traffic jam caused by the object. The average speed can be calculated excluding the influence of. As a result, the traffic jam information providing device 1 can calculate the traffic jam information with high accuracy. In addition, it is possible to reduce false positives such as detecting a speed reduction caused by an object that causes the speed of the vehicle 20 to decrease and immediately determining that a traffic jam has occurred.
  • the traffic jam information providing device 1 can calculate the traffic jam information based on the captured image and the object information acquired from the drive recorder 2. That is, since the traffic jam information providing device 1 automatically calculates the traffic jam information, it is not necessary to manually measure the traffic jam on the road, and the cost of calculating the traffic jam information can be reduced. Further, since the traffic jam information providing device 1 can calculate the traffic jam information by using the sensing information at each point of the road on which the vehicle 20 has passed, the traffic jam at many points such as narrow municipal roads existing in the urban area at no cost. Information can be calculated.
  • the traffic jam information providing device 1 since the traffic jam information providing device 1 repeatedly executes the traffic jam information at many points in a short time, it is possible to provide detailed traffic jam information in real time.
  • FIG. 8 is a block diagram showing the minimum configuration of the traffic jam information providing device 1.
  • the traffic jam information providing device 1 includes at least an object determination unit 13 and a traffic jam information calculation unit 15.
  • FIG. 9 is a flowchart showing a traffic jam information calculation process of the traffic jam information providing device 1 of FIG. 8 (steps S301 and S302).
  • the object determination unit 13 determines an object (for example, a traffic light, a railroad crossing, an intersection, etc.) installed on a road based on the first sensing information regarding the position of the object that causes the speed of a moving object (for example, a vehicle) to decrease.
  • the position of a sign, a pedestrian crossing, a stop line, a bus stop, etc. is detected (S301).
  • the traffic jam information calculation unit 15 has a predetermined section based on the position of the object detected based on the first sensing information in the second sensing information regarding the moving state of the moving body (for example, the traveling speed of the vehicle). Based on the second sensing information in the outer section, the congestion information on the route on which the moving body moves is calculated (S302).
  • the above-mentioned various devices have a computer system inside. Then, the above-mentioned processing process is stored as a program in a computer-readable storage medium, and the above-mentioned processing process is realized by the computer reading and executing the program.
  • the computer-readable storage medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
  • the program may be distributed to the computer via the communication parallels so that the computer executes the program.
  • the above-mentioned program may realize a part of the above-mentioned functions. Further, the above-mentioned program may be a difference program (difference file) that can realize the above-mentioned functions in combination with a pre-installed program already stored in the computer system.
  • difference program difference file
  • the traffic jam information providing device calculates the traffic jam information according to the position and speed of the vehicle traveling on the road, but detects the position and speed of the moving body other than the vehicle and detects the position and speed of the moving body.
  • Congestion information of a plurality of moving objects may be calculated by estimating the existence of an object that causes a decrease in speed.
  • Congestion information providing device 2 Drive recorder 11 First sensing information acquisition unit (first sensing information acquisition means) 12 Second sensing information acquisition unit (second sensing information acquisition means) 13 Object determination unit (object determination means) 14 Recording unit (recording means) 15 Congestion information calculation unit (congestion information calculation means) 16 Congestion information output unit (congestion information output means) 20 Vehicle 21 Sensor 22 Communication device 23 Camera 24 Control device 25 Storage device

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)

Abstract

渋滞情報提供装置は、移動体の速度を下げる要因となる対象物の位置に関する第一センシング情報に基づいて対象物の位置を判定する。また、移動体が複数の区間を有する経路に沿って移動するとき、移動体の移動状態に関する第二センシング情報であって、第一センシング情報に基づいて検出した対象物の位置を基準とする所定区間外の区間における第二センシング情報に基づいて、移動体が移動する経路における渋滞情報を算出する。

Description

渋滞情報提供装置、渋滞情報処理方法及び記録媒体
 本発明は、渋滞情報提供装置、渋滞情報処理方法及び記録媒体に関する。
 道路上を走行する車両(移動体)の位置、速度、車載カメラによる画像に基づいて渋滞情報を生成する技術が開発されている。例えば、特許文献1は、GPS受信機や車載カメラを搭載したドライブレコーダ装置によって自車両と前方車両との車間距離と、自車両の速度に基づいて渋滞の発生を予測する渋滞予測装置を開示している。特許文献2は、車両に搭載された車載器の車載カメラによる画像から速度制限パターンを認識して、制限速度と現在の車速との差分や車両の位置を車両走行管理装置(サーバ)に送信し、該差分に基づいて渋滞を検出して渋滞情報を車載器に送信するようにした渋滞検出システムを開示している。
日本国特開2018-67225号公報 日本国特開2015-18396号公報
 特許文献1では、車載カメラの画像に基づいて算出された車間距離を自車両の速度で除算することにより車間時間を算出し、車間距離と車間時間が所定条件を満たすか否かによって、渋滞発生予測や渋滞解消予測を行うものであるが、自車両に搭載されたドライブレコーダ装置のみによって渋滞状態を予測しているため、高い予測精度を期待することは困難であった。特許文献2では、制限速度と現在の車速との差分が基準値以上となる状態を所定時間以上継続したときに渋滞を検出し、車両の位置に応じて道路地図データベースを参照して渋滞区間を識別しているが、車両運行管理装置と通信できる車両の数が少ないと、高い精度で渋滞を検出することは困難であった。また、道路上には信号機、踏切、交差点、標識などが存在し、これらの道路状況を反映して渋滞情報を生成する必要がある。しかし、特許文献1では車両に搭載されたドライブレコーダ装置のみによって自律的に渋滞を予測するのみであり、道路状況を反映した渋滞予測を行うことが困難である。また、特許文献2は、トラックなどの貨物車両を利用した運送事業者において複数車両の運行状況の管理を行うことを目的としており、車両運行管理装置は運送事業者の事務所などに設置されており、管理者の労力や管理コストが必要である。このため、管理者の労力やコストをかけずに精度の高い渋滞情報を提供する技術の開発が求められていた。
 本発明の目的の一例は、上述の課題を解決することができる渋滞情報提供装置、渋滞情報処理方法及び記録媒体を提供することである。
 本発明の第一の態様によれば、渋滞情報提供装置は、移動体の速度を下げる要因となる対象物の位置に関する第一センシング情報に基づいて対象物の位置を判定する対象物判定手段と、移動体が複数の区間を有する経路に沿って移動するとき、移動体の移動状態に関する第二センシング情報であって、第一センシング情報に基づいて検出した対象物の位置を基準とする所定区間外の区間における第二センシング情報に基づいて、移動体が移動する経路における渋滞情報を算出する渋滞情報算出手段と、を備える。
 本発明の第二の態様によれば、渋滞情報処理方法は、コンピュータに、移動体の速度を下げる要因となる対象物の位置に関する第一センシング情報に基づいて前記対象物の位置を判定させ、移動体が複数の区間を有する経路に沿って移動するとき、移動体の移動状態に関する第二センシング情報であって、第一センシング情報に基づいて検出した対象物の位置を基準とする所定区間外の区間における第二センシング情報に基づいて、移動体が移動する経路における渋滞情報を算出させる。
 本発明の第三の態様によれば、記録媒体は、コンピュータに、移動体の速度を下げる要因となる対象物の位置に関する第一センシング情報に基づいて対象物の位置を判定する対象物判定機能と、移動体が複数の区間を有する経路に沿って移動するとき、移動体の移動状態に関する第二センシング情報であって、第一センシング情報に基づいて検出した対象物の位置を基準とする所定区間外の区間における第二センシング情報に基づいて、移動体が移動する経路における渋滞情報を算出する渋滞情報算出機能と、を実行させるプログラムを記憶する。
 本発明によれば、人的労力やコストをかけずに道路状況に応じた高い精度の渋滞情報を提供することができる。
本発明の一実施形態に係る渋滞情報提供装置よりなる渋滞情報提供システムの概要を示す図である。 本発明の一実施形態に係る渋滞情報提供装置のハードウェア構成図である。 本発明の一実施形態に係る渋滞情報提供装置の機能ブロック図である。 本発明の一実施形態に係る渋滞情報提供装置と通信接続される車両に搭載されたドライブレコーダのハードウェア構成図である。 車両に搭載されたドライブレコーダの制御装置の機能ブロック図である。 車両に搭載されたドライブレコーダの情報処理を示すフローチャートである。 本発明の一実施形態に係る渋滞情報提供装置の渋滞情報算出処理を示すフローチャートである。 本発明に係る渋滞情報提供装置の最小構成を示すブロック図である。 図8の渋滞情報提供装置の渋滞情報算出処理を示すフローチャートである。
 本発明の一実施形態による渋滞情報提供装置及び渋滞情報処理方法について添付図面を参照して詳細に説明する。
 図1は、本実施形態による渋滞情報提供装置1と、車両20に搭載したドライブレコーダ2により構成される渋滞情報提供システム100の構成を示す。渋滞情報提供システム100において、渋滞情報提供装置1は、複数の車両20にそれぞれ搭載されるドライブレコーダ2と通信ネットワーク(無線通信ネットワーク、有線通信ネットワークなど)を介して接続されている。渋滞情報提供装置1は、車両20に搭載されたドライブレコーダ2に対して渋滞情報を提供する事業者が自身の社屋内に設置し通信ネットワークに接続したコンピュータサーバ(クラウドサーバ)である。複数のドライブレコーダ2がそれぞれ複数の車両20に搭載されている。なお、車両20は移動体の一例であり、ドライブレコーダ2は移動体やその周囲の状況を感知するセンシング装置の一例である。ドライブレコーダ2は、カメラを有しており、車両20の外部の画像を撮影して渋滞情報提供装置1へ送信する。
 図2は、渋滞情報提供装置1のハードウェア構成図である。渋滞情報提供装置1は、CPU(Central Processing Unit)101、ROM(Read-Only Memory)102、RAM(Random-Access Memory)103、HDD(Hard-Disk Drive)104、通信モジュール105、データベース106などのハードウェアデバイスを備えたコンピュータにより構成される。
 図3は、渋滞情報提供装置1の機能ブロック図である。渋滞情報提供装置1は、電源が投入されると起動して予め記憶媒体に記憶された渋滞情報提供プログラムを実行することにより、図3に示される複数の機能部11乃至16を実現する。すなわち、渋滞情報提供装置1は、第一センシング情報取得部11、第二センシング情報取得部12、対象物判定部13、記録部14、渋滞情報算出部15、渋滞情報出力部16を備える。
 第一センシング情報取得部1は、車両20の速度を下げる原因となる対象物の位置に関する第一センシング情報を取得する。車両20の速度を下げる原因となる対象物とは、例えば、道路上に設置される信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの道路付設物である。道路付設物の近傍では、他の車両が滞留して人間(歩行者、他の車両に搭乗や下車する人、作業員など)が存在しており、車両20の運転者は速度を下げる必要があり、渋滞の原因となる可能性が高い。第一センシング情報取得部11は、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物の位置に関する第一センシング情報をドライブレコーダ2から取得する。ドライブレコーダ2は、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物の近傍に設置されている発信機から発信された対象物識別子と位置情報とドライブレコーダ2の識別子とを少なくとも含む信号を受信し、対象物識別子と位置情報とを含む第一センシング情報を渋滞情報提供装置1に送信する。これにより、第一センシング情報取得部11は、車両20に搭載されたドライブレコーダ2から第一センシング情報を取得する。すなわち、第一センシング情報は、渋滞情報提供装置1が車両20の速度を下げる原因となる対象物の位置を把握するために用いられる。
 第一センシング情報取得部11は、ドライブレコーダ2が撮影した画像を第一センシング情報として取得してもよい。ドライブレコーダ2の撮影画像には、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物が写る可能性がある。ドライブレコーダ2の撮影画像は、ドライブレコーダ2が画像を撮影した場所の位置情報やドライブレコーダ2の識別子を含む。このため、渋滞情報提供装置1は、ドライブレコーダ2の撮影画像を第一センシング情報として取得することにより、対象物の画像を含む画像の撮影位置を認識することができる。
 第二センシング情報取得部12は、車両20の移動状態に関する第二センシング情報を取得する。具体的には、第二センシング情報は、車両20の速度、車両20と前方車両との間隔などを検出できるデータを含む。第二センシング情報には、車両20のドライブレコーダ2により撮影された画像が含まれてもよい。第二センシング情報にドライブレコーダ2の撮影画像を含める場合、時間の経過に伴って繰り返し撮影された複数の画像には物体(家、樹木、標識、電柱など)の画像が写っており、渋滞情報提供装置1は、物体の位置の変化に基づいて車両20の速度を推定してもよい。また、第二センシング情報にドライブレコーダ2の撮影画像を含める場合、渋滞情報提供装置1は、撮影画像に映る前方車両との位置関係に基づいて前方車両と車両20との間隔(車間距離)を推定してもよい。すなわち、車両20の速度や前方車両との間隔は、車両20の移動状態に関する情報である。第二センシング情報には、車両20の移動状態に関する情報の他、ドライブレコーダ2の識別子、時刻、センシング位置を示す位置情報などを含めてもよい。
 対象物判定部13は、車両20が信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物に接近していることを第一センシング情報に基づいて検出する。或いは、対象物判定部13は、車両20が接近している対象物の位置を検出してもよい。記録部14は、車両20が対象物に接近していることを検出すると、車両20のドライブレコーダ2から取得した第二センシング情報に対象物を判定したことを示す対象物近傍フラグを付与してデータベース106に記録する。これにより、第二センシング情報は、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物の近傍で取得したものであるか否かを示すフラグをデータベース106に格納することができる。
 渋滞情報提供装置1のデータベース106には、複数の車両20にそれぞれ搭載された複数のドライブレコーダ2から取得した複数の第二センシング情報が記録されており、渋滞情報算出部15は、複数の第二センシング情報に基づいて車両20が走行する道路の位置や走行区間を走行する車両20の速度などに係る統計値を算出する。すなわち、渋滞情報提供装置1は、複数の移動体の速度の統計値を算出するが、複数の移動体の区間毎の速度の統計値は必ずしも平均値ではない。なお、車両20の速度の統計値は、車両20の速度の平均値であってもよい。渋滞情報算出部15は、車両20の速度の平均値を算出するとき、複数の第二センシング情報のうち、第一センシング情報に基づいて検出した対象物の位置を基準とする所定区間外の区間において取得した第二センシング情報に基づいて車両20が移動する経路を算出する。車両20の速度の平均値や、車両20が移動する経路は渋滞情報を構成する。具体的には、渋滞情報算出部15は、複数の第二センシング情報のうち、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物を判定したことを示す対象物近傍フラグが付与されている第二センシング情報を、車両20の速度の平均値の計算から除外する。或いは、渋滞情報算出部15は、対象物近傍フラグが付与されている第二センシング情報に含まれる位置情報を基準とする所定区間の位置情報を含む第二センシング情報を、車両20の速度の平均値の計算から除外してもよい。
 渋滞情報出力部16は、渋滞情報算出部15により算出された車両20の速度の平均値に基づいて、渋滞出力情報を生成する。渋滞出力情報には、少なくとも道路の情報と、道路を走行する車両20の平均速度が所定の閾値以下となり渋滞の発生が推定される道路の区間を示す地図情報などを含めてもよい。渋滞情報出力部16は、渋滞情報算出部15の算出した道路の位置や走行区間における車両20の平均速度と、道路位置や走行区間に設置された標識が示す制限速度(上限速度、下限速度など)との相対速度に基づいて、道路の渋滞が発生しているか否かを判定してもよい。
 図4は、車両20に搭載されるドライブレコーダ2のハードウェア構成図である。ドライブレコーダ2は、センサ21、通信装置22、カメラ23、制御装置24、記憶装置25を含む。センサ21は、加速度センサ211、雨滴検出センサ212、GPS(Global Positioning System)213、速度センサ214を含んでもよい。センサ21は、車両20の内部であってドライブレコーダ2の外部の所定位置に設置され、ドライブレコーダ2と通信接続されたセンシング装置であってもよい。この場合、ドライブレコーダ2は、センサ21により検出されたセンシング情報を取得する。加速度センサ211は、車両20の加速度を検出する。雨滴検出センサ212は、車両20のフロントガラスに当たる雨滴の有無を検出する。GPSセンサ213は、人工衛星からの電波を受信して車両20の現在位置(経度、緯度、高度)を検出する。速度センサ214は、車両20の速度を検出する。
 通信装置22は、公衆回線通信機能を用いて交換局や基地局などを介して渋滞情報提供装置1と通信接続する。また、通信装置22は、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物の近傍に設置されている発信機から発信された信号を受信してもよい。カメラ23は、少なくとも車両20の前方の風景などを撮影する。カメラ23は、広角レンズを備えており、車両20の前方に加えて、車両20の左側方向や右側方向の風景などを撮影してもよい。また、カメラ23は、車両20の車内の様子を撮影してもよい。カメラ23は、動画像を撮影する。また、カメラ23は、所定の時間間隔で繰り返し静止画像を撮影してもよい。
 制御装置24は、ドライブレコーダ2の機能を制御する。記憶装置25は、カメラ23により撮影された動画像、静止画像、センサ21の検出情報などを含むセンシング情報を記憶する。ドライブレコーダ2は、通信ネットワークを介して渋滞情報提供装置1と通信接続しており、カメラ23で撮影された動画像、静止画像、センサ21の検出情報、現在時刻、ドライブレコーダID(識別子)などを含むセンシング情報を渋滞情報提供装置1へ送信する。なお、ドライブレコーダ2の制御装置24は、CPU、ROM、RAMなどを備えたコンピュータで構成される。
 図5は、ドライブレコーダ2の制御装置24の機能ブロック図である。ドライブレコーダ2が起動すると、制御装置24は制御プログラムを起動して、複数の機能部240乃至244を実現する。すなわち、制御装置24は、アップロード画像生成部240、発信機信号取得部241、位置情報取得部242、センサ情報取得部243、センシング情報送信部244を備える。
 アップロード画像生成部240は、カメラ23により撮影された動画像や静止画像の画像データを取得し、その画像データに基づいてアップロード用の撮影画像を所定間隔で生成する。例えば、アップロード画像生成部240は、アップロード画像を毎秒1枚乃至数十枚のフレーム(1~数十fps)を生成してもよい。発信機信号取得部241は、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物の近傍に設置されている発信機から発信された信号に含まれる対象物情報を取得する。
 位置情報取得部242は、時刻に応じた車両20の位置情報(緯度情報、経度情報)をGPSセンサ213から取得する。センサ情報取得部243は、加速度センサ211、雨滴検出センサ212、速度センサ214、他のセンサで検出されたセンサ情報を取得する。
 センシング情報は、アップロード画像生成部240のアップロード画像、発信機信号取得部241の対象物情報、センサ情報取得部243のセンサ情報、ドライブレコーダ2のID、現在時刻などを含んでおり、センシング情報送信部244は、センシング情報を通信装置22へ送出する。なお、センシング情報は、車両2の速度を下げる要因となる対象物の位置に関する第一センシング情報と、車両20の移動状態に関する第二センシング情報と、を含む。
 例えば、アップロード画像に映る対象物の位置情報を検出できるため、アップロード画像は車両20の速度を下げる要因となる対象物の位置に関する第一センシング情報となり得る。また、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物の近傍に設置された発信機から発信された信号に含まれる対象物情報に基づいて対象物の位置情報を確認できるため、対象物情報は車両20の速度を下げる要因となる対象物の位置に関する第一センシング情報となり得る。
 また、位置情報取得部242の取得した位置情報は車両20の走行位置を示し、センサ情報取得部243の取得したセンサ情報は加速度センサ211、雨滴検出センサ212、速度センサ214やその他のセンサにより検出された車両20の移動状態を示すため、位置情報やセンサ情報は車両20の移動状態に関する第二センシング情報となり得る。また、アップロード画像を用いて車両20の前方車両との間隔を推定し、複数の画像に示される他の物体の位置の遷移に基づいて車両20の速度を推定することができるため、アップロード画像は第二センシング情報となり得る。
 センシング情報送信部244は、第一センシング情報と第二センシング情報を個別に送信してもよい。この場合、センシング情報送信部244は、ドライブレコーダ2のIDやセンシング情報の送信時刻などを第一センシング情報と第二センシング情報に格納する。これにより、渋滞情報提供装置1は、第一センシング情報と第二センシング情報の対応関係を把握することができる。なお、車両20の速度を下げる要因となる対象物の位置に関する第一センシング情報としてアップロード画像を用いる場合、対象物の近傍に設置されている発信機から発信される信号に含まれる対象物情報は必ずしも必要ないので、制御装置24には発信機信号取得部241を備えなくてもよい。
 図6は、ドライブレコーダ2の情報処理を示すフローチャートである。次に、ドライブレコーダ2の情報処理(センシング情報やアップロード画像に係る処理手順)について説明する(ステップS101乃至S110、ステップS211)。
 車両20において車載電気系統が起動すると、ドライブレコーダ2は動作を始動する(S101)。ドライブレコーダ2の複数のセンサ21はそれぞれドライブレコーダ2の始動後にセンシング動作を開始する(S102)。また、カメラ23は車両20の外部の風景の撮影を開始する(S103)。ドライブレコーダ2の動作中、制御装置24の機能部240乃至244は上述の動作を実行しており、位置情報取得部242は、車両20の位置情報を取得する(S104)。センサ情報取得部243は、センサ21の検出情報を取得する(S105)。アップロード画像生成部240は、カメラ23の撮影画像に基づいてアップロード画像を生成する(S106)。また、発信機信号取得部241は、信号機、踏切、交差点、標識、横断歩道、停止線、バス停などの対象物の近傍に設置されている発信機から信号を受信した場合には、その信号に含まれる対象物情報を取得する(S107)。
 センシング情報送信部244は、アップロード画像生成部240からアップロード画像を取得し、発信機信号取得部241から発信機の信号に含まれる対象物情報を取得し、位置情報取得部242から車両20の現在位置を示す位置情報を取得し、センサ情報取得部243からセンサ21の検出情報を取得する。センシング情報には、アップロード画像、対象物情報、位置情報、検出情報に加えて、ドライブレコーダ2のIDと、現在時刻などが含まれる。センシング情報送信部244は、センシング情報を通信装置22へ送出し、通信装置22はセンシング情報を渋滞情報提供装置1へ送信する(S108)。上述したように、センシング情報は、車両20の速度を下げる要因となる対象物の位置に関する第一センシング情報と、車両20の移動状態に関する第二センシング情報と、が含まれる。なお、センシング情報送信部244は、第一センシング情報と第二センシング情報を個別に生成して通信装置22に送信し、通信装置22が第一センシング情報と第二センシング情報を個別に渋滞情報提供装置1へ送信してもよい。車両20に搭載されたドライブレコーダ2が渋滞情報提供装置1と通信接続されて、上述のセンシング情報が渋滞情報提供装置1へ送信される。渋滞情報提供装置1は、複数の車両20に搭載されたドライブレコーダ2から複数のセンシング情報を繰り返し受信する。
 なお、ドライブレコーダ2は、カメラ23により撮影された動画像や静止画像などの画像データに基づいてアップロード画像を生成して(S109)、通信装置22を介して渋滞情報提供装置1へ送信してもよい(S110)。ドライブレコーダ2は、センシング情報やアップロード画像の送信を完了すると、図6の処理手順を終了する(S211)。
 図7は、本発明の一実施形態に係る渋滞情報提供装置1の渋滞情報算出処理を示すフローチャートである(ステップS201乃至S208)。渋滞情報提供装置1において、第一センシング情報取得部11と第二センシング情報取得部12はそれぞれセンシング情報を取得する。第一センシング情報取得部11は、センシング情報に含まれる第一センシング情報を抽出し、第二センシング情報取得部12は、センシング情報に含まれる第二センシング情報を抽出する。ドライブレコーダ2が第一センシング情報と第二センシング情報を個別に送信したときには、第一センシング情報取得部11が第一センシング情報を取得し、第二センシング情報取得部12が第二センシング情報を取得する。なお、第一センシング情報と第二センシング情報には、ドライブレコーダ2のID、位置情報、時刻情報が含まれている。このため、第一センシング情報と第二センシング情報とは相互に対応している。
 第一センシング情報取得部11は、第一センシング情報に含まれる撮影画像(動画像、静止画像など)又は対象物情報を対象物判定部13へ送出する。対象物判定部13は、第一センシング情報取得部11から撮影画像を入力すると、その撮影画像を用いて第一センシング情報と第二センシング情報とがそれぞれ対象物の近傍で検知されたのか否かを判定する(S202)。具体的には、対象物判定部13は、画像認識により撮影画像中に対象物が含まれているか否かを判定する。対象物判定部13は、過去のセンシング情報を機械学習して生成された対象物判定モデルを有しており、撮影画像を対象物判定モデルに入力して得られた対象物の判定結果に基づいて撮影画像中の対象物の有無を判定してもよい。対象物判定部13は、撮影画像に車両20の速度を下げる要因となる対象物(信号機、踏切、交差点、標識、横断歩道、停止線、バス停など)が含まれると判定した場合、その撮影画像を含む第一センシング情報からドライブレコーダ2のID、位置情報、時刻情報を抽出して記録部14へ送出する。また、記録部14は、第二センシング情報を第二センシング情報取得部12から入力する。
 対象物判定部13は、第一センシング情報取得部11から対象物情報を取得すると、その対象物情報に基づいて第一センシング情報と第二センシング情報とが対象物の近傍で検知されたものであるかを判定してもよい。なお、対象物判定部13は、対象物情報を取得できれば、第一センシング情報と第二センシング情報とが対象物の近傍で検知されたものであると判定する。
 対象物判定部13は、第一センシング情報に含まれる位置情報に基づいて、第一センシング情報と第二センシング情報とが対象物の近傍で検知されたことを判定してもよい。例えば、対象物判定部13は、第一センシング情報に含まれる位置情報を抽出し、その位置情報を含む対象物有無判定要求を判定装置(不図示)に送信する。判定装置は、地図情報や地図情報が示す地図における対象物の位置情報を予め記憶している。判定装置は、対象物有無判定要求に含まれる位置情報と、予め記憶された対象物の位置情報とを比較して、それら位置情報が示す位置が所定距離以内に存在するときには、それら位置情報は近傍であると判定する。その場合、判定装置は、対象物の存在を示す応答情報を返信する。対象物判定部13は、判定装置から応答情報を受信すると、その応答情報が対象物の存在を示す場合には、第一センシング情報と第二センシング情報とが対象物の近傍で検知されたものであると判定する。
 記録部14は、第二センシング情報取得部12から取得した第二センシング情報に含まれるドライブレコーダ2のID、位置情報、時刻情報の組合せが、対象物判定部13から取得したドライブレコーダ2のID、位置情報、時刻情報の組合せに一致するか否か判定する。記録部14は、上述のドライブレコーダ2のID、位置情報、時刻情報の組合せが一致すると判定した場合、対象物が存在するとの判定結果を示す対象物近傍フラグを第一センシング情報に付与してデータベース106に記録する(S203)。一方、記録部14は、上述のドライブレコーダ2のID、位置情報、時刻情報の組合せが一致しないと判定した場合、対象物近傍フラグを付与することなく第一センシング情報をそのままデータベース106に記録する(S204)。なお、対象物の存在の判定結果を示す対象物近傍フラグの付与された第一センシング情報は、車両20の速度を下げる要因となる対象物の近傍でドライブレコーダ2が取得したものである。記録部14におけるドライブレコーダ2のID、位置情報、時刻情報の組合せの一致判定においては、位置情報や時刻情報が異なる場合でも、位置情報や時刻情報の相違が所定の閾値以内であれば、ドライブレコーダ2のID、位置情報、時刻情報の組合せが一致すると判定してもよい。
 上述の処理により、記録部14は、複数の車両20に搭載される複数のドライブレコーダ2から送信された第一センシング情報又は対象物が存在するとの判定結果を示す対象物近傍フラグを付与した第一センシング情報をデータベース106に順次記録する。渋滞情報提供装置1と通信接続してセンシング情報を送信するドライブレコーダ2の数が多いほど、記録部14により記録される第一センシング情報の数が多くなり、複数の地点において検知されたセンシング情報がデータベース106に記録される。
 第一センシング情報や第二センシング情報がデータベース106に記録された状態において、渋滞情報算出部15は渋滞情報を算出する(S205)。渋滞情報算出部15は、地図情報に示される道路の渋滞算出対象の位置情報を複数記憶している。例えば、渋滞情報算出部15は、日本全国や首都圏全域の道路について設定された渋滞算出対象の位置情報を複数記憶している。渋滞情報算出部15は、渋滞算出対象の位置情報を読み出して、その位置情報から所定距離以内(例えば、10メートル以内や20メートル以内など)に存在する位置を示す位置情報と、現在時刻から所定時間前(1分前など)の時刻を示す時刻情報を含むが、対象物近傍フラグを含まない一つ又は複数の第二センシング情報をデータベース106に記録されている複数の第二センシング情報から抽出する。そして、渋滞情報算出部15は、データベース106から抽出した一つ又は複数の第二センシング情報に含まれる速度値を取得して、その速度値の平均値を算出する。渋滞情報算出部15は、渋滞算出対象の位置情報と、第二センシング情報に含まれる速度値の平均値とを紐づけてデータベース106に記録する(S206)。その後、渋滞情報算出部15は、予め記憶する渋滞算出対象の位置情報の全てについて渋滞情報を算出したか判定する(S207)。渋滞情報算出部15は、全ての渋滞算出対象の位置情報について繰り返し渋滞情報を算出する(S205乃至S207)。その後、渋滞情報算出部15は、全ての渋滞算出対象の位置情報について渋滞情報を算出して、渋滞情報算出処理を終了するか判定する(S208)。渋滞情報算出処理を終了しない場合には、ステップS201に戻り、渋滞情報算出部15は、全ての渋滞算出対象の位置情報について渋滞情報の算出を所定の時間間隔で繰り返す。これにより、渋滞情報提供装置1は、全ての渋滞算出対象の位置情報について車両20の平均速度をリアルタイムに更新することができる。
 上述の渋滞情報算出処理では、対象物近傍フラグが付与されていない第二センシング情報を用いて渋滞算出対象の位置情報に示される位置における平均速度を算出している。つまり、車両20の速度を下げる要因となる対象物が存在する位置の近傍で取得した第二センシング情報を除いて車両20の平均速度を算出しているため、車両の速度を下げる要因となる対象物により発生する渋滞の影響を除いて車両20の平均速度を算出することができる。これにより、高い精度で渋滞情報を算出することができる。
 上述の渋滞情報算出処理では、渋滞情報提供装置1は、渋滞算出対象の位置情報を予め記憶しており、その位置情報が示す位置における車両20の平均速度を算出しているが、これに限定されるものではない。例えば、渋滞情報提供装置1は、渋滞算出対象を複数の区間に分割して予め記憶し、その区間に含まれる位置における車両20の平均速度を算出してもよい。
 また、渋滞情報算出部15は、ドライブレコーダ2の撮影画像に基づいて渋滞が発生しているか否かを示す渋滞情報を算出してもよい。例えば、渋滞情報算出部15は、予め記憶した渋滞算出対象の位置情報を取得し、その位置情報から所定距離範囲内(例えば、10メートル以内、20メートル以内など)の位置情報と現在時刻から所定時間前(1分前など)までの時刻情報を含み、対象物近傍フラグを含まない一つ又は複数の第二センシング情報をデータベース106に記録されている複数の第二センシング情報から抽出する。そして、渋滞情報算出部15は、データベース106から抽出した第二センシング情報に含まれる撮影画像を取得する。渋滞情報算出部15は、撮影画像に基づいて車両20と前方車両との距離が所定閾値以下か否かを判定する。撮影画像に映る前方車両と車両20との距離が所定閾値以下か否かを判定する手法として、例えば、撮影画像に映る物体の後方形状を認識することにより前方車両の有無を判定し、かつ、撮影画像に映る前方車両の範囲などにより車間距離が所定閾値以下か否かを判定することができる。或いは、渋滞情報算出部15は、過去の撮影画像を機械学習して得られた距離判定モデルを予め有しており、ドライブレコーダ2の撮影画像を距離判定モデルに入力して、車間距離が所定閾値以下か否かの判定結果を算出してもよい。
 上述の渋滞情報算出処理において、記録部14は、対象物近傍フラグの他に、天候フラグを第二センシング情報に付与してデータベース106に記録してもよい。なお、天候フラグは、センシング情報が渋滞情報の算出に適さないことを示している。記録部14は、第二センシング情報に含まれる撮影画像や、雨滴検出センサ212の検出値に基づいて、第二センシング情報が車両20の走行環境が悪いとき(例えば、路面状況や天候が悪く、外部環境検知基準を満たす所定の閾値以下の走行環境のとき)に検知されたものであり、渋滞情報の算出に適さないものであるか否かを判定する。具体的には、記録部14は、撮影画像に基づいて悪天候であると判定した場合、或いは、雨滴検出センサ212の検出値が大雨の状態を示すため悪天候であると判定した場合、その第二センシング情報に天候フラグを付与してデータベース106に記録する。そして、渋滞情報算出部15は、天候フラグが付与された第二センシング情報を除いて渋滞情報を算出してもよい。
 渋滞情報出力部16は、渋滞情報算出部15が算出した渋滞情報を用いて渋滞出力情報を生成する。具体的には、渋滞情報出力部16は、所定の地図エリアを示す複数の位置情報を入力する。例えば、渋滞情報出力部16は、複数の位置情報を外部装置から入力してもよい。なお、外部装置はドライブレコーダ2であってもよい。渋滞情報出力部16は、所定の地図エリアの範囲内の複数の位置情報を参照して、予めデータベース106に記録される渋滞算出対象の位置情報における平均速度を取得する。渋滞情報出力部16は、位置情報における平均速度と、その位置情報が示す道路の標識に表示される最低速度とを比較する。渋滞情報出力部16は、位置情報における平均速度が最低速度未満であり、かつ、その平均速度と最低速度との差の度合に応じて位置情報における渋滞度合を推定する。
 具体的には、渋滞情報出力部16は、車両の平均速度vaが最低速度vl未満であり、かつ、平均速度vaと最低速度vlとの差Dが第一閾値la未満(va<vl、D<la)であれば渋滞度合「低」と判定する。また、渋滞情報出力部16は、平均速度vaが最低速度vl未満であり、かつ、その差Dが第一閾値la以上であり、第一閾値laより高い第二閾値lb未満(va<vl、la≦D<lb)であれば渋滞度合「中」と判定する。さらに、渋滞情報出力部16は、平均速度vaが最低速度vl未満であり、かつ、その差Dが第二閾値lb以上であり、第二閾値lbより高い第三閾値lc未満(va<vl、lb≦D<lc)であれば渋滞度合「高」と判定する。なお、渋滞度合は渋滞情報算出部15が上記の処理により算出するようにしてもよい。
 道路の標識が示す最低速度は、第二センシング情報に含まれる位置情報に基づいて、渋滞情報提供装置1が予め記憶してもよい。或いは、渋滞情報出力部16が第二センシング情報に含まれる撮影画像を画像認識して、道路標識が示す最低速度を検知してもよい。また、渋滞情報出力部16は道路標識に示される最低速度の代わりに道路標識が示す最高速度を用いて渋滞度合を算出してもよい。
 上記において、道路標識は最低速度でなく最高速度を示すこともある。道路標識が示す制限速度(最高速度)をvhとし、車両の平均速度vaが制限速度vh以下であり、かつ、車両の平均速度vaと制限速度vhとの差Dhが所定の閾値ld(渋滞度合判定用の閾値)未満の場合(Dh<ld)には車両がスムーズに走行しており渋滞度合「低」と判定できる。また、差Dhが所定の閾値ld以上の場合(Dh≧ld)には車両は低速で走行しており渋滞度合「高」と判定できる。
 そして、渋滞情報出力部16は、外部装置から入力した地図エリアに含まれる複数の渋滞算出対象の位置情報について渋滞度合を算出して外部装置へ出力する。このとき、渋滞情報出力部16は、地図エリアの道路の位置における渋滞度合に応じて色分けを行い、その渋滞度合を示す色を付与した地図情報を渋滞出力情報として生成して外部装置に出力してもよい。これにより、外部装置は、渋滞度合を示す地図情報をモニタなどに出力することができる。
 上述の処理により、渋滞情報提供装置1は、高い精度で渋滞出力情報を生成して、外部装置(または、渋滞情報出力装置)に提供することができる。上述の処理では、ドライブレコーダ2と通信接続された車両20から遠隔地点に設置されている渋滞情報提供装置1が渋滞情報を算出するものとしている。しかし、渋滞情報提供装置1の機能をドライブレコーダ2と通信接続した車載器に搭載してもよい。
 上述の処理では、道路の位置情報における車両の平均速度を第二センシング情報に含まれる速度値を用いて算出しているが、これに限定されるものではない。例えば、渋滞情報算出部15は、第二センシング情報に含まれる撮影画像に対してオプティカルフロー技術(デジタル画像中の物体の動きベクトル解析手法)を適用して、第二センシング情報を送信したドライブレコーダ2を搭載する車両20の速度を算出して、その平均値を算出するようにしてもよい。
 上述の処理において、渋滞情報算出部15は、ドライブレコーダ2の撮影画像やセンシング情報に加えて、車両20の近傍を走行する他の車両の数に基づいて渋滞度合を算出してもよい。そして、渋滞情報出力部16は、車両20の近傍を走行する他の車両の数に基づいて算出された渋滞度合に基づいて渋滞出力情報を生成してもよい。具体的には、渋滞情報算出部15は、第二センシング情報に含まれる撮影画像に映る他の車両の数をカウントする。渋滞が発生している場合、車両20の近傍を走行する他の車両の数が多くなる。このため、渋滞情報算出部15は、撮影画像に映る他の車両の数に応じて予め定められた処理により渋滞度合を算出してもよい。或いは、渋滞情報算出部15又は渋滞情報出力部16は、位置情報における平均速度、車両数、道路の種別などの複数のパラメータを用いて、所定の渋滞度合算出式により渋滞度合を算出してもよい。
 上述のように、渋滞情報提供装置1の処理手順について説明したように、渋滞情報提供装置1は、対象物近傍フラグを含まない第二センシング情報を用いて位置情報における平均速度を算出している。つまり、渋滞情報提供装置1は、車両20の速度を下げる要因となる対象物の位置の近傍で取得した第二センシング情報を除いて平均速度を算出しているため、その対象物に起因する渋滞の影響を除いて平均速度を算出することができる。これにより、渋滞情報提供装置1は、高い精度で渋滞情報を算出することができる。また、車両20の速度を下げる要因となる対象物に起因した速度低下を検知して直ちに渋滞が発生していることを判定してしまうような誤検知を減らすことができる。
 上述の処理によれば、渋滞情報提供装置1は、ドライブレコーダ2から取得した撮影画像や対象物情報に基づいて渋滞情報を算出することができる。つまり、渋滞情報提供装置1は、自動的に渋滞情報を算出しているため、人手を用いて道路の渋滞を測定する必要が無く、渋滞情報算出のコストを下げることができる。また、渋滞情報提供装置1は、車両20が通過した道路の各地点におけるセンシング情報を用いて渋滞情報を算出できるため、コストをかけずに市街地内に存在する狭い市町村道路など多くの地点の渋滞情報を算出することができる。
 上述の処理によれば、渋滞情報提供装置1は、多くの地点における渋滞情報を短時間で繰り返して実行するため、リアルタイムに詳細な渋滞情報を提供することができる。
 図8は、渋滞情報提供装置1の最小構成を示すブロック図である。渋滞情報提供装置1は、少なくとも対象物判定部13と、渋滞情報算出部15と、を備える。図9は、図8の渋滞情報提供装置1の渋滞情報算出処理を示すフローチャートである(ステップS301、S302)。対象物判定部13は、移動体(例えば、車両)の速度を下げる要因となる対象物の位置に関する第一センシング情報に基づいて対象物(例えば、道路上に設置される信号機、踏切、交差点、標識、横断歩道、停止線、バス停など)の位置を検出する(S301)。ここで、移動体が移動する経路には複数の区間が設定されており、第一センシング情報に基づいて検出した対象物は、所定区間に属することとなる。次に、渋滞情報算出部15は、移動体の移動状態(例えば、車両の走行速度)に関する第二センシング情報のうち、第一センシング情報に基づいて検出した対象物の位置を基準とする所定区間外の区間における第二センシング情報に基づいて、移動体が移動する経路における渋滞情報を算出する(S302)。
 上述の各種装置は内部にコンピュータシステムを有している。そして、上述の処理過程はプログラムとしてコンピュータ読取可能な記憶媒体に記憶されており、コンピュータがプログラムを読み出して実行することにより上述の処理過程を実現する。ここで、コンピュータ読取可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリなどをいう。また、通信緯線を経由してプログラムをコンピュータに配信し、コンピュータがプログラムを実行するようしてもよい。
 上述のプログラムは、前述した機能の一部を実現するものであってもよい。また、上述のプログラムは、前述した機能をコンピュータシステムに既に記憶されているプリインストールプログラムとの組み合わせで実現できる差分プログラム(差分ファイル)であってもよい。
 最後に、本発明は上述の実施形態に限定されるものではなく、特許請求の範囲に規定した発明の趣旨を逸脱することなく、上述の実施形態の構成や機能に対する設計変更や改変をも包含するものである。
 本願は、2019年4月15日に、日本国に出願された特願2019-77226号に基づき優先権を主張し、その内容をここに援用する。
 上述の実施形態では、渋滞情報提供装置は道路を走行する車両の位置や速度に応じて渋滞情報を算出するようにしたが、車両以外の移動体の位置や速度を検知して、移動体の速度を下げる要因となる対象物の存在を推定して、複数の移動体の渋滞情報を算出するようにしてもよい。
1 渋滞情報提供装置
2 ドライブレコーダ
11 第一センシング情報取得部(第一センシング情報取得手段)
12 第二センシング情報取得部(第二センシング情報取得手段)
13 対象物判定部(対象物判定手段)
14 記録部(記録手段)
15 渋滞情報算出部(渋滞情報算出手段)
16 渋滞情報出力部(渋滞情報出力手段)
20 車両
21 センサ
22 通信装置
23 カメラ
24 制御装置
25 記憶装置

Claims (7)

  1.  移動体の速度を下げる要因となる対象物の位置に関する第一センシング情報に基づいて前記対象物の位置を判定する対象物判定手段と、
     前記移動体が複数の区間を有する経路に沿って移動するとき、前記移動体の移動状態に関する第二センシング情報であって、前記第一センシング情報に基づいて検出した前記対象物の位置を基準とする所定区間外の区間における前記第二センシング情報に基づいて、前記移動体が移動する前記経路における渋滞情報を算出する渋滞情報算出手段と、
     を備える渋滞情報提供装置。
  2.  前記第二センシング情報は、前記移動体が前記経路に沿って移動するときの速度を示す、請求項1に記載の渋滞情報提供装置。
  3.  前記第二センシング情報は、前記移動体に設けられた撮影装置の撮影した画像を示す、請求項1に記載の渋滞情報提供装置。
  4.  前記渋滞情報算出手段は、前記移動体が移動する前記経路の走行環境が所定の閾値以下の時間帯以外の時間帯に取得した前記第二センシング情報に基づいて、前記移動体が移動する前記経路における前記渋滞情報を算出する、請求項1乃至請求項3の何れか一項に記載の渋滞情報提供装置。
  5.  前記渋滞情報算出手段は、複数の前記移動体が前記経路に沿って走行するときの速度を示す複数の第二センシング情報に基づいて、前記複数の移動体の速度の統計値を算出する、請求項1乃至請求項3の何れか一項に記載の渋滞情報提供装置。
  6.  コンピュータに、
     移動体の速度を下げる要因となる対象物の位置に関する第一センシング情報に基づいて前記対象物の位置を判定させ、
     前記移動体が複数の区間を有する経路に沿って移動するとき、前記移動体の移動状態に関する第二センシング情報であって、前記第一センシング情報に基づいて検出した前記対象物の位置を基準とする所定区間外の区間における前記第二センシング情報に基づいて、前記移動体が移動する前記経路における渋滞情報を算出させる、渋滞情処理方法。
  7.  コンピュータに、
     移動体の速度を下げる要因となる対象物の位置に関する第一センシング情報に基づいて前記対象物の位置を判定する対象物判定機能と、
     前記移動体が複数の区間を有する経路に沿って移動するとき、前記移動体の移動状態に関する第二センシング情報であって、前記第一センシング情報に基づいて検出した前記対象物の位置を基準とする所定区間外の区間における前記第二センシング情報に基づいて、前記移動体が移動する前記経路における渋滞情報を算出する渋滞情報算出機能と、
     を実行させるプログラムを記憶した記録媒体。
PCT/JP2020/015988 2019-04-15 2020-04-09 渋滞情報提供装置、渋滞情報処理方法及び記録媒体 WO2020213512A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/602,388 US20220165151A1 (en) 2019-04-15 2020-04-09 Traffic jam information providing device, traffic jam information processing method, and recording medium
JP2021514913A JP7347502B2 (ja) 2019-04-15 2020-04-09 渋滞情報提供装置、渋滞情報処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-077226 2019-04-15
JP2019077226 2019-04-15

Publications (1)

Publication Number Publication Date
WO2020213512A1 true WO2020213512A1 (ja) 2020-10-22

Family

ID=72838223

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/015988 WO2020213512A1 (ja) 2019-04-15 2020-04-09 渋滞情報提供装置、渋滞情報処理方法及び記録媒体

Country Status (3)

Country Link
US (1) US20220165151A1 (ja)
JP (1) JP7347502B2 (ja)
WO (1) WO2020213512A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7375719B2 (ja) * 2020-10-05 2023-11-08 トヨタ自動車株式会社 車両運転支援装置、車両運転支援方法及び車両運転支援コンピュータプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189776A (ja) * 2010-03-12 2011-09-29 Koito Mfg Co Ltd 車両ランプシステム
JP2016184236A (ja) * 2015-03-25 2016-10-20 トヨタ自動車株式会社 渋滞情報生成装置及び渋滞情報生成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011557A (ja) * 2005-06-29 2007-01-18 Nissan Motor Co Ltd 渋滞検出システム、車載情報端末、および情報センター、および渋滞検出方法
US9415718B2 (en) * 2011-06-08 2016-08-16 Denso Corporation Vehicular headlight apparatus
JP2013168065A (ja) 2012-02-16 2013-08-29 Sony Corp 情報処理装置、端末装置、情報処理方法、及び状況表示方法
US10089537B2 (en) * 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
JP6426929B2 (ja) 2014-07-15 2018-11-21 株式会社Subaru 車両制御装置
JP6493299B2 (ja) * 2016-05-19 2019-04-03 株式会社デンソー 自動運転システム及び自動運転状態報知プログラム
US10407061B2 (en) * 2016-08-29 2019-09-10 Mazda Motor Corporation Vehicle control system
JP7124704B2 (ja) * 2016-11-30 2022-08-24 日本電気株式会社 交通状況推定装置、交通状況推定方法、プログラムおよび出力装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011189776A (ja) * 2010-03-12 2011-09-29 Koito Mfg Co Ltd 車両ランプシステム
JP2016184236A (ja) * 2015-03-25 2016-10-20 トヨタ自動車株式会社 渋滞情報生成装置及び渋滞情報生成方法

Also Published As

Publication number Publication date
US20220165151A1 (en) 2022-05-26
JP7347502B2 (ja) 2023-09-20
JPWO2020213512A1 (ja) 2021-12-09

Similar Documents

Publication Publication Date Title
CN109709961B (zh) 道路障碍物检测方法、装置及自动驾驶汽车
US7818123B2 (en) Routing guide system and method
US10369995B2 (en) Information processing device, information processing method, control device for vehicle, and control method for vehicle
JP5734521B2 (ja) 車載機およびセンター装置
KR20120118478A (ko) 교통 신호 맵핑 및 검출
US11294387B2 (en) Systems and methods for training a vehicle to autonomously drive a route
US11527085B1 (en) Multi-modal segmentation network for enhanced semantic labeling in mapping
EP3806061A1 (en) Detection device and detection system
US20230109909A1 (en) Object detection using radar and lidar fusion
EP3905121A1 (en) Vehicle system with a safety mechanism and method of operation thereof
WO2020213512A1 (ja) 渋滞情報提供装置、渋滞情報処理方法及び記録媒体
CN106840181B (zh) 用于确定车辆位置的系统和方法
US11645906B2 (en) Navigation system with traffic state detection mechanism and method of operation thereof
JP2022056153A (ja) 一時停止検出装置、一時停止検出システム、及び一時停止検出プログラム
US20240123996A1 (en) Methods and systems for traffic light labelling via motion inference
US20230236313A1 (en) Thermal sensor data vehicle perception
US20230303124A1 (en) Predicting and controlling object crossings on vehicle routes
US20240126254A1 (en) Path selection for remote vehicle assistance
US20230403471A1 (en) Multiple position rolling shutter imaging device
WO2022064677A1 (ja) 推定方法、推定装置及び推定プログラム
US20240051568A1 (en) Discriminator network for detecting out of operational design domain scenarios
US20240125617A1 (en) Aggregation of Data Representing Geographical Areas
US20230087119A1 (en) Switchable wheel view mirrors
WO2020170835A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20240085903A1 (en) Suggesting Remote Vehicle Assistance Actions

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20791013

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021514913

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20791013

Country of ref document: EP

Kind code of ref document: A1