WO2017216856A1 - 車間距離推定方法及び車間距離推定装置 - Google Patents

車間距離推定方法及び車間距離推定装置 Download PDF

Info

Publication number
WO2017216856A1
WO2017216856A1 PCT/JP2016/067609 JP2016067609W WO2017216856A1 WO 2017216856 A1 WO2017216856 A1 WO 2017216856A1 JP 2016067609 W JP2016067609 W JP 2016067609W WO 2017216856 A1 WO2017216856 A1 WO 2017216856A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
inter
vehicle distance
shielding
tracking
Prior art date
Application number
PCT/JP2016/067609
Other languages
English (en)
French (fr)
Inventor
邦昭 野田
芳 方
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to CA3027328A priority Critical patent/CA3027328A1/en
Priority to US16/307,278 priority patent/US10501077B2/en
Priority to RU2018146911A priority patent/RU2693015C1/ru
Priority to PCT/JP2016/067609 priority patent/WO2017216856A1/ja
Priority to KR1020187035096A priority patent/KR101980509B1/ko
Priority to CN201680086753.6A priority patent/CN109314763B/zh
Priority to BR112018075863-9A priority patent/BR112018075863A2/pt
Priority to EP16905411.1A priority patent/EP3471408B1/en
Priority to MX2018014953A priority patent/MX368800B/es
Priority to JP2018523063A priority patent/JP6699728B2/ja
Publication of WO2017216856A1 publication Critical patent/WO2017216856A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed

Definitions

  • the present invention relates to an inter-vehicle distance estimation method and an inter-vehicle distance estimation device that estimate an inter-vehicle distance.
  • Patent Document 1 when a tracking target is shielded by a plurality of shielding objects, a shielding object having a long estimated shielding time calculated based on a difference between a motion vector of the shielding object and a motion vector of the tracking target is tracked.
  • the target tracking device set as is disclosed.
  • Patent Document 1 uses the speed at the time when the tracking target is shielded as the speed of the tracking target, when used for estimating the inter-vehicle distance of the vehicle train including the tracking target, the speed of the tracking target is If it changes, the accuracy of the inter-vehicle distance estimation may deteriorate.
  • an object of the present invention is to provide an inter-vehicle distance estimation method and an inter-vehicle distance estimation apparatus that can improve the accuracy of inter-vehicle distance estimation.
  • An inter-vehicle distance estimation method estimates a shielding area shielded from a sensor by an obstacle and two non-shielding areas sandwiching the shielding area, and each of the two non-shielding areas on the same lane. Based on the speeds of the two tracking vehicles that travel, the inter-vehicle distance to the tracking vehicle traveling on the same lane in the shielding area is estimated.
  • an inter-vehicle distance estimation device and an inter-vehicle distance estimation method that can improve the accuracy of inter-vehicle distance estimation.
  • FIG. 1 is a schematic block diagram illustrating a basic configuration of an inter-vehicle distance estimation apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a scene in which a vehicle equipped with the inter-vehicle distance estimation device according to the embodiment of the present invention joins a back lane.
  • FIG. 3A is a flowchart for explaining an example of an inter-vehicle distance estimation method by the inter-vehicle distance estimation apparatus according to the embodiment of the present invention.
  • FIG. 3B is a flowchart for explaining an example of an inter-vehicle distance estimation method by the inter-vehicle distance estimation device according to the embodiment of the present invention.
  • FIG. 4 is an example illustrating attribute information of a plurality of tracked vehicles.
  • FIG. 5 is a graph for explaining a method of calculating the estimated value shown in FIG.
  • FIG. 6A is a diagram illustrating a scene where the tracking vehicle in the shielding area accelerates.
  • FIG. 6B is a diagram illustrating a scene in which the tracking vehicle in the shielding area accelerates.
  • FIG. 7 is a graph showing the speed and position of a plurality of tracked vehicles.
  • FIG. 8A is a diagram illustrating a scene where the tracking vehicle in the shielding area decelerates.
  • FIG. 8B is a diagram illustrating a scene where the tracking vehicle in the shielding area decelerates.
  • FIG. 9 is a graph showing the speed and position of a plurality of tracked vehicles.
  • FIG. 1 is a block diagram showing a configuration of an inter-vehicle distance estimation device 20 according to the present embodiment.
  • the inter-vehicle distance estimation device 20 includes a sensor 21, a map data storage unit 22, a self-position estimation unit 23, an exercise information acquisition unit 24, an output unit 25, and a processing circuit 30.
  • the inter-vehicle distance estimation device 20 is installed in a vehicle 11 (own vehicle) and estimates the inter-vehicle distance of a vehicle train including other vehicles shielded by an obstacle.
  • the sensor 21 is mounted on the vehicle 11, detects position information of objects around the vehicle 11, and outputs it to the processing circuit 30.
  • a distance measuring sensor such as a laser range finder (LRF), a millimeter wave radar, an ultrasonic sensor, a stereo camera, or an image sensor can be adopted.
  • the sensor 21 may be composed of a plurality of types of sensors, and may detect the speed, acceleration, shape, color, and the like of surrounding objects.
  • the sensor 21 scans a predetermined range around the vehicle 11 to acquire the three-dimensional distance data of the surrounding environment.
  • the three-dimensional distance data is point cloud data indicating a relative three-dimensional position from the sensor 21.
  • the map data storage unit 22 is a storage device that stores high-definition map data.
  • the map data storage unit 22 may be mounted on the vehicle 11 or installed in a server or the like via a communication line.
  • the map data includes information on road structures such as the position of each lane and traffic zone classification, and the position and shape of features around the road. Information can be recorded.
  • the self position estimation unit 23 estimates the self position of the vehicle 11 in the map data stored in the map data storage unit 22.
  • the self position includes the posture of the vehicle 11.
  • the self-position estimating unit 23 is based on information acquired from a positioning device such as a global positioning system (GPS) receiver, an acceleration sensor mounted on the vehicle 11, an angular velocity sensor, a rudder angle sensor, a speed sensor, and the like. Is estimated.
  • the self-position estimating unit 23 estimates the detailed self-position in the map data by calculating the relative position of the vehicle 11 with respect to the feature recorded in the map data from the information acquired from the sensor 21. Good.
  • GPS global positioning system
  • the motion information acquisition unit 24 acquires motion information indicating a motion state such as the speed, acceleration, angular velocity, and steering angle of the vehicle 11.
  • the motion information is acquired from a speed sensor, an acceleration sensor, an angular velocity sensor, a rudder angle sensor, or the like mounted on the vehicle 11.
  • the output unit 25 is an output interface (I / F) that outputs a calculation result by the processing circuit 30.
  • the output unit 25 outputs the calculation result by the processing circuit 30 to, for example, a control circuit that automatically controls driving of the vehicle 11.
  • the output destination from which the output unit 25 outputs the calculation result may be a display device or a speaker that presents information to the passenger of the vehicle 11.
  • the processing circuit 30 includes an object detection unit 31, an area estimation unit 32, an object collation unit 33, a recognition result storage unit 34, an inter-vehicle distance estimation unit 35, and an object motion prediction unit 40.
  • the processing circuit 30 includes a programmed processing device such as a processing device including an electrical circuit.
  • the processing circuitry may include other devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions.
  • the processing circuit 30 can be configured by one or a plurality of processing circuits.
  • the processing circuit 30 may also be used as an electronic control unit (ECU) used for other control related to the vehicle 11.
  • ECU electronice control unit
  • the object detection unit 31 detects the observable object 13 around the vehicle 11 based on the information acquired by the sensor 21.
  • the observable object 13 is an object that can be observed using the sensor 21 without being shielded from the sensor 21 by an obstacle.
  • the object detection unit 31 uses the information acquired by the sensor 21, the map data stored in the map data storage unit 22, the self-position estimated by the self-position estimation unit 23, and the motion information acquired by the motion information acquisition unit 24. Based on this, the attribute information of the observable object 13 is acquired.
  • the attribute information may include the position, speed, acceleration, posture, shape, color, and type of the observable object 13. Note that the speed and acceleration of the observable object 13 may include information on the rotation direction.
  • the object detection unit 31 sets an identifier (ID) for the detected observable object 13 and determines the attribute information and ID of the observable object 13 as the object information of the observable object 13.
  • ID identifier
  • the region estimation unit 32 estimates the shielding region 14 that is shielded from the sensor 21 by the obstacle and the non-shielding region 15 that is not shielded from the sensor 21 around the vehicle 11.
  • the obstacle is the observable object 13.
  • the area estimation unit 32 extracts point cloud data within a predetermined height range from the ground surface from the point cloud data acquired by the sensor 21, and connects the extracted point cloud data to the non-shielding area 14.
  • the boundary with the shielding area 15 is determined.
  • the area estimation unit 32 estimates the area behind the determined boundary as the shielding area 14 and the near side as the non-shielding area 15.
  • the region estimation unit 32 estimates regions that sandwich the shielding region 14 in the horizontal direction as two non-shielding regions 15.
  • the object collation unit 33 collates the observable object 13 detected by the object detection unit 31 with the predicted object predicted by the object motion prediction unit 40, and determines whether or not the observable object 13 and the predicted object correspond to each other. Determine whether.
  • the object matching unit 33 determines whether or not the observable object 13 and the predicted object correspond to each other based on the similarity between the attribute information of the observable object 13 and the attribute information of the predicted object.
  • the recognition result storage unit 34 stores the object information acquired from the object detection unit 31 based on the self-position estimated by the self-position estimation unit 23 and the motion information acquired by the motion information acquisition unit 24, as map data. It is stored as a recognition result in association with the map data stored in the unit 22.
  • the recognition result storage unit 34 maps the object information determined by the object detection unit 31 onto the map data.
  • the recognition result storage unit 34 updates the object information determined by the object detection unit 31 according to the determination result of the object collation unit 33.
  • the recognition result storage unit 34 tracks the tracking vehicle 12 traveling in the shielding area 14 or the non-shielding area 15 by holding the ID of the stored object information according to the determination result of the object matching unit 33.
  • the recognition result storage unit 34 is based on the self-position estimated by the self-position estimation unit 23 and the motion information acquired by the motion information acquisition unit 24, and the shielding region 14 and the non-shielding estimated by the region estimation unit 32.
  • the area 15 is set on the same lane recorded in the map data.
  • the recognition result storage unit 34 stores the shielding area 14 and the non-shielding area 15 set on the same lane in association with each other. Based on the map data, the recognition result storage unit 34 estimates the area on the lane where the mutually related shielding area 14 and non-shielding area 15 are estimated as the traveling area 101 where the tracking vehicle 12 that is the tracking target travels. .
  • the inter-vehicle distance estimation unit 35 estimates the inter-vehicle distances of the plurality of tracking vehicles 12 that travel in the same travel region 101 based on the object information stored in the recognition result storage unit 34.
  • the inter-vehicle distance estimation unit 35 estimates inter-vehicle distances of the plurality of tracking vehicles 12 based on the estimated speed of the tracking vehicle 12 that travels in the shielding area 14.
  • the object motion prediction unit 40 includes a tracking object group detection unit 41, a shielding determination unit 42, a speed estimation unit 43, a position estimation unit 44, and a posture estimation unit 45.
  • the object motion prediction unit 40 predicts attribute information of the observable object 13 or the non-observable object 16 based on the object information of the observable object 13.
  • the object motion prediction unit 40 outputs the predicted attribute information and ID of the observable object 13 or the non-observable object 16 as the object information of the predicted object.
  • the tracking object group detection unit 41 detects the object group that exists over the shielding area 14 and the non-shielding area 15 and has the same moving direction as the plurality of tracking vehicles 12 based on the recognition result of the recognition result storage unit 34.
  • the tracking object group detection unit 41 may detect the object group existing in the travel area 101 estimated by the recognition result storage unit 34 as a plurality of tracking vehicles 12.
  • the tracking object group detection unit 41 may further detect the observable object 13 that moves in the traveling direction of the plurality of tracking vehicles 12 already detected in the non-shielding region 15 as the tracking vehicle 12.
  • the shielding determination unit 42 determines whether each object of the object group detected by the tracking object group detection unit 41 is shielded from the sensor 21 by another obstacle. That is, the shielding determination unit 42 determines whether each object exists in either the shielding area 14 or the non-shielding area 15. The object determined not to be shielded by the shielding determination unit 42 is the observable object 13, and the object determined to be shielded is the non-observable object 16.
  • the speed estimation unit 43 estimates the speeds of the plurality of tracking vehicles 12 detected by the tracking object group detection unit 41.
  • the speed estimation unit 43 performs non-observation existing in the shielding area 14 based on the current speeds of the two observable objects 13 respectively moving in the two non-shielding areas 15 sandwiching the shielding area 14 where the non-observing object 16 exists. Estimate the current velocity of the object 16.
  • the position estimation unit 44 estimates the current position of the tracking vehicle 12 based on the speed estimated by the speed estimation unit 43 and the attribute information of the observable object 13.
  • the posture estimation unit 45 estimates the current posture of the tracking vehicle 12 based on the speed estimated by the speed estimation unit 43 and the attribute information of the observable object 13.
  • the posture estimation unit 45 may estimate the posture of the tracking vehicle 12 based on the shape of the road recorded in the map data.
  • the sensor 21 acquires information on the surrounding environment including the tracking object (the plurality of tracking vehicles 12).
  • the sensor 21 acquires at least position information of an object in front of the vehicle 11.
  • step S11 the object detection unit 31 detects the observable object 13 and the object information of the observable object 13 based on the information acquired in step S10.
  • the object detection unit 31 may detect the observable object 13 including the surrounding features and the object information of the observable object 13 based on the map data, the self position, and the motion information of the vehicle 11.
  • the region estimation unit 32 includes a plurality of shielding regions 14 that are shielded from the sensor 21 by the obstacle and a plurality of non-shielding regions 15 that are not shielded from the sensor 21 based on the information acquired in step S ⁇ b> 10. presume.
  • step S13 the object collation unit 33 collates the object information of the observable object 13 detected in step S11 with the object information of the predicted object predicted by the object motion prediction unit 40.
  • step S13 is based on the premise that the object information of the predicted object acquired in steps S23 to S27, which will be described later, is input to the object matching unit 33.
  • step S14 the object matching unit 33 determines whether or not the observable object 13 and the predicted object correspond to each other based on the similarity between the attribute information of the observable object 13 and the attribute information of the predicted object. .
  • the object collation unit 33 proceeds to step S15 when determining that it corresponds, and proceeds to step S16 when determining that it does not correspond.
  • step S15 the recognition result storage unit 34 updates the current object information using the attribute information of the observable object 13. That is, the recognition result storage unit 34 replaces the already stored attribute information of the object information of the observable object 13 with the attribute information acquired in step S11 at the current time, and obtains the new object information of the observable object 13 as object information.
  • the recognition result storage unit 34 replaces the already stored attribute information of the object information of the observable object 13 with the attribute information acquired in step S11 at the current time, and obtains the new object information of the observable object 13 as object information.
  • step S16 the object matching unit 33 determines whether or not the predicted object is shielded. That is, the object matching unit 33 determines whether or not the predicted object exists in the shielding region 14 based on the attribute information of the predicted object and the shielding region 14 estimated by the region estimation unit 32. When determining that the predicted object is shielded, the object matching unit 33 proceeds to step S17, and when determining that the predicted object is not shielded, proceeds to step S18.
  • step S17 the recognition result storage unit 34 updates the current object information using the attribute information of the predicted object. That is, the recognition result storage unit 34 replaces the already stored attribute information of the object information of the observable object 13 with the attribute information of the predicted object input to the object matching unit 33 at the current time, and Store as object information.
  • step S18 the recognition result storage unit 34 deletes the object information of the predicted object input to the object matching unit 33 at the current time. That is, the recognition result storage unit 34 maintains the already stored object information of the observable object 13 without changing it.
  • the recognition result storage unit 34 detects the observable object detected in step S11. 13 object information is stored.
  • step S19 the recognition result storage unit 34 maps the object information of the observable object 13 or the non-observable object 16 stored in any of steps S15 to S18 on the map data.
  • the recognition result storage unit 34 maps the object information of the observable object 13 or the non-observable object 16 on the map data based on the map data, the self position, and the motion information of the vehicle 11.
  • step S ⁇ b> 20 the recognition result storage unit 34, among the plurality of shielding areas 14 and the plurality of non-shielding areas 15 estimated in step S ⁇ b> 12, for example, based on the map data, the self position, and the motion information of the vehicle 11.
  • the related shielding area 14 and non-shielding area 15 are estimated.
  • the recognition result storage unit 34 estimates the traveling area 101 in a predetermined range on the lane where the plurality of shielding areas 14 and the plurality of non-shielding areas 15 are estimated.
  • the recognition result storage unit 34 estimates the plurality of shielding areas 14 and the plurality of non-shielding areas 15 estimated in the same traveling area 101 as the plurality of shielding areas 14 and the plurality of non-shielding areas 15 that are related to each other. Note that the recognition result storage unit 34 may estimate the travel region 101 based on a region where a plurality of objects having the same movement direction are detected without using map data.
  • the inter-vehicle distance estimation unit 35 estimates the inter-vehicle distance between the plurality of tracking vehicles 12 that travel in the same travel area 101 estimated in step S20.
  • the plurality of tracking vehicles 12 traveling in the traveling area 101 are composed of a plurality of observable objects 13 and a plurality of non-observable objects 16. That is, the inter-vehicle distance estimation unit 35 is based on the object information of the plurality of observable objects 13 and the plurality of non-observable objects 16 existing in the travel region 101 estimated by the recognition result storage unit 34. Estimate the distance between vehicles.
  • step S22 the processing circuit 30 outputs the inter-vehicle distances of the plurality of tracked vehicles 12 estimated in step S21 to the output unit 25.
  • the processing circuit 30 also outputs the object information of the plurality of observable objects 13 and the plurality of non-observable objects 16 and the information of the plurality of shielding areas 14 and the plurality of non-shielding areas 15 stored in the recognition result storage unit 34. To 25.
  • step S23 the tracking object group detection unit 41 performs the same movement among the observable object 13 and the non-observable object 16 that exist in the related plurality of shielding areas 14 and the plurality of non-shielding areas 15 estimated in step S20.
  • An object group having a direction is detected as a plurality of tracking vehicles 12.
  • the tracking object group detection unit 41 may simply detect an object group existing in the plurality of related shielding areas 14 and the plurality of non-shielding areas 15 as the plurality of tracking vehicles 12.
  • step S24 the shielding determination unit 42 determines whether each object in the object group is shielded from the sensor 21 by the obstacle based on each object information of the object group detected in step S23. For example, the shielding determination unit 42 determines whether each object is shielded by referring to information indicating the presence or absence of shielding included in the attribute information. In this case, in step S16, the object matching unit 33 may determine whether or not the predicted object is shielded, and add the determination result to the attribute information.
  • the object that is not shielded is the observable object 13, and the object that is not shielded is the non-observable object 16.
  • step S25 the speed estimation unit 43 estimates the speed of the non-observable object 16 determined to be shielded in step S24 based on the attribute information of the observable object 13 determined to be shielded. Specifically, the speed estimation unit 43 travels the speed of the non-observed object 16 that is one or a plurality of tracking vehicles 12 that travels in one shielded area 14 through two unshielded areas 15 that sandwich the shielded area 14. It is estimated based on the speed of the observable object 13 that is the two tracking vehicles 12 that perform.
  • the speed of the non-observed object 16 is set.
  • a method for estimating the frequency will be specifically described.
  • the numerical value in a parenthesis means that it is an estimated value.
  • FIG. 5 is a graph for explaining a method of estimating the speed of each non-observable object 16 from the attribute information of each observable object 13 shown in FIG.
  • the speed estimation unit 43 internally divides the speed of the two observable objects 13 sandwiching the non-observable object 16 by the ratio of the distances between the objects using the position of the non-observable object 16 estimated at the previous time. Is estimated as the velocity of the non-observed object 16.
  • step S26 the position estimation unit 44 estimates the current position of the non-observable object 16 based on the speed estimated in step S25 and the attribute information of the observable object 13.
  • step S27 the posture estimation unit 45 estimates the current posture of the non-observable object 16 based on the velocity estimated in step S25 and the attribute information of the observable object 13.
  • the speed is v13 0 .
  • the position of the tracking vehicle 12 of ID 12 estimated in the previous time and d12 0.
  • the speed is v13 T
  • the inter-vehicle distance estimation unit 35 can accurately estimate the positions of the plurality of tracked vehicles 12 in the next processing cycle based on the estimated vehicle speed, thereby estimating the inter-vehicle distance with high accuracy.
  • the inter-vehicle distance estimating unit 35 the speed v11 and speed v13 0, the velocity v12 0 obtained by internally dividing the ratio of the distance from the distance and d12 0 from 0 to d12 0 to d13 0
  • the inter-vehicle distance estimation unit 35 can accurately estimate the positions of the plurality of tracked vehicles 12 in the next processing cycle based on the estimated vehicle speed, thereby estimating the inter-vehicle distance with high accuracy.
  • the vehicle travels on the same lane in the shielding area 14 based on the speed of the vehicle traveling on the same lane in the two non-shielding areas 15 sandwiching the shielding area 14.
  • the inter-vehicle distance estimation device 20 estimates the current speed of the non-observable object 16 based on the current speed of the two observable objects 13 that sandwich the non-observable object 16. Thereby, the inter-vehicle distance estimation device 20 can estimate the speed of the non-observed object 16 with high accuracy, and as a result, the accuracy of the inter-vehicle distance estimation can be improved.
  • the inter-vehicle distance estimation device 20 the travel area 101 where the plurality of tracking vehicles 12 travel is estimated using the map data, and the plurality of non-shielding areas 15 are estimated in the travel area 101. Therefore, since the inter-vehicle distance estimation apparatus 20 can estimate the non-shielding region 15 with high accuracy, the observable object 13 can be efficiently detected.
  • the tracking vehicle 12 is tracked based on the similarity between the attribute information of the observable object 13 and the attribute information of the predicted object. It is determined whether or not the observable object 13 and the predicted object correspond to each other. In particular, by adopting the shape, color, and the like as the attribute information of the tracking vehicle 12, the inter-vehicle distance estimation device 20 enters the non-observed object 16 again even if the tracking vehicle 12 temporarily enters the shielding area 14. In this case, the same tracking vehicle 12 can be tracked with high accuracy.
  • the object matching unit 33 may determine whether or not the observable object 13 and the predicted object correspond to each other using the attitude as the attribute information.
  • the inter-vehicle distance estimation device 20 can track the same tracking vehicle 12 with higher accuracy.
  • the posture of the tracking vehicle 12 can be estimated based on, for example, a portion bent in an L shape in the point cloud data obtained by the sensor 21, a tangential direction of a movement history, a road shape, and the like.
  • the present invention includes various embodiments that are not described here, such as a configuration in which the above-described configurations are mutually applied. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

車間距離推定方法は、障害物によりセンサから遮蔽される遮蔽領域と、遮蔽領域を挟む2つの非遮蔽領域とを推定し、2つの非遮蔽領域の同一車線上をそれぞれ走行する2台の追跡車両の速度に基づいて、遮蔽領域の同一車線上を走行する追跡車両に対する車間距離を推定する。

Description

車間距離推定方法及び車間距離推定装置
 本発明は、車間距離を推定する車間距離推定方法及び車間距離推定装置に関する。
 特許文献1は、追跡目標が複数の遮蔽物に遮蔽される場合において、遮蔽物の動きベクトルと追跡目標の動きベクトルとの差に基づいてそれぞれ算出される推定遮蔽時間が長い遮蔽物を追跡対象として設定する目標追跡装置を開示する。
特開2012-80221号公報
 しかしながら、特許文献1に記載の技術は、追跡目標の速度として、追跡目標が遮蔽された時点の速度を用いるため、追跡目標を含む車列の車間距離の推定に用いる場合、追跡目標の速度が変化すると、車間距離推定の精度が悪化する恐れがある。
 本発明は、上記問題点を鑑み、車間距離推定の精度を向上することができる車間距離推定方法及び車間距離推定装置を提供することを目的とする。
 本発明の一態様に係る車間距離推定方法は、障害物によりセンサから遮蔽される遮蔽領域と、遮蔽領域を挟む2つの非遮蔽領域とを推定し、2つの非遮蔽領域の同一車線上をそれぞれ走行する2台の追跡車両の速度に基づいて、遮蔽領域の同一車線上を走行する追跡車両に対する車間距離を推定する。
 本発明の一態様によれば、車間距離推定の精度を向上することができる車間距離推定装置及び車間距離推定方法を提供することができる。
図1は、本発明の実施の形態に係る車間距離推定装置の基本的な構成を説明する模式的なブロック図である。 図2は、本発明の実施の形態に係る車間距離推定装置を搭載した車両が奥側の車線に合流する場面を説明する図である。 図3Aは、本発明の実施の形態に係る車間距離推定装置による車間距離推定方法の一例を説明するフローチャートである。 図3Bは、本発明の実施の形態に係る車間距離推定装置による車間距離推定方法の一例を説明するフローチャートである。 図4は、複数の追跡車両の属性情報を図示した一例である。 図5は、図4に示す推定値を算出する方法を説明するグラフである。 図6Aは、遮蔽領域の追跡車両が加速する場面を説明する図である。 図6Bは、遮蔽領域の追跡車両が加速する場面を説明する図である。 図7は、複数の追跡車両の速度及び位置を示すグラフである。 図8Aは、遮蔽領域の追跡車両が減速する場面を説明する図である。 図8Bは、遮蔽領域の追跡車両が減速する場面を説明する図である。 図9は、複数の追跡車両の速度及び位置を示すグラフである。
 図面を参照して、本発明の実施の形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。
(車間距離推定装置)
 図1は、本実施の形態に係る車間距離推定装置20の構成を示すブロック図である。車間距離推定装置20は、センサ21と、地図データ記憶部22と、自己位置推定部23と、運動情報取得部24と、出力部25と、処理回路30とを備える。車間距離推定装置20は、例えば、図2に示すように、車両11(自車両)に搭載され、障害物により遮蔽された他車両を含む車列の車間距離を推定する。
 センサ21は、車両11に搭載され、車両11の周囲の物体の位置情報を検出し、処理回路30に出力する。センサ21は、例えば、レーザレンジファインダ(LRF)、ミリ波レーダ、超音波センサ、ステレオカメラ等の測距センサやイメージセンサを採用可能である。センサ21は、複数種類のセンサにより構成されてもよく、周囲の物体の速度、加速度、形状、色等を検出するようにしてもよい。センサ21は、例えば、車両11の周囲の所定の範囲を走査することにより、周辺環境の3次元距離データを取得する。3次元距離データは、センサ21からの相対的な3次元上の位置を示す点群データである。
 地図データ記憶部22は、高精細な地図データを格納する記憶装置である。地図データ記憶部22は、車両11に搭載されてもよく、通信回線を介したサーバ等に設置されてもよい。地図データには、道路や交差点、橋、トンネル等の一般的な地図情報に加えて、各車線の位置及び通行帯区分等の道路構造に関する情報や、道路周辺の地物の位置及び形状等に関する情報が記録され得る。
 自己位置推定部23は、地図データ記憶部22に格納される地図データにおける車両11の自己位置を推定する。自己位置は、車両11の姿勢を含む。自己位置推定部23は、全地球測位システム(GPS)受信機等の測位装置、車両11に搭載された加速度センサ、角速度センサ、舵角センサ及び速度センサ等から取得される情報に基づいて自己位置を推定する。自己位置推定部23は、センサ21から取得される情報から、地図データに記録される地物に対する車両11の相対的な位置を算出することにより、地図データにおける詳細な自己位置を推定してもよい。
 運動情報取得部24は、車両11の速度、加速度、角速度、操舵角等の運動状態を示す運動情報を取得する。運動情報は、車両11に搭載される速度センサ、加速度センサ、角速度センサ、舵角センサ等から取得される。
 出力部25は、処理回路30による演算結果を出力する出力インターフェース(I/F)である。出力部25は、例えば、車両11の駆動を自動的に制御する制御回路に、処理回路30による演算結果を出力する。出力部25が演算結果を出力する出力先は、車両11の乗員に情報を提示する表示装置やスピーカ等であってもよい。
 処理回路30は、物体検出部31と、領域推定部32と、物体照合部33と、認識結果記憶部34と、車間距離推定部35と、物体運動予測部40とを有する。処理回路30は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、その他、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含み得る。処理回路30は、1または複数の処理回路により構成され得る。処理回路30は、車両11に関わる他の制御に用いる電子制御ユニット(ECU)と兼用されてもよい。
 物体検出部31は、センサ21により取得された情報に基づいて、車両11の周囲の可観測物体13を検出する。可観測物体13は、障害物によりセンサ21から遮蔽されず、センサ21を用いて観測可能な物体である。物体検出部31は、センサ21により取得された情報、地図データ記憶部22に格納される地図データ、自己位置推定部23により推定された自己位置及び運動情報取得部24により取得された運動情報に基づいて、可観測物体13の属性情報を取得する。属性情報は、可観測物体13の位置、速度、加速度、姿勢、形状、色、種類を含み得る。なお、可観測物体13の速度及び加速度は、回転方向の情報を含み得る。物体検出部31は、検出した可観測物体13に識別子(ID)を設定し、可観測物体13の属性情報及びIDを可観測物体13の物体情報として決定する。
 領域推定部32は、車両11の周囲において、障害物によりセンサ21から遮蔽される遮蔽領域14と、センサ21から遮蔽されない非遮蔽領域15とを推定する。障害物は、可観測物体13である。領域推定部32は、例えば、センサ21により取得された点群データのうち、地表面から所定高さ範囲の点群データを抽出し、抽出した点群データを結ぶことにより、遮蔽領域14と非遮蔽領域15との境界を決定する。領域推定部32は、決定した境界より奥を遮蔽領域14、手前を非遮蔽領域15として推定する。領域推定部32は、遮蔽領域14を水平方向に挟む領域を2つの非遮蔽領域15として推定する。
 物体照合部33は、物体検出部31により検出された可観測物体13と、物体運動予測部40により予測された予測物体とを照合し、可観測物体13と予測物体とが互いに対応するか否かを判定する。物体照合部33は、可観測物体13の属性情報と、予測物体の属性情報との類似度に基づいて、可観測物体13と予測物体とが互いに対応するか否かを判定する。
 認識結果記憶部34は、自己位置推定部23により推定された自己位置と、運動情報取得部24により取得された運動情報とに基づいて、物体検出部31から取得した物体情報を、地図データ記憶部22に格納される地図データに関連付けて認識結果として記憶する。認識結果記憶部34は、物体検出部31により決定された物体情報を地図データ上にマッピングする。認識結果記憶部34は、物体照合部33の判定結果に応じて、物体検出部31により決定された物体情報を更新する。認識結果記憶部34は、物体照合部33の判定結果に応じて、記憶した物体情報のIDを保持することにより、遮蔽領域14又は非遮蔽領域15を走行する追跡車両12を追跡する。
 認識結果記憶部34は、自己位置推定部23により推定された自己位置と、運動情報取得部24により取得された運動情報とに基づいて、領域推定部32により推定された遮蔽領域14及び非遮蔽領域15を、地図データに記録される同一車線上に設定する。認識結果記憶部34は、同一車線上に設定された遮蔽領域14及び非遮蔽領域15を関連付けて記憶する。認識結果記憶部34は、地図データに基づいて、互いに関連する遮蔽領域14及び非遮蔽領域15が推定された車線上の領域を、追跡対象である追跡車両12が走行する走行領域101として推定する。
 車間距離推定部35は、認識結果記憶部34に記憶された物体情報に基づいて、同一の走行領域101を走行する複数の追跡車両12の車間距離を推定する。車間距離推定部35は、遮蔽領域14を走行する追跡車両12の推定速度に基づいて、複数の追跡車両12の車間距離を推定する。
 物体運動予測部40は、追跡物体群検出部41と、遮蔽判定部42と、速度推定部43と、位置推定部44と、姿勢推定部45とを有する。物体運動予測部40は、可観測物体13の物体情報に基づいて、可観測物体13又は非観測物体16の属性情報を予測する。物体運動予測部40は、予測された可観測物体13又は非観測物体16の属性情報及びIDを、予測物体の物体情報として出力する。
 追跡物体群検出部41は、認識結果記憶部34の認識結果に基づいて、遮蔽領域14及び非遮蔽領域15にわたって存在し、同一の移動方向を有する物体群を複数の追跡車両12として検出する。追跡物体群検出部41は、認識結果記憶部34により推定された走行領域101に存在する物体群を複数の追跡車両12として検出するようにしてもよい。又は、追跡物体群検出部41は、非遮蔽領域15において、既に検出された複数の追跡車両12の走行方向に移動する可観測物体13を、更に追跡車両12として検出するようにしてもよい。
 遮蔽判定部42は、追跡物体群検出部41により検出された物体群の各物体が、他の障害物によりセンサ21から遮蔽されているか否かを判定する。即ち、遮蔽判定部42は、各物体が、遮蔽領域14及び非遮蔽領域15の何れかに存在するかを判定する。遮蔽判定部42により遮蔽されていないと判定された物体は可観測物体13、遮蔽されていると判定された物体は非観測物体16である。
 速度推定部43は、追跡物体群検出部41により検出された複数の追跡車両12の速度を推定する。速度推定部43は、非観測物体16が存在する遮蔽領域14を挟む2つの非遮蔽領域15をそれぞれ移動する2つの可観測物体13の現在の速度に基づいて、遮蔽領域14に存在する非観測物体16の現在の速度を推定する。
 位置推定部44は、速度推定部43により推定された速度及び可観測物体13の属性情報に基づいて、追跡車両12の現在の位置を推定する。
 姿勢推定部45は、速度推定部43により推定された速度及び可観測物体13の属性情報に基づいて、追跡車両12の現在の姿勢を推定する。姿勢推定部45は、地図データに記録される道路の形状に基づいて、追跡車両12の姿勢を推定するようにしてもよい。
(車間距離推定方法)
 以下、図3A乃至図3Bのフローチャートを用いて、車間距離推定装置20による車間距離推定方法の一例を説明する。以下に示す一連の処理は、所定の時刻ごとに繰り返し実行される。図2に示すように、車間距離推定装置20が搭載された車両11が、前方に存在する道路10の奥の車線に合流するために、奥の車線を走行する複数の追跡車両12の車間距離を推定する場面を例として説明する。
 先ず、ステップS10において、センサ21は、追跡対象物(複数の追跡車両12)を含む周辺環境の情報を取得する。図2に示す例において、センサ21は、少なくとも、車両11の前方の物体の位置情報を取得する。
 ステップS11において、物体検出部31は、ステップS10において取得された情報に基づいて、可観測物体13及び可観測物体13の物体情報を検出する。物体検出部31は、地図データ、自己位置及び車両11の運動情報に基づいて、周囲の地物を含む可観測物体13及び可観測物体13の物体情報を検出するようにしてもよい。
 ステップS12において、領域推定部32は、ステップS10において取得された情報に基づいて、障害物によりセンサ21から遮蔽される複数の遮蔽領域14と、センサ21から遮蔽されない複数の非遮蔽領域15とを推定する。
 ステップS13において、物体照合部33は、ステップS11において検出された可観測物体13の物体情報と、物体運動予測部40において予測された予測物体の物体情報とを照合する。なお、ステップS13は、後述のステップS23~S27において取得される予測物体の物体情報が物体照合部33に入力されていることを前提としている。
 ステップS14において、物体照合部33は、可観測物体13の属性情報と、予測物体の属性情報との類似度に基づいて、可観測物体13と予測物体とが互いに対応するか否かを判定する。物体照合部33は、対応すると判定する場合、ステップS15に処理を進め、対応しないと判定する場合、ステップS16に処理を進める。
 ステップS15において、認識結果記憶部34は、可観測物体13の属性情報を用いて現在の物体情報を更新する。即ち、認識結果記憶部34は、既に記憶している可観測物体13の物体情報の属性情報を、現在時刻におけるステップS11において取得された属性情報に置き換え、新たな可観測物体13の物体情報として記憶する。
 ステップS16において、物体照合部33は、予測物体が遮蔽されているか否かを判定する。即ち、物体照合部33は、予測物体の属性情報及び領域推定部32により推定された遮蔽領域14に基づいて、予測物体が遮蔽領域14内に存在するか否かを判定する。物体照合部33は、予測物体が遮蔽されていると判定する場合、ステップS17に処理を進め、遮蔽されていないと判定する場合、ステップS18に処理を進める。
 ステップS17において、認識結果記憶部34は、予測物体の属性情報を用いて、現在の物体情報を更新する。即ち、認識結果記憶部34は、既に記憶している可観測物体13の物体情報の属性情報を、現在時刻において物体照合部33に入力された予測物体の属性情報に置き換え、非観測物体16の物体情報として記憶する。
 ステップS18において、認識結果記憶部34は、現在時刻において物体照合部33に入力された予測物体の物体情報を削除する。即ち、認識結果記憶部34は、既に記憶している可観測物体13の物体情報を変更せず維持する。なお、予測物体の物体情報が入力されていない場合又は可観測物体13の物体情報を以前に記憶していない場合、ステップS18において、認識結果記憶部34は、ステップS11において検出された可観測物体13の物体情報を記憶する。
 ステップS19において、認識結果記憶部34は、ステップS15~ステップS18の何れかにおいて記憶された可観測物体13又は非観測物体16の物体情報を、地図データ上にマッピングする。認識結果記憶部34は、地図データ、自己位置及び車両11の運動情報に基づいて、可観測物体13又は非観測物体16の物体情報を、地図データ上にマッピングする。
 ステップS20において、認識結果記憶部34は、例えば、地図データ、自己位置及び車両11の運動情報に基づいて、ステップS12において推定された複数の遮蔽領域14及び複数の非遮蔽領域15のうち、互いに関連する遮蔽領域14及び非遮蔽領域15を推定する。認識結果記憶部34は、例えば、地図データにおいて、複数の遮蔽領域14及び複数の非遮蔽領域15が推定された車線上の所定範囲の領域に走行領域101を推定する。認識結果記憶部34は、同一の走行領域101に推定された複数の遮蔽領域14及び複数の非遮蔽領域15を、互いに関連する複数の遮蔽領域14及び複数の非遮蔽領域15と推定する。なお、認識結果記憶部34は、地図データを用いず、同一の移動方向を有する複数の物体が検出される領域に基づいて、走行領域101を推定するようにしてもよい。
 ステップS21において、車間距離推定部35は、ステップS20において推定された同一の走行領域101を走行する複数の追跡車両12の互いの間の車間距離を推定する。走行領域101を走行する複数の追跡車両12は、複数の可観測物体13及び複数の非観測物体16から構成される。即ち、車間距離推定部35は、認識結果記憶部34により推定された走行領域101に存在する複数の可観測物体13及び複数の非観測物体16の物体情報に基づいて、複数の追跡車両12の車間距離を推定する。
 ステップS22において、処理回路30は、ステップS21において推定された複数の追跡車両12の車間距離を出力部25に出力する。また、処理回路30は、認識結果記憶部34により記憶される複数の可観測物体13及び複数の非観測物体16の物体情報、複数の遮蔽領域14及び複数の非遮蔽領域15の情報も出力部25に出力する。
 ステップS23において、追跡物体群検出部41は、ステップS20において推定された関連する複数の遮蔽領域14及び複数の非遮蔽領域15に存在する可観測物体13及び非観測物体16のうち、同一の移動方向を有する物体群を、複数の追跡車両12として検出する。追跡物体群検出部41は、単に、関連する複数の遮蔽領域14及び複数の非遮蔽領域15に存在する物体群を複数の追跡車両12として検出するようにしてもよい。
 ステップS24において、遮蔽判定部42は、ステップS23において検出された物体群の各物体情報に基づいて、物体群の各物体が、障害物によりセンサ21から遮蔽されているか否かを判定する。例えば、遮蔽判定部42は、属性情報に含まれる遮蔽の有無を示す情報を参照することにより、各物体が、遮蔽されているか否かを判定する。この場合、ステップS16において、物体照合部33は、予測物体が遮蔽されているか否かを判定し、判定結果を属性情報に付加すればよい。遮蔽されていない物体は可観測物体13であり、遮蔽されていない物体は非観測物体16である。
 ステップS25において、速度推定部43は、ステップS24において遮蔽されていると判定された非観測物体16の速度を、遮蔽されていると判定された可観測物体13の属性情報に基づいて推定する。具体的は、速度推定部43は、1つの遮蔽領域14を走行する1又は複数の追跡車両12である非観測物体16の速度を、この遮蔽領域14を挟む2つの非遮蔽領域15をそれぞれ走行する2台の追跡車両12である可観測物体13の速度に基づいて推定する。
 例えば、図2に示すように、複数の遮蔽領域14及び複数の非遮蔽領域15を走行する追跡車両12の物体情報において、1~6のIDが設定される場合において、非観測物体16の速度を推定する方法を具体的に説明する。図2に示す例において、ID=1,4,6の追跡車両12が可観測物体13であり、ID=2,3,5の追跡車両12が非観測物体16である。
 図4は、ある1時刻における、ID=1~6の追跡車両12それぞれの遮蔽の有無、位置及び速度を示す表である。各追跡車両12の位置は、例えば、検出範囲の最後尾であるID=6の追跡車両12の位置を基準とした相対的な位置である。ID=2,3,5の追跡車両12の位置は、前の時刻において推定された速度から推定されたものである。なお、括弧内の数値は、推定値であることを意味する。
 図5は、図4に示す各可観測物体13の属性情報から各非観測物体16の速度を推定する方法を説明するグラフである。ID=1,4,5の追跡車両12である可観測物体13の位置は、それぞれ、90m、30m、0mである。ID=2,3,5の追跡車両12である非観測物体16の、前の時刻において推定された位置を、それぞれ、70m、40m、20mとする。ID=1~4の追跡車両12の互いの間の車間距離の比は、2:3:1である(図5の大括弧参照)。ID=4~6の追跡車両12の互いの間の車間距離の比は、1:2である(図5の山括弧参照)。
 速度推定部43は、非観測物体16を挟む2つの可観測物体13の速度を、前の時刻において推定された非観測物体16の位置を用いた各物体間の距離の比で内分した値を非観測物体16の速度として推定する。ID=1,4の可観測物体13の各速度は、40km/h、50km/hである。この2つの速度を各物体間の距離の比で内分することにより、ID=2,3の非観測物体16の推定速度が算出される。
 ID=2の非観測物体16の速度をv2、ID=3の非観測物体16の速度をv3、ID=5の非観測物体16の速度をv5とすると、v2、v3及びv5は、式(1)~(3)のように表される。
     v2=40+10×(2/6)=43.4     …(1)
     v3=40+10×(5/6)=48.3     …(2)
     v5=35+10×(2/3)=45       …(3)
 ステップS26において、位置推定部44は、ステップS25において推定された速度及び可観測物体13の属性情報に基づいて、非観測物体16の現在の位置を推定する。
 具体的には、現在の位置は、前回サイクルで推定された各車速とサイクル時間から各車間距離の変化量を算出することで求めることができる。例えば、前回サイクルからの処理時間が100msであった場合、ID=1,2の車間距離は、20m(図5中の位置90m-70m)から、上記v1=40km/hとv2=43.4km/hの車速差から、9.4cmだけ車間が広がることとなる。このように処理サイクル毎に演算してゆくことで、遮蔽領域内の車両との車間距離を正確に推定することができる。
 ステップS27において、姿勢推定部45は、ステップS25において推定された速度及び可観測物体13の属性情報に基づいて、非観測物体16の現在の姿勢を推定する。
(動作例)
 図6A及び図6Bは、時刻t=0で、ID=11,12,13が同じ速度で走行している状態から、2つの可観測物体13(ID=11,13)に挟まれた1つの非観測物体16(ID=12)が、時刻t=0から時刻t=Tにかけて加速する場面を説明する図である。ID=11の追跡車両12に対して、ID=13の追跡車両12の相対速度が増加したと観測された場合、非観測物体16であるID=12の追跡車両12が、時刻t=0から時刻t=Tにかけて加速したと推定することができる。結果として、ID=11~13の3台の追跡車両12の車間距離は、それぞれ狭くなると推定される。
 時刻t=0から時刻t=Tまでの車速、車間距離は、上記S25、S26にて、処理サイクル毎に演算されて更新されていくので、2つの可観測物体13(ID=11,13)の車速変化から非観測物体16(ID=12)の車間距離が正確に推定することができる。
 図7に示すように、時刻t=0における、ID=11の追跡車両の速度はv11である。時刻t=0における、ID=13の追跡車両12の位置はd13、速度はv13である。なお、各追跡車両12の位置は、ID=11の追跡車両12の位置を基準とした相対位置である。前の時刻において推定されたID=12の追跡車両12の位置をd12とする。この場合、車間距離推定部35は、速度v11と速度v13とを、0からd12までの距離とd12からd13までの距離との比で内分した速度v12を、時刻t=0における非観測物体16の推定速度として算出する。図7では、時刻t=0において、ID=11、13の追跡車両12は、同じ速度で観測され、ID=12の追跡車両12も同じ速度と推定された場合を示している。
 次に、時刻t=Tにおいて、ID=11とID=13の追跡車両12が観測された結果、ID=13の追跡車両12の位置をd13、速度をv13、時刻t=Tの前の時刻のID=12の追跡車両12の速度、位置から推定されたID=12の追跡車両12の位置をd12とする。上述のように、時刻t=0から時刻t=Tまでの車速、車間距離は、上記S25、S26にて、処理サイクル毎に演算されて更新されている。
 この場合、車間距離推定部35は、速度v11と速度v13とを、0からd12までの距離とd12からd13までの距離との比で内分した速度v12を、時刻t=Tにおける非観測物体16の推定速度として算出する。
 以上のように、可観測物体13であるID=13の追跡車両12の加速に応じて、非観測物体16であるID=12の追跡車両12の速度を推定することにより、非観測物体16の速度の推定精度を向上することができる。結果として、車間距離推定部35は、推定された車速に基づいて、次の処理サイクルの複数の追跡車両12の位置が精度良く推定され、それによって、車間距離を精度良く推定することができる。
 図8A及び図8Bは、2つの可観測物体13(ID=11,13)に挟まれた1つの非観測物体16(ID=12)が、時刻t=0から時刻t=Tにかけて減速する場面を説明する図である。ID=11の追跡車両11に対して、ID=13の追跡車両13の相対速度が減少したと観測された場合、非観測物体16であるID=12の追跡車両12が、時刻t=0から時刻t=Tにかけて減速したと推定することができる。結果として、ID=11~13の3台の追跡車両12の車間距離は、それぞれ広くなっていると推定される。
 図9に示すように、車間距離推定部35は、速度v11と速度v13とを、0からd12までの距離とd12からd13までの距離との比で内分した速度v12を、時刻t=0における非観測物体16の推定速度として算出する。図9では、時刻t=0において、ID=11、13の追跡車両12は、同じ速度で観測され、ID=12の追跡車両12も同じ速度と推定された場合を示している。同様に、車間距離推定部35は、速度v11と速度v13とを、0からd12までの距離とd12からd13までの距離との比で内分した速度v12を、時刻t=Tにおける非観測物体16の推定速度として算出する。
 以上のように、可観測物体13であるID=13の追跡車両12の減速に応じて、非観測物体16であるID=12の追跡車両12の速度を推定することにより、非観測物体16の速度の推定精度を向上することができる。結果として、車間距離推定部35は、推定された車速に基づいて、次の処理サイクルの複数の追跡車両12の位置が精度良く推定され、それによって、車間距離を精度良く推定することができる。
 本実施の形態に係る車間距離推定装置20によれば、遮蔽領域14を挟む2つの非遮蔽領域15の同一車線上をそれぞれ走行する車両の速度に基づいて、遮蔽領域14の同一車線上を走行する車両に対する車間距離を推定する。即ち、車間距離推定装置20は、非観測物体16を挟む2つの可観測物体13の現在の速度に基づいて、非観測物体16に対する現在の車間距離を推定する。これにより、車間距離推定装置20は、非観測物体16の車間距離を精度良く推定することができる。
 また、車間距離推定装置20によれば、遮蔽領域14の同一車線上を走行する車両の速度を推定する。即ち、車間距離推定装置20は、非観測物体16を挟む2つの可観測物体13の現在の速度に基づいて、非観測物体16の現在の速度を推定する。これにより、車間距離推定装置20は、非観測物体16の速度を精度良く推定することができ、結果として、車間距離推定の精度を向上することができる。
 また、車間距離推定装置20によれば、地図データを用いて、複数の追跡車両12が走行する走行領域101を推定し、走行領域101において複数の非遮蔽領域15を推定する。これにより、車間距離推定装置20は、非遮蔽領域15を精度良く推定することができるため、効率的に可観測物体13を検出することができる。
 また、車間距離推定装置20によれば、可観測物体13の属性情報と、予測物体の属性情報との類似度に基づいて、追跡車両12を追跡する。可観測物体13と予測物体とが互いに対応するか否かを判定する。特に、追跡車両12の属性情報として、形状、色等を採用することにより、車間距離推定装置20は、追跡車両12が一時的に遮蔽領域14に進入したとしても、再度非観測物体16に進入した場合、精度良く同一の追跡車両12を追跡することができる。
(その他の実施の形態)
 上記のように、本発明を上記の実施の形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
 例えば、既に述べた実施の形態において、物体照合部33は、属性情報として姿勢を用いて、可観測物体13と予測物体とが互いに対応するか否かを判定するようにしてもよい。これにより、車間距離推定装置20は、更に精度良く同一の追跡車両12を追跡することができる。なお、追跡車両12の姿勢は、例えば、センサ21による点群データのうちL字状に屈曲する箇所、移動履歴の接線方向、道路の形状等に基づいて推定され得る。
 その他、上記の各構成を相互に応用した構成等、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
 11 車両
 12 追跡車両
 14 遮蔽領域
 15 非遮蔽領域
 20 車間距離推定装置
 21 センサ
 30 処理回路
 101 走行領域

Claims (5)

  1.  車両の周囲の物体の位置情報を検出するセンサと、前記位置情報に基づいて検出される複数の追跡車両の車間距離を推定する処理回路とを用いた車間距離推定方法であって、
     前記処理回路は、障害物により前記センサから遮蔽される遮蔽領域と、前記遮蔽領域を挟む2つの非遮蔽領域とを推定し、
     前記2つの非遮蔽領域の同一車線上をそれぞれ走行する2台の前記追跡車両の速度に基づいて、前記遮蔽領域の前記同一車線上を走行する前記追跡車両に対する車間距離を推定することを特徴とする車間距離推定方法。
  2.  前記遮蔽領域の同一車線上を走行する前記追跡車両の速度を推定し、
     推定した前記追跡車両の速度に基づいて、前記車間距離を推定することを特徴とする請求項1に記載の車間距離推定方法。
  3.  前記処理回路は、前記複数の追跡車両が走行する走行領域を地図データにおいて推定し、前記走行領域において前記2つの非遮蔽領域を推定することを特徴とする請求項1又は2に記載の車間距離推定方法。
  4.  前記センサは、前記追跡車両の形状及び色の少なくとも何れかを検出し、
     前記処理回路は、前記追跡車両の形状及び色の少なくとも何れかに基づいて、前記追跡車両を追跡することを特徴とする請求項1乃至3の何れか1項に記載の車間距離推定方法。
  5.  車両の周囲の物体の位置情報を検出するセンサと、前記位置情報に基づいて検出される複数の追跡車両の車間距離を推定する処理回路とを備える車間距離推定装置であって、
     前記処理回路は、障害物により前記センサから遮蔽される遮蔽領域と、前記遮蔽領域を挟む2つの非遮蔽領域とを推定し、
     前記2つの非遮蔽領域をそれぞれ走行する2台の前記追跡車両の速度に基づいて、前記遮蔽領域を走行する前記追跡車両の速度を推定し、
     推定した前記追跡車両の速度に基づいて、前記複数の追跡車両の車間距離を推定することを特徴とする車間距離推定装置。
PCT/JP2016/067609 2016-06-14 2016-06-14 車間距離推定方法及び車間距離推定装置 WO2017216856A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
CA3027328A CA3027328A1 (en) 2016-06-14 2016-06-14 Inter-vehicle distance estimation method and inter-vehicle distance estimation device
US16/307,278 US10501077B2 (en) 2016-06-14 2016-06-14 Inter-vehicle distance estimation method and inter-vehicle distance estimation device
RU2018146911A RU2693015C1 (ru) 2016-06-14 2016-06-14 Способ оценки расстояния между транспортными средствами и устройство оценки расстояния между транспортными средствами
PCT/JP2016/067609 WO2017216856A1 (ja) 2016-06-14 2016-06-14 車間距離推定方法及び車間距離推定装置
KR1020187035096A KR101980509B1 (ko) 2016-06-14 2016-06-14 차간 거리 추정 방법 및 차간 거리 추정 장치
CN201680086753.6A CN109314763B (zh) 2016-06-14 2016-06-14 车间距离推定方法及车间距离推定装置
BR112018075863-9A BR112018075863A2 (pt) 2016-06-14 2016-06-14 método de estimativa de distância entre veículos e dispositivo de estimativa de distância entre veículos
EP16905411.1A EP3471408B1 (en) 2016-06-14 2016-06-14 Inter-vehicle distance estimation method and inter-vehicle distance estimation device
MX2018014953A MX368800B (es) 2016-06-14 2016-06-14 Método de estimación de distancia entre vehículos y dispositivo de estimación de distancia entre vehículos.
JP2018523063A JP6699728B2 (ja) 2016-06-14 2016-06-14 車間距離推定方法及び車間距離推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/067609 WO2017216856A1 (ja) 2016-06-14 2016-06-14 車間距離推定方法及び車間距離推定装置

Publications (1)

Publication Number Publication Date
WO2017216856A1 true WO2017216856A1 (ja) 2017-12-21

Family

ID=60664511

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/067609 WO2017216856A1 (ja) 2016-06-14 2016-06-14 車間距離推定方法及び車間距離推定装置

Country Status (10)

Country Link
US (1) US10501077B2 (ja)
EP (1) EP3471408B1 (ja)
JP (1) JP6699728B2 (ja)
KR (1) KR101980509B1 (ja)
CN (1) CN109314763B (ja)
BR (1) BR112018075863A2 (ja)
CA (1) CA3027328A1 (ja)
MX (1) MX368800B (ja)
RU (1) RU2693015C1 (ja)
WO (1) WO2017216856A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113613166A (zh) * 2021-07-30 2021-11-05 安标国家矿用产品安全标志中心有限公司 井下带状定位目标的定位方法、装置及服务器

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112650243B (zh) * 2020-12-22 2023-10-10 北京百度网讯科技有限公司 车辆控制方法、装置、电子设备和自动驾驶车辆
CN117689907B (zh) * 2024-02-04 2024-04-30 福瑞泰克智能系统有限公司 车辆跟踪方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334631A (ja) * 2006-06-15 2007-12-27 Sony Corp 画像監視システムおよび物体領域追跡方法
JP2010072836A (ja) * 2008-09-17 2010-04-02 Toyota Motor Corp 周辺監視装置
JP2012191354A (ja) * 2011-03-09 2012-10-04 Canon Inc 情報処理装置、情報処理方法及びプログラム
JP2014203349A (ja) * 2013-04-08 2014-10-27 スズキ株式会社 車両運転支援装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4200572B2 (ja) * 1999-01-18 2008-12-24 株式会社エクォス・リサーチ 渋滞検出装置
JP2000222669A (ja) * 1999-01-28 2000-08-11 Mitsubishi Electric Corp 交通流推定装置および交通流推定方法
JP4453217B2 (ja) * 2001-04-11 2010-04-21 日産自動車株式会社 車間距離制御装置
JP2003346282A (ja) * 2002-05-29 2003-12-05 Toshiba Corp 道路監視システム及び道路監視方法
JP3979382B2 (ja) * 2003-12-03 2007-09-19 日産自動車株式会社 車線逸脱防止装置
AT502315B1 (de) * 2004-01-19 2007-10-15 Siemens Ag Oesterreich Mobiles, kameragestütztes abstands- und geschwindigkeitsmessgerät
JP2005284678A (ja) * 2004-03-29 2005-10-13 Mitsubishi Heavy Ind Ltd 交通流計測装置
ATE483220T1 (de) * 2006-11-15 2010-10-15 Aitek S P A Verfahren und vorrichtung zum bestimmen des abstands zwischen zwei auf einer strasse oder einem autobahnabschnitt fahrenden fahrzeugen insbesondere in einem tunnel
JP5233432B2 (ja) 2008-06-16 2013-07-10 アイシン・エィ・ダブリュ株式会社 運転支援システム、運転支援方法及び運転支援プログラム
JP5212753B2 (ja) * 2008-12-22 2013-06-19 トヨタ自動車株式会社 レーダ装置、及び当該レーダ装置において用いられる測定方法
SI2306428T1 (sl) * 2009-10-01 2012-03-30 Kapsch Trafficcom Ag Naprava in postopek za določanje smeri hitrostiin ali razmaka vozil
US20110082620A1 (en) * 2009-10-05 2011-04-07 Tesla Motors, Inc. Adaptive Vehicle User Interface
JP5312367B2 (ja) 2010-02-12 2013-10-09 村田機械株式会社 走行台車システム
JP5218861B2 (ja) 2010-09-30 2013-06-26 株式会社Jvcケンウッド 目標追跡装置、目標追跡方法
JP2012192878A (ja) * 2011-03-17 2012-10-11 Toyota Motor Corp 危険度判定装置
KR101838710B1 (ko) * 2011-06-20 2018-04-26 현대모비스 주식회사 선진 안전 차량에서 스쿨 존 안전 장치 및 그 방법
JP5922947B2 (ja) 2012-02-22 2016-05-24 富士重工業株式会社 車外環境認識装置および車外環境認識方法
MY155816A (en) * 2012-07-27 2015-12-02 Nissan Motor Three-dimensional object detection device, and three-dimensional object detection method
US9988047B2 (en) * 2013-12-12 2018-06-05 Magna Electronics Inc. Vehicle control system with traffic driving control
CN103985252A (zh) * 2014-05-23 2014-08-13 江苏友上科技实业有限公司 一种基于跟踪目标时域信息的多车辆投影定位方法
JP6304384B2 (ja) * 2014-08-11 2018-04-04 日産自動車株式会社 車両の走行制御装置及び方法
US9558659B1 (en) * 2014-08-29 2017-01-31 Google Inc. Determining the stationary state of detected vehicles
JP6447481B2 (ja) * 2015-04-03 2019-01-09 株式会社デンソー 起動提案装置及び起動提案方法
JP6558733B2 (ja) * 2015-04-21 2019-08-14 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
US10431094B2 (en) * 2016-05-30 2019-10-01 Nissan Motor Co., Ltd. Object detection method and object detection apparatus
WO2018002984A1 (ja) * 2016-06-27 2018-01-04 日産自動車株式会社 車両制御方法及び車両制御装置
US10821976B2 (en) * 2017-01-30 2020-11-03 Telenav, Inc. Navigation system with dynamic speed setting mechanism and method of operation thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334631A (ja) * 2006-06-15 2007-12-27 Sony Corp 画像監視システムおよび物体領域追跡方法
JP2010072836A (ja) * 2008-09-17 2010-04-02 Toyota Motor Corp 周辺監視装置
JP2012191354A (ja) * 2011-03-09 2012-10-04 Canon Inc 情報処理装置、情報処理方法及びプログラム
JP2014203349A (ja) * 2013-04-08 2014-10-27 スズキ株式会社 車両運転支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3471408A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113613166A (zh) * 2021-07-30 2021-11-05 安标国家矿用产品安全标志中心有限公司 井下带状定位目标的定位方法、装置及服务器
CN113613166B (zh) * 2021-07-30 2023-04-18 安标国家矿用产品安全标志中心有限公司 井下带状定位目标的定位方法、装置及服务器

Also Published As

Publication number Publication date
EP3471408B1 (en) 2021-04-21
US10501077B2 (en) 2019-12-10
CN109314763B (zh) 2021-01-05
BR112018075863A2 (pt) 2019-03-19
JPWO2017216856A1 (ja) 2019-06-13
KR20190005189A (ko) 2019-01-15
CA3027328A1 (en) 2017-12-21
MX2018014953A (es) 2019-04-25
US20190276021A1 (en) 2019-09-12
EP3471408A4 (en) 2019-08-21
RU2693015C1 (ru) 2019-07-01
JP6699728B2 (ja) 2020-05-27
MX368800B (es) 2019-10-17
EP3471408A1 (en) 2019-04-17
KR101980509B1 (ko) 2019-05-20
CN109314763A (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
US10019017B2 (en) Autonomous driving system
JP6566132B2 (ja) 物体検出方法及び物体検出装置
US10493984B2 (en) Vehicle control method and vehicle control device
CN108688660B (zh) 运行范围确定装置
US20190072674A1 (en) Host vehicle position estimation device
US11847838B2 (en) Recognition device
CN103608217B (zh) 用于求取车辆与位于车辆侧面的对象之间的相对位置的方法
US20240199006A1 (en) Systems and Methods for Selectively Decelerating a Vehicle
WO2017216856A1 (ja) 車間距離推定方法及び車間距離推定装置
CN114987529A (zh) 地图生成装置
US20220120568A1 (en) Electronic device for vehicle, and method of operating electronic device for vehicle
JP2020051943A (ja) 車両用ステレオカメラ装置
US12025752B2 (en) Systems and methods for detecting erroneous LIDAR data
CN115050203B (zh) 地图生成装置以及车辆位置识别装置
WO2021145032A1 (ja) 周辺車両位置推定システム、周辺車両位置推定プログラム
US20230417885A1 (en) Systems and methods for detecting erroneous lidar data
JP2022129177A (ja) 運転支援方法及び運転支援装置
JP2022121835A (ja) 距離算出装置および車両位置推定装置
JP2022123988A (ja) 区画線認識装置
CN114987530A (zh) 地图生成装置
CN115107798A (zh) 车辆位置识别装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018523063

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20187035096

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16905411

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3027328

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112018075863

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2016905411

Country of ref document: EP

Effective date: 20190114

ENP Entry into the national phase

Ref document number: 112018075863

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20181213