WO2022254788A1 - 後方白線推定装置、物標認識装置並びに方法 - Google Patents

後方白線推定装置、物標認識装置並びに方法 Download PDF

Info

Publication number
WO2022254788A1
WO2022254788A1 PCT/JP2022/004439 JP2022004439W WO2022254788A1 WO 2022254788 A1 WO2022254788 A1 WO 2022254788A1 JP 2022004439 W JP2022004439 W JP 2022004439W WO 2022254788 A1 WO2022254788 A1 WO 2022254788A1
Authority
WO
WIPO (PCT)
Prior art keywords
white line
vehicle
azimuth
unit
estimating
Prior art date
Application number
PCT/JP2022/004439
Other languages
English (en)
French (fr)
Inventor
仁 早川
健人 鍵本
Original Assignee
日立Astemo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立Astemo株式会社 filed Critical 日立Astemo株式会社
Priority to US18/566,585 priority Critical patent/US20240282123A1/en
Priority to JP2023525374A priority patent/JPWO2022254788A1/ja
Publication of WO2022254788A1 publication Critical patent/WO2022254788A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to a rear white line estimation device, a target recognition device, and a method for grasping and recognizing the position of a target behind a vehicle in relation to the rear white line.
  • the vehicle In the operation of the vehicle, it is necessary to ensure the safety behind the vehicle, and it is necessary to detect the vehicle as a target with a radar device and confirm its position.
  • a radar device For example, when the own vehicle is traveling on a road having a plurality of lanes, it may be difficult for the radar device to determine which lane the following vehicle is traveling. For example, on a curved road that turns to the left, a following vehicle running in a lane on the right side of the vehicle may be positioned directly behind the vehicle. It becomes impossible to determine the lane in which the vehicle is traveling.
  • Patent Document 1 is known as a driving support device that recognizes a following vehicle with a radar device and enables determination of the lane in which the following vehicle is traveling in order to enable lane determination.
  • the driving support device described in Patent Document 1 is "a plurality of images indicating the relative positions of the vehicle and the lane detected from a plurality of images continuously captured by an imaging device during a predetermined data acquisition period from the present to the past. Based on a lane information group consisting of lane information and a travel trajectory of the own vehicle during the data acquisition period calculated based on the detection results of the vehicle speed sensor and the yaw rate sensor during the data acquisition period, A lane shape is calculated in a section from the position of the vehicle to the rear by a predetermined distance.
  • Patent Document 1 the detection results of the vehicle speed sensor and the yaw rate sensor are used to calculate the lane shape in the section from the current position of the vehicle to the rear by a predetermined distance. It is also known that the same thing can be done by using GNSS.
  • ADAS Advanced Drive Assistance System
  • vehicles equipped with ADAS are generally equipped with a sensor that detects the front white line, but they do not have a sensor that detects the rear white line. It becomes necessary to do
  • map-dependent GNSS cannot be used in tunnels, built-up areas, etc., and yaw rate integration has an accumulated error, which increases when changing lanes.
  • white line estimation device a white line estimation device that detects the white line ahead of the vehicle, and a white line direction generation unit that calculates the direction of the vehicle relative to the white line at each predetermined time based on the detection result of the white line detection unit.
  • a relative direction estimation unit for estimating the direction relative to the direction of the vehicle at a certain point based on the direction of the vehicle obtained by the direction generation unit for the white line.
  • a white line detection unit for detecting a white line in front of the vehicle;
  • a relative azimuth estimating unit that estimates the relative azimuth from the azimuth of the own vehicle at a certain point based on the azimuth of the own vehicle obtained by the white line azimuth generation unit, and an object that detects a target behind the own vehicle.
  • a marker detection unit a movement distance estimation unit for estimating the movement distance of the host vehicle, a relative bearing at each predetermined time estimated by the relative orientation estimation unit, and a movement at each predetermined time estimated by the movement distance estimation unit an own vehicle trajectory estimating unit for estimating the trajectory of the own vehicle relative to the white line based on the distance; based on the position of the white line outside the detection range estimated by the white line position estimation unit, the position of the white line outside the detection range estimated by the white line position estimation unit, and the position of the target detected by the target detection unit. and a target position identification unit that identifies the positional relationship between the target and the white line outside the detection range.”
  • a method for estimating a white line behind the vehicle using a computer which detects a white line in front of the vehicle, obtains the direction of the vehicle with respect to the white line at each predetermined time based on the detection result of the white line
  • a backward white line estimation method characterized by estimating a relative direction from the direction of the own vehicle at a certain point based on the direction of the own vehicle.
  • a method for estimating a white line behind the vehicle using a computer which detects a white line in front of the vehicle, obtains the direction of the vehicle with respect to the white line at predetermined time intervals based on the result of detection of the white line, and calculates the direction of the vehicle.
  • the azimuth relative to the azimuth of the own vehicle at a certain point is estimated, the target behind the own vehicle is detected, the distance traveled by the own vehicle is estimated, and each estimated predetermined time based on the relative azimuth and the estimated moving distance at each predetermined time, the trajectory of movement of the own vehicle relative to the white line is estimated, and based on the detection result of the white line detected in the past and the trajectory of movement , the position of the white line outside the detection range of the current white line detection is estimated, and based on the estimated position of the white line outside the detection range and the position of the detected target, the white line and the object outside the detection range are detected.
  • a target object recognition method characterized by identifying a positional relationship with a target”.
  • FIG. 4 is a flowchart showing the processing contents of a trajectory point sequence derivation unit 30; FIG. The figure which shows the characteristic in each direction detection method.
  • FIG. 4 is a flow chart showing the details of processing in an object position identification unit 40; The flowchart which shows the processing content of the backward white line estimation shown in Example 2.
  • FIG. 4 is a flowchart showing the processing contents of a trajectory point sequence derivation unit 30; FIG. The figure which shows the characteristic in each direction detection method.
  • FIG. 4 is a flow chart showing the details of processing in an object position identification unit 40; The flowchart which shows the processing content of the backward white line estimation shown in Example 2.
  • FIG. 4 is a flowchart showing the processing contents of a trajectory point sequence derivation unit 30; FIG. The figure which shows the characteristic in each direction detection method.
  • FIG. 4 is a flow chart showing the details of processing in an object position identification unit 40; The flowchart which shows the processing content of the backward white line estimation shown in Example 2.
  • FIG. 1 is a diagram showing an example of the overall configuration of a target object recognition device according to the present invention.
  • the target object recognition device 10 of FIG. 1 obtains outputs from a plurality of sensors S, and finally outputs the object position and its associated lane.
  • These sensors S and their outputs are latitude, longitude and positioning status from GNSS (S1), vehicle speed from speed sensor S2, yaw rate from yaw rate sensor S3, front white line from front camera S4. , which is the object (target) position from the rear radar.
  • These sensor inputs are time-series information sampled at regular intervals, and each data includes time information at the time of sampling. It should be noted that the amount of data may be saved by representing the time information by treating the transmission timing by the sensor as time. Also, the amount of data may be saved by performing sensor input only when an object to be detected by the sensor is detected.
  • the target object recognition device 10 is a part of the function of a driving support device installed in a vehicle capable of automatic driving, and is a function of outputting lane change propriety information of the driving support device.
  • the target object recognition device 10 also includes a control unit configured by a computer in which a CPU, a ROM, a RAM, an input/output device, etc. are connected to a bus. to control.
  • the processing functions of the target object recognition device 10 in FIG. is composed of a trajectory point sequence derivation unit 30 that obtains a point sequence and an object position identification unit 40 that obtains the object position behind the vehicle and the lane to which it belongs.
  • a trajectory point sequence derivation unit 30 that obtains a vehicle movement trajectory as a trajectory point sequence obtains distance information and azimuth information from the output of the distance/azimuth conversion unit 20 .
  • the distance information can be obtained from the latitude, longitude and positioning status from the GNSS (S1) and the vehicle speed information from the speed sensor S2, and the direction information can be obtained from the latitude and longitude from the GNSS (S1). Also, it can be obtained from the positioning state, the yaw rate from the yaw rate sensor S3, and the point sequence group of the forward white line from the front camera S4.
  • the latitude, longitude and positioning state from the GNSS (S1) are accumulated in the accumulation unit 21a, and the GNSS distance information 21b, the GNSS orientation accuracy estimation information 21c, and the GNSS orientation information 21d is extracted.
  • the GNSS distance information 21b is provided to the movement distance estimation unit 31 of the trajectory point sequence derivation unit 30, and the GNSS orientation accuracy estimation information 21c and GNSS orientation information 21d are provided to the orientation selection unit 32 of the trajectory point sequence derivation unit 30.
  • the cumulative distance information 22b obtained by integrating the vehicle speed from the speed sensor S2 is given to the movement distance estimation unit 31 of the locus point sequence derivation unit 30.
  • the yaw rate from the yaw rate sensor S3 is integrated to obtain cumulative azimuth information 23d, and the azimuth accuracy is estimated to obtain azimuth accuracy estimation information 23c.
  • the azimuth accuracy is high when the distance is short and the displacement is small, but the accuracy decreases when the distance is long and the displacement is large.
  • These cumulative direction information 23 d and direction accuracy estimation information 23 c are given to the direction selection section 32 of the trajectory point sequence derivation section 30 .
  • the distance/azimuth conversion unit 20 newly generates the direction-to-white-line direction generation information 24d from the point sequence group of the front white line from the front camera S4, and estimates the direction accuracy at this time to estimate the direction accuracy estimation information. 24c, and the white line history is held in the white line history holding unit 24e.
  • the white line direction generation information 24 d and the direction accuracy estimation information 23 c are given to the direction selection section 32 of the trajectory point sequence derivation section 30 .
  • the azimuth accuracy in this case is high when the change in the white line is small, but the accuracy decreases when the change in the white line is large.
  • a method of calculating the direction-to-white line generation information 24d will be described in detail in a second embodiment.
  • the trajectory point sequence deriving unit 30 estimates the moving distance from the GNSS distance information 21b included in the GNSS information in the moving distance estimating unit 31 and the cumulative distance information 22b obtained by integrating the vehicle speed.
  • the idea of moving distance estimation is to use the difference in GNSS position if GNSS is in better conditions, and use GNSS when the positioning state deteriorates due to obstacles such as terrain, tunnels and buildings, radio wave conditions, etc. is inappropriate, it is preferable to estimate and output the cumulative distance information 22b obtained by time-integrating the vehicle speed as the distance.
  • the trajectory point sequence derivation unit 30 preferably selects and outputs one of the GNSS, yaw, and forward white line point sequence groups selected by the azimuth selection unit 32 .
  • the information (21c, 23c, 24c) of each azimuth accuracy obtained accompanying each point sequence group of GNSS, yaw, and forward white line serves as a criterion for selection.
  • FIG. 2 shows a flow showing the processing contents of the trajectory point sequence derivation unit 30.
  • FIG. This flow is repeatedly executed for each predetermined control cycle as shown in processing step St0.
  • Azimuth accuracy information (21c, 23c, 24c) is input.
  • the condition that the GNSS is good and the speed is high, or the condition that the GNSS is good and the change in the cumulative heading 23d is small is determined. 21d is selected as orientation information.
  • processing step St4 If the condition is not satisfied (no) in the judgment of processing step St2, the judgment of processing step St4 or processing step St5 is performed.
  • the processing step St4 when the accumulated direction 23d changes a lot and the direction information 24d based on the point sequence group of the forward white line can be used, the direction to the white line 24d is selected as the direction information in the processing step St6.
  • the direction 23d based on the yaw rate is selected as the direction information in the processing step St7. do.
  • processing step st8 If none of the determinations in processing steps St2, St4, and St5 match (no), in processing step st8, for the time being, it is preferable to maintain the selection result in the previous control cycle as a second best measure. .
  • Various conditions for the above determination may be directly detected, or information (21c, 23c, 24c) of each bearing accuracy may be used.
  • the result of selection of the azimuth information is passed to the vehicle trajectory estimating section 33, which is the next processing section, together with the distance information from the moving distance estimating section 31. After this selection, the process returns to the processing step St0, and waits until activation is started in the next control cycle.
  • the selection shown in Fig. 2 reflects the characteristics of each azimuth detection method as shown in Fig. 3.
  • the vertical axis indicates the direction estimation method using GNSS, yaw, and a point sequence group of forward white lines.
  • the conditions for accuracy are listed.
  • GNSS is unsuitable for use in tunnels and built-up areas, and the conditions under which highly accurate detection is possible are when driving at high speeds and when positioning is good.
  • the yaw rate can be used at any time because there are no situations in which it cannot be used, but the high-precision conditions are when the distance is small and the displacement is small. Conversely, this means that when the distance or the displacement is large, the accuracy is lowered and it becomes unsuitable for use.
  • the direction based on the point sequence group of the forward white line cannot be used in an environment where there is no white line, and can be highly accurate when the change in the white line is small.
  • the own vehicle trajectory estimation unit 33 in the trajectory point sequence derivation unit 30 performs processing at, for example, a 50 ms interval control cycle (hereinafter sometimes referred to as a frame) using distance information and displacement information.
  • a 50 ms interval control cycle hereinafter sometimes referred to as a frame
  • three kinds of orientations detected from the point sequence group of the forward white line are stored.
  • the current position and direction are accumulated from the direction and movement distance.
  • the heading means accumulating the current position and heading using the difference from the heading ⁇ previous reference heading> stored in the same manner in the previous control cycle.
  • the accumulated current position/direction is obtained as the information of the trajectory point sequence.
  • the object position identification unit 40 stores the information of the trajectory point sequence regarding the current position and direction from the own vehicle trajectory estimation unit 33 and the white line history that holds the point sequence of the front white line captured by the front camera S4. information 24e and information on the position of the object grasped by the rear radar S5.
  • the object position identification unit 40 obtains the target ( (Radar target) in the center coordinates of the vehicle, the difference between the current vehicle direction and the direction saved in the same way as the previous time (relative direction), and the current ground-fixed coordinates of the vehicle (vehicle trajectory). Enter each data for the position of .
  • the vehicle center coordinates are a coordinate system based on the position and direction of the vehicle.
  • the vehicle center coordinates are subject to change as the vehicle moves or changes direction.
  • the ground-fixed coordinates are a coordinate system based on a specific position outside the vehicle, such as on a road.
  • Ground-fixed coordinates are basically a coordinate system that is constant regardless of the movement of the vehicle. However, as in the case of using UTM, a plurality of ground-fixed coordinates may be switched according to the movement of the own vehicle to reduce errors caused by the fact that the earth's surface is not flat.
  • the position and orientation that serve as the reference of the ground-fixed coordinates can be determined arbitrarily. For example, the coordinates of the center of the vehicle at a certain specific time may be used as the ground-fixed coordinates without changing the reference due to the movement of the vehicle. .
  • Ground-fixed coordinates in this example do not require the vehicle's position on the earth like UTM, so it can be used in situations where GNSS is never available.
  • the calculation load may be reduced by assuming that the road surface is flat and omitting the z-axis and representing the coordinates in two dimensions.
  • the position of the radar target is projected onto the ground-fixed coordinates in processing step St12, and the white line is detected at the position closest to the ground-fixed coordinates of the radar target in processing step St13.
  • a frame in the vehicle trajectory is extracted, and in processing step St14, the radar target and the white line are compared with the vehicle center coordinates in the frame to identify the lane.
  • the relative azimuth from a specific point of the azimuth to the white line is used to reduce the azimuth error. Then, lane identification can be performed.
  • the execution of the processing in this embodiment may be limited to cases where the object position and the lane to which it belongs are necessary, such as when there is a following vehicle with a risk of collision, so that necessary computer resources may be saved.
  • the present invention is implemented when a sensor capable of detecting the rear white line such as a rear camera is installed, and by comparing the detection result of the sensor capable of detecting the rear white line with the rear white line estimated by this process, Accuracy may be increased or redundancy may be increased.
  • FIG. 5 shows a specific processing flow example of backward white line estimation.
  • the processing flow of FIG. 5 can be roughly divided into the processing of the vehicle direction ⁇ calculation unit St30, the movement distance and movement trajectory estimation unit St40, and the lane identification unit St50.
  • the vehicle direction ⁇ calculation unit St30 corresponds to the processing of the direction to the white line generation 24d in FIG.
  • the lane identifying section St50 corresponds to the processing of the object position identifying section 40 in FIG.
  • a processing step St31 in each frame (control cycle: 50 ms cycle), a plurality of time-series white line point sequences detected by the sensor S4 (front camera) are detected. Get (array of x,y arrays).
  • a parameter is obtained for each white line dot sequence.
  • Atan2 is a standard C language function that receives the y-coordinate value and x-coordinate value of a point in that order as arguments, and returns the angle in radians that a straight line connecting the origin and the argument points forms with the x-axis. be.
  • processing step St33 When it is determined in processing step St33 that the white line has not been detected, the process proceeds to processing step St35, and since the white line cannot be seen, it is estimated that the orientation of the previous frame is continued. It is also possible to use an integrated value based on the yaw rate when a curve or white line is not detected.
  • step St32 an example of linear approximation is shown, but this may be a polynomial approximation as an approximation curve.
  • the relative angle can be similarly obtained by differentiation.
  • the moving distance and movement trajectory estimation unit St40 in the processing flow of FIG. Calculate and integrate.
  • the moving distance is obtained as the product of the speed and the elapsed time from the previous frame
  • the moving direction is obtained by adding the product of the yaw rate and the elapsed time from the previous frame to the heading ⁇ of the vehicle.
  • This calculation method is simple and contains an error, but the error can be reduced by dividing the elapsed time from the previous frame.
  • the white line position at the target position is obtained and the lane is identified. Specifically, for example, approximated curve parameters (quadratic approximation + value range) are calculated and recorded for each frame, and the position is set at which the white line near the target can be detected with the highest quality. For example, if the position 20m ahead is the easiest to grasp, then the position is 20m behind. Using this, the frame of the self position is obtained and compared with the white line position at that time to identify the lane.
  • approximated curve parameters quadrattic approximation + value range
  • the method of estimating the white line behind the second embodiment it is possible to provide a third method other than estimating the white line behind the GNSS and the yaw rate, and based on the advantages and disadvantages of each method, the best method is to combine them.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

高精度な後方白線推定を可能とする後方白線推定装置、物標認識装置並びに方法を提供することを目的とする。自車両前方の白線を検知する白線検知部と、白線検知部の検知結果に基づいて、所定の時刻毎に白線に対する自車両の方位を求める対白線方位生成部と、対白線方位生成部で求められた自車両の方位に基づいて、ある地点での自車両の方位からの相対的な方位を推定する相対方位推定部と、を有することを特徴とする後方白線推定装置。

Description

後方白線推定装置、物標認識装置並びに方法
 本発明は、車両後方の物標の位置を後方白線との関係で把握し、認識するための後方白線推定装置、物標認識装置並びに方法に関する。
 車両の運行においては、車両後方の安全を確保する必要があり、レーダー装置により物標として例えば車両を検知し、その位置を確認する必要がある。然るに例えば、自車両が複数の車線を有する道路を走行中である場合、レーダ装置では後続車両がどの車線を走行中であるかの判定が困難となる場合がある。例えば、左に曲がる曲線路では、自車両が走行中である車線よりも右側にある車線を走行中の後続車両が、自車両の真後ろに位置する場合があるため、レーダ装置のみでは後続車両が走行中の車線の判定が不可能となる。
 この点に関して、車線判定を可能とすべく、レーダ装置により後続車両を認識し、後続車両が走行中の車線の判定を可能とする走行支援装置として、特許文献1が知られている。特許文献1に記載の走行支援装置は、「現在から過去の所定のデータ取得期間中に撮像装置によって連続して撮像した複数の画像から検出された自車両と車線との相対位置を示す複数の車線情報からなる車線情報群と、前記データ取得期間中における車速センサおよびヨーレートセンサの検出結果に基づいて算出される前記データ取得期間中の自車両の走行軌跡と、に基づいて、現在の前記自車両の位置から所定の距離だけ後方までの区間における車線形状を算出する。」ものである。
特開2019-046150号公報
 特許文献1では、現在の自車両の位置から所定の距離だけ後方までの区間における車線形状を算出するために、車速センサおよびヨーレートセンサの検出結果を利用している。またこれと同等のことがGNSSの利用により行えることが知られている。
 ところで、車線変更支援等のリスク予測に必要な後方車両の車線推定には、後方白線を考慮する事が重要である。またADAS(Advanced Drive Assistance System)搭載車両は一般的に前方白線を検知するセンサを搭載するが、後方白線を検知するセンサは搭載しないため、地図や過去に検知した前方白線を用いた後方白線推定を行うことが必要になる。
 然しながら、後方白線推定に必要な自車方位を高い精度で得られないという問題がある。例えば、地図に依存するGNSSはトンネル・ビル街等で利用不可であり、ヨーレート積算は誤差累積があり車線変更時に誤差が大きくなる。
 このことから本発明においては、高精度な後方白線推定を可能とする後方白線推定装置、物標認識装置並びに方法を提供することを目的とする。
 以上のことから本発明においては「自車両前方の白線を検知する白線検知部と、白線検知部の検知結果に基づいて、所定の時刻毎に白線に対する自車両の方位を求める対白線方位生成部と、対白線方位生成部で求められた自車両の方位に基づいて、ある地点での自車両の方位からの相対的な方位を推定する相対方位推定部と、を有することを特徴とする後方白線推定装置」としたものである。
 また本発明においては「自車両前方の白線を検知する白線検知部と、白線検知部の検知結果に基づいて、所定の時刻毎に白線に対する自車両の方位を求める対白線方位生成部と、対白線方位生成部で求められた自車両の方位に基づいて、ある地点での自車両の方位からの相対的な方位を推定する相対方位推定部と、自車両の後方の物標を検知する物標検知部と、自車両の移動距離を推定する移動距離推定部と、相対方位推定部で推定した所定の時刻毎の相対的な方位と、移動距離推定部で推定した所定の時刻毎の移動距離と、に基づいて、白線に対する自車両の移動軌跡を推定する自車両軌跡推定部と、過去に検知した白線検知部の検知結果と、移動軌跡と、に基づいて、現在の前記白線検知部の検知範囲外にある白線の位置を推定する白線位置推定部と、白線位置推定部で推定した検知範囲外にある白線の位置と、物標検知部で検知した物標の位置と、に基づいて、検知範囲外にある白線と物標との位置関係を識別する物標位置識別部と、を有することを特徴とする物標認識装置」としたものである。
 また本発明においては「コンピュータを用いる後方白線推定方法であって、自車両前方の白線を検知し、前記白線の検知結果に基づいて、所定の時刻毎に前記白線に対する自車両の方位を求め、前記自車両の方位に基づいて、ある地点での前記自車両の方位からの相対的な方位を推定することを特徴とする後方白線推定方法」としたものである。
 また本発明においては「コンピュータを用いる後方白線推定方法であって、自車両前方の白線を検知し、白線の検知結果に基づいて、所定の時刻毎に白線に対する自車両の方位を求め、自車両の方位に基づいて、ある地点での自車両の方位からの相対的な方位を推定し、自車両の後方の物標を検知し、自車両の移動距離を推定し、推定した所定の時刻毎の相対的な方位と、推定した所定の時刻毎の移動距離と、に基づいて、白線に対する自車両の移動軌跡を推定し、過去に検知した白線の検知結果と、移動軌跡と、に基づいて、現在の白線検知の検知範囲外にある白線の位置を推定し、推定した検知範囲外にある白線の位置と、検知した物標の位置と、に基づいて、検知範囲外にある白線と物標との位置関係を識別することを特徴とする物標認識方法」としたものである。
 本発明によれば、後方車両のいる車線の識別精度を高めることができる。
本発明に係る物標認識装置の全体構成例を示す図。 軌跡点列導出部30における処理内容を示すフロー図。 各方位検知方式における特性を示す図。 物体位置識別部40における処理内容を示すフロー図。 実施例2に示す後方白線推定の処理内容を示すフロー図。
 以下,本発明の実施例について、図面を用いて説明する。なお実施例1では、物標認識装置の全体構成例を説明し、実施例2では物標認識装置内の主要要素である後方白線推定の具体例について説明する。
 図1は、本発明に係る物標認識装置の全体構成例を示す図である。図1の物標認識装置10は、複数のセンサSからの出力を得て、最終的に物体位置及びその所属車線を出力する。これらのセンサS及びその出力は、GNSS(S1)からの緯度、経度及び測位状態であり、速度センサS2からの車両速度であり,ヨーレートセンサS3からのヨーレートであり,フロントカメラS4からの前方白線の点列群であり、後方レーダからの物体(物標)位置である。これらのセンサ入力は、一定の周期でサンプリング入力された時系列情報であり、各データにはサンプリングした時の時刻情報を含んでいる。なお、センサによる送信タイミングを時刻として扱うことで時刻情報を表現してデータ量を節約してもよい。また、センサの検知対象物を検知した場合のみセンサ入力することで、データ量を節約してもよい。
 なお物標認識装置10は、自動運転が可能な車両に搭載されている走行支援装置の一部機能であり、走行支援装置の車線変更可否情報を出力する機能である。また物標認識装置10は、CPU、ROM、RAM、入出力装置等がバスに接続されたコンピュータにより構成された制御部を備えており、制御部は物標認識装置10を所定のプログラムに基づいて制御する。
 図1の物標認識装置10の処理機能を大別して示すと、入力信号を距離や方位の信号に変換する距離・方位変換部20と、距離・方位変換部20の出力から車両移動軌跡を軌跡点列として求める軌跡点列導出部30と、車両後方における物体位置と所属車線を求める物体位置識別部40で構成されている。
 車両移動軌跡を軌跡点列として求める軌跡点列導出部30では、距離・方位変換部20の出力から距離の情報と方位の情報を入手する。このうち距離の情報は、GNSS(S1)からの緯度、経度及び測位状態と、速度センサS2からの車両速度の情報から得ることができ、方位の情報は、GNSS(S1)からの緯度、経度及び測位状態と、ヨーレートセンサS3からのヨーレートと,フロントカメラS4からの前方白線の点列群から求めることができる。
 このために、距離・方位変換部20においては、GNSS(S1)からの緯度、経度及び測位状態を蓄積部21aにおいて蓄積し,GNSS情報に含まれるGNSS距離情報21b、GNSS方位精度推定情報21c、GNSS方位情報21dが抽出される。このうちGNSS距離情報21bが軌跡点列導出部30の移動距離推定部31に与えられ、GNSS方位精度推定情報21cとGNSS方位情報21dが軌跡点列導出部30の方位選択部32に与えられる。
 また距離・方位変換部20においては、速度センサS2からの車両速度を積分して求めた累積距離情報22bが軌跡点列導出部30の移動距離推定部31に与えられる。
 また距離・方位変換部20においては、ヨーレートセンサS3からのヨーレートを積分して累積方位情報23dを求め、また方位精度を推定して方位精度推定情報23cを得る。なおこの場合の方位精度は、距離が短い、変位が少ない場合には高精度であるが、距離が長い、変位が大きい場合には精度が低下することから、精度を数値化して求めることができる。これらの累積方位情報23dと方位精度推定情報23cが軌跡点列導出部30の方位選択部32に与えられる。
 さらに本発明においては、新たに距離・方位変換部20において、フロントカメラS4からの前方白線の点列群から対白線方位生成情報24dと、またこの時の方位精度を推定して方位精度推定情報24cを得、白線履歴は白線履歴保持部24eにおいて保持される。これらの対白線方位生成情報24dと方位精度推定情報23cが軌跡点列導出部30の方位選択部32に与えられる。この場合の方位精度は、白線変化が小さい場合には高精度であるが、白線変化が大きい場合には精度が低下することから、精度を数値化して求めることができる。なお、対白線方位生成情報24dの算出方法について、実施例2で詳細に説明する。
 このようにして、本発明においては従来からの後方推定要件として知られているGNSS、ヨーに追加して前方白線の点列群が新たに使用されている。これらを踏まえて、軌跡点列導出部30では、移動距離推定部31においてGNSS情報に含まれるGNSS距離情報21bと車両速度を積分して求めた累積距離情報22bから、移動距離を推定する。
 移動距離推定の考え方としては、もしGNSSのほうが良好な条件であればGNSS位置の差を使うこととし、地形やトンネル・ビル等の障害物、電波状態等により測位状態が悪化してGNSSの使用が不適切である場合には、車両速度を時間積分して求めた累積距離情報22bを距離として推定し出力するのがよい。
 また軌跡点列導出部30では、方位選択部32において選択したGNSS、ヨー、前方白線の点列群のいずれかの方位を選択し出力するのがよい。この場合に、選択の基準となるのが、GNSS、ヨー、前方白線の点列群の夫々に付随して得られている各方位精度の情報(21c、23c、24c)である。
 軌跡点列導出部30における処理内容を示すフローを図2に示している。このフローは、処理ステップSt0に示すように所定の制御周期ごとに繰り返し実行される。制御周期で定まる時刻に至ると、図2の処理ステップSt1では、ここでの処理に必要な入力としてGNSS、ヨー、前方白線の点列群による方位の情報(21d、23d、24d)と、当該方位の精度の情報(21c、23c、24c)を入力する。
 処理ステップSt2では、GNSSが良好で速度が速い場合、またはGNSSが良好で累積方位23dの変化が少ないという条件を判定し、このいずれかに合致(yes)する場合には処理ステップSt3においてGNSS方位21dを方位情報として選択する。
 処理ステップSt2の判定において条件成立しない(no)場合には、処理ステップSt4,または処理ステップSt5の判定を行う。たとえば処理ステップSt4では、累積方位23dの変化が多い場合であって、前方白線の点列群による方位の情報24dが使える場合には、処理ステップSt6において対白線方位24dを方位情報として選択する。
 同様に処理ステップSt5では、累積方位23dの変化が少ない場合であって、前方白線の点列群による方位の情報24dが使えない場合には、処理ステップSt7においてヨーレートによる方位23dを方位情報として選択する。
 なお、処理ステップSt2、St4,St5の判定のいずれにも合致しない(no)場合、処理ステップst8において、とりあえずは次善の策として前回制御周期における選択結果を維持するという対応をとるのがよい。また上記判定のための各種条件は、当該条件を直接検知してもよいが、各方位精度の情報(21c、23c、24c)を用いるものであってもよい。
 これらの方位情報の選択結果は、移動距離推定部31からの距離の情報とともに次段処理部である自車両軌跡推定部33に渡される。なおこの選択後は、処理ステップSt0に戻り、次の制御周期での起動が開始されるまで待機する。
 図2のような選択は、各方位検知方式における特性が図3のようなものであることを反映したものである。図3の比較表によれば、縦軸に方位推定方法として、GNSS、ヨー、前方白線の点列群による方位検知を上げ、横軸側に利用が不可能、或は好ましくない場面、及び高精度となる条件を列挙している。これによれば、GNSSはトンネルやビル街で使用するには不適当であり、高精度で検出できる条件は高速走行時及び測位が良好な時である。ヨーレートは、利用が不可能な場面は特に存在せず何時でも使用可能であるが、高精度条件としては距離が小さい、変位が小さいときである。このことは逆に言えば、距離や変位が大きいときは精度が下がり使用に適さなくなることを意味している。前方白線の点列群による方位は、白線が存在しない環境では使用不可であり、白線の変化が小さいときには高精度にできる。
 軌跡点列導出部30内の自車両軌跡推定部33では、距離情報と変位情報を用いた例えば50ms間隔の制御周期(以下フレームということがある。)での処理を行い、この時にGNSS、ヨー、前方白線の点列群により検知した3種類の方位を保存しておくものとする。そのうえで、基本的にはGNSSに頼るが、GNSSが使えない場合に、方位と移動距離から、現在位置・方位を累積する。なおここで方位とは、前回制御周期の同じ方式で保存された方位<前回基準方位>との差分を用いて、現在位置・方位を累積することを意味している。また累積された現在位置・方位は、軌跡点列の情報として得られている。
 上記の処理を前提として、物体位置識別部40では、自車両軌跡推定部33から現在位置・方位についての軌跡点列の情報と、フロントカメラS4がとらえた前方白線の点列を保持した白線履歴の情報24eと、後方レーダS5が把握した物体位置の情報が入力されている。
 これらの情報を用いて、物体位置識別部40ではその処理内容を図4の処理フローに示すように、処理ステップSt11において処理に必要なデータとして、現在時点で後方レーダS5が把握した物標(レーダー物標)の自車中心座標における位置と、現在の自車方位と前回同じ方式で保存された方位との差分(相対方位)と、現在の自車の地面固定座標(自車軌跡)での位置の各データを入力する。ここで自車中心座標とは、自車の位置・方向を基準とした座標系であり、例えば、後輪車軸中心を原点、自車前方をx軸正、自車左方をy軸正、上方向をz軸正とする直交座標系が該当する。自車中心座標は自車の移動や方向変更により基準が変更になる。また、地面固定座標は、道路上等、車両外の特定位置を基準とする座標系で、例えば、緯度経度から直交座標系に変換したUTM(Universal Transverse Mercator)直交座標が該当する。地面固定座標は、基本的には自車移動によらず一定となる座標系である。ただし、UTMの利用で行われるように、自車の移動に従って複数の地面固定座標を切り替えて用いて、地球表面が平面でないこと起因する誤差を低減してもよい。また、地面固定座標の基準となる位置・方位の取り方は任意であり、例えば、ある特定時刻の自車中心座標を車両の移動で基準を変更せずに用いることで地面固定座標としてもよい。この例の地面固定座標は、UTMのように地球上での車両位置を必要としないため、GNSSを一度も利用できない状況でも使用できる。また、以下の実施例のように、道路面が平坦であることを仮定してz軸を省略して2次元で座標を表現し、計算負荷を削減してもよい。
 次にこれらのデータを用いて、処理ステップSt12においてレーダ物標の位置を地面固定座標に投影し、処理ステップSt13においてレーダ物標の地面固定座標に一番近い位置に白線を検知している自車軌跡中のフレームを抽出し、処理ステップSt14において当該フレームでの自車中心座標で、当該レーダ物標と白線を比較し、車線を識別する。
 上記した本発明によれば、GNSSが使用不適である場合であっても、誤差が大きな累積方位(ヨーレート積分)に代えて、対白線方位の特定地点からの相対方位を用いて方位誤差を低減して、車線識別が行える。また、方位誤差が招く、レーダ物標の自車中心座標から地面固定座標変換時の誤差を抑制し、履歴白線との比較精度を向上することができる。
 なお、本実施例における処理の実施は、衝突リスクのある後続車がいる場合等、物体位置および所属車線が必要な場合に限定して処理することで必要な計算機資源を節約してもよい。また、本発明は、リアカメラ等、後方白線を検知可能なセンサを搭載した場合に実施し、後方白線を検知可能なセンサによる検知結果と、本処理によって推定した後方白線を比較することで、精度を高めたり、冗長性を高めたりしてもよい。
 実施例2では物標認識装置内の主要要素である後方白線推定の具体例について説明する。図5は、後方白線推定の具体的な処理フロー例を示している。図5の処理フローは、これを大別すると、自車方位θ計算部St30と、移動距離と移動軌跡の推定部St40と、レーン識別部St50の処理で表すことができる。なお、自車方位θ計算部St30は、図2の対白線方位生成24dの処理に相当し、移動距離と移動軌跡の推定部St40は図2の移動距離推定31と自車両軌跡推定33の処理に相当し、レーン識別部St50は図2の物体位置識別部40の処理に相当するものである。
 図5の処理フローの自車方位θ計算部St30では、最初に処理ステップSt31において、各フレーム(制御周期:50ms周期)で、センサS4(フロントカメラ)が検知した時系列的な複数白線点列(x,y配列の配列)を取得する。
 次に処理ステップSt32において、各白線点列でパラメータを求める。これは例えば時系列的に得られた複数白線点列を、各制御周期において近似直線ax+by+c=0で表現するものであり、例えば最小二乗法による直線近似を行う。この式の場合、a,b,cをパラメータとして求めることになるが、ただしb>0,a+b=1であり、点の分布から求めた誤差楕円長径を線分長さLとして求めるものとする。
 処理ステップSt33では、白線検知ができているか否かを判断し、白線が検知できているときは、処理ステップSt34に移り、各フレームでの白線に対する自車方位θを計算する。例えば、複数点列で線分長を重みとした近似直線の係数の重み付け平均を取り、角度を計算する。例えば、θ=atan2(Σ(L*a),Σ(L*b))を計算する。なお、atan2はC言語の標準関数であり、点のy座標値、x座標値をこの順で引数として受け取り、原点と引数の点を結んだ直線がx軸となす角をラジアンで返す関数である。
 処理ステップSt33の判断で、白線が検知できていないとされたときは、処理ステップSt35に移り、白線が見えないので前フレームの方位を継続すると推定する。カーブや白線不検知時のヨーレートによる積分値を利用するものとしてもよい。
 なお、処理ステップSt32では直線近似する例を示したが、これは近似曲線として多項式近似を行うものであってもよく、この場合はカーブも表現でき、現在値から前方位置の相対角度を多項式の導関数より求めて積分可能である。例えばy=ax+bx+cと表現した場合、導関数y′=ax+bで前方位置xでの相対角度atan2(2ax、a)が求まる。また、円弧似等の多項式以外で表現して近似精度を高めた場合も、同様に微分により相対角度を求められる。
 図5の処理フローの移動距離と移動軌跡の推定部St40では、処理ステップSt41において、移動距離と併せて移動軌跡を推定すべく、最後のGNSS位置・白線方位からの移動(dx,dy)を計算し、積分する。計算方法としては、移動距離を速度と前フレームからの経過時間の積として求め、移動方向を自車方位θにヨーレートと前フレームからの経過時間の積を加えたものとして求める。この計算方法は簡易的なもので誤差を含むが、前フレームからの経過時間を分割する等で小さくすることで誤差を小さくすることができる。
 図5の処理フローのレーン識別部St50では、処理ステップSt51において、物標位置での白線位置を求め、レーンを識別する。例えば具体的には、各フレームでの近似曲線パラメータ(2次近似+値域)を計算して、記録しておき、物標近隣の白線を最も高品質に検知できる位置とする。例えば前方20m位置が一番捉えやすいなら20m後方とする。これを用いて、自己位置のフレームを求め、その時の白線位置と比較して、レーンを識別する。
 実施例2の後方白線推定の手法によれば、GNSS,ヨーレートによる後方白線推定以外の第3の手法を提供することができ、各手法における利害得失を踏まえたうえでこれらの組み合わせによりベストな手法による後方白線推定とすることができる。
20:距離・方位変換部、30:軌跡点列導出部、31:移動距離推定部、32:方位選択部、33:自車両軌跡推定部、40:物体位置識別部、S1:GNSS、S2:速度センサ、S3:ヨーレートセンサ、S4:フロントカメラ

Claims (13)

  1.  自車両前方の白線を検知する白線検知部と、前記白線検知部の検知結果に基づいて、所定の時刻毎に前記白線に対する自車両の方位を求める対白線方位生成部と、前記対白線方位生成部で求められた前記自車両の方位に基づいて、ある地点での前記自車両の方位からの相対的な方位を推定する相対方位推定部と、を有することを特徴とする後方白線推定装置。
  2.  請求項1に記載の後方白線推定装置であって、
     前記白線の検知結果は一定周期での白線の点列であって、白線の点列を関数にて表記し、相違する時刻間での白線の点列位置から方位を求めることを特徴とする後方白線推定装置。
  3.  自車両前方の白線を検知する白線検知部と、前記白線検知部の検知結果に基づいて、所定の時刻毎に前記白線に対する自車両の方位を求める対白線方位生成部と、前記対白線方位生成部で求められた前記自車両の方位に基づいて、ある地点での前記自車両の方位からの相対的な方位を推定する相対方位推定部と、前記自車両の後方の物標を検知する物標検知部と、前記自車両の移動距離を推定する移動距離推定部と、前記相対方位推定部で推定した所定の時刻毎の前記相対的な方位と、前記移動距離推定部で推定した前記所定の時刻毎の前記移動距離と、に基づいて、前記白線に対する前記自車両の移動軌跡を推定する自車両軌跡推定部と、過去に検知した前記白線検知部の検知結果と、前記移動軌跡と、に基づいて、現在の前記白線検知部の検知範囲外にある白線の位置を推定する白線位置推定部と、前記白線位置推定部で推定した前記検知範囲外にある白線の位置と、前記物標検知部で検知した前記物標の位置と、に基づいて、前記検知範囲外にある白線と前記物標との位置関係を識別する物標位置識別部と、を有することを特徴とする物標認識装置。
  4.  請求項3に記載の物標認識装置であって、
     前記白線の検知結果は周期的に出力される白線の点列であって、白線の点列を関数にて表記し、相違する時刻間での白線の点列位置から方位を求めることを特徴とする物標認識装置。
  5.  請求項3に記載の物標認識装置であって、
     自車両軌跡推定部は、前記白線に対する前記自車両の移動軌跡を推定するために相対方位の変化を用いることを特徴とする物標認識装置。
  6.  請求項3に記載の物標認識装置であって、
     前記相対方位推定部は、前記自車両の方位に基づいて、ある地点での前記自車両の方位からの相対的な方位を推定するにあたり、前記方位を前記対白線方位生成部で求めた方位と、GNSSから求めた方位と、ヨーレートから求めた方位のいずれかを選択する方位選択部を備えることを特徴とする物標認識装置。
  7.  請求項6に記載の物標認識装置であって、
     前記方位選択部は、常時はGNSSから求めた方位を選択しており、GNSSの利用が不適当な場面で、前記対白線方位生成部で求めた方位、またはヨーレートから求めた方位のいずれかを選択することを特徴とする物標認識装置。
  8.  請求項6または請求項7に記載の物標認識装置であって、
     前記方位選択部は、GNSSが良好で速度が速い場合、またはGNSSが良好で累積方位の変化が少ないという第1の条件を満たすときにGNSSから求めた方位を選択し、前記第1の条件を満たさない時に、累積方位の変化が多く、前方白線の点列群による方位が使える場合には、前方白線の点列群による方位を選択し、前記第1の条件を満たさない時に、累積方位の変化が少なく、前方白線の点列群による方位が使えない場合には、ヨーレートによる方位を選択することを特徴とする物標認識装置。
  9.  請求項3に記載の物標認識装置であって、
     自車両の位置と方位を関連付けて保存することを特徴とする物標認識装置。
  10.  請求項3に記載の物標認識装置であって
     前記白線位置推定部は、検知した過去の白線の位置を記録し、記録に近似パラメータを用いることを特徴とする物標認識装置。
  11.  請求項3に記載の物標認識装置であって
     白線位置推定部は、物標に最も近い白線を捉えた時刻での移動軌跡上での自車位置と記録された白線を用いることを特徴とする物標認識装置。
  12.  コンピュータを用いる後方白線推定方法であって、
     自車両前方の白線を検知し、前記白線の検知結果に基づいて、所定の時刻毎に前記白線に対する自車両の方位を求め、前記自車両の方位に基づいて、ある地点での前記自車両の方位からの相対的な方位を推定することを特徴とする後方白線推定方法。
  13.  コンピュータを用いる物標認識方法であって、
     自車両前方の白線を検知し、前記白線の検知結果に基づいて、所定の時刻毎に前記白線に対する自車両の方位を求め、前記自車両の方位に基づいて、ある地点での前記自車両の方位からの相対的な方位を推定し、前記自車両の後方の物標を検知し、前記自車両の移動距離を推定し、前記推定した所定の時刻毎の前記相対的な方位と、推定した前記所定の時刻毎の前記移動距離と、に基づいて、前記白線に対する前記自車両の移動軌跡を推定し、過去に検知した前記白線の検知結果と、前記移動軌跡と、に基づいて、現在の白線検知の検知範囲外にある白線の位置を推定し、推定した前記検知範囲外にある白線の位置と、検知した前記物標の位置と、に基づいて、前記検知範囲外にある白線と前記物標との位置関係を識別することを特徴とする物標認識方法。
PCT/JP2022/004439 2021-06-04 2022-02-04 後方白線推定装置、物標認識装置並びに方法 WO2022254788A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/566,585 US20240282123A1 (en) 2021-06-04 2022-02-04 Rearward white line inference device, target recognition device, and method
JP2023525374A JPWO2022254788A1 (ja) 2021-06-04 2022-02-04

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-094127 2021-06-04
JP2021094127 2021-06-04

Publications (1)

Publication Number Publication Date
WO2022254788A1 true WO2022254788A1 (ja) 2022-12-08

Family

ID=84324098

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/004439 WO2022254788A1 (ja) 2021-06-04 2022-02-04 後方白線推定装置、物標認識装置並びに方法

Country Status (3)

Country Link
US (1) US20240282123A1 (ja)
JP (1) JPWO2022254788A1 (ja)
WO (1) WO2022254788A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120062747A1 (en) * 2010-07-20 2012-03-15 Gm Global Technology Operations, Inc. Lane fusion system using forward-view and rear-view cameras
WO2015194371A1 (ja) * 2014-06-19 2015-12-23 日立オートモティブシステムズ株式会社 物体認識装置及びそれを用いた車両走行制御装置
JP2019046150A (ja) * 2017-09-01 2019-03-22 株式会社Subaru 走行支援装置
JP2019194037A (ja) * 2018-05-01 2019-11-07 三菱電機株式会社 区画線認識装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120062747A1 (en) * 2010-07-20 2012-03-15 Gm Global Technology Operations, Inc. Lane fusion system using forward-view and rear-view cameras
WO2015194371A1 (ja) * 2014-06-19 2015-12-23 日立オートモティブシステムズ株式会社 物体認識装置及びそれを用いた車両走行制御装置
JP2019046150A (ja) * 2017-09-01 2019-03-22 株式会社Subaru 走行支援装置
JP2019194037A (ja) * 2018-05-01 2019-11-07 三菱電機株式会社 区画線認識装置

Also Published As

Publication number Publication date
US20240282123A1 (en) 2024-08-22
JPWO2022254788A1 (ja) 2022-12-08

Similar Documents

Publication Publication Date Title
JP4343536B2 (ja) 車用の感知装置
US11300415B2 (en) Host vehicle position estimation device
JP5152244B2 (ja) 追従対象車特定装置
US8428843B2 (en) Method to adaptively control vehicle operation using an autonomic vehicle control system
US8112223B2 (en) Method for measuring lateral movements in a driver assistance system
EP2590152B1 (en) Device for estimating vehicle travel path
US10493987B2 (en) Target-lane relationship recognition apparatus
RU2682137C1 (ru) Способ управления движением и устройство управления движением
JP7143722B2 (ja) 自車位置推定装置
US11608059B2 (en) Method and apparatus for method for real time lateral control and steering actuation assessment
US11326889B2 (en) Driver assistance system and control method for the same
JP6988873B2 (ja) 位置推定装置および位置推定用コンピュータプログラム
JP2022023388A (ja) 車両位置決定装置
US20220204046A1 (en) Vehicle control device, vehicle control method, and storage medium
KR20210029323A (ko) 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법
US20220155455A1 (en) Method and system for ground surface projection for autonomous driving
KR101470231B1 (ko) 차량의 주행을 제어하는 방법과 이를 수행하는 주행 제어 장치 및 차량 제어 시스템
WO2022254788A1 (ja) 後方白線推定装置、物標認識装置並びに方法
US20220289185A1 (en) Vehicle controller and method for controlling vehicle
KR20200107382A (ko) 차량용 센서의 보정 정보 획득 장치 및 방법
JP7400708B2 (ja) センサ評価システム、センサ評価装置、車両
WO2020230619A1 (ja) 車両制御システム
CN112415516B (zh) 一种车辆前方障碍区域感知方法及装置
JP2022149051A (ja) 地図生成装置、地図生成システム、地図生成方法、およびプログラム
CN111469841B (zh) 一种弯道目标选择方法、车载设备和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22815547

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023525374

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18566585

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22815547

Country of ref document: EP

Kind code of ref document: A1