JP2020086489A - White line position estimation device and white line position estimation method - Google Patents

White line position estimation device and white line position estimation method Download PDF

Info

Publication number
JP2020086489A
JP2020086489A JP2018214374A JP2018214374A JP2020086489A JP 2020086489 A JP2020086489 A JP 2020086489A JP 2018214374 A JP2018214374 A JP 2018214374A JP 2018214374 A JP2018214374 A JP 2018214374A JP 2020086489 A JP2020086489 A JP 2020086489A
Authority
JP
Japan
Prior art keywords
state
lane
white line
vehicle
related state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018214374A
Other languages
Japanese (ja)
Inventor
原 英之
Hideyuki Hara
英之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isuzu Motors Ltd
Original Assignee
Isuzu Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isuzu Motors Ltd filed Critical Isuzu Motors Ltd
Priority to JP2018214374A priority Critical patent/JP2020086489A/en
Priority to PCT/JP2019/044362 priority patent/WO2020100902A1/en
Publication of JP2020086489A publication Critical patent/JP2020086489A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

To estimate a position of a white line even when a white line cannot be recognized.SOLUTION: In a vehicle V, a lane identification device 10 includes: a lane-related state identification section 121 for identifying position relation between a white line corresponding to a lane on which an own vehicle is traveling and the own vehicle, and a lane-related state indicating a curvature of a white line and a lane width or the like based on information indicating a traveling environment in front of the own vehicle; an operation state detection section 122 for detecting a vehicle speed and a yaw rate or the like being an operation state of the own vehicle; and a white line position estimation section 123 for estimating a position of a white line at a predetermined time interval based on an estimated lane-related state and an operation state by estimating a position of a white line within a predetermined range in a front and rear direction from the own vehicle at a predetermined time interval when a lane-related state is identified and also an operation state is detected, and by estimating position relation or the like based on an operation state when a lane-related state is not identified and an operation state is detected.SELECTED DRAWING: Figure 2

Description

本発明は、白線位置推定装置及び白線位置推定方法に関する。 The present invention relates to a white line position estimation device and a white line position estimation method.

従来、車両の前方を撮像するカメラにより撮像された撮像画像に基づいて白線を認識し、当該白線に基づいて車両の走行を制御することが行われている(例えば、特許文献1を参照)。 Conventionally, a white line is recognized based on a captured image captured by a camera that captures the front of the vehicle, and the traveling of the vehicle is controlled based on the white line (for example, see Patent Document 1).

特開2015−141611号公報JP, 2005-141611, A

ところで、車線変更等を伴う高度な自動運転を実現する際あるいは運転者が安全に車線変更を実施する際、白線及び自車両の周辺を走行する周辺車両の状況に基づいて車両の走行を制御することが求められる。このため、車両の運転制御に用いる情報として、自車両の周辺の物体の車線位置を特定することが求められている。 By the way, when realizing highly automated driving with lane changes, or when the driver performs lane changes safely, the vehicle travel is controlled based on the conditions of the white line and the surrounding vehicles traveling around the host vehicle. Is required. Therefore, it is required to specify the lane position of an object around the host vehicle as information used for vehicle driving control.

これに対し、車両の前方を撮像するカメラの不具合等により白線を認識できない場合、白線の位置が特定できず、自車両の周辺の物体の車線位置を特定することができない。このため、白線を認識できない場合であっても、信頼性は低下するものの、白線の位置を推定できるようにすることが求められている。 On the other hand, if the white line cannot be recognized due to a malfunction of the camera that images the front of the vehicle, the position of the white line cannot be specified, and the lane position of an object around the vehicle cannot be specified. Therefore, even if the white line cannot be recognized, it is required to be able to estimate the position of the white line although the reliability is reduced.

そこで、本発明はこれらの点に鑑みてなされたものであり、白線を認識できない場合であっても、白線の位置情報を失わずに保持することができる白線位置推定装置及び白線位置推定方法を提供することを目的とする。 Therefore, the present invention has been made in view of these points, a white line position estimation device and a white line position estimation method that can be retained without losing the position information of the white line even when the white line cannot be recognized. The purpose is to provide.

本発明の第1の態様に係る白線位置推定装置は、自車両の前方を示す情報に基づいて、前記自車両が走行する車線に対応する白線と前記自車両との位置関係、前記白線の曲率及び車線幅を示す車線関連状態を特定する車線関連状態特定部と、前記自車両の運動状態を検出する運動状態検出部と、前記車線関連状態特定部により前記車線関連状態が特定されるとともに前記運動状態検出部により前記運動状態が検出された場合には、前記車線関連状態及び前記運動状態に基づいて所定時間おきに前記自車両から所定範囲内の前記白線の位置を推定し、前記車線関連状態特定部により前記車線関連状態が特定されず、前記運動状態検出部により前記運動状態が検出された場合には、前記運動状態に基づいて前記位置関係を推定することにより前記車線関連状態を推定し、推定した車線関連状態及び前記運動状態に基づいて前記所定時間おきに前記白線の位置を推定する白線位置推定部と、を備える。 A white line position estimation device according to a first aspect of the present invention is based on information indicating the front of the host vehicle, the positional relationship between the host vehicle and the white line corresponding to the lane in which the host vehicle is traveling, and the curvature of the white line. And a lane-related state specifying unit that specifies a lane-related state indicating a lane width, a motion state detecting unit that detects a motion state of the own vehicle, and the lane-related state is specified by the lane-related state specifying unit, and When the motion state is detected by the motion state detection unit, the position of the white line within a predetermined range from the own vehicle is estimated at predetermined intervals based on the lane-related condition and the motion condition, and the lane-related condition is estimated. When the lane-related state is not specified by the state specifying unit and the movement state is detected by the movement state detection unit, the lane-related state is estimated by estimating the positional relationship based on the movement state. Then, the white line position estimating unit that estimates the position of the white line at the predetermined time intervals based on the estimated lane-related state and the motion state.

前記白線位置推定部は、前記車線関連状態特定部により前記車線関連状態が特定されている状態から、前記車線関連状態が特定されない状態に変化した場合には、前記車線関連状態が特定されない状態に変化する前に特定された車線関連状態である過去車線関連状態と、前記運動状態に基づいて推定した車線関連状態と、前記運動状態とに基づいて前記白線の位置を推定してもよい。 The white lane position estimating unit, when the lane-related state is specified by the lane-related state specifying unit, when the lane-related state is not specified, when the lane-related state is not specified, the lane-related state is not specified. The position of the white line may be estimated based on the past lane-related state that is the lane-related state specified before the change, the lane-related state estimated based on the exercise state, and the exercise state.

前記白線位置推定部は、時間の経過に従って、前記過去車線関連状態の影響度合いを小さくするとともに、前記運動状態に基づいて推定した車線関連状態の影響度合いを大きくして前記白線の位置を推定してもよい。 The white line position estimation unit estimates the position of the white line by decreasing the influence degree of the past lane-related state with time and increasing the influence degree of the lane-related state estimated based on the motion state. May be.

前記白線位置推定部は、前記車線関連状態特定部により前記車線関連状態が特定されず、前記運動状態検出部により前記運動状態が検出されなかった場合には、前記自車両の運動状態を、前記自車両が直線を定速走行している場合の運動状態と推定するとともに、前記車線関連状態を、前記自車両が直線路の中心を走行している場合の車線関連状態と推定し、推定した車線関連状態及び推定した運動状態に基づいて前記白線の位置を推定してもよい。 The white line position estimation unit, if the lane-related state is not specified by the lane-related state specifying unit, and the movement state is not detected by the movement state detection unit, the movement state of the own vehicle, While estimating the motion state when the host vehicle is traveling at a constant speed on a straight line, the lane-related state is estimated and estimated as the lane-related state when the host vehicle is traveling on the center of a straight road. The position of the white line may be estimated based on the lane-related state and the estimated motion state.

前記白線位置推定部は、前記車線関連状態特定部により前記車線関連状態が特定されず、前記運動状態検出部により前記運動状態が検出されている状態から、前記車線関連状態特定部により前記車線関連状態が特定されず、前記運動状態検出部により前記運動状態が検出されない状態に変化した場合には、前記運動状態が検出されない状態に変化する前に検出された前記運動状態である過去運動状態と、前記推定した運動状態と、前記推定した車線関連状態とに基づいて前記白線の位置を推定してもよい。 The lane line position estimating unit determines whether the lane-related state is not specified by the lane-related state specifying unit and the movement state is detected by the movement-state detecting unit, and the lane-related state specifying unit determines the lane-related state. When the state is not specified and the exercise state is changed to a state in which the exercise state is not detected by the exercise state detection unit, a past exercise state that is the exercise state detected before the change in the exercise state is detected. The position of the white line may be estimated based on the estimated motion state and the estimated lane-related state.

前記白線位置推定部は、時間の経過に従って、前記過去運動状態の影響度合いを小さくするとともに、前記推定した運動状態の影響度合いを大きくして前記白線の位置を推定してもよい。 The white line position estimation unit may estimate the position of the white line by decreasing the influence degree of the past exercise state and increasing the estimated influence degree of the exercise state over time.

前記白線位置推定部は、前記車線関連状態特定部における前記車線関連状態の特定状況と、前記運動状態検出部における前記運動状態の検出状況とに基づいて、推定した前記白線の位置の信頼度を算出してもよい。 The white line position estimating unit, based on the specific situation of the lane-related state in the lane-related state identifying unit, and the detection situation of the exercise state in the exercise state detection unit, the reliability of the position of the estimated white line It may be calculated.

本発明の第2の態様に係る白線位置推定方法は、コンピュータが実行する、自車両の前方を示す情報に基づいて、前記自車両が走行する車線に対応する白線と前記自車両との位置関係、前記白線の曲率及び車線幅を示す車線関連状態を特定するステップと、前記自車両の運動状態を検出するステップと、前記車線関連状態が特定されるとともに前記運動状態が検出された場合には、前記車線関連状態及び前記運動状態に基づいて所定時間おきに前記自車両から所定範囲内の前記白線の位置を推定し、前記車線関連状態が特定されず、前記運動状態が検出された場合には、前記運動状態に基づいて前記位置関係を推定することにより前記車線関連状態を推定し、推定した車線関連状態及び前記運動状態に基づいて前記所定時間おきに前記白線の位置を推定するステップと、を備える。 A white line position estimation method according to a second aspect of the present invention is based on a positional relationship between a white line corresponding to a lane in which the own vehicle is traveling and the own vehicle, based on information indicating the front of the own vehicle executed by a computer. , A step of identifying a lane-related state indicating the curvature and a lane width of the white line, a step of detecting a motion state of the own vehicle, and a case in which the lane-related state is specified and the motion state is detected. , Estimating the position of the white line within a predetermined range from the own vehicle at predetermined intervals based on the lane-related state and the exercise state, when the lane-related state is not specified and the exercise state is detected A step of estimating the lane-related state by estimating the positional relationship based on the motion state, and estimating the position of the white line at the predetermined time intervals based on the estimated lane-related state and the exercise state; , Is provided.

本発明によれば、白線を認識できない場合であっても白線の位置情報を失わずに保持することができるという効果を奏する。 According to the present invention, even if the white line cannot be recognized, the position information of the white line can be retained without being lost.

本実施形態に係る車線特定装置の概要を説明する図である。It is a figure explaining the outline of the lane identification device concerning this embodiment. 本実施形態に係る車両の内部構成を模式的に示す図である。It is a figure which shows typically the internal structure of the vehicle which concerns on this embodiment. 車両座標系におけるX軸とY軸との間の関係を示す図である。It is a figure which shows the relationship between the X-axis and the Y-axis in a vehicle coordinate system. 本実施形態に係る白線位置特定部が車両前方の複数の白線座標を算出する例を示す図である。It is a figure which shows the example which the white line position specific part which concerns on this embodiment calculates several white line coordinates ahead of a vehicle. 本実施形態に係る白線位置特定部が車両後方の複数の白線座標を算出する例を示す図である。It is a figure which shows the example which the white line position specific|specification part which concerns on this embodiment calculates several white line coordinates behind a vehicle. 本実施形態に係る車両運動状態に基づく横変位及び方位角の算出方法を説明する図である。It is a figure explaining the calculation method of lateral displacement and azimuth based on the vehicle motion state concerning this embodiment. 本実施形態に係る車線特定装置における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the lane identification device which concerns on this embodiment.

図1は、本実施形態に係る車線特定装置10の概要を説明する図である。車線特定装置10は、例えば、車両Vに搭載されるコンピュータである。車線特定装置10は、自車両としての車両Vの周辺の物体としての周辺車両OVが走行している車線を特定する装置である。なお、本実施形態では、車両Vの周辺の物体が、車両Vの周囲を走行する周辺車両OVであるものとして説明を行うが、これに限らない。車両Vの周辺の物体は、車両Vの周辺に停止している周辺車両OV、人や動物や落下物等の障害物であってもよい。 FIG. 1 is a diagram illustrating an outline of a lane identification device 10 according to the present embodiment. The lane identification device 10 is, for example, a computer mounted on the vehicle V. The lane identification device 10 is a device that identifies a lane in which a peripheral vehicle OV, which is an object around the vehicle V as the host vehicle, is traveling. In the present embodiment, the object around the vehicle V is described as the peripheral vehicle OV traveling around the vehicle V, but the present invention is not limited to this. The object around the vehicle V may be a peripheral vehicle OV stopped around the vehicle V or an obstacle such as a person, an animal, or a falling object.

車両Vには、車両Vの走行方向の前方の領域ACを撮影するカメラが搭載されている。車線特定装置10は、白線位置特定装置として機能し、カメラが撮影した領域ACの映像に基づいて、車両Vが走行する車線に対応する白線と車両Vとの位置関係、白線の曲率及び車線幅等を示す車線関連状態を特定するとともに、車両Vの運動状態である車速とヨーレートを検出する。車線特定装置10は、車線関連状態を特定できているとともに、車両Vの運動状態を検出できている場合には、当該車線関連状態及び車両Vの運動状態に基づいて車両Vの前後の白線の位置を推定する。車線特定装置10は、カメラの不具合等により車線関連状態を特定できておらず、車両Vの運動状態を検出できている場合には、当該車両Vの運動状態に基づいて車両Vの前後の白線の位置を推定する。このようにすることで、車線特定装置10は、カメラの不具合等により白線を認識できず、車線関連状態を特定できない場合であっても白線の位置を推定することができる。 The vehicle V is equipped with a camera that captures an area AC ahead of the vehicle V in the traveling direction. The lane identification device 10 functions as a white line position identification device, and based on the image of the area AC captured by the camera, the positional relationship between the white line and the vehicle V corresponding to the lane in which the vehicle V is traveling, the curvature of the white line, and the lane width. The vehicle speed and yaw rate, which are the motion states of the vehicle V, are detected while the lane-related state indicating the above is specified. When the lane identification device 10 can identify the lane-related state and can detect the motion state of the vehicle V, the lane identification device 10 detects the white lines before and after the vehicle V based on the lane-related state and the motion state of the vehicle V. Estimate the position. When the lane identification device 10 cannot detect the lane-related state due to a malfunction of the camera and can detect the motion state of the vehicle V, the white lines before and after the vehicle V are detected based on the motion state of the vehicle V. Estimate the position of. By doing so, the lane identification device 10 can estimate the position of the white line even if the white line cannot be recognized due to a malfunction of the camera or the like and the lane-related state cannot be identified.

車両Vには、周辺車両OVを特定するための障害物検出センサが単数又は複数搭載されている。図1に示す例では、車両Vには6つの障害物センサが設けられている。6つの障害物センサのそれぞれは、車両Vの周囲の領域AL1〜AL6における障害物としての周辺車両OVを検出する。車線特定装置10は、障害物検出センサによる周囲の領域AL1〜AL6における周辺車両OVの検出状況に基づいて、周辺車両OVの左右端の位置を特定する。 The vehicle V is equipped with one or more obstacle detection sensors for identifying the surrounding vehicle OV. In the example shown in FIG. 1, the vehicle V is provided with six obstacle sensors. Each of the six obstacle sensors detects a surrounding vehicle OV as an obstacle in areas AL1 to AL6 around the vehicle V. The lane identification device 10 identifies the positions of the left and right ends of the surrounding vehicle OV based on the detection status of the surrounding vehicle OV in the surrounding areas AL1 to AL6 by the obstacle detection sensor.

車線特定装置10は、推定した白線の位置と、特定した周辺車両OVの各頂点の位置とに基づいて、周辺車両OVが走行している車線を特定する。このようにすることで、車線特定装置10は、車両Vの周辺を走行する周辺車両OVの状況を特定し、安全な車線変更の支援を行うことができる。以下に、車線特定装置10の詳細な説明を行う。 The lane identification device 10 identifies the lane in which the peripheral vehicle OV is traveling, based on the estimated position of the white line and the positions of the vertices of the identified peripheral vehicle OV. By doing so, the lane identification device 10 can identify the situation of the surrounding vehicle OV traveling around the vehicle V and can assist the safe lane change. The lane identification device 10 will be described in detail below.

[車両Vの構成]
車線特定装置10の詳細な説明を行うにあたり、車両Vの内部構成について説明する。図2は、本実施形態に係る車両Vの内部構成を模式的に示す図である。車両Vは、カメラ1と、車速センサ2と、ヨーレートセンサ3と、障害物検出センサ4と、車線特定装置10とを備える。
[Structure of vehicle V]
Before giving a detailed description of the lane identification device 10, the internal configuration of the vehicle V will be described. FIG. 2 is a diagram schematically showing the internal configuration of the vehicle V according to the present embodiment. The vehicle V includes a camera 1, a vehicle speed sensor 2, a yaw rate sensor 3, an obstacle detection sensor 4, and a lane identifying device 10.

カメラ1は、車両Vの最前部に設けられている。カメラ1は、例えば、車両Vの幅方向の中心位置に設けられている。カメラ1は、車両Vの前方を撮影する。カメラ1は、所定時間(例えば、数十ミリ秒から数百ミリ秒)おきに車両Vの前方を撮像することにより車両Vの前方を撮影し、映像を車線特定装置10に出力する。 The camera 1 is provided at the forefront of the vehicle V. The camera 1 is provided, for example, at the center position of the vehicle V in the width direction. The camera 1 photographs the front of the vehicle V. The camera 1 captures the front of the vehicle V by capturing an image of the front of the vehicle V at predetermined time intervals (for example, tens to hundreds of milliseconds), and outputs an image to the lane identifying device 10.

車速センサ2は、車両Vの速度を検出する。車速センサ2は、検出した車両Vの速度を示す速度情報を車線特定装置10に出力する。
ヨーレートセンサ3は、車両Vに生じるヨーレートを検出する。車両Vに生じるヨーレートとは、車両Vのヨー角の速度である。ヨーレートセンサ3は、検出したヨーレートを示すヨーレート情報を車線特定装置10に出力する。
The vehicle speed sensor 2 detects the speed of the vehicle V. The vehicle speed sensor 2 outputs speed information indicating the detected speed of the vehicle V to the lane identifying device 10.
The yaw rate sensor 3 detects a yaw rate generated in the vehicle V. The yaw rate generated in the vehicle V is the speed of the yaw angle of the vehicle V. The yaw rate sensor 3 outputs yaw rate information indicating the detected yaw rate to the lane identifying device 10.

障害物検出センサ4は、例えば、LIDAR(Light Detection And Ranging)であり、車両Vの周囲に電磁波を発信し、障害物としての周辺車両OVから反射された電磁波を受信することにより、周辺車両OVを検出する。 The obstacle detection sensor 4 is, for example, a LIDAR (Light Detection And Ranging), which emits an electromagnetic wave around the vehicle V and receives an electromagnetic wave reflected from the surrounding vehicle OV as an obstacle to receive the surrounding vehicle OV. To detect.

[車線特定装置10の構成]
続いて、図2を参照しながら、車線特定装置10の構成について説明する。車線特定装置10は、図2に示すように、記憶部11と、制御部12とを備える。
[Configuration of Lane Identification Device 10]
Next, the configuration of the lane identifying device 10 will be described with reference to FIG. As shown in FIG. 2, the lane identification device 10 includes a storage unit 11 and a control unit 12.

記憶部11は、例えば、ROM(Read Only Memory)又はRAM(Random Access Memory)である。記憶部11は、制御部12を機能させるための各種のプログラムを記憶する。 The storage unit 11 is, for example, a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 11 stores various programs for causing the control unit 12 to function.

制御部12は、図示しないCPU(Central Processing Unit)等のプロセッサを含む計算リソースである。制御部12は、記憶部11に記憶されているプログラムを実行することにより、車線関連状態特定部121、運動状態検出部122、白線位置推定部123、物体特定部124、及び車線特定部125として機能する。 The control unit 12 is a calculation resource including a processor such as a CPU (Central Processing Unit) (not shown). The control unit 12 executes the programs stored in the storage unit 11 so that the lane-related state identifying unit 121, the motion state detecting unit 122, the white line position estimating unit 123, the object identifying unit 124, and the lane identifying unit 125 can be used. Function.

車線特定装置10は、車線関連状態特定部121、運動状態検出部122、及び白線位置推定部123を備えることにより、白線位置推定装置として機能し、車両Vが走行する車線に対応する車両Vの前後の白線位置を推定する。まず、本実施形態において用いる座標系である車両座標系について説明する。図3は、車両座標系におけるX軸とY軸との間の関係を示す図である。本実施形態では、カメラ1の取り付け位置である車両Vの最前部の幅方向の中心を原点とし、車両右手方向にX軸、車両正面方向にY軸を設ける車両座標系を定義する。なお、本実施形態では、白線とは、車両Vが走行している車線を区切る実線又は破線に加え、レーンマーカー等を示すものとする。 The lane identification device 10 functions as a white lane position estimation device by including the lane related state identification unit 121, the motion state detection unit 122, and the white line position estimation unit 123, and the vehicle V corresponding to the lane in which the vehicle V is traveling. Estimate the front and back white line positions. First, the vehicle coordinate system, which is the coordinate system used in this embodiment, will be described. FIG. 3 is a diagram showing the relationship between the X axis and the Y axis in the vehicle coordinate system. In this embodiment, a vehicle coordinate system is defined in which the center in the width direction of the forefront portion of the vehicle V, which is the mounting position of the camera 1, is the origin, and the X axis is in the vehicle right-hand direction and the Y axis is in the vehicle front direction. In addition, in this embodiment, the white line indicates a lane marker or the like in addition to a solid line or a broken line that divides the lane in which the vehicle V is traveling.

車線関連状態特定部121は、車両Vの前方の走行環境を示す情報としてのカメラ1が撮影した映像に基づいて、車両Vが走行する車線に対応する白線と車両Vとの位置関係、白線の曲率及び車線幅等を示す車線関連状態を特定する。車線関連状態特定部121は、車線関連状態を示す状態変数を特定することにより、車線関連状態を特定する。具体的には、車線関連状態特定部121は、白線と車両Vとの位置関係を示す状態変数として、車両Vの中心から車線の中心までの横変位Uc、白線の接線とY軸とがなす角度である車両Vの方位角θを特定する。また、車線関連状態特定部121は、状態変数として、白線の曲率ρ、白線の曲率の車両正面方向への変化率ε及び車線幅Wを特定する。 The lane-related state identification unit 121, based on the image captured by the camera 1 as information indicating the traveling environment in front of the vehicle V, the positional relationship between the white line corresponding to the lane in which the vehicle V is traveling and the vehicle V, the white line A lane-related state indicating a curvature, a lane width, and the like is specified. The lane-related state identification unit 121 identifies the lane-related state by identifying a state variable indicating the lane-related state. Specifically, the lane-related state identification unit 121 makes a lateral displacement Uc from the center of the vehicle V to the center of the lane, a tangent line of the white line, and the Y-axis, as state variables indicating the positional relationship between the white line and the vehicle V. The azimuth angle θ of the vehicle V, which is the angle, is specified. In addition, the lane-related state identification unit 121 identifies the curvature ρ of the white line, the rate of change ε of the curvature of the white line in the vehicle front direction, and the lane width W as state variables.

運動状態検出部122は、車両Vの運動状態を検出する。具体的には、運動状態検出部122は、車速センサ2から車両Vの速度を示す速度情報を取得することにより、車両Vの運動状態としての速度を検出する。また、運動状態検出部122は、ヨーレートセンサ3から車両Vのヨーレートを示すヨーレート情報を取得することにより、車両Vの運動状態としてのヨーレートを検出する。 The motion state detection unit 122 detects the motion state of the vehicle V. Specifically, the motion state detection unit 122 detects the speed as the motion state of the vehicle V by acquiring speed information indicating the speed of the vehicle V from the vehicle speed sensor 2. Further, the motion state detection unit 122 detects the yaw rate as the motion state of the vehicle V by acquiring the yaw rate information indicating the yaw rate of the vehicle V from the yaw rate sensor 3.

白線位置推定部123は、車線関連状態特定部121により車線関連状態を示す状態変数が特定されるとともに運動状態検出部122により車両Vの運動状態が検出された場合には、当該状態変数及び当該運動状態に基づいて所定時間おきに車両Vから所定範囲内の車両Vの前後の白線の位置を推定する。 When the lane-related state identifying unit 121 identifies the state variable indicating the lane-related state and the motion state detecting unit 122 detects the motion state of the vehicle V, the white line position estimation unit 123 determines the state variable and the state variable. The positions of the white lines before and after the vehicle V within a predetermined range from the vehicle V are estimated at predetermined time intervals based on the motion state.

具体的には、まず,白線位置推定部123は、車線関連状態特定部121により特定された横変位Uc、車線幅W、方位角θ、白線の曲率ρ、曲率の変化率εを用いて、車両Vの前方の白線座標を算出する。車両前方の位置をY、当該位置Yにおける左側の白線のX座標をXLi、右側の白線のX座標をXRiとすると、XLi及びXRiは、例えば,白線形状を三次曲線により近似することで以下の式(1)、(2)で示される。ここで、左側の白線のY座標を示すYLiと、右側の白線のY座標を示すYRiとは、位置Yと等しいものとする。なお、曲率の変化率εが極めて小さいことから、式(1)、(2)に示される曲率の変化率εの項を考慮せず、YLi又はYRiについての二次曲線により白線形状を近似してもよい。 Specifically, first, the white line position estimation unit 123 uses the lateral displacement Uc, the lane width W, the azimuth angle θ, the white line curvature ρ, and the curvature change rate ε specified by the lane related state specification unit 121, The white line coordinates in front of the vehicle V are calculated. Assuming that the position in front of the vehicle is Y i , the X coordinate of the white line on the left side at the position Y i is X Li , and the X coordinate of the white line on the right side is X Ri , X Li and X Ri are, for example, a white line shape by a cubic curve. By approximating, it is shown by the following formulas (1) and (2). Here, Y Li indicating the Y coordinate of the white line on the left side and Y Ri indicating the Y coordinate of the white line on the right side are equal to the position Y i . Since the rate of change ε of curvature is extremely small, the white line shape is defined by a quadratic curve for Y Li or Y Ri without considering the term of the rate of change ε of curvature shown in Expressions (1) and (2). You may approximate.

Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489

図4は、本実施形態に係る白線位置推定部123が車両前方の複数の白線座標を算出する例を示す図である。白線位置推定部123は、図4に示すように、車両Vの前方から後方に向かって、左側の白線の位置座標P (i)(XLi,YLi)(ただし、iは、1〜N)と、右側の白線の位置座標P (i)(XRi,YRi)とを算出することにより、車両前方の白線座標を算出する。ただし、Nは前方の左白線又は右白線の点の数である。 FIG. 4 is a diagram showing an example in which the white line position estimation unit 123 according to the present embodiment calculates a plurality of white line coordinates in front of the vehicle. As shown in FIG. 4, the white line position estimation unit 123 goes from the front of the vehicle V toward the rear, and the position coordinates P L (i) (X Li , Y Li ) of the left white line (where i is 1 to 1). N F ) and the position coordinates P R (i) (X Ri , Y Ri ) of the right white line are calculated to calculate the white line coordinates in front of the vehicle. However, N F is the number of points on the front left white line or right white line.

また、白線位置推定部123は、車線関連状態のうちの横位置と車線幅に加え,車両Vの運動状態を用いて車両Vの後方の白線座標を算出する。図5は、本実施形態に係る白線位置推定部123が車両後方の複数の白線座標を算出する例を示す図である。まず、図5(a)に示すように、既に車両Vの後方に白線位置を示す点列が存在する場合を考える。図5(a)に示す、あるタイムステップkにおける左後方の白線上のj番目の点の車両座標系における座標値を(X Lj、Y Lj)とする。また、図5(b)に示す、車両Vが移動した後のタイムステップk+1における車両座標系における、同じ点の座標値を(Xk+1 Lj、Yk+1 Lj)とする。同様に、右後方の白線上のj番目の点のタイムステップk、タイムステップk+1における車両座標系における座標値をそれぞれ、(X Rj、Y Rj)、(Xk+1 Rj、Yk+1 Rj)とする。このとき、タイムステップk+1における各座標値は、タイムステップkにおける各座標値を用いて二次元の座標変換により、以下の式(3)、(4)のように表すことができる。 In addition, the white line position estimation unit 123 calculates the white line coordinates behind the vehicle V using the lateral position and the lane width of the lane-related state and the motion state of the vehicle V. FIG. 5 is a diagram showing an example in which the white line position estimation unit 123 according to the present embodiment calculates a plurality of white line coordinates behind the vehicle. First, as shown in FIG. 5A, consider a case where a point sequence indicating a white line position already exists behind the vehicle V. The coordinate values of the j-th point on the left rear white line at a certain time step k shown in FIG. 5A in the vehicle coordinate system are defined as (X k Lj , Y k Lj ). Further, the coordinate value of the same point in the vehicle coordinate system at time step k+1 after the vehicle V shown in FIG. 5B is set to (X k+1 Lj , Y k+1 Lj ). Similarly, the coordinate values of the j-th point on the right rear white line in the vehicle coordinate system at time step k and time step k+1 are (X k Rj , Y k Rj ), (X k+1 Rj , Y k+1 Rj ), respectively. And At this time, each coordinate value at time step k+1 can be expressed as in the following equations (3) and (4) by two-dimensional coordinate conversion using each coordinate value at time step k.

Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489

ここで、式(3)が、左後方白線の座標変換に対応し、式(4)が、右後方白線の座標変換に対応している。また、Δψは、タイムステップ間の車両Vのヨー角の変化量である。例えば,白線位置推定部123は、運動状態検出部122が検出した車両Vのヨーレートγと、タイムステップ間の時間増分Δtとの乗算値をΔψとして算出する。 Here, the equation (3) corresponds to the coordinate transformation of the left rear white line, and the equation (4) corresponds to the coordinate transformation of the right rear white line. Further, Δψ is the amount of change in the yaw angle of the vehicle V between time steps. For example, the white line position estimating unit 123 calculates a multiplication value of the yaw rate γ k of the vehicle V detected by the motion state detecting unit 122 and the time increment Δt k between time steps as Δψ.

また、座標(X 、Y )は、タイムステップkでの車両座標系から見たタイムステップ間の時間増分Δt後のカメラ位置、すなわち、車両座標系の原点の移動先である。白線位置推定部123は、運動状態検出部122が検出した車両Vの速度vと、車両Vのヨーレートγとを用いた自律航法により、座標(X 、Y )を算出する。そして、白線位置推定部123は、Δψと、座標(X 、Y )とを算出すると、式(3)、(4)に基づいて、タイムステップk+1における各座標値を算出する。 The coordinates (X k D , Y k D ) are the camera position after the time increment Δt k between the time steps as seen from the vehicle coordinate system at the time step k, that is, the movement destination of the origin of the vehicle coordinate system. .. The white line position estimation unit 123 calculates coordinates (X k D , Y k D ) by autonomous navigation using the velocity v k of the vehicle V detected by the motion state detection unit 122 and the yaw rate γ k of the vehicle V. .. Then, when the white line position estimation unit 123 calculates Δψ and the coordinates (X k D , Y k D ), it calculates each coordinate value at the time step k+1 based on the equations (3) and (4).

一方、走行開始時等、後方の座標が全く算出されていない場合、又は前回新しい後側方の座標を算出してから一定距離を走行した際には、車両Vの真横の白線位置の座標を新たに追加する。この場合には、白線位置推定部123は、以下の式(5)〜(8)に基づいて、時刻k+1における後方の白線の各点に対応する座標を算出する。 On the other hand, if the rear coordinates are not calculated at all, such as at the start of traveling, or if the vehicle has traveled a certain distance since the last new rear lateral coordinates were calculated, the coordinates of the white line position directly beside the vehicle V are set. Add new. In this case, the white line position estimation unit 123 calculates the coordinates corresponding to each point of the white line behind at time k+1 based on the following equations (5) to (8).

Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489

ここで、式(5)及び式(6)が車両前面の真横に対する新しい点の生成を表す。また、ULk及びURkは、それぞれタイムステップkにおいて推定されている左白線及び右白線までの横変位であり、以下の式(9)、(10)に示すようにタイムステップkにおける横変位UCk及び車線幅Wに基づいて算出する。 Here, equations (5) and (6) represent the generation of a new point just beside the front of the vehicle. Further, U Lk and U Rk are lateral displacements up to the left white line and the right white line, respectively, estimated at the time step k, and the lateral displacements at the time step k are represented by the following equations (9) and (10). It is calculated based on U Ck and lane width W k .

Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489

また、式(7)が既存の左後方の白線の点に対する、車両運動に伴う座標変換を示し、式(8)が既存の右後方の白線の点に対する、車両運動に伴う座標変換を示している。ここで、式(7)、式(8)では、新たな白線上の点の生成に伴い、座標変換後の点の番号を一つ後ろにずらしている点で式(3)、式(4)と異なる。 Expression (7) shows the coordinate transformation associated with the vehicle motion for the existing left rear white line point, and Equation (8) shows the coordinate transformation associated with the vehicle motion for the existing right rear white line point. There is. Here, in the equations (7) and (8), the number of the point after coordinate conversion is shifted backward by one with the generation of a new point on the white line, and the equations (3) and (4) ) Different.

白線位置推定部123は、各時間において、j=(N+1)〜(N+N)に対して上述の計算を実行することで、後方の白線の座標値を更新する。ただし、Nは後側方の左白線又は右白線の点の数である。なお、車線判定を実施する後方の車線の距離は、例えば車両前面から最大300m程度までである。したがって、白線位置推定部123は、上述の計算を行う際には、各タイムステップにおいて後方の点の座標を更新した後に、車両前面からの距離が予め定められている閾値以上の点を消去する。 The white line position estimation unit 123 updates the coordinate value of the white line behind by performing the above calculation for j=(N F +1) to (N F +N B ) at each time. However, N B is the number of points on the left or right white line on the rear side. The distance of the lane behind which the lane determination is performed is, for example, up to about 300 m from the front of the vehicle. Therefore, when performing the above calculation, the white line position estimation unit 123 deletes points whose distance from the vehicle front surface is equal to or greater than a predetermined threshold value after updating the coordinates of the rear point at each time step. ..

ここで、カメラ1の不具合等により車線関連状態特定部121が車線関連状態を特定できない場合、又は、車速センサ2又はヨーレートセンサ3の不具合等により、運動状態検出部122が運動状態を検出できない場合がある。 Here, when the lane-related state identification unit 121 cannot identify the lane-related state due to a defect of the camera 1, or when the exercise state detection unit 122 cannot detect the exercise state due to a defect of the vehicle speed sensor 2 or the yaw rate sensor 3. There is.

これに対し、白線位置推定部123は、車線関連状態特定部121により車線関連状態が特定されず、運動状態検出部122により運動状態が検出された場合には、車線関連状態を示す状態変数に含まれる車線幅を所定幅とみなすとともに、当該運動状態に基づいて白線と車両Vとの位置関係を推定することにより車線関連状態を推定する。そして、白線位置推定部123は、推定した車線関連状態及び運動状態に基づいて所定時間おきに白線の位置を推定する。 On the other hand, when the lane-related state specifying unit 121 does not specify the lane-related state and the motion state detecting unit 122 detects the motion state, the white line position estimating unit 123 sets the state variable indicating the lane-related state as a state variable. The included lane width is regarded as a predetermined width, and the lane-related state is estimated by estimating the positional relationship between the white line and the vehicle V based on the motion state. Then, the white line position estimation unit 123 estimates the position of the white line at predetermined intervals based on the estimated lane-related state and motion state.

具体的には、白線位置推定部123は、車線関連状態特定部121により車線関連状態が特定されている状態から、車線関連状態が特定されない状態に変化した場合には、車線関連状態が特定されない状態に変化する前に特定した状態変数のうち、最後に特定された状態変数を過去状態変数とする。そして、白線位置推定部123は、当該過去状態変数と、運動状態検出部122により検出された運動状態に基づいて推定された状態変数と、当該運動状態とに基づいて白線の位置を推定する。白線位置推定部123は、時間の経過に従って、過去状態変数の影響度合いを小さくするとともに、運動状態に基づいて推定した状態変数の影響度合いを大きくして白線の位置を推定する。 Specifically, the white lane position estimating unit 123 does not specify the lane-related state when the lane-related state specifying unit 121 changes the state in which the lane-related state is specified to the state in which the lane-related state is not specified. Among the state variables specified before changing to the state, the state variable specified last is the past state variable. Then, the white line position estimation unit 123 estimates the position of the white line based on the past state variable, the state variable estimated based on the exercise state detected by the exercise state detection unit 122, and the exercise state. The white line position estimating unit 123 estimates the position of the white line by decreasing the influence degree of the past state variable and increasing the influence degree of the state variable estimated based on the motion state as time passes.

より具体的には、白線位置推定部123は、車線関連状態特定部121により状態変数が特定されている状態から、特定されない状態に変化した時点を時刻t=0とする。そして、白線位置推定部123は、運動状態検出部122により検出された運動状態である車両Vの速度vと、ヨーレートγとに基づいて、状態変数に含まれる曲率ρ、方位角θ、横変位Ucを推定する。 More specifically, the white line position estimating unit 123 sets time t=0 at a time point when the state variable is identified by the lane-related state identifying unit 121 to a state in which the state variable is not identified. Then, the white line position estimation unit 123, based on the velocity v of the vehicle V in the motion state detected by the motion state detection unit 122 and the yaw rate γ, the curvature ρ, the azimuth θ, and the lateral displacement included in the state variables. Estimate Uc.

図6は、本実施形態に係る横変位Uc及び方位角θの算出方法を説明する図である。図6に示すように旋回中心位置Oと、車両Vの重心位置Pとの距離をRとすると、R=v/γであるとともに、R=1/ρであることから、白線位置推定部123は、ρ=γ/vと算出する。また、図6に示すように、旋回中心位置Oから半径Rの円弧を描き、車両Vの重心位置Pにおいて当該円弧の接線方向と車両の長手方向が一致する場合、車両Vの前面中心から車両Vの重心位置Pに向かう線と、車両Vの前面における当該円弧の接線とがなす角度が方位角θである。 FIG. 6 is a diagram illustrating a method of calculating the lateral displacement Uc and the azimuth angle θ according to the present embodiment. As shown in FIG. 6, when the distance between the turning center position O and the center of gravity P of the vehicle V is R, R=v/γ and R=1/ρ, so the white line position estimating unit 123 Is calculated as ρ=γ/v. Further, as shown in FIG. 6, when a circular arc having a radius R is drawn from the turning center position O and the tangential direction of the circular arc coincides with the longitudinal direction of the vehicle at the center of gravity position P of the vehicle V, the vehicle moves from the front center of the vehicle V to the vehicle. The angle formed by the line extending toward the center of gravity P of V and the tangent to the arc on the front surface of the vehicle V is the azimuth angle θ.

図6に示すように、車両前面(カメラ1の位置)と、車両Vの重心位置Pとのオフセット距離をLとする。Rsinθ=Lであるとともに、R=1/ρであることから、θ=sin−1(ρL)となり、方位角が微小であるとすればθ≒ρLと近似できる。また、車両Vの重心位置Pが車線中央に位置していると仮定した場合、車両前面における車線中心との横変位量Ucは、図6に示すようにR−Rcosθとなる。上述したように、R=1/ρであることから、Uc=1/ρ・(1−cosθ)となる。また、白線位置推定部123は、車線幅を所定幅(例えば、3.5m)とみなすとともに、曲率の変化率εを0とみなす。 As shown in FIG. 6, the offset distance between the front surface of the vehicle (the position of the camera 1) and the center of gravity P of the vehicle V is L. Since Rsin θ=L and R=1/ρ, θ=sin −1 (ρL), and if the azimuth angle is small, it can be approximated to θ≈ρL. Further, if it is assumed that the center of gravity P of the vehicle V is located at the center of the lane, the lateral displacement amount Uc with respect to the center of the lane on the front surface of the vehicle is R-Rcos θ, as shown in FIG. 6. As described above, since R=1/ρ, Uc=1/ρ·(1-cos θ). In addition, the white line position estimating unit 123 regards the lane width as a predetermined width (for example, 3.5 m) and the curvature change rate ε as 0.

白線位置推定部123は、過去状態変数をA、運動状態に基づいて推定又は所定値とみなした状態変数をAとし、以下の式(11)に基づいて、時刻tにおける各状態変数Anewを算出する。ここで、w、wは、A及びAを、白線のX座標の算出に適用する度合いを示す重み係数である。 The white line position estimation unit 123 sets the past state variable as A 3 , and the state variable estimated or regarded as a predetermined value based on the motion state as A 2, and each state variable A at time t based on the following equation (11). Calculate new . Here, w 2 and w 3 are weighting factors indicating the degree to which A 2 and A 3 are applied to the calculation of the X coordinate of the white line.

Figure 2020086489
ただし、
Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489
However,
Figure 2020086489
Figure 2020086489
Figure 2020086489

白線位置推定部123は、wの値が1となり、wの値が0となるまで、以下の式(12)、(13)に基づいて、各時刻に対応する重み係数w、wを更新する。Δtはタイムステップであり、αは重み係数を更新する速度を示す係数である。なお、白線位置推定部123は、車両Vの操舵や加減速の傾向に基づいてαを変化させてもよい。例えば、白線位置推定部123は、車両Vの操舵が頻繁に行われる傾向である場合、操舵が頻繁に行われない傾向である場合に比べてαの値を大きくしてもよい。 The white line position estimation unit 123 uses the weighting factors w 2 and w corresponding to each time based on the following equations (12) and (13) until the value of w 2 becomes 1 and the value of w 3 becomes 0. Update 3 . Δt is a time step, and α is a coefficient indicating the speed at which the weighting coefficient is updated. The white line position estimation unit 123 may change α based on the tendency of steering or acceleration/deceleration of the vehicle V. For example, the white line position estimation unit 123 may increase the value of α when the vehicle V tends to be steered more frequently than when the vehicle V is not steered frequently.

Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489

白線位置推定部123は、式(11)〜(13)に基づいて算出した各時刻の状態変数Anew及び検出された運動状態を用いて式(1)〜(10)を計算することにより、車線関連状態特定部121により車線関連状態が特定されず、運動状態検出部122により運動状態が検出される状態に変化した場合における、各時刻の車両Vの前後方の白線のX座標を算出する。 The white line position estimation unit 123 calculates Equations (1) to (10) by using the state variable A new at each time calculated based on Equations (11) to (13) and the detected motion state, When the lane-related state identification unit 121 does not identify the lane-related state and the movement state detection unit 122 changes to a state in which the movement state is detected, the X coordinate of the front and rear white line of the vehicle V at each time is calculated. ..

なお、白線位置推定部123は、車線関連状態特定部121により状態変数が特定されず、運動状態検出部122により運動状態が検出されている状態から、状態変数が特定され、運動状態が検出される状態に変化した場合には、変化した時点において直ちにwの値を0、wの値を1とし、特定した状態変数と検出した運動状態に基づいて、式(1)〜(10)を計算することにより、各時刻の車両Vの前後方の白線のX座標を算出する。 In addition, in the white line position estimating unit 123, the state variable is specified and the motion state is detected from the state in which the lane-related state specifying unit 121 does not specify the state variable and the motion state detecting unit 122 detects the motion state. When the state changes, the value of w 2 is set to 0 and the value of w 3 is set to 1 immediately after the change, and based on the specified state variable and the detected motion state, equations (1) to (10) Is calculated to calculate the X coordinate of the white line in front of and behind the vehicle V at each time.

白線位置推定部123は、車線関連状態特定部121により車線関連状態が特定されず、運動状態検出部122により運動状態が検出されなかった場合には、車両Vの運動状態を、車両Vが直線を定速走行している場合の運動状態と推定するとともに、車線関連状態が示す状態変数を、車両Vが直線の車線中心を走行している場合の状態変数と推定する。そして、白線位置推定部123は、推定した状態変数及び運動状態に基づいて白線の位置を推定する。 If the lane-related state specifying unit 121 does not specify the lane-related state and the motion state detecting unit 122 does not detect the motion state, the white line position estimating unit 123 indicates the motion state of the vehicle V as a straight line. Is estimated as the motion state when the vehicle is traveling at a constant speed, and the state variable indicated by the lane-related state is estimated as the state variable when the vehicle V is traveling in the straight lane center. Then, the white line position estimation unit 123 estimates the position of the white line based on the estimated state variable and motion state.

具体的には、白線位置推定部123は、車線関連状態特定部121により状態変数が特定されず、運動状態検出部122により運動状態が検出されている状態から、状態変数が特定されず、運動状態が検出されない状態に変化した場合には、運動状態が検出されない状態に変化する前に検出された運動状態のうち、最後に検出された運動状態を過去運動状態とする。また、白線位置推定部123は、運動状態が検出されない状態に変化する前に推定された状態変数のうち、最後に推定された状態変数を過去推定状態変数とする。 Specifically, in the white line position estimating unit 123, the state variable is not specified by the lane-related state specifying unit 121, and the state variable is not specified from the state in which the motion state is detected by the motion state detecting unit 122. When the state has changed to a state in which the motion state has not been detected, the motion state detected last among the motion states detected before the state has changed to the state in which the motion state has not been detected is defined as the past motion state. In addition, the white line position estimation unit 123 sets the last estimated state variable among the state variables estimated before the movement state is not detected as the past estimated state variable.

そして、白線位置推定部123は、当該過去運動状態と、当該過去状態変数と、推定した運動状態と、推定した状態変数とに基づいて白線の位置を推定する。白線位置推定部123は、時間の経過に従って、過去運動状態及び過去推定状態変数の影響度合いを小さくするとともに、推定した運動状態及び状態変数の影響度合いを大きくして白線の位置を推定する。 Then, the white line position estimation unit 123 estimates the position of the white line based on the past movement state, the past state variable, the estimated movement state, and the estimated state variable. The white line position estimation unit 123 estimates the position of the white line by decreasing the influence degree of the past motion state and the past estimated state variable and increasing the estimated influence degree of the motion state and the state variable over time.

より具体的には、白線位置推定部123は、運動状態検出部122により運動状態が検出されている状態から検出されない状態に変化した時点を時刻t=0とする。そして、白線位置推定部123は、車両Vの速度vを所定速度(例えば、60km/h)と推定し、ヨーレートγを直線を走行している場合の値、すなわち、0deg/sと推定することにより運動状態を推定する。また、白線位置推定部123は、車両Vが直線の車線中心を走行している場合と見なし、曲率ρを0m−1、方位角θを0deg、横変位Ucを0mと推定することにより、状態変数を推定する。 More specifically, the white line position estimation unit 123 sets time t=0 when the movement state detection unit 122 changes from a state in which the movement state is detected to a state in which the movement state is not detected. Then, the white line position estimation unit 123 estimates the speed v of the vehicle V as a predetermined speed (for example, 60 km/h), and estimates the yaw rate γ as a value when traveling on a straight line, that is, 0 deg/s. The motion state is estimated by. In addition, the white line position estimation unit 123 considers that the vehicle V is traveling in the center of a straight lane, and estimates the curvature ρ to be 0 m −1 , the azimuth angle θ to be 0 deg, and the lateral displacement Uc to be 0 m. Estimate variables.

白線位置推定部123は、過去推定状態変数及び過去運動状態をB、時刻t=0において推定した運動状態及び状態変数をBとし、以下の式(14)に基づいて、時刻tにおける運動状態及び状態変数Bnewを算出する。ここで、w、wは、B及びBを、白線のX座標の算出に適用する度合いを示す重み係数である。 The white line position estimation unit 123 sets the past estimated state variable and the past movement state as B 2 , and the movement state and the state variable estimated at time t=0 as B 1, and based on the following equation (14), the movement at the time t. Calculate state and state variable B new . Here, w 1 and w 2 are weighting factors indicating the degree to which B 1 and B 2 are applied to the calculation of the X coordinate of the white line.

Figure 2020086489
ただし、
Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489
However,
Figure 2020086489
Figure 2020086489
Figure 2020086489

また、白線位置推定部123は、wの値が1となり、wの値が0となるまで、以下の式(15)、(16)に基づいて、各時刻に対応する重み係数w、wを更新する。ここで、Δtはタイムステップであり、βは、重み係数を更新する速度を示す係数である。なお、白線位置推定部123は、操舵や加減速の傾向に基づいてβを変化させてもよい。 Further, the white line position estimation unit 123 uses the weighting factor w 1 corresponding to each time based on the following equations (15) and (16) until the value of w 1 becomes 1 and the value of w 2 becomes 0. , W 2 are updated. Here, Δt is a time step, and β is a coefficient indicating the speed at which the weighting coefficient is updated. The white line position estimation unit 123 may change β based on the tendency of steering or acceleration/deceleration.

Figure 2020086489
Figure 2020086489
Figure 2020086489
Figure 2020086489

白線位置推定部123は、式(14)〜(16)に基づいて算出した各時刻の運動状態及び状態変数Bnewを用いて式(1)〜(10)を計算することにより、車線関連状態特定部121により車線関連状態が特定されず、運動状態検出部122により運動状態が検出されない状態に変化した場合における、各時刻の車両Vの前後方の白線のX座標を算出する。 The white line position estimation unit 123 calculates the equations (1) to (10) using the motion state and the state variable B new calculated at each time based on the equations (14) to (16), thereby calculating the lane-related state. When the lane-related state is not identified by the identifying unit 121 and the exercising state is not detected by the exercising state detecting unit 122, the X coordinate of the front and rear white line of the vehicle V at each time is calculated.

なお、白線位置推定部123は、車線関連状態特定部121により状態変数が特定されず、運動状態検出部122により運動状態が検出されていない状態から、状態変数が特定されず、運動状態が検出されている状態に変化した場合には、変化した時点において直ちにwの値を0、wの値を1とし、推定した状態変数と検出した運動状態に基づいて、式(1)〜(10)を計算することにより、各時刻の車両Vの前後方の白線のX座標を算出する。 In the white line position estimating unit 123, the state variable is not specified by the lane-related state specifying unit 121, and the motion variable is not detected by the motion state detecting unit 122. When the state is changed to the state described above, the value of w 1 is set to 0 and the value of w 2 is set to 1 immediately at the time of the change, and based on the estimated state variable and the detected motion state, equations (1) to ( By calculating 10), the X coordinate of the white line in front of and behind the vehicle V at each time is calculated.

なお、白線位置推定部123は、車線関連状態特定部121における車線関連状態の特定状況と、運動状態検出部122における前記運動状態の検出状況に基づいて、白線位置の推定精度の信頼度を示す信頼度情報として、信頼値を算出してもよい。例えば、信頼値を、1から3に示す数値とする。信頼値が3である場合、最も信頼性が高く、1に近づくにしたがって信頼性が低くなるものとする。 The white line position estimation unit 123 indicates the reliability of the estimation accuracy of the white line position based on the lane-related state identification situation in the lane-related state identification unit 121 and the exercise state detection situation in the exercise state detection unit 122. A reliability value may be calculated as the reliability information. For example, the reliability value is set to a numerical value from 1 to 3. When the reliability value is 3, the reliability is highest and the reliability decreases as the reliability value approaches 1.

例えば、白線位置推定部123は、車線関連状態特定部121により車線関連状態を示す状態変数が特定されるとともに運動状態検出部122により車両Vの運動状態が検出された場合には、信頼値を3とする。また、車線関連状態特定部121により車線関連状態を示す状態変数が特定されておらず、運動状態検出部122により車両Vの運動状態が検出されている場合には、信頼値を、wに2を加算した値とする。また、車線関連状態特定部121により車線関連状態を示す状態変数が特定されておらず、運動状態検出部122により車両Vの運動状態が検出されていない場合には、信頼値を、wに1を加算した値とする。 For example, when the lane-related state identification unit 121 identifies the state variable indicating the lane-related state and the motion state detection unit 122 detects the motion state of the vehicle V, the white line position estimation unit 123 determines the reliability value. Set to 3. If the lane-related state identifying unit 121 has not identified the state variable indicating the lane-related state and the motion state detecting unit 122 has detected the motion state of the vehicle V, the reliability value is set to w 3 . The value obtained by adding 2 is used. If the lane-related state specifying unit 121 does not specify the state variable indicating the lane-related state and the motion state detecting unit 122 does not detect the motion state of the vehicle V, the reliability value is set to w 2 . Let 1 be the value added.

白線位置推定部123は、算出した信頼値を車線特定部125に出力してもよい。このようにすることで、車線特定装置10の車線特定部125が特定する周辺車両OVが位置する車線に対して、確からしさを付加することができる。 The white line position estimating unit 123 may output the calculated reliability value to the lane identifying unit 125. By doing so, the certainty can be added to the lane in which the peripheral vehicle OV specified by the lane specifying unit 125 of the lane specifying device 10 is located.

また、車線特定装置10は、周辺車両OVが位置する車線を特定するために白線位置を推定するところ、障害物検出センサ4において周辺車両OVを検出できていない場合には、信頼値を0とし、白線位置を推定せず、周辺車両OVが位置する車線を特定しないようにしてもよい。 The lane identifying device 10 estimates the white line position to identify the lane in which the surrounding vehicle OV is located. When the obstacle detection sensor 4 cannot detect the surrounding vehicle OV, the reliability value is set to 0. Alternatively, the white line position may not be estimated and the lane in which the surrounding vehicle OV is located may not be specified.

物体特定部124は、各タイムステップにおいて、車両Vの周辺の物体としての周辺車両OVを矩形と見なしたときの、当該矩形の4つの頂点の位置及び当該矩形の中心位置を特定する。例えば、物体特定部124は、以下に示すように周辺車両OVの各頂点の位置を特定する。 In each time step, the object identifying unit 124 identifies the positions of the four vertices of the rectangle and the center position of the rectangle when the surrounding vehicle OV as an object around the vehicle V is regarded as a rectangle. For example, the object identifying unit 124 identifies the position of each vertex of the surrounding vehicle OV as shown below.

まず、物体特定部124は、単数又は複数の障害物検出センサ4による障害物の検出状況に基づいて、車両座標系における、周辺車両OVとしての障害物を示す複数の点群の車両座標系における座標を特定する。物体特定部124は、特定した複数の点群の座標に基づいて、周辺車両OVの車幅、車両長及び向きを特定する。物体特定部124は、特定した周辺車両OVの車幅、車両長及び向きに基づいて、周辺車両OVを示す矩形形状のバウンディングボックスを点群に対応する位置に配置したときの、当該バウンディングボックスの各頂点の座標を周辺車両OVを示す座標として特定する。また、物体特定部124は、バウンディングボックスを点群に対応する位置に配置したときの、当該バウンディングボックスの中心位置を、周辺車両OVの中心位置を示す座標として特定する。 First, the object specifying unit 124, based on the obstacle detection state by the single or plural obstacle detection sensors 4, in the vehicle coordinate system of a plurality of point groups indicating obstacles as the surrounding vehicle OV in the vehicle coordinate system. Specify the coordinates. The object identifying unit 124 identifies the vehicle width, vehicle length, and direction of the surrounding vehicle OV based on the coordinates of the identified plurality of points. The object identifying unit 124 determines, based on the identified vehicle width, vehicle length, and direction of the surrounding vehicle OV, a rectangular bounding box indicating the surrounding vehicle OV at a position corresponding to the point cloud. The coordinates of each vertex are specified as the coordinates indicating the surrounding vehicle OV. Further, the object identifying unit 124 identifies the center position of the bounding box when the bounding box is arranged at the position corresponding to the point group as coordinates indicating the center position of the surrounding vehicle OV.

車線特定部125は、各タイムステップにおいて、車両Vの周辺を走行する周辺車両OVが走行している車線を特定する。車線特定部125は、白線位置推定部123が推定した白線位置と、物体特定部124が特定した物体としての周辺車両OVの各頂点の位置とに基づいて、白線位置を基準としたときの周辺車両OVの左端の車線位置及び右端の車線位置を特定する。そして、車線特定部125は、当該左端の車線位置及び当該右端の車線位置に基づいて、周辺車両OVが位置する車線を特定する。また、車線特定部125は特定した周辺車両OVが位置する車線に白線位置推定部123が算出した信頼度を付加して出力してもよい。 The lane identification unit 125 identifies the lane in which the peripheral vehicle OV traveling around the vehicle V is traveling at each time step. The lane specifying unit 125, based on the white line position estimated by the white line position estimating unit 123 and the positions of the vertices of the peripheral vehicle OV as the object specified by the object specifying unit 124, is based on the white line position as a reference. The left lane position and the right lane position of the vehicle OV are specified. Then, the lane identifying unit 125 identifies the lane in which the peripheral vehicle OV is located based on the lane position at the left end and the lane position at the right end. In addition, the lane identifying unit 125 may add the reliability calculated by the white line position estimating unit 123 to the lane in which the identified peripheral vehicle OV is located and output the lane.

[車線特定装置10における処理の流れ]
続いて、車線特定装置10における処理の流れについて説明する。図7は、本実施形態に係る車線特定装置10における処理の流れを示すフローチャートである。なお、車線特定装置10は、各タイムステップにおいて本フローチャートに係る処理を実行するものとする。
[Process Flow in Lane Identification Device 10]
Subsequently, a flow of processing in the lane identifying device 10 will be described. FIG. 7 is a flowchart showing the flow of processing in the lane identification device 10 according to this embodiment. In addition, the lane identification device 10 shall perform the process which concerns on this flowchart in each time step.

まず、車線関連状態特定部121及び運動状態検出部122は、状態変数及び車両Vの運動状態を特定するとともに状態変数及び運動状態の特定状況の信頼度を算出する(S1)。
続いて、白線位置推定部123は、S1における状態変数の特定状況及び運動状態の検出状況に基づいて、車両Vが走行する車線に対する白線位置を推定する(S2)。
First, the lane-related state identification unit 121 and the motion state detection unit 122 identify the state variable and the motion state of the vehicle V, and also calculate the reliability of the specific situation of the state variable and the motion state (S1).
Subsequently, the white line position estimation unit 123 estimates the white line position with respect to the lane in which the vehicle V is traveling, based on the state of the state variable specified in S1 and the state of detection of the motion state (S2).

続いて、物体特定部124は、物体としての周辺車両OVの各頂点の座標を特定する(S3)。
続いて、車線特定部125は、S2において推定した白線位置と、S3において特定した周辺車両OVの各頂点の座標とに基づいて、周辺車両OVの左右端の位置を特定する(S4)。
Subsequently, the object identifying unit 124 identifies the coordinates of each vertex of the peripheral vehicle OV as an object (S3).
Subsequently, the lane identifying unit 125 identifies the positions of the left and right ends of the surrounding vehicle OV based on the white line position estimated in S2 and the coordinates of each vertex of the surrounding vehicle OV identified in S3 (S4).

続いて、車線特定部125は、特定した周辺車両OVの左右端の位置に基づいて周辺車両OVの車線上の位置を特定する(S5)。
続いて、車線特定部125は、S5において特定した周辺車両OVの車線上の位置を示す情報及び白線位置を推定した時の信頼度を示す信頼度情報を出力する(S6)。
Subsequently, the lane specifying unit 125 specifies the position of the peripheral vehicle OV on the lane based on the positions of the left and right ends of the specified peripheral vehicle OV (S5).
Subsequently, the lane identifying unit 125 outputs information indicating the position on the lane of the peripheral vehicle OV identified in S5 and reliability information indicating reliability when the white line position is estimated (S6).

[本実施形態の効果]
以上説明したように、本実施形態に係る車線特定装置10は、車両Vが走行する車線に対応する白線と車両Vとの位置関係、当該白線の曲率及び車線幅を示す状態変数が特定されるとともに、車両Vの運動状態を検出した場合には、当該状態変数及び当該運動状態に基づいて所定時間おきに車両Vから所定範囲内の白線の位置を推定し、状態変数が特定されず、運動状態が検出された場合には、当該運動状態に基づいて位置関係を推定することにより状態変数を推定し、推定した状態変数及び運動状態に基づいて所定時間おきに白線の位置を推定する。このようにすることで、車線特定装置10は、白線を認識できない場合であっても、信頼性は低下するものの、白線の位置を推定することができる。
[Effects of this embodiment]
As described above, the lane identifying device 10 according to the present embodiment identifies the positional relationship between the white line corresponding to the lane in which the vehicle V is traveling and the vehicle V, the curvature of the white line, and the state variable indicating the lane width. At the same time, when the motion state of the vehicle V is detected, the position of the white line within the predetermined range from the vehicle V is estimated at predetermined time intervals based on the state variable and the motion state, and the state variable is not specified. When the state is detected, the state variable is estimated by estimating the positional relationship based on the motion state, and the position of the white line is estimated at predetermined intervals based on the estimated state variable and the motion state. By doing so, the lane identifying device 10 can estimate the position of the white line even if the white line cannot be recognized, although the reliability is reduced.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes are possible within the scope of the gist thereof. is there. For example, the specific embodiment of the distribution/integration of the device is not limited to the above-described embodiment, and all or a part thereof may be functionally or physically distributed/integrated in arbitrary units to be configured. You can Further, a new embodiment that occurs due to an arbitrary combination of a plurality of embodiments is also included in the embodiment of the present invention. The effect of the new embodiment produced by the combination has the effect of the original embodiment.

1・・・カメラ
2・・・車速センサ
3・・・ヨーレートセンサ
4・・・障害物検出センサ
10・・・車線特定装置
11・・・記憶部
12・・・制御部
121・・・車線関連状態特定部
122・・・運動状態検出部
123・・・白線位置推定部
124・・・物体特定部
125・・・車線特定部
V・・・車両
OV・・・周辺車両
1... Camera 2... Vehicle speed sensor 3... Yaw rate sensor 4... Obstacle detection sensor 10... Lane identifying device 11... Storage unit 12... Control unit 121... Lane related State identification unit 122... Motion state detection unit 123... White line position estimation unit 124... Object identification unit 125... Lane identification unit V... Vehicle OV... Peripheral vehicle

Claims (8)

自車両の前方を示す情報に基づいて、前記自車両が走行する車線に対応する白線と前記自車両との位置関係、前記白線の曲率及び車線幅を示す車線関連状態を特定する車線関連状態特定部と、
前記自車両の運動状態を検出する運動状態検出部と、
前記車線関連状態特定部により前記車線関連状態が特定されるとともに前記運動状態検出部により前記運動状態が検出された場合には、前記車線関連状態及び前記運動状態に基づいて所定時間おきに前記自車両から所定範囲内の前記白線の位置を推定し、前記車線関連状態特定部により前記車線関連状態が特定されず、前記運動状態検出部により前記運動状態が検出された場合には、前記運動状態に基づいて前記位置関係を推定することにより前記車線関連状態を推定し、推定した車線関連状態及び前記運動状態に基づいて前記所定時間おきに前記白線の位置を推定する白線位置推定部と、
を備える白線位置推定装置。
A lane-related state identification that identifies a lane-related state indicating the positional relationship between the white line corresponding to the lane in which the vehicle is traveling and the own vehicle, the curvature of the white line, and the lane width, based on information indicating the front of the vehicle Department,
A motion state detection unit that detects the motion state of the vehicle,
When the lane-related state is identified by the lane-related state identifying unit and the exercise state is detected by the exercise state detecting unit, the lane-related state is identified by the lane-related state and the exercise state at predetermined intervals based on the lane-related state and the exercise state. When the position of the white line within a predetermined range from the vehicle is estimated, the lane-related state is not specified by the lane-related state specifying unit, and the motion state is detected by the motion state detection unit, the motion state By estimating the lane-related state by estimating the positional relationship based on, the white line position estimation unit that estimates the position of the white line at the predetermined time intervals based on the estimated lane-related state and the motion state,
A white line position estimating device comprising:
前記白線位置推定部は、前記車線関連状態特定部により前記車線関連状態が特定されている状態から、前記車線関連状態が特定されない状態に変化した場合には、前記車線関連状態が特定されない状態に変化する前に特定された車線関連状態である過去車線関連状態と、前記運動状態に基づいて推定した車線関連状態と、前記運動状態とに基づいて前記白線の位置を推定する、
請求項1に記載の白線位置推定装置。
The white lane position estimating unit, when the lane-related state is specified by the lane-related state specifying unit, when the lane-related state is not specified, when the lane-related state is not specified, the lane-related state is not specified. Estimating the position of the white line based on the past lane-related state that is the lane-related state specified before changing, the lane-related state estimated based on the motion state, and the motion state,
The white line position estimating device according to claim 1.
前記白線位置推定部は、時間の経過に従って、前記過去車線関連状態の影響度合いを小さくするとともに、前記運動状態に基づいて推定した車線関連状態の影響度合いを大きくして前記白線の位置を推定する、
請求項2に記載の白線位置推定装置。
The white line position estimation unit estimates the position of the white line by decreasing the influence degree of the past lane-related state and increasing the influence degree of the lane-related state estimated based on the motion state, as time passes. ,
The white line position estimating device according to claim 2.
前記白線位置推定部は、前記車線関連状態特定部により前記車線関連状態が特定されず、前記運動状態検出部により前記運動状態が検出されなかった場合には、前記自車両の運動状態を、前記自車両が直線を定速走行している場合の運動状態と推定するとともに、前記車線関連状態を、前記自車両が直線路の中心を走行している場合の車線関連状態と推定し、推定した車線関連状態及び推定した運動状態に基づいて前記白線の位置を推定する、
請求項1から3のいずれか1項に記載の白線位置推定装置。
The white line position estimation unit, if the lane-related state is not specified by the lane-related state specifying unit, and the movement state is not detected by the movement state detection unit, the movement state of the own vehicle, While estimating the motion state when the host vehicle is traveling at a constant speed on a straight line, the lane-related state is estimated and estimated as the lane-related state when the host vehicle is traveling on the center of a straight road. Estimating the position of the white line based on the lane-related state and the estimated motion state,
The white line position estimation device according to claim 1.
前記白線位置推定部は、前記車線関連状態特定部により前記車線関連状態が特定されず、前記運動状態検出部により前記運動状態が検出されている状態から、前記車線関連状態特定部により前記車線関連状態が特定されず、前記運動状態検出部により前記運動状態が検出されない状態に変化した場合には、前記運動状態が検出されない状態に変化する前に検出された前記運動状態である過去運動状態と、前記推定した運動状態と、前記推定した車線関連状態とに基づいて前記白線の位置を推定する、
請求項4に記載の白線位置推定装置。
The lane line position estimating unit determines whether the lane-related state is not specified by the lane-related state specifying unit and the movement state is detected by the movement-state detecting unit, and the lane-related state specifying unit determines the lane-related state. When the state is not specified and the exercise state is changed to a state in which the exercise state is not detected by the exercise state detection unit, a past exercise state that is the exercise state detected before the change in the exercise state is detected. Estimating the position of the white line based on the estimated motion state and the estimated lane-related state,
The white line position estimating device according to claim 4.
前記白線位置推定部は、時間の経過に従って、前記過去運動状態の影響度合いを小さくするとともに、前記推定した運動状態の影響度合いを大きくして前記白線の位置を推定する、
請求項5に記載の白線位置推定装置。
The white line position estimation unit estimates the position of the white line by decreasing the influence degree of the past movement state and increasing the influence degree of the estimated movement state as time passes,
The white line position estimating device according to claim 5.
前記白線位置推定部は、前記車線関連状態特定部における前記車線関連状態の特定状況と、前記運動状態検出部における前記運動状態の検出状況とに基づいて、推定した前記白線の位置の信頼度を算出する、
請求項1から6のいずれか1項に記載の白線位置推定装置。
The white line position estimating unit, based on the specific situation of the lane-related state in the lane-related state identifying unit, and the detection situation of the exercise state in the exercise state detection unit, the reliability of the position of the estimated white line calculate,
The white line position estimating device according to any one of claims 1 to 6.
コンピュータが実行する、
自車両の前方を示す情報に基づいて、前記自車両が走行する車線に対応する白線と前記自車両との位置関係、前記白線の曲率及び車線幅を示す車線関連状態を特定するステップと、
前記自車両の運動状態を検出するステップと、
前記車線関連状態が特定されるとともに前記運動状態が検出された場合には、前記車線関連状態及び前記運動状態に基づいて所定時間おきに前記自車両から所定範囲内の前記白線の位置を推定し、前記車線関連状態が特定されず、前記運動状態が検出された場合には、前記運動状態に基づいて前記位置関係を推定することにより前記車線関連状態を推定し、推定した車線関連状態及び前記運動状態に基づいて前記所定時間おきに前記白線の位置を推定するステップと、
を備える白線位置推定方法。
Computer running,
Based on information indicating the front of the host vehicle, a step of identifying a lane-related state indicating the positional relationship between the host vehicle and a white line corresponding to the lane in which the host vehicle travels, the curvature of the white line, and the lane width,
Detecting the motion state of the vehicle,
When the lane-related state is specified and the motion state is detected, the position of the white line within a predetermined range from the host vehicle is estimated at predetermined time intervals based on the lane-related state and the motion state. When the lane-related state is not specified and the motion state is detected, the lane-related state is estimated by estimating the positional relationship based on the motion state, and the estimated lane-related state and the Estimating the position of the white line at the predetermined time intervals based on a motion state,
A white line position estimating method comprising:
JP2018214374A 2018-11-15 2018-11-15 White line position estimation device and white line position estimation method Pending JP2020086489A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018214374A JP2020086489A (en) 2018-11-15 2018-11-15 White line position estimation device and white line position estimation method
PCT/JP2019/044362 WO2020100902A1 (en) 2018-11-15 2019-11-12 White line position estimation device and white line position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018214374A JP2020086489A (en) 2018-11-15 2018-11-15 White line position estimation device and white line position estimation method

Publications (1)

Publication Number Publication Date
JP2020086489A true JP2020086489A (en) 2020-06-04

Family

ID=70730311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018214374A Pending JP2020086489A (en) 2018-11-15 2018-11-15 White line position estimation device and white line position estimation method

Country Status (2)

Country Link
JP (1) JP2020086489A (en)
WO (1) WO2020100902A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022104108A (en) * 2020-12-28 2022-07-08 本田技研工業株式会社 Vehicle control system and compartment line estimation method
JP7467299B2 (en) 2020-09-17 2024-04-15 株式会社東芝 Location management system, location identification device, and location identification method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3448320B2 (en) * 1993-09-20 2003-09-22 三菱自動車工業株式会社 Traveling lane detection mechanism of automobile traveling control device
JP3352216B2 (en) * 1994-03-30 2002-12-03 マツダ株式会社 Roadway recognition device
JP6363518B2 (en) * 2015-01-21 2018-07-25 株式会社デンソー Lane marking recognition system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7467299B2 (en) 2020-09-17 2024-04-15 株式会社東芝 Location management system, location identification device, and location identification method
JP2022104108A (en) * 2020-12-28 2022-07-08 本田技研工業株式会社 Vehicle control system and compartment line estimation method

Also Published As

Publication number Publication date
WO2020100902A1 (en) 2020-05-22

Similar Documents

Publication Publication Date Title
US10121367B2 (en) Vehicle lane map estimation
US9495602B2 (en) Image and map-based detection of vehicles at intersections
CN104554272B (en) The path planning of avoidance steering operation when target vehicle and surrounding objects be present
CN104554258B (en) Using the path planning of the avoidance steering operation of virtual potential field technology
CA2987373C (en) Position estimation device and position estimation method
JP6809531B2 (en) Vehicle determination method, travel route correction method, vehicle determination device, and travel route correction device
CN108844538B (en) Unmanned aerial vehicle obstacle avoidance waypoint generation method based on vision/inertial navigation
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
JP2020087267A (en) Route candidate setting system and route candidate setting method
WO2020100902A1 (en) White line position estimation device and white line position estimation method
WO2022115215A1 (en) Systems and methods for monocular based object detection
US10766490B2 (en) Driving assistance method and driving assistance apparatus
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
CN113887276A (en) Image-based forward main target detection method
US11087147B2 (en) Vehicle lane mapping
JP2018084987A (en) Object recognition device
EP4148599A1 (en) Systems and methods for providing and using confidence estimations for semantic labeling
JP7435513B2 (en) Vehicle control device and vehicle control method
JP7230373B2 (en) Lane identification device and lane identification method
US20240116500A1 (en) Information processing apparatus, movable apparatus, information processing method, and storage medium
IL259292B2 (en) Method for control of an autonomous vehicle with internal delays
WO2023188095A1 (en) Travel path estimation device
TWI715221B (en) Adaptive trajectory generation method and system
US20240059288A1 (en) Vehicle control device, storage medium storing computer program for vehicle control, and method for controlling vehicle
US20220315002A1 (en) Traveling lane planning device, medium storing computer program for traveling lane planning, and traveling lane planning method