JP2017111566A - Lane information estimation apparatus - Google Patents

Lane information estimation apparatus Download PDF

Info

Publication number
JP2017111566A
JP2017111566A JP2015244407A JP2015244407A JP2017111566A JP 2017111566 A JP2017111566 A JP 2017111566A JP 2015244407 A JP2015244407 A JP 2015244407A JP 2015244407 A JP2015244407 A JP 2015244407A JP 2017111566 A JP2017111566 A JP 2017111566A
Authority
JP
Japan
Prior art keywords
lane
adjacent
line
parameter
curvature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015244407A
Other languages
Japanese (ja)
Other versions
JP6631226B2 (en
Inventor
勇太 吉岡
Yuta Yoshioka
勇太 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015244407A priority Critical patent/JP6631226B2/en
Publication of JP2017111566A publication Critical patent/JP2017111566A/en
Application granted granted Critical
Publication of JP6631226B2 publication Critical patent/JP6631226B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology of estimating information on a lane of a vehicle when lane markings on both sides of the vehicle cannot be detected.SOLUTION: A lane information estimation apparatus acquires an adjacent parameter including at least one of adjacent shape which represents a shape of a lane for an adjacent lane which is located adjacent to a lane where the vehicle is traveling, out of lanes representing areas where vehicles travel on a road, and a parameter representing a traveling state of the vehicle with respect to the adjacent shape. (S225) In the lane information estimation apparatus, a lane parameter estimation unit estimates a lane parameter including at least one of a lane shape representing a shape of a lane where the vehicle is traveling, and a parameter representing a traveling state of the vehicle with respect to the lane shape, by use of a situation where the adjacent lane is adjacent to the lane where the vehicle is traveling (S230).SELECTED DRAWING: Figure 6

Description

本発明は、自車両が走行する車線に関する情報を推定する技術に関する。   The present invention relates to a technique for estimating information related to a lane in which a host vehicle travels.

従来、道路に描かれた白線を検出し、白線の検出結果に基づいて、各白線に挟まれた車線のうち自車両が走行する車線(以下、自車線という)に関する情報を取得する技術が知られている。特許文献1では、車載カメラにより取得した自車両の前方を示す画像から道路に描かれた白線を検出し、白線の検出結果に基づいて、自車線に関する情報を取得する技術が提案されている。   Conventionally, a technology for detecting a white line drawn on a road and acquiring information on a lane (hereinafter referred to as the own lane) on which the vehicle travels among lanes sandwiched between the white lines based on the detection result of the white line is known. It has been. Patent Document 1 proposes a technique for detecting a white line drawn on a road from an image showing the front of the host vehicle acquired by an in-vehicle camera, and acquiring information about the host lane based on the detection result of the white line.

特開2009−181310号公報JP 2009-181310 A

しかしながら、自車両の前方がトラック等の大型車両で塞がれているような場合には、自車線における両側の白線を検出できないため、例えばレーン幅や曲率のような自車線に関する情報を取得できないという問題が生じ得る。なお、車線を表す線としては、白線だけではなく、道路に描かれた黄線や路面上に設置された縁石等の立体物の並びにより表される線が挙げられる。このような車線を表す線を区画線という。   However, when the front of the host vehicle is blocked by a large vehicle such as a truck, white lines on both sides of the host lane cannot be detected, and therefore information on the host lane such as the lane width and curvature cannot be acquired. The problem can arise. In addition, as a line showing a lane, the line represented by the arrangement | sequence of solid objects, such as not only a white line but the yellow line drawn on the road and the curb installed on the road surface, is mentioned. A line representing such a lane is called a lane marking.

本発明は、こうした問題にかんがみてなされたものであり、自車線における両側の区画線が検出されない場合に、自車線に関する情報を推定する技術を提供することを目的としている。   The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for estimating information related to the own lane when the lane markings on both sides of the own lane are not detected.

本発明の自車線情報推定装置(50)は、隣接パラメータ取得部(S225)と、自パラメータ推定部(S230、S275)と、を備える。隣接パラメータ取得部は、道路において車両が走行する領域を表す車線のうち自車両が走行する自車線に隣接する車線である隣接車線についての車線の形状を表す隣接形状、及び隣接形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む隣接パラメータを取得する。自パラメータ推定部は、隣接パラメータから、隣接車線と自車線とが隣接していることを用いて、自車線についての車線の形状を表す自形状、及び自形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む自車線パラメータを推定する。   The own lane information estimation device (50) of the present invention includes an adjacent parameter acquisition unit (S225) and an own parameter estimation unit (S230, S275). The adjacent parameter acquisition unit is an adjacent shape that represents the shape of the lane for the adjacent lane that is adjacent to the own lane in which the host vehicle is traveling among the lane that represents the region in which the vehicle is traveling on the road, and the host vehicle for the adjacent shape. An adjacent parameter including at least one of the parameters representing the running state is acquired. The own parameter estimator uses the adjacent parameter to indicate that the adjacent lane and the own lane are adjacent to each other, and the own shape representing the shape of the lane with respect to the own lane, and the parameter representing the running state of the own vehicle with respect to the own shape The own lane parameter including at least one of them is estimated.

このような構成によれば、仮に、自車線の両側の白線を検出できない状況が生じたとしても、隣接車線に関する情報である隣接パラメータを取得できれば、隣接車線と自車線とが隣接していることに基づいて、自車線に関する情報である自パラメータを検出することができる。   According to such a configuration, even if a situation where the white lines on both sides of the own lane cannot be detected occurs, the adjacent lane and the own lane are adjacent if the adjacent parameter that is information on the adjacent lane can be acquired. Based on this, it is possible to detect the own parameter which is information on the own lane.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.

第1実施形態の車両制御システム及び自車線情報推定装置の構成を示すブロック図。The block diagram which shows the structure of the vehicle control system of the 1st Embodiment, and the own lane information estimation apparatus. 走行制御処理のフローチャート。The flowchart of a traveling control process. 自車両前方を撮像した画像の一例を示す図。The figure which shows an example of the image which imaged the front of the own vehicle. 図3の画像における白線の検出例を示す図。The figure which shows the example of a detection of the white line in the image of FIG. 走行制御処理が適用される道路の一例を示す図。The figure which shows an example of the road where a traveling control process is applied. 道路パラメータ推定処理のフローチャート。The flowchart of a road parameter estimation process. 測距点の検出例を示す図。The figure which shows the example of a detection of a ranging point. 新たな測拠点と過去点とからなる検出点を示す図。The figure which shows the detection point which consists of a new measurement base and a past point. 隣接道路における道路パラメータを示す図。The figure which shows the road parameter in an adjacent road. 第1実施形態の推定範囲設定処理を示すフローチャート。The flowchart which shows the estimation range setting process of 1st Embodiment. 第2実施形態の推定範囲設定処理を示すフローチャート。The flowchart which shows the estimation range setting process of 2nd Embodiment. 走行制御処理が適用される道路の他の例を示す図。The figure which shows the other example of the road where a traveling control process is applied.

以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す車両制御システム1は、車両に搭載されるシステムである。以下では、車両制御システム1を搭載した車両を自車両という。車両制御システム1は、レーザレーダ11と、GPS受信機12と、方向指示器センサ13と、地図データベース(以下、地図DB)14と、車速センサ15と、操舵角センサ16と、車両制御部17と、自車線情報推定装置(以下、推定装置)50と、を備える。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
A vehicle control system 1 shown in FIG. 1 is a system mounted on a vehicle. Hereinafter, a vehicle equipped with the vehicle control system 1 is referred to as a host vehicle. The vehicle control system 1 includes a laser radar 11, a GPS receiver 12, a direction indicator sensor 13, a map database (hereinafter referred to as map DB) 14, a vehicle speed sensor 15, a steering angle sensor 16, and a vehicle control unit 17. And an own lane information estimation device (hereinafter referred to as an estimation device) 50.

レーザレーダ11は、自車両前部に設けられている。レーザレーダ11は、自車両の進行方向前方の路面上にレーザ光を照射し、路面上の物体によって反射されたレーザ光(以下、反射光)を受光する。ここでいう物体とは、少なくとも、路面上に設置されたガードレール、縁石等のような立体物の他に、路面上に描かれた白線を含む。縁石とは、例えば、車両が走行する領域と、車両を退避させるための退避領域や歩道等とを区画する境界線として設置された、コンクリートなどで作られた棒状の石のことをいう。   The laser radar 11 is provided in the front part of the host vehicle. The laser radar 11 irradiates a laser beam on the road surface ahead of the traveling direction of the host vehicle, and receives a laser beam (hereinafter, reflected light) reflected by an object on the road surface. The object here includes at least a white line drawn on the road surface in addition to a three-dimensional object such as a guardrail or a curb stone installed on the road surface. The curbstone refers to, for example, a rod-shaped stone made of concrete or the like, which is installed as a boundary line that divides an area where the vehicle travels and a retreat area or a sidewalk for retreating the vehicle.

レーザレーダ11は、受光した反射光に基づいて、自車両からレーザ光が反射された地点(以下、測距点という)までの距離と、自車両の進行方向を基準とする測距点の方位と、測距点の相対速度とを検出する。また、レーザレーダ11は、測距点からの反射光の受光強度を検出する。レーザレーダ11は、これらの検出結果を表す検出信号を出力する。   Based on the received reflected light, the laser radar 11 measures the distance from the host vehicle to a point where the laser beam is reflected (hereinafter referred to as a ranging point) and the direction of the ranging point based on the traveling direction of the host vehicle. And the relative speed of the distance measuring point. Further, the laser radar 11 detects the received light intensity of the reflected light from the distance measuring point. The laser radar 11 outputs detection signals representing these detection results.

GPS受信機12は、GPS衛星より送信されるGPS信号を受信して、車両の現在位置や進行方向を検出する。現在位置は、緯度経度座標によって表される絶対位置を用いて表される。   The GPS receiver 12 receives a GPS signal transmitted from a GPS satellite and detects the current position and traveling direction of the vehicle. The current position is represented using an absolute position represented by latitude and longitude coordinates.

方向指示器センサ13は、方向指示器の操作状態を表す検出信号を出力する。
地図DB14は、緯度経度座標に従ってデータベース化された、車両が走行可能な道路を表した地図データを記録している。
The direction indicator sensor 13 outputs a detection signal indicating the operation state of the direction indicator.
The map DB 14 records map data representing roads on which vehicles can travel, which is stored in a database according to latitude and longitude coordinates.

車速センサ15は、自車両の速度を検出し、検出した速度を表す検出信号を出力する。
操舵角センサ16は、自車両の操舵角を検出し、検出した速度を表す検出信号を出力する。
The vehicle speed sensor 15 detects the speed of the host vehicle and outputs a detection signal indicating the detected speed.
The steering angle sensor 16 detects the steering angle of the host vehicle and outputs a detection signal indicating the detected speed.

車両制御部17は、推定装置50により推定された道路パラメータに基づいて、自車両を走行させるための各種制御を実行する。車両制御部17は、例えば、エンジンを制御するエンジンECU、制動力を制御するブレーキECU、操舵角を制御するステアリングECU等を有する。   The vehicle control unit 17 executes various controls for causing the host vehicle to travel based on the road parameters estimated by the estimation device 50. The vehicle control unit 17 includes, for example, an engine ECU that controls the engine, a brake ECU that controls the braking force, and a steering ECU that controls the steering angle.

推定装置50は、CPU51と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ52)と、を有する周知のマイクロコンピュータを中心に構成される。推定装置50の各種機能は、CPU51が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ52が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、推定装置50を構成するマイクロコンピュータの数は1つでも複数でもよい。   The estimation device 50 is mainly configured by a known microcomputer having a CPU 51 and a semiconductor memory (hereinafter, memory 52) such as a RAM, a ROM, and a flash memory. Various functions of the estimation device 50 are realized by the CPU 51 executing a program stored in a non-transitional physical recording medium. In this example, the memory 52 corresponds to a non-transitional tangible recording medium that stores a program. Further, by executing this program, a method corresponding to the program is executed. Note that the number of microcomputers constituting the estimation device 50 may be one or more.

推定装置50は、メモリ52に格納されたプログラムに従って後述する走行制御処理を実行する。推定装置50は、走行制御処理を実行することにより実現される機能の一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。   The estimation device 50 executes a travel control process to be described later according to a program stored in the memory 52. The estimation device 50 may realize some or all elements of the functions realized by executing the traveling control process using hardware that combines a logic circuit, an analog circuit, and the like.

[1−2.処理]
[1−2−1.走行制御処理]
推定装置50のCPU51が実行する走行制御処理について、図2のフローチャートを用いて説明する。走行制御処理は、自車両前方の走行環境を表す情報を取得し、該走行環境を表す情報に基づいて自車両の走行を制御するための処理である。
[1-2. processing]
[1-2-1. Travel control processing]
The travel control process executed by the CPU 51 of the estimation device 50 will be described with reference to the flowchart of FIG. The travel control process is a process for acquiring information representing the travel environment ahead of the host vehicle and controlling the travel of the host vehicle based on the information representing the travel environment.

走行環境を表す情報は、車線の幅であるレーン幅や、車線すなわち道路の曲率、といった車線の形状を表す情報を含む。また、走行環境を表す情報は、車線の幅方向中央位置から自車両の位置までの距離を表すオフセットや、車線すなわち道路の接線方向と自車両の進行方向とのなす角度を表すヨー角といった、車線の形状に対する自車両の走行状態を表す情報を含む。レーン幅、車線の曲率、オフセット、ヨー角といったこれらの走行環境を表す情報を、道路パラメータという。   The information representing the driving environment includes information representing the shape of the lane such as the lane width that is the width of the lane and the curvature of the lane, that is, the road. The information representing the driving environment includes an offset representing the distance from the center position in the width direction of the lane to the position of the host vehicle, and a yaw angle representing an angle between the lane, that is, the tangential direction of the road and the traveling direction of the host vehicle, It includes information representing the traveling state of the host vehicle with respect to the lane shape. Information representing these driving environments such as lane width, lane curvature, offset, and yaw angle is referred to as a road parameter.

つまり、車線の形状とは、例えば、車線の延びる方向における該車線の曲がり具合を表す曲率や車線の幅というような、車線の延びる方向及び幅方向における車線の様子をいう。車両の走行状態とは、例えば、車両が車線の幅方向におけるどの位置を走行しているのか、または、車両が車線内におけるどの方向へ走行しているのか、というような、車線内における車両の走行の様子をいう。曲率とは、曲率半径の逆数をいう。ヨー角とは、曲率半径の中心から自車両を通る直線と車線を表す白線との交点における接線と、自車両の進行方向とのなす角をいう。   That is, the shape of the lane refers to the state of the lane in the lane extending direction and the width direction, such as a curvature representing the degree of bending of the lane in the lane extending direction and a lane width. The traveling state of the vehicle means, for example, in which position in the lane width direction the vehicle is traveling or in which direction the vehicle is traveling in the lane. The state of running. The curvature is the reciprocal of the radius of curvature. The yaw angle is an angle formed by the tangent line at the intersection of a straight line passing through the vehicle from the center of the radius of curvature and the white line representing the lane and the traveling direction of the vehicle.

走行制御処理は、道路パラメータに基づいて自車両の走行を制御するための処理である。走行制御処理は、ACCスイッチがオンされている間、繰り返し実行される。なお、以下の説明において主語が省略されている場合は、CPU51を主語とする。   The travel control process is a process for controlling the travel of the host vehicle based on the road parameters. The traveling control process is repeatedly executed while the ACC switch is on. In addition, when the subject is abbreviate | omitted in the following description, CPU51 is made into a subject.

S100では、CPU51は測距点を取得する。具体的には、レーザレーダ11からの検出信号に基づいて、各測距点について、自車両を基点とする距離及び方位で表される相対位置と、受光強度とを取得する。   In S100, the CPU 51 acquires a distance measuring point. Specifically, on the basis of the detection signal from the laser radar 11, the relative position represented by the distance and azimuth with the vehicle as the base point and the received light intensity are obtained for each ranging point.

S110では、CPU51は、自車線についての道路に描かれた白線を検出する。具体的には、GPS受信機12によって検出された現在位置を取得し、該現在位置とレーザレーダ11から取得された相対位置とに基づいて、各測距点について、任意の地点を原点とする絶対座標系における位置を特定する。   In S110, CPU51 detects the white line drawn on the road about the own lane. Specifically, the current position detected by the GPS receiver 12 is acquired, and based on the current position and the relative position acquired from the laser radar 11, an arbitrary point is set as the origin for each distance measuring point. Specify a position in the absolute coordinate system.

そして、白線において反射されたレーザ光の受光強度が白線の周囲において反射されたレーザ光の受光強度よりも大きいことに基づいて、受光強度が所定の閾値以上である測距点を抽出する。   Then, based on the fact that the received light intensity of the laser light reflected at the white line is larger than the received light intensity of the laser light reflected around the white line, a distance measuring point having a received light intensity equal to or greater than a predetermined threshold is extracted.

例えば、図3に示すように自車両前方の道路に白線102、102、111、112が描かれている場合、仮に自車両前方の道路における測距点において反射されたレーザ光の受光強度の分布を表すとすると、図4のように表される。図4において点線で囲まれている点が、受光強度が所定の閾値以上の測距点に相当する。   For example, as shown in FIG. 3, when white lines 102, 102, 111, and 112 are drawn on the road ahead of the host vehicle, the distribution of the received light intensity of the laser beam reflected at the distance measuring points on the road ahead of the host vehicle is assumed. Is represented as shown in FIG. A point surrounded by a dotted line in FIG. 4 corresponds to a distance measuring point having a received light intensity of a predetermined threshold value or more.

CPU51は、抽出された受光強度が所定の閾値以上である測距点の並びによって推定される線を白線として検出する。図3に戻り、以下では、自車両100の右側における白線を、自車両100に近い順に、第1右区画線101、第2右区画線102、というものとする。同様に、自車両100の左側における白線を、自車両100に近い順に、第1左区画線111、第2左区画線112、というものとする。なお、自車線90に隣接する車線である隣接車線のうち、自車線90の右側の隣接車線を右隣接車線91といい、左側の隣接車線を左隣接車線92という。   The CPU 51 detects, as a white line, a line estimated based on the arrangement of distance measuring points whose extracted light reception intensity is equal to or greater than a predetermined threshold. Returning to FIG. 3, in the following, the white line on the right side of the host vehicle 100 is referred to as a first right lane line 101 and a second right lane line 102 in order of increasing proximity to the host vehicle 100. Similarly, a white line on the left side of the host vehicle 100 is referred to as a first left lane line 111 and a second left lane line 112 in the order closer to the host vehicle 100. Of the adjacent lanes adjacent to the own lane 90, the adjacent lane on the right side of the own lane 90 is referred to as the right adjacent lane 91, and the adjacent lane on the left side is referred to as the left adjacent lane 92.

CPU51は、図3の例では、自車線90についての左側の白線として第1左区画線111を検出し、自車線90についての右側の白線として第1右区画線101を検出する。このような白線の検出方法は、周知であるため、ここではこれ以上の説明を省略する。CPU51は、各白線毎に、白線を表す測距点の位置をメモリ52に記録する。   In the example of FIG. 3, the CPU 51 detects the first left lane line 111 as the left white line for the own lane 90 and detects the first right lane line 101 as the right white line for the own lane 90. Since such a white line detection method is well known, further description thereof is omitted here. The CPU 51 records the position of the distance measuring point representing the white line in the memory 52 for each white line.

S115では、CPU51は、S110にて自車線90についての左右両側の白線、すなわち、第1左区画線111及び第1右区画線101の両方が検出されたか否かを判断する。例えば、自車線90の白線の一方が、擦れている場合や、自車両前方を走行する大型車両により隠されている場合には、第1左区画線111及び第1右区画線101の両方が検出されない状況が生じ得る。また、自車両前方の道路が分岐している場合には、分岐している側の白線が検出されない状況が生じ得る。さらにまた、自車両前方の道路に退避領域が設けられている場合には、退避領域が設けられている側の白線が検出されない状況が生じ得る。   In S115, the CPU 51 determines whether or not white lines on both the left and right sides of the own lane 90, that is, both the first left lane line 111 and the first right lane line 101 are detected in S110. For example, when one of the white lines of the own lane 90 is rubbing or hidden by a large vehicle traveling in front of the own vehicle, both the first left lane line 111 and the first right lane line 101 are An undetected situation can arise. Further, when the road ahead of the host vehicle is branched, a situation may occur in which the white line on the branched side is not detected. Furthermore, when a retreat area is provided on the road ahead of the host vehicle, a situation may occur in which the white line on the side where the retreat area is provided is not detected.

CPU51は、このように自車線90についての左右両側の白線が検出されなかった場合に処理をS120へ移行させ、左右両側の白線が検出された場合に処理をS125へ移行させる。ただし、ここでいう自車線90についての左右両側の白線が検出されなかった場合とは、自車線90についての左右両側の白線のうち一方の白線は検出されている場合をいう。すなわち、第1左区画線111又は第1右区画線101の一方が検出されている場合をいう。   The CPU 51 shifts the process to S120 when the left and right white lines for the own lane 90 are not detected as described above, and shifts the process to S125 when the left and right white lines are detected. However, the case where the white lines on the left and right sides of the own lane 90 are not detected here refers to the case where one of the white lines on the left and right sides of the own lane 90 is detected. That is, it means a case where one of the first left lane line 111 or the first right lane line 101 is detected.

S120では、CPU51は、GPS信号が正確であるか否かを判断する。具体的には、GPS信号に含まれる水平精度低下率の値が予め定められた閾値以下である場合に、GPS信号が正確であると判断する。GPS信号が正確である場合に処理をS125へ移行させ、GPS信号が正確でない場合に処理をS130へ移行させる。   In S120, the CPU 51 determines whether or not the GPS signal is accurate. Specifically, it is determined that the GPS signal is accurate when the value of the horizontal accuracy decrease rate included in the GPS signal is equal to or less than a predetermined threshold value. If the GPS signal is accurate, the process proceeds to S125, and if the GPS signal is not accurate, the process proceeds to S130.

自車線90について左右両側の白線が検出されている場合、またはGPS信号が正しい場合に移行するS125では、CPU51は、メモリ52に記録されている自車線90の道路パラメータをそのまま維持し、処理をS160へ移行させる。自車線90の道路パラメータとは、自車線90についての各白線に挟まれた車線の幅であるレーン幅、車線の曲率、自車線90の幅方向中央位置から自車両100までの距離を表すオフセット、自車両100の直進方向と車線の接線方向とがなす角度を表すヨー角、のことをいう。なお、車線の曲率及び車線の接線方向は、白線の曲率及び白線の接線方向に等しいものとする。   When the white line on both the left and right sides is detected for the own lane 90 or when the GPS signal is correct, the CPU 51 maintains the road parameter of the own lane 90 recorded in the memory 52 as it is and performs the processing. The process proceeds to S160. The road parameter of the own lane 90 is an offset representing the lane width, the curvature of the lane, and the distance from the center position in the width direction of the own lane 90 to the own vehicle 100. The yaw angle that represents the angle formed by the straight direction of the host vehicle 100 and the tangential direction of the lane. Note that the curvature of the lane and the tangential direction of the lane are equal to the curvature of the white line and the tangential direction of the white line.

自車線90について左右両側の白線が検出されておらず、且つ、GPS信号が正しくない場合に移行するS130では、CPU51は、道路パラメータ推定処理を実行する。道路パラメータ推定処理は、自車線90についての左右両側の白線のうち一方の白線のみが検出されている場合に、自車両100に対して該一方の白線が位置している側に隣接する車線である隣接車線の道路パラメータに基づいて、自車線90の道路パラメータを推定するための処理である。   In S130, where the white line on both the left and right sides of the own lane 90 is not detected and the GPS signal is incorrect, the CPU 51 executes a road parameter estimation process. When only one of the white lines on the left and right sides of the own lane 90 is detected, the road parameter estimation process is performed on the lane adjacent to the side where the one white line is located with respect to the own vehicle 100. This is a process for estimating the road parameters of the own lane 90 based on the road parameters of a certain adjacent lane.

以下では、一例として図5に示すように、自車両100が前方において2つに分岐する道路を走行しており、右隣接車線91が検出されており、自車線90についての左側の白線である第1左区画線111が検出されていない場合を例に挙げて処理を説明する。なお、右隣接車線91が検出されているとは、右隣接車線91を表す白線である第1右区画線101と第2右区画線102との両方が検出されていることをいう。   In the following, as shown in FIG. 5 as an example, the host vehicle 100 is traveling on a road bifurcated in front, the right adjacent lane 91 is detected, and the white line on the left side of the host lane 90 is shown. The process will be described using an example in which the first left dividing line 111 is not detected. The right adjacent lane 91 being detected means that both the first right lane line 101 and the second right lane line 102 that are white lines representing the right adjacent lane 91 are detected.

S135では、方向指示器センサ13の検出信号を取得する。
S140では、方向指示器センサ13の検出信号に基づいて、車線変更が行われるか否かを判断する。車線変更が行われる場合に処理をS145へ移行させ、行われない場合に処理をS150へ移行させる。
In S135, the detection signal of the direction indicator sensor 13 is acquired.
In S140, based on the detection signal of the direction indicator sensor 13, it is determined whether or not a lane change is performed. If the lane change is performed, the process proceeds to S145, and if not, the process proceeds to S150.

S145では、道路パラメータ推定処理にて推定された第1道路パラメータを、自車線の道路パラメータとしてメモリ52に記録する。
S150では、道路パラメータ推定処理にて推定された第2道路パラメータを、自車線の道路パラメータとしてメモリ52に記録する。
In S145, the first road parameter estimated in the road parameter estimation process is recorded in the memory 52 as the road parameter of the own lane.
In S150, the second road parameter estimated in the road parameter estimation process is recorded in the memory 52 as the road parameter of the own lane.

S160では、メモリ52に記録されている自車線の道路パラメータに基づいて、運転者が選択した車線の中央を自車両100に走行させるための制御指示を、車両制御部17に出力する。そして、本走行制御処理を終了する。   In S160, based on the road parameter of the own lane recorded in the memory 52, a control instruction for causing the own vehicle 100 to travel in the center of the lane selected by the driver is output to the vehicle control unit 17. Then, the traveling control process ends.

[1−2−2.道路パラメータ推定処理]
次に、走行制御処理のS130にて実行される道路パラメータ推定処理について、図6のフローチャートを用いて説明する。
[1-2-2. Road parameter estimation process]
Next, the road parameter estimation process executed in S130 of the travel control process will be described using the flowchart of FIG.

S205では、メモリ52から過去点の情報を取得する。過去点とは、過去においてS100にて抽出された検出点のうち、受光強度が所定の閾値以上である複数の測距点のことをいう。   In step S205, information on past points is acquired from the memory 52. The past point refers to a plurality of distance measuring points whose received light intensity is equal to or higher than a predetermined threshold among the detection points extracted in S100 in the past.

S210では、車速センサ15及び操舵角センサ16から検出信号を取得し、自車両の速度と操舵角とに基づいて、過去点が検出されたときから現時点までの間に自車両がどの方向にどれだけ移動したかを表す運動量を推定する。そして、推定された運動量に基づいて、絶対座標系における、過去点の現時点での位置を推定する。以下では、測距点と現時点での過去点とを合わせて、検出点という。   In S210, a detection signal is acquired from the vehicle speed sensor 15 and the steering angle sensor 16, and based on the speed and the steering angle of the host vehicle, in which direction the host vehicle is in which direction from when the past point is detected to the present time. Estimate the momentum representing how much has moved. Based on the estimated momentum, the current position of the past point in the absolute coordinate system is estimated. Hereinafter, the distance measuring point and the past point at the present time are collectively referred to as a detection point.

CPU51は、S100にて抽出された検出点のうち受光強度が所定の閾値以上である複数の測距点の位置と、過去点の現時点での位置とを、検出点の位置としてメモリ52に記録する。   The CPU 51 records, in the memory 52, the positions of a plurality of ranging points whose received light intensity is equal to or greater than a predetermined threshold among the detection points extracted in S100, and the current positions of past points as detection point positions. To do.

一例として示す図7において黒丸で表されている測距点は、該測距点が取得されてからt秒後を表す図8では白丸で表されている。図8において、この白丸で表されている点が図8の時点における過去点に相当し、黒丸で表されている点が図8の時点における新たな測距点に相当する。このように、過去に検出された測距点をt秒後の現時点において再び利用する方法は周知であるため、これ以上の説明を省略する。   As an example, a distance measuring point represented by a black circle in FIG. 7 is represented by a white circle in FIG. 8 representing t seconds after the distance measuring point is acquired. In FIG. 8, the points represented by white circles correspond to past points at the time of FIG. 8, and the points represented by black circles correspond to new distance measuring points at the time of FIG. As described above, since a method of reusing a distance measuring point detected in the past at the present time after t seconds is well known, further explanation is omitted.

S215では、CPU51は、隣接車線を表す検出点を取得する。ここでいう隣接車線とは、S115にて自車線90について左右両側の白線が検出されなかった場合に、言い換えれば、自車線90についての左右両側の白線のうち一方の白線のみが検出された場合に、自車両100から見て該一方の白線の位置する側に隣接する車線をいう。   In S215, the CPU 51 acquires a detection point representing an adjacent lane. The adjacent lane here refers to a case where white lines on both the left and right sides of the own lane 90 are not detected in S115, in other words, only one of the white lines on both the left and right sides of the own lane 90 is detected. In addition, the lane adjacent to the side where the one white line is located when viewed from the host vehicle 100 is referred to.

図5に示す例では、第1右区画線101と第2右区画線102とに挟まれた右隣接車線91が隣接車線に相当する。なお、図5に示す例では、第1右区画線101が特許請求の範囲でいう隣接側区画線に相当する。本ステップでは、CPU51は、第1右区画線101を表す検出点と第2右区画線102を表す検出点とを、右隣接車線91を表す検出点として取得する。   In the example shown in FIG. 5, the right adjacent lane 91 sandwiched between the first right lane line 101 and the second right lane line 102 corresponds to the adjacent lane. In the example shown in FIG. 5, the first right lane marking 101 corresponds to the adjacent lane marking in the claims. In this step, the CPU 51 acquires a detection point representing the first right lane line 101 and a detection point representing the second right lane line 102 as detection points representing the right adjacent lane 91.

S220では、右隣接車線91についての道路パラメータを推定する。右隣接車線91についての道路パラメータとは、具体的には、図9に示すように、第1右区画線101と第2右区画線102とに挟まれた車線の幅であるレーン幅W、該車線の曲率R、右隣接車線91の幅方向中央位置Oから自車両100の位置Mまでの距離を表すオフセットe、自車両100の直進方向Pと右隣接車線91の接線方向Qとがなす角度を表すヨー角θ、のことをいう。なお、自車両100の位置Mとは、自車両100における位置であればどの位置でもよく、例えばレーザレーダ11の設置位置であってもよい。   In S220, the road parameters for the right adjacent lane 91 are estimated. Specifically, the road parameter for the right adjacent lane 91 is, as shown in FIG. 9, the lane width W, which is the width of the lane sandwiched between the first right lane line 101 and the second right lane line 102, The curvature R of the lane, the offset e indicating the distance from the center O in the width direction of the right adjacent lane 91 to the position M of the host vehicle 100, the straight traveling direction P of the host vehicle 100 and the tangential direction Q of the right adjacent lane 91 are formed. This means the yaw angle θ representing the angle. The position M of the host vehicle 100 may be any position as long as it is a position in the host vehicle 100, and may be an installation position of the laser radar 11, for example.

本ステップでは、CPU51は、右隣接車線91の幅方向中央位置Oを通り右隣接車線91の接線方向に延びる軸をy軸とし、y軸に垂直であって自車両100の位置Mを通る軸をx軸とする座標系を設定する。そして、CPU51は、該座標系における、右隣接車線91を表す各検出点の位置(X、Y)を算出する。図9において黒丸で表されている点が右隣接車線91を表す各検出点の一例である。   In this step, the CPU 51 uses the axis extending through the center position O in the width direction of the right adjacent lane 91 and extending in the tangential direction of the right adjacent lane 91 as the y axis, and is an axis perpendicular to the y axis and passing through the position M of the host vehicle 100. Set the coordinate system with x as the x-axis. Then, the CPU 51 calculates the position (X, Y) of each detection point representing the right adjacent lane 91 in the coordinate system. A point represented by a black circle in FIG. 9 is an example of each detection point representing the right adjacent lane 91.

CPU51は、右隣接車線91を表す検出点の位置(X、Y)と、右隣接車線91の道路パラメータであるレーン幅W、曲率R、オフセットe、ヨー角θとの関係を表す(1)式に基づいて、カルマンフィルタ等を用いることによって、各道路パラメータを推定する。そして、推定した各道路パラメータをメモリ52に記録する。   The CPU 51 represents the relationship between the position (X, Y) of the detection point representing the right adjacent lane 91 and the lane width W, the curvature R, the offset e, and the yaw angle θ that are the road parameters of the right adjacent lane 91 (1). Based on the equation, each road parameter is estimated by using a Kalman filter or the like. Then, each estimated road parameter is recorded in the memory 52.

なお、(1)式において、隣接車線が自車線の右側の車線である場合は、レーン幅Wの値は正の値として用いられ、隣接車線が自車線の左側の車線である場合は、レーン幅Wの値は負の値として用いられる。図9の例では、右隣接車線91は自車線90の右側の車線であるため、レーン幅Wの値は正の値として用いられる。   In the formula (1), when the adjacent lane is the right lane of the own lane, the value of the lane width W is used as a positive value, and when the adjacent lane is the left lane of the own lane, the lane The value of the width W is used as a negative value. In the example of FIG. 9, the right adjacent lane 91 is the lane on the right side of the own lane 90, so the value of the lane width W is used as a positive value.

S225では、CPU51は、S220にて推定された右隣接車線91についての道路パラメータのうち、ヨー角θと曲率Rとを、隣接パラメータとして取得する。隣接パラメータとは、本ステップにて取得する右隣接車線91についての道路パラメータをいう。   In S225, CPU51 acquires yaw angle (theta) and curvature R as an adjacent parameter among the road parameters about the right adjacent lane 91 estimated in S220. The adjacent parameter refers to a road parameter for the right adjacent lane 91 acquired in this step.

S230では、220にて取得された隣接パラメータであるヨー角θと曲率Rとを、自車線90のヨー角、及び曲率として、メモリ52に記録する。ここでは、自車線90と右隣接車線91とが隣接していることを用いて、言い換えれば、隣接していることにより自車線90と右隣接車線91とが平行であると推定されることを用いて、右隣接車線91のヨー角θと曲率Rを、自車線90のヨー角、及び曲率としてそのまま用いている。   In S230, the yaw angle θ and the curvature R, which are adjacent parameters acquired in 220, are recorded in the memory 52 as the yaw angle and the curvature of the own lane 90. Here, using the fact that the own lane 90 and the right adjacent lane 91 are adjacent, in other words, it is estimated that the own lane 90 and the right adjacent lane 91 are parallel due to the adjacent. The yaw angle θ and the curvature R of the right adjacent lane 91 are used as they are as the yaw angle and the curvature of the own lane 90.

なお、ここでいう平行とは、完全には平行でないものの、平行である状態から誤差の範囲内に収まる状態であり、平行である場合と概ね同様の効果が得られる状態であることを示す。   The term “parallel” as used herein refers to a state that is not completely parallel but falls within the error range from the parallel state, and indicates a state in which substantially the same effect as in the case of the parallel state can be obtained.

S235では、推定範囲設定処理を行う。推定範囲設定処理は、図5に示す例において、自車線90についての白線のうち、検出されていない他方の白線である第1左区画線111が存在すると推定される範囲である推定範囲Iを設定する処理である。   In S235, an estimated range setting process is performed. In the example shown in FIG. 5, the estimated range setting process is performed by setting an estimated range I that is a range in which it is estimated that the first left lane line 111 that is the other white line that is not detected among the white lines of the own lane 90 exists. It is a process to set.

S240〜S260では、CPU51は、S100にて取得された検出点のうち、自車両100に対して右隣接車線91が位置する側とは反対側である反隣接車線側に位置する検出点について、推定範囲内Iに位置するか否かの分類を行う。   In S240 to S260, the CPU 51 determines the detection points located on the opposite lane side that is opposite to the side on which the right adjacent lane 91 is located with respect to the own vehicle 100 among the detection points acquired in S100. A classification is made as to whether or not it is within the estimated range I.

すなわち、CPU51は、S240では、自車両100に対して反隣接車線側に位置する検出点を取得する。S245では、検出点の位置に基づいて検出点が推定範囲I内に位置するか否かを判断する。S250では、推定範囲I外に位置する検出点を範囲外検出点としてメモリ52に記録する。S255では、推定範囲I内に位置する検出点を範囲内検出点としてメモリ52に記録する。そして、S240にて取得した検出点の全てについて分類が終了するまで(S260;YES)、S240〜S260の処理を繰り返す。   That is, in S240, the CPU 51 acquires a detection point located on the side adjacent to the own vehicle 100 on the side adjacent to the adjacent lane. In S245, it is determined whether or not the detection point is located within the estimated range I based on the position of the detection point. In S250, a detection point located outside the estimated range I is recorded in the memory 52 as an out-of-range detection point. In S255, the detection point located within the estimated range I is recorded in the memory 52 as the in-range detection point. And the process of S240-S260 is repeated until classification | category is complete | finished about all the detection points acquired in S240 (S260; YES).

S265では、隣接側区画線である第1右区画線101を表す検出点をメモリ52から取得する。
S270では、範囲内検出点をメモリ52から取得する。
In S <b> 265, a detection point representing the first right lane marking 101 that is the adjacent lane marking is acquired from the memory 52.
In S270, the in-range detection point is acquired from the memory 52.

S275では、範囲内検出点及び第1右区画線101を表す検出点を、具体的には図5における白丸及び黒丸で表されている検出点を、自車線90を表す検出点であるとして、これらの検出点の位置に基づいて、前述の右隣接車線91についての道路パラメータと同様に、自車線90の道路パラメータを推定する。   In S275, the detection points representing the in-range detection points and the first right dividing line 101, specifically, the detection points represented by white circles and black circles in FIG. Based on the positions of these detection points, the road parameters of the own lane 90 are estimated in the same manner as the road parameters for the right adjacent lane 91 described above.

すなわち、本ステップでは、図示しないが、CPU51は、自車線90の幅方向中央位置を通り自車線の接線方向に延びる軸をy軸とし、y軸に垂直であって自車両100の位置を通る軸をx軸とする座標系を設定する。そして、CPU51は、該座標系における、自車線90を表す各検出点の位置(Xj、Yj)を算出する。   That is, in this step, although not shown, the CPU 51 uses the axis extending through the center position in the width direction of the own lane 90 and extending in the tangential direction of the own lane as the y axis, and is perpendicular to the y axis and passes through the position of the own vehicle 100. Set the coordinate system with the x axis as the axis. And CPU51 calculates the position (Xj, Yj) of each detection point showing the own lane 90 in this coordinate system.

CPU51は、自車線90を表す検出点の位置(Xj、Yj)と、自車線90の道路パラメータであるレーン幅Wj、曲率Rj、オフセットej、ヨー角θjとの関係を表す(2)式に基づいて、カルマンフィルタ等を用いることによって、各道路パラメータを推定する。   The CPU 51 represents the relationship between the position (Xj, Yj) of the detection point representing the own lane 90 and the lane width Wj, the curvature Rj, the offset ej, and the yaw angle θj, which are the road parameters of the own lane 90, as shown in equation (2). Based on this, each road parameter is estimated by using a Kalman filter or the like.

ただし、自車線90についての道路パラメータのうちの曲率Rj及びヨー角θjについては、S230にて、右隣接車線91の曲率R及び隣接車線の曲率Rの値をそのまま用いるものとして、すでに推定済みである。   However, the curvature Rj and the yaw angle θj among the road parameters for the own lane 90 have already been estimated in S230 as using the values of the curvature R of the right adjacent lane 91 and the curvature R of the adjacent lane as they are. is there.

本ステップでは、CPU51は、自車線90のレーン幅Wj及びオフセットejのみを、(2)式に基づいてカルマンフィルタ等を用いることによって、推定する。
S280では、CPU51は、S230で推定された自車線90についてのヨー角θj及び曲率Rjと、S270で推定された自車線90についてのレーン幅Wj及びオフセットejとを、第1道路パラメータとしてメモリ52に記録する。
In this step, the CPU 51 estimates only the lane width Wj and the offset ej of the own lane 90 by using a Kalman filter or the like based on the equation (2).
In S280, the CPU 51 stores the yaw angle θj and curvature Rj for the own lane 90 estimated in S230, and the lane width Wj and the offset ej for the own lane 90 estimated in S270 as the first road parameters in the memory 52. To record.

S285では、CPU51は、範囲外検出点をメモリ52から取得する。
S290では、S220と同様に、範囲外検出点の位置を用いて道路パラメータを推定する。つまり、範囲外検出点を自車線90の左側の車線を表す検出点であるものと仮定して、(1)式に基づいてカルマンフィルタ等を用いて、範囲外検出点によって表される道路パラメータを推定する。
In S285, the CPU 51 acquires out-of-range detection points from the memory 52.
In S290, similarly to S220, the road parameter is estimated using the position of the out-of-range detection point. That is, assuming that the out-of-range detection point is a detection point representing the left lane of the own lane 90, the road parameter represented by the out-of-range detection point is calculated using a Kalman filter or the like based on the equation (1). presume.

S295では、S290にて推定された道路パラメータを第2道路パラメータとしてメモリ52に記録する。そして、本道路パラメータ推定処理を終了する。
[1−2−3.推定範囲設定処理]
次に、道路パラメータ推定処理のS235にて実行される推定範囲設定処理について、図10のフローチャートを用いて説明する。
In S295, the road parameter estimated in S290 is recorded in the memory 52 as the second road parameter. And this road parameter estimation process is complete | finished.
[1-2-3. Estimated range setting process]
Next, the estimation range setting process executed in S235 of the road parameter estimation process will be described using the flowchart of FIG.

S300では、CPU51は、隣接車線の曲率を、具体的には図5に示す第1右区画線101の曲率(以下、隣接曲率という)Rをメモリ52から取得する。
S310では、CPU51は、S210にて取得された検出点のうち、自車両100から見て自車線90において第1右区画線101とは反対側に位置し、第1左区画線111の候補となる線を構成する複数の検出点をメモリ52から取得する。第1左区画線111の候補となる線を構成する複数の検出点とは、図5における白丸及び白四角で表された点に相当する。
In S300, the CPU 51 acquires the curvature of the adjacent lane from the memory 52, specifically, the curvature R of the first right lane line 101 shown in FIG.
In S310, the CPU 51 is located on the opposite side to the first right lane line 101 in the own lane 90 when viewed from the own vehicle 100 among the detection points acquired in S210, and the first left lane line 111 as a candidate. A plurality of detection points constituting a line to be obtained are acquired from the memory 52. The plurality of detection points constituting a candidate line for the first left partition line 111 correspond to points represented by white circles and white squares in FIG.

S330では、CPU51は、複数の検出点の並びによって表される複数の候補線を抽出する。候補線とは、例えば図5において、白丸で表された検出点の並びによって表される線121や、白丸および白四角で表された検出点の並びによって表される線122、123等をいう。   In S330, the CPU 51 extracts a plurality of candidate lines represented by the arrangement of a plurality of detection points. For example, in FIG. 5, the candidate line refers to a line 121 represented by a sequence of detection points represented by white circles, lines 122 and 123 represented by a sequence of detection points represented by white circles and white squares, and the like. .

S350では、CPU51は、複数の候補線のうち曲率が隣接曲率Rに最も近くなる候補線を仮想区画線とし、該仮想区画線を含む予め定められた幅の帯状の範囲である推定範囲Iを設定する。例えば、図5の例では、白丸で表された検出点の並びによって表される候補線121が隣接曲率Rに最も一致するので、この白丸で表された検出点の並びで表される候補線121を仮想区画線121とする。   In S350, the CPU 51 sets a candidate line whose curvature is closest to the adjacent curvature R among the plurality of candidate lines as a virtual dividing line, and calculates an estimated range I that is a band-shaped range having a predetermined width including the virtual dividing line. Set. For example, in the example of FIG. 5, the candidate line 121 represented by the arrangement of detection points represented by white circles most closely matches the adjacent curvature R, so that the candidate line represented by the arrangement of detection points represented by white circles. 121 is a virtual lane marking 121.

推定範囲の幅は、例えば、白線と同じ幅であってもよい。この場合、例えば、白線の幅をA(cm)として、仮想区画線121を中心とする±A/2(cm)の帯状の範囲を推定範囲Iとして設定してもよい。CPU51は、推定範囲Iを表す情報をメモリ52に記録する。そして、本推定範囲設定処理を終了する。   The width of the estimation range may be the same width as the white line, for example. In this case, for example, the width of the white line may be set to A (cm), and a band-shaped range of ± A / 2 (cm) centered on the virtual dividing line 121 may be set as the estimated range I. The CPU 51 records information representing the estimated range I in the memory 52. And this estimation range setting process is complete | finished.

[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)推定装置50は、道路において車両が走行する領域を表す車線のうち自車両が走行する自車線90に隣接する車線である隣接車線(右隣接車線91)についての車線の形状を表す隣接形状、及び隣接形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む隣接パラメータを取得する(S225)。また、推定装置50は、隣接パラメータから、隣接車線と自車線90とが隣接していることを用いて、自車線90についての車線の形状を表す自形状、及び自形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む自車線パラメータを推定する(S230、S275)。
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1a) The estimation device 50 is an adjacent that represents the shape of a lane for an adjacent lane (right adjacent lane 91) that is a lane adjacent to the own lane 90 on which the host vehicle travels out of the lane that represents an area on which the vehicle travels on the road. An adjacent parameter including at least one of the shape and the parameter representing the running state of the host vehicle with respect to the adjacent shape is acquired (S225). Moreover, the estimation apparatus 50 uses the adjacent parameter and the adjacent lane and the own lane 90 to be adjacent to each other, and the own shape representing the shape of the lane for the own lane 90 and the traveling state of the own vehicle with respect to the own shape. The own lane parameter including at least one of the parameters representing the position is estimated (S230, S275).

隣接パラメータとは、隣接車線の道路パラメータのうちの、曲率R及びヨー角θをいう。自パラメータとは、自車線90の道路パラメータである、曲率Rj、レーン幅Wj、ヨー角θj、オフセットejをいう。   The adjacent parameter refers to the curvature R and the yaw angle θ among the road parameters of the adjacent lane. The own parameter refers to the curvature Rj, the lane width Wj, the yaw angle θj, and the offset ej, which are road parameters of the own lane 90.

ここで、本実施形態では、隣接車線とは右隣接車線91をいい、隣接形状を表すパラメータとは右隣接車線91の曲率Rのことをいう。ただし、隣接形状を表すパラメータとは、右隣接車線91の曲率Rおよびレーン幅Wの少なくとも一方であってもよい。また、隣接形状に対する自車両100の走行状態を表すパラメータとは、右隣接車線91についてのヨー角θのことをいう。   Here, in this embodiment, the adjacent lane refers to the right adjacent lane 91, and the parameter representing the adjacent shape refers to the curvature R of the right adjacent lane 91. However, the parameter representing the adjacent shape may be at least one of the curvature R and the lane width W of the right adjacent lane 91. Further, the parameter representing the traveling state of the host vehicle 100 with respect to the adjacent shape refers to the yaw angle θ with respect to the right adjacent lane 91.

一方、自形状を表すパラメータとは、本実施形態ではレーン幅Wj及び曲率Rjをいうが、これらの少なくとも一方であってもよい。また、自形状に対する自車両の走行状態を表すパラメータとは、本実施形態では、自車線90についてのヨー角θj及びオフセットejをいうが、これらの少なくとも一方であってもよい。   On the other hand, the parameter representing the self-shape refers to the lane width Wj and the curvature Rj in the present embodiment, but may be at least one of these. Further, in the present embodiment, the parameter representing the traveling state of the host vehicle with respect to the host vehicle shape refers to the yaw angle θj and the offset ej with respect to the host vehicle lane 90, but may be at least one of these.

また、隣接車線と自車線90とが隣接していることを用いるとは、前述のように、隣接していることにより、右隣接車線91と自車線90とが平行であると推定されることを用いることをいう。   In addition, using the fact that the adjacent lane and the own lane 90 are adjacent to each other means that the right adjacent lane 91 and the own lane 90 are estimated to be parallel due to being adjacent as described above. It means using.

これによれば、自車両前方において自車線90についての左右両側の白線を検出できない状況が生じたとしても、自車線90についての少なくとも一方の白線(第1右区画線101)が検出できていれば、該一方の白線の側に位置する隣接車線(右隣接車線91)の隣接パラメータに基づいて、自車線90の道路パラメータを推定することができる。そして、推定した自車線90の道路パラメータを用いて、自車両100を走行させるための各種制御を行うことができる。   According to this, even if a situation occurs in which the white lines on both the left and right sides of the own lane 90 cannot be detected in front of the host vehicle, at least one white line (the first right lane line 101) about the own lane 90 can be detected. For example, the road parameter of the own lane 90 can be estimated based on the adjacent parameter of the adjacent lane (right adjacent lane 91) located on the one white line side. And various control for making the own vehicle 100 drive | work can be performed using the estimated road parameter of the own lane 90. FIG.

(1b)推定装置50は、隣接車線(右隣接車線91)の曲率Rを取得し、取得した右隣接車線91の曲率Rを、自車線90における曲率Rjの推定値として用いてもよい(S230)。これによれば、例えば(2)式に基づいてカルマンフィルタ等を用いて自車線90における曲率Rjを推定する処理を省略できるので、CPU51における処理負荷を低減することができる。   (1b) The estimation device 50 may acquire the curvature R of the adjacent lane (right adjacent lane 91), and use the acquired curvature R of the right adjacent lane 91 as an estimated value of the curvature Rj in the own lane 90 (S230). ). According to this, since the process which estimates curvature Rj in the own lane 90 using a Kalman filter etc. based on (2) Formula can be abbreviate | omitted, the processing load in CPU51 can be reduced.

(1c)推定装置50は、隣接車線(右隣接車線91)の延びる方向に対する自車両100の進行方向を表すヨー角θを取得し、取得した右隣接車線91に対するヨー角θを、自車線90の延びる方向に対する自車両100の進行方向を表すヨー角θjの推定値として用いてもよい(S230)。本実施形態では、隣接車線(右隣接車線91)の延びる方向とは隣接車線(右隣接車線91)の接線方向をいい、自車線の延びる方向とは、自車線90の接線方向をいう。これによれば、例えば(2)式に基づいてカルマンフィルタ等を用いて自車線90におけるヨー角θjを推定する処理を省略できるので、CPU51における処理負荷を低減することができる。   (1c) The estimation device 50 acquires the yaw angle θ representing the traveling direction of the host vehicle 100 with respect to the direction in which the adjacent lane (right adjacent lane 91) extends, and the acquired yaw angle θ with respect to the right adjacent lane 91 is determined by the host lane 90. It may be used as an estimated value of the yaw angle θj representing the traveling direction of the host vehicle 100 with respect to the direction in which the vehicle extends (S230). In the present embodiment, the direction in which the adjacent lane (right adjacent lane 91) extends refers to the tangential direction of the adjacent lane (right adjacent lane 91), and the direction in which the own lane extends refers to the tangential direction of the own lane 90. According to this, since the process which estimates yaw angle (theta) j in the own lane 90 using a Kalman filter etc. based on (2) Formula can be abbreviate | omitted, the processing load in CPU51 can be reduced.

(1d)前述のように、自車線90と隣接車線(右隣接車線91)とが隣接していることを用いて、すなわち平行であると推定されることを用いて、曲率Rj及びヨー角θjについては隣接車線の道路パラメータを自車線の道路パラメータとしてそのまま利用してもよい。ただし、例えばオフセットejのようなパラメータは、隣接車線の道路パラメータを自車線90の道路パラメータとしてそのまま利用することができない。   (1d) As described above, the curvature Rj and the yaw angle θj are used by using the fact that the own lane 90 and the adjacent lane (the right adjacent lane 91) are adjacent to each other, that is, by being estimated to be parallel. As for, the road parameter of the adjacent lane may be used as it is as the road parameter of the own lane. However, for example, a parameter such as the offset ej cannot be used as it is as the road parameter of the own lane 90.

そこで、推定装置50は、自車線90における自車線90と他の領域とを区画する境界としての区画線であって、隣接車線側の区画線を隣接側区画線(第1右区画線101)というものとして、該隣接区画線の位置と隣接パラメータとから、隣接車線と自車線90とが隣接していることを用いて、自車線90における隣接側区画線とは反対側の区画線である反隣接側区画線(第1左区画線111)の位置を推定してもよい(S270)。そして、推定装置50は、隣接側区画線(第1右区画線101)の位置と反隣接側区画線(第1左区画線111)の位置とに基づいて、自車両100の道路パラメータである自パラメータを推定してもよい(S275)。   Therefore, the estimation device 50 is a lane marking as a boundary that divides the own lane 90 and another area in the own lane 90, and the adjacent lane-side lane marking is defined as an adjacent lane marking (first right lane marking 101). That is, from the position of the adjacent lane line and the adjacent parameter, the adjacent lane line and the own lane line 90 are adjacent to each other, and the lane line on the opposite side of the adjacent lane line in the own lane line 90 is used. The position of the non-adjacent lane marking (first left lane marking 111) may be estimated (S270). And the estimation apparatus 50 is the road parameter of the own vehicle 100 based on the position of the adjacent lane line (first right lane line 101) and the position of the non-adjacent side lane line (first left lane line 111). The own parameter may be estimated (S275).

本実施形態では、区画線とは、道路に描かれた白線のことをいう。反隣接側区画線とは、本実施形態では第1左区画線111をいう。隣接側区画線の位置とは、隣接区画線である第1右区画線101を表す複数の検出点の位置をいう。また、反隣接側区画線の位置とは、反隣接側区画線である第1左区画線111を表す複数の検出点の位置をいう。   In the present embodiment, a lane marking means a white line drawn on a road. The anti-adjacent dividing line refers to the first left dividing line 111 in the present embodiment. The position of the adjacent lane marking means the position of a plurality of detection points representing the first right lane marking 101 that is the adjacent lane marking. Further, the position of the anti-adjacent dividing line means the position of a plurality of detection points representing the first left dividing line 111 that is the anti-adjacent dividing line.

これによれば、自車線90の道路パラメータのうち隣接車線の道路パラメータをそのまま利用できないパラメータを、隣接車線の道路パラメータに基づいて推定することができる。   According to this, it is possible to estimate a parameter that cannot use the road parameter of the adjacent lane as it is among the road parameters of the own lane 90 based on the road parameter of the adjacent lane.

(1e)例えば、図5に示すように分岐路140を備えるような道路では、分岐路140側では複数の区画線を表す検出点が取得され得るため、どの検出点の並びが第1左区画線111に相当するかを推定した上で、該検出点の位置に基づいてレーン幅Wj、オフセットej等の自パラメータを推定することが望ましい。   (1e) For example, as shown in FIG. 5, in a road having a branch road 140, detection points representing a plurality of lane markings can be acquired on the branch road 140 side. It is desirable to estimate whether it corresponds to the line 111 and then to estimate its own parameters such as the lane width Wj and the offset ej based on the position of the detection point.

そこで、推定装置50は、隣接車線(右隣接車線91)の曲率である隣接曲率Rを取得し、自車両100から見て自車線90において隣接側区画線(第1右区画線101)とは反対側に位置し反隣接側区画線(第1左区画線111)の候補となる線を構成する複数の検出点の位置を取得してもよい(S310)。   Therefore, the estimation device 50 acquires the adjacent curvature R, which is the curvature of the adjacent lane (right adjacent lane 91), and the adjacent lane line (first right lane line 101) in the own lane 90 when viewed from the own vehicle 100. You may acquire the position of the some detection point which comprises the line which is located in the other side and becomes a candidate of an anti-adjacent side division line (1st left division line 111) (S310).

推定装置50は、複数の検出点の並びによって表される複数の候補線121〜123を抽出し(S330)、該複数の候補線121〜123のうち曲率が隣接曲率Rに最も近くなる候補線121を仮想区画線121とし、該仮想区画線121を含む予め定められた幅の帯状の範囲である推定範囲Iを設定を設定してもよい(S350)。予め定められた幅とは、例えば白線の幅や縁石の幅といった区画線の幅であってもよいし、これに限らず任意に定められる幅であってもよい。   The estimation device 50 extracts a plurality of candidate lines 121 to 123 represented by the arrangement of a plurality of detection points (S330), and the candidate line whose curvature is closest to the adjacent curvature R among the plurality of candidate lines 121 to 123. 121 may be a virtual lane marking 121, and an estimation range I that is a band-shaped range having a predetermined width including the virtual lane marking 121 may be set (S350). The predetermined width may be, for example, a width of a dividing line such as a white line width or a curb width, or may be a width arbitrarily determined.

そして、推定装置50は、少なくとも推定範囲I内に存在する検出点の位置を取得し(S270)、推定範囲I内に位置する検出点によって表される線を反隣接側区画線(第1左区画線111)であると推定してもよい。   Then, the estimation device 50 obtains at least the position of the detection point existing within the estimation range I (S270), and sets the line represented by the detection point located within the estimation range I as the anti-adjacent division line (first left You may estimate that it is a lane marking 111).

これによれば、曲率が隣接曲率Rに一致する仮想区画線121を含む推定範囲I内に、反隣接側区画線の候補となる線を表す検出点があると推定するので、分岐路140を備える場合でも、反隣接側区画線を推定することができる。この結果、自車線90のレーン幅Wjやオフセットejを推定することが可能となる。   According to this, since it is estimated that there is a detection point that represents a line that is a candidate for an anti-adjacent lane marking line in the estimation range I including the virtual lane marking 121 whose curvature matches the adjacent curvature R, the branch path 140 is Even if it is provided, the anti-adjacent side lane marking can be estimated. As a result, the lane width Wj and the offset ej of the own lane 90 can be estimated.

なお、区画線を表す白線や縁石は所定の幅を有するので、推定範囲I内に位置する検出点は、必ずしも、白線や縁石の中央位置を表しているとは限らない。このため、仮想区画線121を第1左区画線111として推定すると、仮に白線や縁石の中央位置を並べて得られる線に対して、誤差が生じるおそれがある。   In addition, since the white line and curb representing the dividing line have a predetermined width, the detection point located within the estimation range I does not necessarily represent the center position of the white line or curb. For this reason, if the virtual lane marking 121 is estimated as the first left lane marking 111, there may be an error with respect to a line obtained by arranging the white lines and the central positions of the curbs.

本実施形態によれば、仮想区画線121を含む推定範囲I内の検出点に基づいて反隣接側区画線(第1左区画線111)を推定するので、仮に仮想区画線121を第1左区画線111とする場合よりも、精度よく第1左区画線111の位置を推定することができる。   According to the present embodiment, since the anti-adjacent lane marking (first left lane line 111) is estimated based on the detection points within the estimation range I including the virtual lane marking 121, the virtual lane marking 121 is assumed to be the first left The position of the first left marking line 111 can be estimated with higher accuracy than when the marking line 111 is used.

なお、第1実施形態において、推定装置50が自車線情報推定装置の一例に相当する。また、推定装置50が、隣接パラメータ取得部、隣接パラメータ取得部、隣接位置取得部、反隣接側推定部、検出点位置取得部、検出点取得部、範囲設定部の一例に相当する。また、S225が隣接パラメータ取得部としての処理の一例に相当し、S230、S275が、隣接パラメータ取得部としての処理の一例に相当し、S265が隣接位置取得部としての処理の一例に相当する。また、S270が、反隣接側推定部、検出点位置取得部としての処理の一例に相当する。S310が検出点取得部としての処理の一例に相当し、S350が範囲設定部としての処理の一例に相当する。   In the first embodiment, the estimation device 50 corresponds to an example of the own lane information estimation device. The estimation device 50 corresponds to an example of an adjacent parameter acquisition unit, an adjacent parameter acquisition unit, an adjacent position acquisition unit, an anti-adjacent side estimation unit, a detection point position acquisition unit, a detection point acquisition unit, and a range setting unit. S225 corresponds to an example of processing as an adjacent parameter acquisition unit, S230 and S275 correspond to an example of processing as an adjacent parameter acquisition unit, and S265 corresponds to an example of processing as an adjacent position acquisition unit. S270 corresponds to an example of processing as an anti-adjacent side estimation unit and a detection point position acquisition unit. S310 corresponds to an example of processing as a detection point acquisition unit, and S350 corresponds to an example of processing as a range setting unit.

[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Difference from the first embodiment]
Since the basic configuration of the second embodiment is the same as that of the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences. Note that the same reference numerals as those in the first embodiment indicate the same configuration, and the preceding description is referred to.

前述した第1実施形態では、推定範囲設定処理において、隣接曲率Rに基づいて推定範囲Iを設定していた。これに対し、第2実施形態では、隣接車線91のレーン幅Wに基づいて推定範囲Iを設定する点で、第1実施形態と相違する。   In the first embodiment described above, the estimated range I is set based on the adjacent curvature R in the estimated range setting process. On the other hand, the second embodiment is different from the first embodiment in that the estimation range I is set based on the lane width W of the adjacent lane 91.

[2−2.処理]
次に、第2実施形態の推定装置50(CPU51)が、第1実施形態の図10に示す処理に代えて実行する推定範囲設定処理について、図11のフローチャートを用いて説明する。なお、本実施形態では、自車両100が、一例として図12に示すような退避領域141を有する道路を走行している場合について説明する。
[2-2. processing]
Next, an estimation range setting process executed by the estimation apparatus 50 (CPU 51) of the second embodiment instead of the process shown in FIG. 10 of the first embodiment will be described using the flowchart of FIG. In the present embodiment, a case will be described in which the host vehicle 100 is traveling on a road having a retreat area 141 as shown in FIG.

S320では、CPU51は、隣接車線91におけるレーン幅Wをメモリ52から取得する。
S340では、CPU51は、自車両100から見て第1右区画線101とは反対側に、第1右区画線101からレーン幅Wを隔てたところに、仮の区画線131を設定する。すなわち、第1右区画線101を表す検出点の位置を、幅方向において右隣接車線91とは反対側にレーン幅Wだけ移動させた点によって表される線を、仮の区画線131として設定する。
In S <b> 320, the CPU 51 acquires the lane width W in the adjacent lane 91 from the memory 52.
In S <b> 340, the CPU 51 sets a temporary lane marking 131 on the side opposite to the first right lane marking 101 as viewed from the host vehicle 100, with a lane width W separated from the first right lane marking 101. That is, a line represented by a point where the position of the detection point representing the first right lane marking 101 is moved by the lane width W to the opposite side of the right adjacent lane 91 in the width direction is set as a temporary lane marking 131. To do.

S360では、図10に示すS350と同様に、仮の区画線131を含む所定幅の帯状の範囲を推定範囲Iとして設定する。
[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)〜(1d)に加え、以下の効果が得られる。
In S360, as in S350 shown in FIG. 10, a band-shaped range having a predetermined width including the temporary marking line 131 is set as the estimated range I.
[2-3. effect]
According to the second embodiment described in detail above, in addition to the effects (1a) to (1d) of the first embodiment described above, the following effects can be obtained.

(2a)推定装置50は、隣接車線91の車線幅である隣接車線幅(レーン幅W)を取得し、隣接側区画線である第1右区画線101から自車両100側にレーン幅Wを隔てたところに、予め定められた幅の帯状の範囲である推定範囲Iを設定してもよい(S360)。また、推定装置50は、少なくとも推定範囲I内に存在する区画線の位置を取得してもよい(S270)。そして、推定装置50は、推定範囲I内に位置する検出点により表される区画線を反隣接側区画線(第1左区画線111)であると推定してもよい。   (2a) The estimation device 50 acquires the adjacent lane width (lane width W) that is the lane width of the adjacent lane 91, and calculates the lane width W from the first right lane line 101 that is the adjacent lane line to the host vehicle 100 side. An estimated range I that is a band-shaped range having a predetermined width may be set at a distance (S360). Moreover, the estimation apparatus 50 may acquire the position of the lane marking that exists at least in the estimation range I (S270). And the estimation apparatus 50 may estimate that the lane marking represented by the detection point located in the estimation range I is an anti-adjacent side lane marking (first left lane marking 111).

これによれば、既に検出されている第1右区画線101を単にレーン幅W分だけ反隣接車線側へ平行移動させて得られる仮の区画線131に基づいて推定範囲Iを設定するので、推定範囲Iを設定する際のCPU51の処理負荷を低減することができる。   According to this, since the estimated range I is set based on the temporary lane line 131 obtained by translating the already detected first right lane line 101 to the opposite lane side by the lane width W, The processing load on the CPU 51 when setting the estimated range I can be reduced.

なお、第2実施形態において、推定装置50が範囲設定部、区画線位置取得部の一例に相当する。また、S360が範囲設定部としての処理の一例に相当し、S270が、区画線位置取得部としての処理の一例に相当する。   In the second embodiment, the estimation device 50 corresponds to an example of a range setting unit and a lane line position acquisition unit. Further, S360 corresponds to an example of processing as a range setting unit, and S270 corresponds to an example of processing as a lane marking position acquisition unit.

[3.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
[3. Other Embodiments]
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.

(3a)上記実施形態では、図5に示す例に基づいて、自車線90についての右側の白線である第1右区画線101が検出されており、左側の白線である第1左区画線111が検出されていない場合に、右隣接車線91を隣接車線とし、第1右区画線101を隣接側区画線であるとし、第1左区画線111を反隣接側区画線であるとして、推定装置50の作動を説明した。ただし、これに限定されるものではない。例えば、推定装置50は、第1左区画線111が検出されており第1右区画線が検出されていない場合は、左隣接車線92を隣接車線とし、第1左区画線111を隣接側区画線とし、第1右区画線101を反隣接側区画線として、自パラメータを推定するために同様の処理を実行してもよい。   (3a) In the above embodiment, based on the example shown in FIG. 5, the first right lane line 101 that is the white line on the right side of the own lane 90 is detected, and the first left lane line 111 that is the white line on the left side. If the right adjacent lane 91 is an adjacent lane, the first right lane line 101 is an adjacent lane line, and the first left lane line 111 is an anti-adjacent lane line, 50 operations have been described. However, it is not limited to this. For example, when the first left lane line 111 is detected and the first right lane line is not detected, the estimation device 50 sets the left adjacent lane 92 as the adjacent lane and the first left lane line 111 as the adjacent side lane. A similar process may be executed to estimate the own parameter with the first right lane marking 101 as the non-adjacent lane marking.

(3b)上記実施形態では、推定装置50は、隣接車線91の道路パラメータにおけるヨー角θ及び曲率Rを、自車線90のヨー角θj、曲率Rjとして用いたが、これに限定されるものではない。例えば、推定装置50は、隣接車線91についての道路パラメータのうち、ヨー角θと曲率Rとレーン幅Wのうちの少なくとも一つを、自パラメータとしてそのまま用いてもよい。すなわち、隣接パラメータとは、隣接車線91についての道路パラメータのうち、自パラメータとしてそのまま用いることが可能な、オフセットe以外の少なくとも一つの道路パラメータをいう。   (3b) In the above embodiment, the estimation device 50 uses the yaw angle θ and the curvature R in the road parameters of the adjacent lane 91 as the yaw angle θj and the curvature Rj of the own lane 90, but the present invention is not limited to this. Absent. For example, the estimation device 50 may use at least one of the yaw angle θ, the curvature R, and the lane width W among the road parameters for the adjacent lane 91 as its own parameters. That is, the adjacent parameter refers to at least one road parameter other than the offset e that can be used as it is as the own parameter among the road parameters for the adjacent lane 91.

(3c)上記実施形態では、オフセットej、レーン幅Wjを、隣接車線91の道路パラメータをそのまま利用できないパラメータとして、(2)式に基づいて推定したが、これに限定されるものではない。例えば、自車線90の道路パラメータのうちのいずれのパラメータを(2)式に基づいて推定してもよい。   (3c) In the above embodiment, the offset ej and the lane width Wj are estimated based on the expression (2) as parameters that cannot use the road parameters of the adjacent lane 91 as they are, but the present invention is not limited to this. For example, any of the road parameters of the own lane 90 may be estimated based on the equation (2).

(3d)上記実施形態では、推定装置50は、各白線に挟まれた領域を車線として認識していたが、白線以外の区画線に挟まれた領域を車線として認識してもよい。例えば、区画線とは、道路に描かれた黄線や、縁石やガードレール等のような道路に設置された立体物である路測物によって表される線等であってよい。   (3d) In the above embodiment, the estimation device 50 recognizes an area sandwiched between white lines as a lane, but may recognize an area sandwiched between lane markings other than the white line as a lane. For example, the lane marking may be a yellow line drawn on a road, a line represented by a road survey object that is a three-dimensional object such as a curb or a guardrail, or the like.

(3e)上記実施形態では、推定装置50は、自車線90についての左右両側の白線が検出されているときは、道路パラメータ推定処理を実行しなかったが、これに限定されるものではない。例えば、推定装置50は、自車線90の左右両側の白線が検出されているときであっても、該白線の一部が擦れているような場合には、道路パラメータ推定処理を実行してもよい。   (3e) In the above-described embodiment, the estimation device 50 does not execute the road parameter estimation processing when white lines on both the left and right sides of the own lane 90 are detected. However, the present invention is not limited to this. For example, the estimation device 50 may execute the road parameter estimation process when a white line on both the left and right sides of the own lane 90 is detected, but when a part of the white line is rubbed. Good.

(3f)上記実施形態では、推定装置50は、仮想区画線121に基づいて設定される推定範囲I内の検出点を用いて反隣接側区画線(第1左区画線111)を推定していたが、これに限るものではない。例えば、推定装置50は、精度が要求されない場合は、仮想区画線121を第1左区画線111として推定してもよい。   (3f) In the above embodiment, the estimation device 50 estimates the anti-adjacent lane marking (first left lane marking 111) using the detection points within the estimation range I set based on the virtual lane marking 121. However, this is not a limitation. For example, the estimation device 50 may estimate the virtual lane marking 121 as the first left lane marking 111 when accuracy is not required.

つまり、図10に表すフローチャートを用いて説明すると、推定装置50は、S300では隣接曲率Rを取得し、S310では、自車両100から見て自車線90において隣接側区画線(第1右区画線101)とは反対側に位置し隣接区画線の候補となる線を構成する複数の検出点の位置を取得してもよい。そして、推定装置50は、S330では、検出点の並びによって表される複数の候補線121〜123を抽出し、複数の候補線121〜123のうち曲率が隣接曲率に最も近くなる候補線121を仮想区画線121とし、第1実施形態とは異なり、該仮想区画線121を反隣接側区画線(第1左区画線111)として推定してもよい。   That is, the description will be made using the flowchart shown in FIG. 10. The estimation device 50 acquires the adjacent curvature R in S300, and in S310, the adjacent lane line (first right lane line) in the lane 90 when viewed from the host vehicle 100. 101), the positions of a plurality of detection points that constitute a line that is a candidate for an adjacent division line that is located on the opposite side may be acquired. In S330, the estimating apparatus 50 extracts a plurality of candidate lines 121 to 123 represented by the arrangement of detection points, and selects a candidate line 121 having a curvature closest to the adjacent curvature among the plurality of candidate lines 121 to 123. Unlike the first embodiment, the virtual lane marking 121 may be estimated as the non-adjacent side lane marking (first left lane marking 111).

すなわち、本実施形態では、推定装置50は、図6に示すS140〜S170を省略し、S175において、第1実施形態とは異なり、仮想区画線121を表す検出点と第1右区画線101を表す検出点とを用いて自パラメータを推定してもよい。また、推定装置50は、S185において、第1実施形態とは異なり、本実施形態のS310で取得した検出点のうち仮想区画線121を表す検出点を除いた検出点を、範囲外検出点として取得してもよい。   That is, in this embodiment, the estimation apparatus 50 omits S140 to S170 shown in FIG. 6, and in S175, unlike the first embodiment, the detection point representing the virtual lane line 121 and the first right lane line 101 are displayed. The own parameter may be estimated using the detected detection point. Further, in S185, the estimation device 50, unlike the first embodiment, the detection points excluding the detection points representing the virtual partition lines 121 among the detection points acquired in S310 of the present embodiment are set as out-of-range detection points. You may get it.

(3g)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   (3g) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

(3h)上述した推定装置50、当該推定装置50を構成要素とする車両制御システム1、当該推定装置50を機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、自車線情報推定方法など、種々の形態で本発明を実現することもできる。   (3h) The above-described estimation device 50, the vehicle control system 1 including the estimation device 50 as a constituent element, a program for causing the estimation device 50 to function, and a non-transitory actual recording medium such as a semiconductor memory storing the program The present invention can also be realized in various forms such as a method for estimating lane information.

50 ECU、51 CPU。   50 ECU, 51 CPU.

Claims (7)

道路において車両が走行する領域を表す車線のうち自車両が走行する自車線に隣接する車線である隣接車線についての車線の形状を表す隣接形状、及び前記隣接形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む隣接パラメータを取得する隣接パラメータ取得部(S225)と、
前記隣接パラメータから、前記隣接車線と自車線とが隣接していることを用いて、自車線についての車線の形状を表す自形状、及び前記自形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む自車線パラメータを推定する自パラメータ推定部(S230、S275)と、
を備える自車線情報推定装置(50)。
An adjacent shape that represents the shape of a lane for an adjacent lane that is adjacent to the own lane in which the host vehicle is traveling among lanes that represent a region in which the vehicle is traveling on a road, and a parameter that represents the traveling state of the host vehicle with respect to the adjacent shape An adjacent parameter acquisition unit (S225) that acquires an adjacent parameter including at least one of
From the adjacent parameter, by using that the adjacent lane and the own lane are adjacent to each other, at least of the own shape representing the shape of the lane for the own lane, and the parameter representing the traveling state of the own vehicle with respect to the own shape An own parameter estimating unit (S230, S275) for estimating an own lane parameter including one;
Self-lane information estimation device (50) comprising:
請求項1に記載の自車線情報推定装置であって、
前記隣接パラメータ取得部は、前記隣接車線の曲率を取得し、
前記自パラメータ推定部(S230)は、前記隣接車線の曲率を、自車線における曲率の推定値として用いる
自車線情報推定装置。
The own lane information estimation device according to claim 1,
The adjacent parameter acquisition unit acquires the curvature of the adjacent lane,
The own parameter estimation unit (S230) uses the curvature of the adjacent lane as an estimated value of curvature in the own lane.
請求項1または請求項2に記載の自車線情報推定装置であって、
前記隣接パラメータ取得部は、隣接車線の延びる方向に対する自車両の進行方向を表すヨー角を取得し、
前記自パラメータ推定部(S230)は、前記隣接車線に対するヨー角を、自車線の延びる方向に対する自車両の進行方向を表すヨー角の推定値として用いる
自車線情報推定装置。
It is the own lane information estimation device according to claim 1 or 2,
The adjacent parameter acquisition unit acquires a yaw angle representing a traveling direction of the host vehicle with respect to a direction in which the adjacent lane extends,
The own parameter estimation unit (S230) uses a yaw angle with respect to the adjacent lane as an estimated value of a yaw angle representing a traveling direction of the own vehicle with respect to a direction in which the own lane extends.
請求項1から請求項3のいずれか一項に記載の自車線情報推定装置であって、
自車線における自車線と他の領域とを区画する境界としての区画線であって、前記隣接車線側の区画線である隣接側区画線の位置を取得する隣接位置取得部(S265)と、
前記隣接側区画線の位置と、前記隣接パラメータとから、隣接車線と自車線とが隣接していることを用いて、自車線における前記隣接側区画線とは反対側の区画線である反隣接側区画線の位置を推定する反隣接側推定部(S270)と
を備え、
前記自パラメータ推定部(S275)は、前記隣接側区画線の位置と前記反隣接側区画線の位置とに基づいて、前記自パラメータを推定する
自車線情報推定装置。
It is the own lane information estimation device according to any one of claims 1 to 3,
An adjacent position acquisition unit (S265) that acquires a position of an adjacent lane line that is a lane line as a boundary that divides the own lane and another area in the own lane,
From the position of the adjacent lane marking and the adjacent parameter, the adjacent lane and the own lane are adjacent to each other, and the opposite lane is the lane marking opposite to the adjacent lane marking in the own lane. An anti-adjacent side estimation unit (S270) for estimating the position of the side marking line,
The own parameter estimating unit (S275) estimates the own parameter based on the position of the adjacent lane marking and the position of the non-adjacent lane marking.
請求項4に記載の自車線情報推定装置であって、
前記隣接パラメータ取得部は、前記隣接車線の車線幅である隣接車線幅を取得し、
前記隣接側区画線から自車両側に前記隣接車線幅を隔てたところに、予め定められた幅の帯状の範囲である推定範囲を設定する範囲設定部(S360)と、
少なくとも前記推定範囲内に存在する区画線の位置を取得する区画線位置取得部(S270)と、
を備え、
前記反隣接側推定部は、前記推定範囲内に位置する区画線を前記反隣接側区画線であると推定する
自車線情報推定装置。
The own lane information estimation device according to claim 4,
The adjacent parameter acquisition unit acquires an adjacent lane width that is a lane width of the adjacent lane,
A range setting unit (S360) for setting an estimated range which is a band-shaped range having a predetermined width at a position where the adjacent lane width is separated from the adjacent lane marking toward the own vehicle;
A lane line position acquisition unit (S270) that acquires at least the position of a lane line existing within the estimated range;
With
The said anti-adjacent side estimation part estimates the lane line located in the said estimation range as the said anti-adjacent side lane line The own lane information estimation apparatus.
請求項4に記載の自車線情報推定装置であって、
前記隣接パラメータ取得部は、前記隣接車線の曲率である隣接曲率を取得し、
自車両から見て前記自車線において前記隣接側区画線とは反対側に位置し前記反隣接側区画線の候補となる線を構成する複数の検出点の位置を取得する検出点取得部(S310)と、
前記複数の検出点の並びによって表される複数の候補線を抽出し(S330)、該複数の候補線のうち曲率が前記隣接曲率に最も近くなる候補線を仮想区画線とし、該仮想区画線を含む予め定められた幅の帯状の範囲である推定範囲を設定する範囲設定部(S350)と、
少なくとも前記推定範囲内に存在する複数の検出点の位置を取得する検出点位置取得部(S270)と、
を備え、
前記反隣接側推定部は、前記推定範囲内に位置する複数の検出点によって表される線を前記反隣接側区画線であると推定する
自車線情報推定装置。
The own lane information estimation device according to claim 4,
The adjacent parameter acquisition unit acquires an adjacent curvature that is a curvature of the adjacent lane,
A detection point acquisition unit (S310) that acquires positions of a plurality of detection points that are located on the opposite side of the adjacent lane line as viewed from the own vehicle and that constitute a line that is a candidate for the non-adjacent side lane line. )When,
A plurality of candidate lines represented by the arrangement of the plurality of detection points are extracted (S330), a candidate line having a curvature closest to the adjacent curvature among the plurality of candidate lines is defined as a virtual lane line, and the virtual lane line A range setting unit (S350) for setting an estimation range that is a band-shaped range having a predetermined width including
A detection point position acquisition unit (S270) that acquires positions of a plurality of detection points existing at least within the estimated range;
With
The said anti-adjacent side estimation part estimates the line represented by the some detection point located in the said estimation range as the said anti-adjacent side division line Self-lane information estimation apparatus.
請求項4に記載の自車線情報推定装置であって、
自車両から見て前記自車線において前記隣接側区画線とは反対側に位置し前記隣接区画線の候補となる線を構成する複数の検出点の位置を取得する検出点取得部(S310)
を備え、
前記隣接パラメータ取得部は、前記隣接車線の曲率である隣接曲率を取得し、
前記反隣接側推定部は、前記複数の検出点の並びによって表される複数の候補線を抽出し、該複数の候補線のうち曲率が前記隣接曲率に最も近くなる候補線を仮想区画線とし、該仮想区画線を前記反隣接側区画線として推定する
自車線情報推定装置。
The own lane information estimation device according to claim 4,
A detection point acquisition unit (S310) that acquires positions of a plurality of detection points that are located on the opposite side of the adjacent lane line as viewed from the host vehicle and that constitute a line that is a candidate for the adjacent lane line.
With
The adjacent parameter acquisition unit acquires an adjacent curvature that is a curvature of the adjacent lane,
The anti-adjacent side estimation unit extracts a plurality of candidate lines represented by the arrangement of the plurality of detection points, and sets a candidate line having a curvature closest to the adjacent curvature among the plurality of candidate lines as a virtual partition line. The own lane information estimation device that estimates the virtual lane marking as the non-adjacent lane marking.
JP2015244407A 2015-12-15 2015-12-15 Own lane information estimation device Active JP6631226B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015244407A JP6631226B2 (en) 2015-12-15 2015-12-15 Own lane information estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015244407A JP6631226B2 (en) 2015-12-15 2015-12-15 Own lane information estimation device

Publications (2)

Publication Number Publication Date
JP2017111566A true JP2017111566A (en) 2017-06-22
JP6631226B2 JP6631226B2 (en) 2020-01-15

Family

ID=59079688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015244407A Active JP6631226B2 (en) 2015-12-15 2015-12-15 Own lane information estimation device

Country Status (1)

Country Link
JP (1) JP6631226B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019096132A (en) * 2017-11-24 2019-06-20 トヨタ自動車株式会社 Object recognition device
JP2020135586A (en) * 2019-02-22 2020-08-31 株式会社豊田中央研究所 Peripheral line segment processing device, track estimation device, and peripheral line segment processing program
CN114023077A (en) * 2021-10-27 2022-02-08 海信集团控股股份有限公司 Traffic monitoring method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316767A (en) * 2006-05-23 2007-12-06 Denso Corp Lane mark recognition device for vehicle
JP2013190841A (en) * 2012-03-12 2013-09-26 Alpine Electronics Inc Lane mark detector and method for setting retrieval range of lane mark
JP2015069288A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Own vehicle position recognition device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316767A (en) * 2006-05-23 2007-12-06 Denso Corp Lane mark recognition device for vehicle
JP2013190841A (en) * 2012-03-12 2013-09-26 Alpine Electronics Inc Lane mark detector and method for setting retrieval range of lane mark
JP2015069288A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Own vehicle position recognition device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019096132A (en) * 2017-11-24 2019-06-20 トヨタ自動車株式会社 Object recognition device
JP2020135586A (en) * 2019-02-22 2020-08-31 株式会社豊田中央研究所 Peripheral line segment processing device, track estimation device, and peripheral line segment processing program
CN114023077A (en) * 2021-10-27 2022-02-08 海信集团控股股份有限公司 Traffic monitoring method and device
CN114023077B (en) * 2021-10-27 2022-11-04 海信集团控股股份有限公司 Traffic monitoring method and device

Also Published As

Publication number Publication date
JP6631226B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
EP3343173B1 (en) Vehicle position estimation device, vehicle position estimation method
CN108883770B (en) Travel path estimation method and travel path estimation device
KR20190072834A (en) Method and device to control longitudinal velocity of vehicle
JP7077967B2 (en) Driving lane estimation device, driving lane estimation method, and control program
GB2558752A (en) Vehicle vision
JP7005326B2 (en) Roadside object recognition device
JPWO2018066133A1 (en) Vehicle determination method, travel route correction method, vehicle determination device, and travel route correction device
JP6941178B2 (en) Automatic operation control device and method
JP6631226B2 (en) Own lane information estimation device
JP7043765B2 (en) Vehicle driving control method and equipment
JP2010127908A (en) Object position detector
JP7130580B2 (en) Road surface detector
CN109425861B (en) Device for calculating reliability of vehicle position
JP2018105636A (en) Route generation device
JP2024020641A (en) Position estimation system
JP6747157B2 (en) Self-position estimation method and self-position estimation device
JP2018206071A (en) Lane marking recognition device
JP2018026044A (en) Road compartment line detector
JP2018084987A (en) Object recognition device
JP2007241470A (en) Device for updating map data for vehicle
JP2020057146A (en) Traveling lane estimation device, traveling lane estimation method, and control program
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method
JP2022146256A (en) Track estimation method and track estimation device
JP4957021B2 (en) VEHICLE MAP DATA CREATION DEVICE AND VEHICLE MAP DATA UPDATE DEVICE
JP2015069288A (en) Own vehicle position recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R151 Written notification of patent or utility model registration

Ref document number: 6631226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250