JP6631226B2 - Own lane information estimation device - Google Patents

Own lane information estimation device Download PDF

Info

Publication number
JP6631226B2
JP6631226B2 JP2015244407A JP2015244407A JP6631226B2 JP 6631226 B2 JP6631226 B2 JP 6631226B2 JP 2015244407 A JP2015244407 A JP 2015244407A JP 2015244407 A JP2015244407 A JP 2015244407A JP 6631226 B2 JP6631226 B2 JP 6631226B2
Authority
JP
Japan
Prior art keywords
lane
adjacent
parameter
marking
curvature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015244407A
Other languages
Japanese (ja)
Other versions
JP2017111566A (en
Inventor
勇太 吉岡
勇太 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015244407A priority Critical patent/JP6631226B2/en
Publication of JP2017111566A publication Critical patent/JP2017111566A/en
Application granted granted Critical
Publication of JP6631226B2 publication Critical patent/JP6631226B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、自車両が走行する車線に関する情報を推定する技術に関する。   The present invention relates to a technique for estimating information about a lane in which a host vehicle travels.

従来、道路に描かれた白線を検出し、白線の検出結果に基づいて、各白線に挟まれた車線のうち自車両が走行する車線(以下、自車線という)に関する情報を取得する技術が知られている。特許文献1では、車載カメラにより取得した自車両の前方を示す画像から道路に描かれた白線を検出し、白線の検出結果に基づいて、自車線に関する情報を取得する技術が提案されている。   2. Description of the Related Art Conventionally, there has been known a technique of detecting a white line drawn on a road and acquiring information on a lane in which the own vehicle runs (hereinafter, referred to as an own lane) among lanes sandwiched between the white lines based on a detection result of the white line. Has been. Patent Literature 1 proposes a technique in which a white line drawn on a road is detected from an image indicating the front of a vehicle acquired by a vehicle-mounted camera, and information about the vehicle lane is acquired based on a detection result of the white line.

特開2009−181310号公報JP 2009-181310 A

しかしながら、自車両の前方がトラック等の大型車両で塞がれているような場合には、自車線における両側の白線を検出できないため、例えばレーン幅や曲率のような自車線に関する情報を取得できないという問題が生じ得る。なお、車線を表す線としては、白線だけではなく、道路に描かれた黄線や路面上に設置された縁石等の立体物の並びにより表される線が挙げられる。このような車線を表す線を区画線という。   However, when the front of the own vehicle is blocked by a large vehicle such as a truck, white lines on both sides of the own lane cannot be detected, and thus information about the own lane such as lane width and curvature cannot be obtained. The problem may arise. It should be noted that the lines representing the lanes include not only white lines but also lines represented by a series of three-dimensional objects such as a yellow line drawn on a road or a curb installed on a road surface. A line representing such a lane is called a division line.

本発明は、こうした問題にかんがみてなされたものであり、自車線における両側の区画線が検出されない場合に、自車線に関する情報を推定する技術を提供することを目的としている。   The present invention has been made in view of such a problem, and has as its object to provide a technique for estimating information about the own lane when lane markings on both sides of the own lane are not detected.

本発明の自車線情報推定装置(50)は、隣接パラメータ取得部(S225)と、自パラメータ推定部(S230、S275)と、を備える。隣接パラメータ取得部は、道路において車両が走行する領域を表す車線のうち自車両が走行する自車線に隣接する車線である隣接車線についての車線の形状を表す隣接形状、及び隣接形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む隣接パラメータを取得する。自パラメータ推定部は、隣接パラメータから、隣接車線と自車線とが隣接していることを用いて、自車線についての車線の形状を表す自形状、及び自形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む自車線パラメータを推定する。   The own lane information estimation device (50) of the present invention includes an adjacent parameter acquisition unit (S225) and an own parameter estimation unit (S230, S275). The adjacent parameter acquisition unit is configured to determine an adjacent shape representing a lane shape of an adjacent lane, which is a lane adjacent to the own lane in which the own vehicle runs, of a lane representing an area on which the vehicle travels on the road, and an adjacent shape of the own vehicle with respect to the adjacent shape. An adjacent parameter including at least one of the parameters representing the traveling state is obtained. The self-parameter estimating unit calculates, from the adjacent parameters, a self-shape representing the shape of the lane with respect to the self-lane and a parameter representing the traveling state of the self-vehicle with respect to the self-shape by using the fact that the adjacent lane and the own lane are adjacent to each other. Of the own lane including at least one of the following.

このような構成によれば、仮に、自車線の両側の白線を検出できない状況が生じたとしても、隣接車線に関する情報である隣接パラメータを取得できれば、隣接車線と自車線とが隣接していることに基づいて、自車線に関する情報である自車線パラメータを検出することができる。 According to such a configuration, even if a situation occurs in which white lines on both sides of the own lane cannot be detected, if the adjacent parameters, which are information on the adjacent lanes, can be acquired, the adjacent lane and the own lane are adjacent. , The own lane parameter, which is information about the own lane, can be detected.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   Note that the reference numerals in parentheses described in this column and in the claims indicate the correspondence with specific means described in the embodiment described below as one aspect, and denote the technical scope of the present invention. There is no limitation.

第1実施形態の車両制御システム及び自車線情報推定装置の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of a vehicle control system and an own lane information estimation device according to a first embodiment. 走行制御処理のフローチャート。4 is a flowchart of a traveling control process. 自車両前方を撮像した画像の一例を示す図。The figure which shows an example of the image which imaged the front of the own vehicle. 図3の画像における白線の検出例を示す図。FIG. 4 is a diagram illustrating an example of detecting a white line in the image of FIG. 3. 走行制御処理が適用される道路の一例を示す図。The figure which shows an example of the road to which traveling control processing is applied. 道路パラメータ推定処理のフローチャート。9 is a flowchart of a road parameter estimation process. 測距点の検出例を示す図。The figure which shows the example of detection of a ranging point. 新たな測拠点と過去点とからなる検出点を示す図。The figure which shows the detection point which consists of a new measurement point and a past point. 隣接道路における道路パラメータを示す図。The figure which shows the road parameter in an adjacent road. 第1実施形態の推定範囲設定処理を示すフローチャート。5 is a flowchart illustrating an estimation range setting process according to the first embodiment. 第2実施形態の推定範囲設定処理を示すフローチャート。9 is a flowchart illustrating an estimation range setting process according to the second embodiment. 走行制御処理が適用される道路の他の例を示す図。The figure which shows the other example of the road to which traveling control processing is applied.

以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す車両制御システム1は、車両に搭載されるシステムである。以下では、車両制御システム1を搭載した車両を自車両という。車両制御システム1は、レーザレーダ11と、GPS受信機12と、方向指示器センサ13と、地図データベース(以下、地図DB)14と、車速センサ15と、操舵角センサ16と、車両制御部17と、自車線情報推定装置(以下、推定装置)50と、を備える。
Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
The vehicle control system 1 shown in FIG. 1 is a system mounted on a vehicle. Hereinafter, a vehicle equipped with the vehicle control system 1 is referred to as a host vehicle. The vehicle control system 1 includes a laser radar 11, a GPS receiver 12, a direction indicator sensor 13, a map database (hereinafter, map DB) 14, a vehicle speed sensor 15, a steering angle sensor 16, a vehicle control unit 17 And an own lane information estimating device (hereinafter referred to as an estimating device) 50.

レーザレーダ11は、自車両前部に設けられている。レーザレーダ11は、自車両の進行方向前方の路面上にレーザ光を照射し、路面上の物体によって反射されたレーザ光(以下、反射光)を受光する。ここでいう物体とは、少なくとも、路面上に設置されたガードレール、縁石等のような立体物の他に、路面上に描かれた白線を含む。縁石とは、例えば、車両が走行する領域と、車両を退避させるための退避領域や歩道等とを区画する境界線として設置された、コンクリートなどで作られた棒状の石のことをいう。   The laser radar 11 is provided at the front part of the host vehicle. The laser radar 11 irradiates a laser beam on a road surface in front of the own vehicle in the traveling direction, and receives laser light (hereinafter, reflected light) reflected by an object on the road surface. The object here includes at least a white line drawn on the road surface in addition to a three-dimensional object such as a guardrail, a curb, etc. installed on the road surface. The curbstone is, for example, a rod-shaped stone made of concrete or the like, which is installed as a boundary line that divides an area where a vehicle travels, an evacuation area for evacuating the vehicle, a sidewalk, and the like.

レーザレーダ11は、受光した反射光に基づいて、自車両からレーザ光が反射された地点(以下、測距点という)までの距離と、自車両の進行方向を基準とする測距点の方位と、測距点の相対速度とを検出する。また、レーザレーダ11は、測距点からの反射光の受光強度を検出する。レーザレーダ11は、これらの検出結果を表す検出信号を出力する。   Based on the received reflected light, the laser radar 11 measures the distance from the host vehicle to the point where the laser beam is reflected (hereinafter referred to as a ranging point) and the azimuth of the ranging point based on the traveling direction of the own vehicle. And the relative speed of the ranging point are detected. Further, the laser radar 11 detects the light receiving intensity of the reflected light from the distance measuring point. The laser radar 11 outputs a detection signal representing these detection results.

GPS受信機12は、GPS衛星より送信されるGPS信号を受信して、車両の現在位置や進行方向を検出する。現在位置は、緯度経度座標によって表される絶対位置を用いて表される。   The GPS receiver 12 receives a GPS signal transmitted from a GPS satellite and detects a current position and a traveling direction of the vehicle. The current position is represented using an absolute position represented by latitude and longitude coordinates.

方向指示器センサ13は、方向指示器の操作状態を表す検出信号を出力する。
地図DB14は、緯度経度座標に従ってデータベース化された、車両が走行可能な道路を表した地図データを記録している。
The direction indicator sensor 13 outputs a detection signal indicating an operation state of the direction indicator.
The map DB 14 records map data representing a road on which the vehicle can travel, which is made into a database according to the latitude and longitude coordinates.

車速センサ15は、自車両の速度を検出し、検出した速度を表す検出信号を出力する。
操舵角センサ16は、自車両の操舵角を検出し、検出した速度を表す検出信号を出力する。
The vehicle speed sensor 15 detects the speed of the host vehicle and outputs a detection signal indicating the detected speed.
The steering angle sensor 16 detects a steering angle of the host vehicle and outputs a detection signal indicating the detected speed.

車両制御部17は、推定装置50により推定された道路パラメータに基づいて、自車両を走行させるための各種制御を実行する。車両制御部17は、例えば、エンジンを制御するエンジンECU、制動力を制御するブレーキECU、操舵角を制御するステアリングECU等を有する。   The vehicle control unit 17 executes various controls for running the own vehicle based on the road parameters estimated by the estimation device 50. The vehicle control unit 17 includes, for example, an engine ECU that controls the engine, a brake ECU that controls the braking force, a steering ECU that controls the steering angle, and the like.

推定装置50は、CPU51と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ52)と、を有する周知のマイクロコンピュータを中心に構成される。推定装置50の各種機能は、CPU51が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ52が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、推定装置50を構成するマイクロコンピュータの数は1つでも複数でもよい。   The estimating apparatus 50 is mainly configured by a known microcomputer having a CPU 51 and a semiconductor memory (hereinafter, a memory 52) such as a RAM, a ROM, and a flash memory. Various functions of the estimation device 50 are realized by the CPU 51 executing a program stored in a non-transitional substantial recording medium. In this example, the memory 52 corresponds to a non-transitional substantial recording medium storing a program. In addition, by executing this program, a method corresponding to the program is executed. Note that the number of microcomputers constituting the estimation device 50 may be one or more.

推定装置50は、メモリ52に格納されたプログラムに従って後述する走行制御処理を実行する。推定装置50は、走行制御処理を実行することにより実現される機能の一部又は全部の要素を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。   The estimating device 50 executes a later-described traveling control process according to a program stored in the memory 52. The estimation device 50 may realize some or all of the functions realized by executing the traveling control processing using hardware in which a logic circuit, an analog circuit, or the like is combined.

[1−2.処理]
[1−2−1.走行制御処理]
推定装置50のCPU51が実行する走行制御処理について、図2のフローチャートを用いて説明する。走行制御処理は、自車両前方の走行環境を表す情報を取得し、該走行環境を表す情報に基づいて自車両の走行を制御するための処理である。
[1-2. processing]
[1-2-1. Travel control processing]
The traveling control process executed by the CPU 51 of the estimation device 50 will be described with reference to the flowchart of FIG. The traveling control process is a process for acquiring information representing a traveling environment ahead of the own vehicle and controlling traveling of the own vehicle based on the information representing the traveling environment.

走行環境を表す情報は、車線の幅であるレーン幅や、車線すなわち道路の曲率、といった車線の形状を表す情報を含む。また、走行環境を表す情報は、車線の幅方向中央位置から自車両の位置までの距離を表すオフセットや、車線すなわち道路の接線方向と自車両の進行方向とのなす角度を表すヨー角といった、車線の形状に対する自車両の走行状態を表す情報を含む。レーン幅、車線の曲率、オフセット、ヨー角といったこれらの走行環境を表す情報を、道路パラメータという。   The information representing the driving environment includes information representing the shape of the lane, such as the lane width, which is the width of the lane, and the curvature of the lane, ie, the road. In addition, the information indicating the traveling environment includes an offset indicating the distance from the center position in the width direction of the lane to the position of the own vehicle, a yaw angle indicating an angle between the tangent direction of the lane, that is, the road, and the traveling direction of the own vehicle, and the like. The information includes information indicating the traveling state of the host vehicle with respect to the shape of the lane. Information indicating these traveling environments, such as lane width, lane curvature, offset, and yaw angle, is called road parameters.

つまり、車線の形状とは、例えば、車線の延びる方向における該車線の曲がり具合を表す曲率や車線の幅というような、車線の延びる方向及び幅方向における車線の様子をいう。車両の走行状態とは、例えば、車両が車線の幅方向におけるどの位置を走行しているのか、または、車両が車線内におけるどの方向へ走行しているのか、というような、車線内における車両の走行の様子をいう。曲率とは、曲率半径の逆数をいう。ヨー角とは、曲率半径の中心から自車両を通る直線と車線を表す白線との交点における接線と、自車両の進行方向とのなす角をいう。   That is, the shape of the lane refers to the state of the lane in the direction in which the lane extends and the width direction, such as the curvature indicating the degree of bending of the lane in the direction in which the lane extends and the width of the lane. The running state of the vehicle refers to, for example, which position in the width direction of the lane the vehicle is traveling in, or in which direction the vehicle is traveling in the lane, The state of running. The curvature refers to the reciprocal of the radius of curvature. The yaw angle refers to an angle between a tangent at an intersection of a straight line passing through the host vehicle from the center of the radius of curvature and a white line representing a lane, and the traveling direction of the host vehicle.

走行制御処理は、道路パラメータに基づいて自車両の走行を制御するための処理である。走行制御処理は、ACCスイッチがオンされている間、繰り返し実行される。なお、以下の説明において主語が省略されている場合は、CPU51を主語とする。   The traveling control process is a process for controlling traveling of the own vehicle based on road parameters. The traveling control process is repeatedly executed while the ACC switch is turned on. When the subject is omitted in the following description, the CPU 51 is used as the subject.

S100では、CPU51は測距点を取得する。具体的には、レーザレーダ11からの検出信号に基づいて、各測距点について、自車両を基点とする距離及び方位で表される相対位置と、受光強度とを取得する。   In S100, the CPU 51 acquires a distance measurement point. Specifically, based on a detection signal from the laser radar 11, a relative position represented by a distance and an azimuth with respect to the own vehicle for each ranging point and a light receiving intensity are acquired.

S110では、CPU51は、自車線についての道路に描かれた白線を検出する。具体的には、GPS受信機12によって検出された現在位置を取得し、該現在位置とレーザレーダ11から取得された相対位置とに基づいて、各測距点について、任意の地点を原点とする絶対座標系における位置を特定する。   In S110, the CPU 51 detects a white line drawn on the road for the own lane. Specifically, the current position detected by the GPS receiver 12 is acquired, and an arbitrary point is set as the origin for each ranging point based on the current position and the relative position acquired from the laser radar 11. Specify the position in the absolute coordinate system.

そして、白線において反射されたレーザ光の受光強度が白線の周囲において反射されたレーザ光の受光強度よりも大きいことに基づいて、受光強度が所定の閾値以上である測距点を抽出する。   Then, based on the fact that the received light intensity of the laser light reflected on the white line is greater than the received light intensity of the laser light reflected on the periphery of the white line, a ranging point whose received light intensity is equal to or more than a predetermined threshold is extracted.

例えば、図3に示すように自車両前方の道路に白線102、102、111、112が描かれている場合、仮に自車両前方の道路における測距点において反射されたレーザ光の受光強度の分布を表すとすると、図4のように表される。図4において点線で囲まれている点が、受光強度が所定の閾値以上の測距点に相当する。   For example, when the white lines 102, 102, 111, and 112 are drawn on the road ahead of the host vehicle as shown in FIG. 3, the distribution of the received light intensity of the laser light reflected at the ranging point on the road ahead of the host vehicle is assumed. Is expressed as shown in FIG. A point surrounded by a dotted line in FIG. 4 corresponds to a distance measuring point whose light receiving intensity is equal to or higher than a predetermined threshold.

CPU51は、抽出された受光強度が所定の閾値以上である測距点の並びによって推定される線を白線として検出する。図3に戻り、以下では、自車両100の右側における白線を、自車両100に近い順に、第1右区画線101、第2右区画線102、というものとする。同様に、自車両100の左側における白線を、自車両100に近い順に、第1左区画線111、第2左区画線112、というものとする。なお、自車線90に隣接する車線である隣接車線のうち、自車線90の右側の隣接車線を右隣接車線91といい、左側の隣接車線を左隣接車線92という。   The CPU 51 detects, as a white line, a line estimated by the arrangement of the ranging points whose extracted light receiving intensity is equal to or larger than a predetermined threshold. Returning to FIG. 3, the white lines on the right side of the host vehicle 100 will be referred to as a first right division line 101 and a second right division line 102 in the order of proximity to the host vehicle 100 below. Similarly, white lines on the left side of the host vehicle 100 are referred to as a first left partition line 111 and a second left partition line 112 in the order of proximity to the host vehicle 100. Note that, of the adjacent lanes that are adjacent to the own lane 90, the adjacent lane on the right side of the own lane 90 is called a right adjacent lane 91, and the adjacent lane on the left side is called a left adjacent lane 92.

CPU51は、図3の例では、自車線90についての左側の白線として第1左区画線111を検出し、自車線90についての右側の白線として第1右区画線101を検出する。このような白線の検出方法は、周知であるため、ここではこれ以上の説明を省略する。CPU51は、各白線毎に、白線を表す測距点の位置をメモリ52に記録する。   In the example of FIG. 3, the CPU 51 detects the first left lane marking 111 as the left white line for the own lane 90 and detects the first right lane marking 101 as the right white line for the own lane 90. Since such a method of detecting a white line is well known, further description is omitted here. The CPU 51 records the position of the distance measuring point representing the white line in the memory 52 for each white line.

S115では、CPU51は、S110にて自車線90についての左右両側の白線、すなわち、第1左区画線111及び第1右区画線101の両方が検出されたか否かを判断する。例えば、自車線90の白線の一方が、擦れている場合や、自車両前方を走行する大型車両により隠されている場合には、第1左区画線111及び第1右区画線101の両方が検出されない状況が生じ得る。また、自車両前方の道路が分岐している場合には、分岐している側の白線が検出されない状況が生じ得る。さらにまた、自車両前方の道路に退避領域が設けられている場合には、退避領域が設けられている側の白線が検出されない状況が生じ得る。   In S115, the CPU 51 determines whether the left and right white lines of the own lane 90, that is, both the first left division line 111 and the first right division line 101, are detected in S110. For example, when one of the white lines of the own lane 90 is rubbed or hidden by a large vehicle traveling ahead of the own vehicle, both the first left lane marking 111 and the first right lane marking 101 are both Undetected situations may occur. Further, when the road ahead of the host vehicle is branched, a situation may occur in which the white line on the branch side is not detected. Furthermore, when an evacuation area is provided on a road ahead of the host vehicle, a situation may occur in which a white line on the side where the evacuation area is provided is not detected.

CPU51は、このように自車線90についての左右両側の白線が検出されなかった場合に処理をS120へ移行させ、左右両側の白線が検出された場合に処理をS125へ移行させる。ただし、ここでいう自車線90についての左右両側の白線が検出されなかった場合とは、自車線90についての左右両側の白線のうち一方の白線は検出されている場合をいう。すなわち、第1左区画線111又は第1右区画線101の一方が検出されている場合をいう。   The CPU 51 shifts the processing to S120 when white lines on both the left and right sides of the own lane 90 are not detected, and shifts the processing to S125 when white lines on both the left and right sides are detected. However, the case where the left and right white lines of the own lane 90 are not detected here means the case where one of the left and right white lines of the own lane 90 is detected. That is, it means that one of the first left division line 111 and the first right division line 101 is detected.

S120では、CPU51は、GPS信号が正確であるか否かを判断する。具体的には、GPS信号に含まれる水平精度低下率の値が予め定められた閾値以下である場合に、GPS信号が正確であると判断する。GPS信号が正確である場合に処理をS125へ移行させ、GPS信号が正確でない場合に処理をS130へ移行させる。   In S120, the CPU 51 determines whether or not the GPS signal is correct. Specifically, when the value of the horizontal accuracy reduction rate included in the GPS signal is equal to or less than a predetermined threshold, it is determined that the GPS signal is accurate. If the GPS signal is correct, the process proceeds to S125, and if the GPS signal is not correct, the process proceeds to S130.

自車線90について左右両側の白線が検出されている場合、またはGPS信号が正しい場合に移行するS125では、CPU51は、メモリ52に記録されている自車線90の道路パラメータをそのまま維持し、処理をS160へ移行させる。自車線90の道路パラメータとは、自車線90についての各白線に挟まれた車線の幅であるレーン幅、車線の曲率、自車線90の幅方向中央位置から自車両100までの距離を表すオフセット、自車両100の直進方向と車線の接線方向とがなす角度を表すヨー角、のことをいう。なお、車線の曲率及び車線の接線方向は、白線の曲率及び白線の接線方向に等しいものとする。   In S125 when the white line on both the left and right sides of the own lane 90 is detected or when the GPS signal is correct, the CPU 51 keeps the road parameters of the own lane 90 recorded in the memory 52 as they are, and executes the processing. The process proceeds to S160. The road parameters of the own lane 90 include the lane width, which is the width of the lane sandwiched between the white lines of the own lane 90, the curvature of the lane, and an offset representing the distance from the center position of the own lane 90 in the width direction to the own vehicle 100. , The yaw angle representing the angle between the straight traveling direction of the vehicle 100 and the tangential direction of the lane. Note that the curvature of the lane and the tangent direction of the lane are equal to the curvature of the white line and the tangent direction of the white line.

自車線90について左右両側の白線が検出されておらず、且つ、GPS信号が正しくない場合に移行するS130では、CPU51は、道路パラメータ推定処理を実行する。道路パラメータ推定処理は、自車線90についての左右両側の白線のうち一方の白線のみが検出されている場合に、自車両100に対して該一方の白線が位置している側に隣接する車線である隣接車線の道路パラメータに基づいて、自車線90の道路パラメータを推定するための処理である。   In S130, when the white lines on the left and right sides of the own lane 90 are not detected and the GPS signal is incorrect, the CPU 51 executes a road parameter estimation process. When only one of the white lines on the left and right sides of the own lane 90 is detected, the road parameter estimating process is performed on the lane adjacent to the host vehicle 100 on the side where the one white line is located. This is a process for estimating the road parameters of the own lane 90 based on the road parameters of a certain adjacent lane.

以下では、一例として図5に示すように、自車両100が前方において2つに分岐する道路を走行しており、右隣接車線91が検出されており、自車線90についての左側の白線である第1左区画線111が検出されていない場合を例に挙げて処理を説明する。なお、右隣接車線91が検出されているとは、右隣接車線91を表す白線である第1右区画線101と第2右区画線102との両方が検出されていることをいう。   In the following, as shown in FIG. 5 as an example, the host vehicle 100 is traveling on a road that branches in two ahead, the right adjacent lane 91 is detected, and the left lane of the host lane 90 is the white line. The processing will be described with an example in which the first left lane marking 111 is not detected. The detection of the right adjacent lane 91 means that both the first right lane marking 101 and the second right lane marking 102 which are white lines representing the right adjacent lane 91 are detected.

S135では、方向指示器センサ13の検出信号を取得する。
S140では、方向指示器センサ13の検出信号に基づいて、車線変更が行われるか否かを判断する。車線変更が行われる場合に処理をS145へ移行させ、行われない場合に処理をS150へ移行させる。
In S135, a detection signal of the turn signal sensor 13 is obtained.
In S140, based on the detection signal of the turn signal sensor 13, it is determined whether or not a lane change is performed. If the lane change is performed, the process proceeds to S145; otherwise, the process proceeds to S150.

S145では、道路パラメータ推定処理にて推定された第1道路パラメータを、自車線の道路パラメータとしてメモリ52に記録する。
S150では、道路パラメータ推定処理にて推定された第2道路パラメータを、自車線の道路パラメータとしてメモリ52に記録する。
In S145, the first road parameters estimated in the road parameter estimation processing are recorded in the memory 52 as the road parameters of the own lane.
In S150, the second road parameters estimated in the road parameter estimation processing are recorded in the memory 52 as the road parameters of the own lane.

S160では、メモリ52に記録されている自車線の道路パラメータに基づいて、運転者が選択した車線の中央を自車両100に走行させるための制御指示を、車両制御部17に出力する。そして、本走行制御処理を終了する。   In S <b> 160, a control instruction for causing the host vehicle 100 to run the center of the lane selected by the driver is output to the vehicle control unit 17 based on the road parameters of the own lane recorded in the memory 52. Then, the main traveling control process ends.

[1−2−2.道路パラメータ推定処理]
次に、走行制御処理のS130にて実行される道路パラメータ推定処理について、図6のフローチャートを用いて説明する。
[1-2-2. Road parameter estimation processing]
Next, the road parameter estimation processing executed in S130 of the traveling control processing will be described with reference to the flowchart of FIG.

S205では、メモリ52から過去点の情報を取得する。過去点とは、過去においてS100にて抽出された検出点のうち、受光強度が所定の閾値以上である複数の測距点のことをいう。   In S205, past point information is acquired from the memory 52. The past point refers to a plurality of ranging points whose received light intensity is equal to or higher than a predetermined threshold among the detection points extracted in S100 in the past.

S210では、車速センサ15及び操舵角センサ16から検出信号を取得し、自車両の速度と操舵角とに基づいて、過去点が検出されたときから現時点までの間に自車両がどの方向にどれだけ移動したかを表す運動量を推定する。そして、推定された運動量に基づいて、絶対座標系における、過去点の現時点での位置を推定する。以下では、測距点と現時点での過去点とを合わせて、検出点という。   In S210, a detection signal is obtained from the vehicle speed sensor 15 and the steering angle sensor 16, and based on the speed and the steering angle of the own vehicle, The momentum that indicates whether the user has moved only is estimated. Then, the current position of the past point in the absolute coordinate system is estimated based on the estimated momentum. Hereinafter, the distance measuring point and the past point at the present time are collectively referred to as a detection point.

CPU51は、S100にて抽出された検出点のうち受光強度が所定の閾値以上である複数の測距点の位置と、過去点の現時点での位置とを、検出点の位置としてメモリ52に記録する。   The CPU 51 records, in the memory 52, the positions of a plurality of ranging points whose received light intensity is equal to or higher than a predetermined threshold value among the detection points extracted in S100 and the current position of the past point as the position of the detected point. I do.

一例として示す図7において黒丸で表されている測距点は、該測距点が取得されてからt秒後を表す図8では白丸で表されている。図8において、この白丸で表されている点が図8の時点における過去点に相当し、黒丸で表されている点が図8の時点における新たな測距点に相当する。このように、過去に検出された測距点をt秒後の現時点において再び利用する方法は周知であるため、これ以上の説明を省略する。   The focus detection points represented by black circles in FIG. 7 as an example are represented by open circles in FIG. 8, which represents t seconds after the acquisition of the focus detection points. In FIG. 8, the point represented by the white circle corresponds to the past point at the point in FIG. 8, and the point represented by the black circle corresponds to a new distance measuring point at the point in FIG. As described above, since a method of reusing the distance measuring points detected in the past at the present time after t seconds is well known, further description is omitted.

S215では、CPU51は、隣接車線を表す検出点を取得する。ここでいう隣接車線とは、S115にて自車線90について左右両側の白線が検出されなかった場合に、言い換えれば、自車線90についての左右両側の白線のうち一方の白線のみが検出された場合に、自車両100から見て該一方の白線の位置する側に隣接する車線をいう。   In S215, the CPU 51 acquires a detection point representing an adjacent lane. Here, the adjacent lane refers to a case where the left and right white lines of the own lane 90 are not detected in S115, in other words, only one of the left and right white lines of the own lane 90 is detected. The lane adjacent to the side where the one white line is located when viewed from the host vehicle 100.

図5に示す例では、第1右区画線101と第2右区画線102とに挟まれた右隣接車線91が隣接車線に相当する。なお、図5に示す例では、第1右区画線101が特許請求の範囲でいう隣接側区画線に相当する。本ステップでは、CPU51は、第1右区画線101を表す検出点と第2右区画線102を表す検出点とを、右隣接車線91を表す検出点として取得する。   In the example shown in FIG. 5, the right adjacent lane 91 sandwiched between the first right lane marking 101 and the second right lane marking 102 corresponds to the adjacent lane. In the example shown in FIG. 5, the first right division line 101 corresponds to the adjacent division line in the claims. In this step, the CPU 51 acquires the detection point representing the first right lane marking 101 and the detection point representing the second right lane marking 102 as the detection point representing the right adjacent lane 91.

S220では、右隣接車線91についての道路パラメータを推定する。右隣接車線91についての道路パラメータとは、具体的には、図9に示すように、第1右区画線101と第2右区画線102とに挟まれた車線の幅であるレーン幅W、該車線の曲率R、右隣接車線91の幅方向中央位置Oから自車両100の位置Mまでの距離を表すオフセットe、自車両100の直進方向Pと右隣接車線91の接線方向Qとがなす角度を表すヨー角θ、のことをいう。なお、自車両100の位置Mとは、自車両100における位置であればどの位置でもよく、例えばレーザレーダ11の設置位置であってもよい。   In S220, the road parameters for the right adjacent lane 91 are estimated. The road parameters for the right adjacent lane 91 are, specifically, lane width W, which is the width of the lane sandwiched between the first right lane marking 101 and the second right lane marking 102, as shown in FIG. The curvature R of the lane, an offset e representing the distance from the center position O in the width direction of the right adjacent lane 91 to the position M of the own vehicle 100, the straight traveling direction P of the own vehicle 100 and the tangential direction Q of the right adjacent lane 91 are formed. Means the yaw angle θ representing the angle. The position M of the host vehicle 100 may be any position as long as it is a position in the host vehicle 100, and may be, for example, an installation position of the laser radar 11.

本ステップでは、CPU51は、右隣接車線91の幅方向中央位置Oを通り右隣接車線91の接線方向に延びる軸をy軸とし、y軸に垂直であって自車両100の位置Mを通る軸をx軸とする座標系を設定する。そして、CPU51は、該座標系における、右隣接車線91を表す各検出点の位置(X、Y)を算出する。図9において黒丸で表されている点が右隣接車線91を表す各検出点の一例である。   In this step, the CPU 51 sets the axis extending in the width direction central position O of the right adjacent lane 91 in the tangential direction of the right adjacent lane 91 as the y axis, and the axis perpendicular to the y axis and passing through the position M of the host vehicle 100. Is set as the x-axis. Then, the CPU 51 calculates the position (X, Y) of each detection point representing the right adjacent lane 91 in the coordinate system. Points indicated by black circles in FIG. 9 are examples of the respective detection points representing the right adjacent lane 91.

CPU51は、右隣接車線91を表す検出点の位置(X、Y)と、右隣接車線91の道路パラメータであるレーン幅W、曲率R、オフセットe、ヨー角θとの関係を表す(1)式に基づいて、カルマンフィルタ等を用いることによって、各道路パラメータを推定する。そして、推定した各道路パラメータをメモリ52に記録する。   The CPU 51 represents the relationship between the position (X, Y) of the detection point representing the right adjacent lane 91 and the lane width W, curvature R, offset e, and yaw angle θ, which are the road parameters of the right adjacent lane 91 (1). Based on the formula, each road parameter is estimated by using a Kalman filter or the like. Then, the estimated road parameters are recorded in the memory 52.

なお、(1)式において、隣接車線が自車線の右側の車線である場合は、レーン幅Wの値は正の値として用いられ、隣接車線が自車線の左側の車線である場合は、レーン幅Wの値は負の値として用いられる。図9の例では、右隣接車線91は自車線90の右側の車線であるため、レーン幅Wの値は正の値として用いられる。   In equation (1), when the adjacent lane is the lane on the right side of the own lane, the value of the lane width W is used as a positive value, and when the adjacent lane is the lane on the left side of the own lane, The value of the width W is used as a negative value. In the example of FIG. 9, since the right adjacent lane 91 is the lane on the right side of the own lane 90, the value of the lane width W is used as a positive value.

S225では、CPU51は、S220にて推定された右隣接車線91についての道路パラメータのうち、ヨー角θと曲率Rとを、隣接パラメータとして取得する。隣接パラメータとは、本ステップにて取得する右隣接車線91についての道路パラメータをいう。   In S225, the CPU 51 acquires the yaw angle θ and the curvature R from the road parameters of the right adjacent lane 91 estimated in S220 as the adjacent parameters. The adjacent parameter is a road parameter for the right adjacent lane 91 acquired in this step.

S230では、220にて取得された隣接パラメータであるヨー角θと曲率Rとを、自車線90のヨー角、及び曲率として、メモリ52に記録する。ここでは、自車線90と右隣接車線91とが隣接していることを用いて、言い換えれば、隣接していることにより自車線90と右隣接車線91とが平行であると推定されることを用いて、右隣接車線91のヨー角θと曲率Rを、自車線90のヨー角、及び曲率としてそのまま用いている。   In S230, the yaw angle θ and the curvature R, which are the adjacent parameters acquired in 220, are recorded in the memory 52 as the yaw angle and the curvature of the own lane 90. Here, the fact that the own lane 90 and the right adjacent lane 91 are adjacent to each other is used by using the fact that the own lane 90 and the right adjacent lane 91 are adjacent to each other. The yaw angle θ and the curvature R of the right adjacent lane 91 are directly used as the yaw angle and the curvature of the own lane 90.

なお、ここでいう平行とは、完全には平行でないものの、平行である状態から誤差の範囲内に収まる状態であり、平行である場合と概ね同様の効果が得られる状態であることを示す。   Here, the term “parallel” refers to a state in which the parallel state is not completely parallel but falls within an error range from the parallel state, and a state in which substantially the same effect as in the parallel state is obtained.

S235では、推定範囲設定処理を行う。推定範囲設定処理は、図5に示す例において、自車線90についての白線のうち、検出されていない他方の白線である第1左区画線111が存在すると推定される範囲である推定範囲Iを設定する処理である。   In S235, an estimation range setting process is performed. In the example illustrated in FIG. 5, the estimation range setting process determines an estimation range I that is a range in which it is estimated that the first left demarcation line 111 that is the other undetected white line among the white lines of the own lane 90 exists. This is the process for setting.

S240〜S260では、CPU51は、S100にて取得された検出点のうち、自車両100に対して右隣接車線91が位置する側とは反対側である反隣接車線側に位置する検出点について、推定範囲内Iに位置するか否かの分類を行う。   In S240 to S260, the CPU 51 determines, among the detection points acquired in S100, a detection point located on the opposite adjacent lane side opposite to the side where the right adjacent lane 91 is located with respect to the vehicle 100, Classification as to whether or not the position is within the estimation range I is performed.

すなわち、CPU51は、S240では、自車両100に対して反隣接車線側に位置する検出点を取得する。S245では、検出点の位置に基づいて検出点が推定範囲I内に位置するか否かを判断する。S250では、推定範囲I外に位置する検出点を範囲外検出点としてメモリ52に記録する。S255では、推定範囲I内に位置する検出点を範囲内検出点としてメモリ52に記録する。そして、S240にて取得した検出点の全てについて分類が終了するまで(S260;YES)、S240〜S260の処理を繰り返す。   That is, in S240, the CPU 51 acquires a detection point located on the side of the lane opposite to the own vehicle 100. In S245, it is determined whether or not the detection point is located within the estimation range I based on the position of the detection point. In S250, the detection points located outside the estimation range I are recorded in the memory 52 as out-of-range detection points. In S255, the detection points located in the estimation range I are recorded in the memory 52 as the detection points in the range. Then, the processing of S240 to S260 is repeated until the classification is completed for all of the detection points acquired in S240 (S260; YES).

S265では、隣接側区画線である第1右区画線101を表す検出点をメモリ52から取得する。
S270では、範囲内検出点をメモリ52から取得する。
In S265, a detection point representing the first right lane marking line 101 as the adjacent lane marking is acquired from the memory 52.
In S270, the in-range detection points are acquired from the memory 52.

S275では、範囲内検出点及び第1右区画線101を表す検出点を、具体的には図5における白丸及び黒丸で表されている検出点を、自車線90を表す検出点であるとして、これらの検出点の位置に基づいて、前述の右隣接車線91についての道路パラメータと同様に、自車線90の道路パラメータを推定する。   In S275, the detection point representing the in-range detection point and the first right demarcation line 101, specifically, the detection point represented by the white circle and the black circle in FIG. Based on the positions of these detection points, the road parameters of the own lane 90 are estimated in the same manner as the road parameters for the right adjacent lane 91 described above.

すなわち、本ステップでは、図示しないが、CPU51は、自車線90の幅方向中央位置を通り自車線の接線方向に延びる軸をy軸とし、y軸に垂直であって自車両100の位置を通る軸をx軸とする座標系を設定する。そして、CPU51は、該座標系における、自車線90を表す各検出点の位置(Xj、Yj)を算出する。   That is, in this step, although not shown, the CPU 51 sets the axis extending in the width direction center of the own lane 90 in the tangential direction of the own lane as the y axis, and is perpendicular to the y axis and passes through the position of the own vehicle 100. Set a coordinate system with the axis as the x-axis. Then, the CPU 51 calculates the position (Xj, Yj) of each detection point representing the own lane 90 in the coordinate system.

CPU51は、自車線90を表す検出点の位置(Xj、Yj)と、自車線90の道路パラメータであるレーン幅Wj、曲率Rj、オフセットej、ヨー角θjとの関係を表す(2)式に基づいて、カルマンフィルタ等を用いることによって、各道路パラメータを推定する。   The CPU 51 calculates the relationship between the position (Xj, Yj) of the detection point representing the own lane 90 and the lane width Wj, curvature Rj, offset ej, and yaw angle θj, which are road parameters of the own lane 90, by Expression (2). Based on this, each road parameter is estimated by using a Kalman filter or the like.

ただし、自車線90についての道路パラメータのうちの曲率Rj及びヨー角θjについては、S230にて、右隣接車線91の曲率R及び隣接車線の曲率Rの値をそのまま用いるものとして、すでに推定済みである。   However, the curvature Rj and the yaw angle θj of the road parameters of the own lane 90 have already been estimated in S230 assuming that the values of the curvature R of the right adjacent lane 91 and the curvature R of the adjacent lane are used as they are. is there.

本ステップでは、CPU51は、自車線90のレーン幅Wj及びオフセットejのみを、(2)式に基づいてカルマンフィルタ等を用いることによって、推定する。
S280では、CPU51は、S230で推定された自車線90についてのヨー角θj及び曲率Rjと、S270で推定された自車線90についてのレーン幅Wj及びオフセットejとを、第1道路パラメータとしてメモリ52に記録する。
In this step, the CPU 51 estimates only the lane width Wj and the offset ej of the own lane 90 by using a Kalman filter or the like based on the equation (2).
In S280, the CPU 51 uses the yaw angle θj and the curvature Rj of the own lane 90 estimated in S230 and the lane width Wj and the offset ej of the own lane 90 estimated in S270 as the first road parameters in the memory 52. To record.

S285では、CPU51は、範囲外検出点をメモリ52から取得する。
S290では、S220と同様に、範囲外検出点の位置を用いて道路パラメータを推定する。つまり、範囲外検出点を自車線90の左側の車線を表す検出点であるものと仮定して、(1)式に基づいてカルマンフィルタ等を用いて、範囲外検出点によって表される道路パラメータを推定する。
In S285, the CPU 51 acquires the out-of-range detection point from the memory 52.
In S290, as in S220, the road parameters are estimated using the position of the out-of-range detection point. That is, assuming that the out-of-range detection point is a detection point representing the lane on the left side of the own lane 90, the road parameter represented by the out-of-range detection point is calculated using a Kalman filter or the like based on equation (1). presume.

S295では、S290にて推定された道路パラメータを第2道路パラメータとしてメモリ52に記録する。そして、本道路パラメータ推定処理を終了する。
[1−2−3.推定範囲設定処理]
次に、道路パラメータ推定処理のS235にて実行される推定範囲設定処理について、図10のフローチャートを用いて説明する。
In S295, the road parameters estimated in S290 are recorded in the memory 52 as the second road parameters. Then, the road parameter estimation processing ends.
[1-2-3. Estimation range setting process]
Next, the estimation range setting process executed in S235 of the road parameter estimation process will be described with reference to the flowchart of FIG.

S300では、CPU51は、隣接車線の曲率を、具体的には図5に示す第1右区画線101の曲率(以下、隣接曲率という)Rをメモリ52から取得する。
S310では、CPU51は、S210にて取得された検出点のうち、自車両100から見て自車線90において第1右区画線101とは反対側に位置し、第1左区画線111の候補となる線を構成する複数の検出点をメモリ52から取得する。第1左区画線111の候補となる線を構成する複数の検出点とは、図5における白丸及び白四角で表された点に相当する。
In S300, the CPU 51 acquires the curvature of the adjacent lane, specifically, the curvature R (hereinafter, referred to as an adjacent curvature) R of the first right lane marking 101 shown in FIG.
In S310, the CPU 51 is located on the opposite side of the first lane marking line 101 in the own lane 90 when viewed from the own vehicle 100, among the detection points acquired in S210, and is determined as a candidate for the first left lane marking line 111. A plurality of detection points forming a line are obtained from the memory 52. The plurality of detection points forming the candidate line of the first left division line 111 correspond to the points represented by white circles and white squares in FIG.

S330では、CPU51は、複数の検出点の並びによって表される複数の候補線を抽出する。候補線とは、例えば図5において、白丸で表された検出点の並びによって表される線121や、白丸および白四角で表された検出点の並びによって表される線122、123等をいう。   In S330, the CPU 51 extracts a plurality of candidate lines represented by an arrangement of a plurality of detection points. The candidate lines include, for example, a line 121 represented by an arrangement of detection points represented by white circles, and lines 122 and 123 represented by an arrangement of detection points represented by white circles and white squares in FIG. .

S350では、CPU51は、複数の候補線のうち曲率が隣接曲率Rに最も近くなる候補線を仮想区画線とし、該仮想区画線を含む予め定められた幅の帯状の範囲である推定範囲Iを設定する。例えば、図5の例では、白丸で表された検出点の並びによって表される候補線121が隣接曲率Rに最も一致するので、この白丸で表された検出点の並びで表される候補線121を仮想区画線121とする。   In S350, the CPU 51 sets a candidate line having a curvature closest to the adjacent curvature R among the plurality of candidate lines as a virtual demarcation line, and sets an estimated range I that is a band-shaped range having a predetermined width including the virtual demarcation line. Set. For example, in the example of FIG. 5, since the candidate line 121 represented by the arrangement of the detection points represented by white circles most closely matches the adjacent curvature R, the candidate line 121 represented by the arrangement of the detection points represented by the white circles Let 121 be a virtual demarcation line 121.

推定範囲の幅は、例えば、白線と同じ幅であってもよい。この場合、例えば、白線の幅をA(cm)として、仮想区画線121を中心とする±A/2(cm)の帯状の範囲を推定範囲Iとして設定してもよい。CPU51は、推定範囲Iを表す情報をメモリ52に記録する。そして、本推定範囲設定処理を終了する。   The width of the estimation range may be, for example, the same width as the white line. In this case, for example, the width of the white line may be set to A (cm), and a band-like range of ± A / 2 (cm) around the virtual division line 121 may be set as the estimation range I. The CPU 51 records information indicating the estimation range I in the memory 52. Then, the estimation range setting process ends.

[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)推定装置50は、道路において車両が走行する領域を表す車線のうち自車両が走行する自車線90に隣接する車線である隣接車線(右隣接車線91)についての車線の形状を表す隣接形状、及び隣接形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む隣接パラメータを取得する(S225)。また、推定装置50は、隣接パラメータから、隣接車線と自車線90とが隣接していることを用いて、自車線90についての車線の形状を表す自形状、及び自形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む自車線パラメータを推定する(S230、S275)。
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1a) The estimation device 50 determines the shape of the adjacent lane (right adjacent lane 91) which is the lane adjacent to the own lane 90 where the host vehicle runs, of the lanes indicating the area where the vehicle runs on the road. An adjacent parameter including at least one of a shape and a parameter representing a traveling state of the own vehicle with respect to the adjacent shape is acquired (S225). Further, the estimation device 50 uses the adjacent parameters to determine that the adjacent lane and the own lane 90 are adjacent to each other, and to use the own shape representing the lane shape of the own lane 90 and the traveling state of the own vehicle with respect to the own shape. Is estimated (S230, S275).

隣接パラメータとは、隣接車線の道路パラメータのうちの、曲率R及びヨー角θをいう。自車線パラメータとは、自車線90の道路パラメータである、曲率Rj、レーン幅Wj、ヨー角θj、オフセットejをいう。 The adjacent parameter refers to the curvature R and the yaw angle θ among the road parameters of the adjacent lane. The own lane parameters mean the curvature Rj, lane width Wj, yaw angle θj, and offset ej, which are road parameters of the own lane 90.

ここで、本実施形態では、隣接車線とは右隣接車線91をいい、隣接形状を表すパラメータとは右隣接車線91の曲率Rのことをいう。ただし、隣接形状を表すパラメータとは、右隣接車線91の曲率Rおよびレーン幅Wの少なくとも一方であってもよい。また、隣接形状に対する自車両100の走行状態を表すパラメータとは、右隣接車線91についてのヨー角θのことをいう。   Here, in the present embodiment, the adjacent lane refers to the right adjacent lane 91, and the parameter representing the adjacent shape refers to the curvature R of the right adjacent lane 91. However, the parameter representing the adjacent shape may be at least one of the curvature R of the right adjacent lane 91 and the lane width W. The parameter indicating the running state of the vehicle 100 in the adjacent shape refers to the yaw angle θ of the right adjacent lane 91.

一方、自形状を表すパラメータとは、本実施形態ではレーン幅Wj及び曲率Rjをいうが、これらの少なくとも一方であってもよい。また、自形状に対する自車両の走行状態を表すパラメータとは、本実施形態では、自車線90についてのヨー角θj及びオフセットejをいうが、これらの少なくとも一方であってもよい。   On the other hand, the parameters representing the own shape refer to the lane width Wj and the curvature Rj in the present embodiment, but may be at least one of them. In the present embodiment, the parameters representing the traveling state of the own vehicle with respect to the own shape refer to the yaw angle θj and the offset ej for the own lane 90, but may be at least one of these.

また、隣接車線と自車線90とが隣接していることを用いるとは、前述のように、隣接していることにより、右隣接車線91と自車線90とが平行であると推定されることを用いることをいう。   In addition, using the fact that the adjacent lane and the own lane 90 are adjacent means that the adjacent lane 91 and the own lane 90 are estimated to be parallel due to being adjacent as described above. Is used.

これによれば、自車両前方において自車線90についての左右両側の白線を検出できない状況が生じたとしても、自車線90についての少なくとも一方の白線(第1右区画線101)が検出できていれば、該一方の白線の側に位置する隣接車線(右隣接車線91)の隣接パラメータに基づいて、自車線90の道路パラメータを推定することができる。そして、推定した自車線90の道路パラメータを用いて、自車両100を走行させるための各種制御を行うことができる。   According to this, even if a situation occurs in which the left and right white lines of the own lane 90 cannot be detected ahead of the own vehicle, at least one white line (first right division line 101) of the own lane 90 can be detected. For example, the road parameters of the own lane 90 can be estimated based on the adjacent parameters of the adjacent lane (the right adjacent lane 91) located on the one white line side. Then, using the estimated road parameters of the own lane 90, various controls for running the own vehicle 100 can be performed.

(1b)推定装置50は、隣接車線(右隣接車線91)の曲率Rを取得し、取得した右隣接車線91の曲率Rを、自車線90における曲率Rjの推定値として用いてもよい(S230)。これによれば、例えば(2)式に基づいてカルマンフィルタ等を用いて自車線90における曲率Rjを推定する処理を省略できるので、CPU51における処理負荷を低減することができる。   (1b) The estimation device 50 may acquire the curvature R of the adjacent lane (right adjacent lane 91) and use the acquired curvature R of the right adjacent lane 91 as an estimated value of the curvature Rj in the own lane 90 (S230). ). According to this, for example, the process of estimating the curvature Rj in the own lane 90 using the Kalman filter or the like based on the equation (2) can be omitted, so that the processing load on the CPU 51 can be reduced.

(1c)推定装置50は、隣接車線(右隣接車線91)の延びる方向に対する自車両100の進行方向を表すヨー角θを取得し、取得した右隣接車線91に対するヨー角θを、自車線90の延びる方向に対する自車両100の進行方向を表すヨー角θjの推定値として用いてもよい(S230)。本実施形態では、隣接車線(右隣接車線91)の延びる方向とは隣接車線(右隣接車線91)の接線方向をいい、自車線の延びる方向とは、自車線90の接線方向をいう。これによれば、例えば(2)式に基づいてカルマンフィルタ等を用いて自車線90におけるヨー角θjを推定する処理を省略できるので、CPU51における処理負荷を低減することができる。   (1c) The estimation device 50 acquires the yaw angle θ indicating the traveling direction of the host vehicle 100 with respect to the direction in which the adjacent lane (the right adjacent lane 91) extends, and calculates the acquired yaw angle θ with respect to the right adjacent lane 91 as the own lane 90. May be used as an estimated value of the yaw angle θj representing the traveling direction of the host vehicle 100 with respect to the direction in which the vehicle extends (S230). In the present embodiment, the direction in which the adjacent lane (right adjacent lane 91) extends refers to the tangential direction of the adjacent lane (right adjacent lane 91), and the direction in which the own lane extends refers to the tangential direction of the own lane 90. According to this, for example, the process of estimating the yaw angle θj in the own lane 90 using the Kalman filter or the like based on the equation (2) can be omitted, so that the processing load on the CPU 51 can be reduced.

(1d)前述のように、自車線90と隣接車線(右隣接車線91)とが隣接していることを用いて、すなわち平行であると推定されることを用いて、曲率Rj及びヨー角θjについては隣接車線の道路パラメータを自車線の道路パラメータとしてそのまま利用してもよい。ただし、例えばオフセットejのようなパラメータは、隣接車線の道路パラメータを自車線90の道路パラメータとしてそのまま利用することができない。   (1d) As described above, using the fact that the own lane 90 and the adjacent lane (the right adjacent lane 91) are adjacent to each other, that is, using the fact that it is estimated to be parallel, the curvature Rj and the yaw angle θj are used. For, the road parameter of the adjacent lane may be used as it is as the road parameter of the own lane. However, for example, a parameter such as the offset ej cannot use the road parameter of the adjacent lane as the road parameter of the own lane 90 as it is.

そこで、推定装置50は、自車線90における自車線90と他の領域とを区画する境界としての区画線であって、隣接車線側の区画線を隣接側区画線(第1右区画線101)というものとして、該隣接区画線の位置と隣接パラメータとから、隣接車線と自車線90とが隣接していることを用いて、自車線90における隣接側区画線とは反対側の区画線である反隣接側区画線(第1左区画線111)の位置を推定してもよい(S270)。そして、推定装置50は、隣接側区画線(第1右区画線101)の位置と反隣接側区画線(第1左区画線111)の位置とに基づいて、自車両100の道路パラメータである自車線パラメータを推定してもよい(S275)。 Therefore, the estimating apparatus 50 sets the lane marking on the adjacent lane side as the lane marking that separates the own lane 90 from the other area in the own lane 90 and the adjacent lane marking (first right lane marking 101). In other words, based on the position of the adjacent lane marking and the adjacent parameters, by using the fact that the adjacent lane and the own lane 90 are adjacent to each other, the lane marking is opposite to the adjacent lane marking in the own lane 90. The position of a certain non-adjacent lane marking (first left lane marking 111) may be estimated (S270). Then, the estimation device 50 is a road parameter of the vehicle 100 based on the position of the adjacent lane marking (first right lane marking 101) and the position of the opposite adjacent lane marking (first left lane marking 111). The own lane parameter may be estimated (S275).

本実施形態では、区画線とは、道路に描かれた白線のことをいう。反隣接側区画線とは、本実施形態では第1左区画線111をいう。隣接側区画線の位置とは、隣接区画線である第1右区画線101を表す複数の検出点の位置をいう。また、反隣接側区画線の位置とは、反隣接側区画線である第1左区画線111を表す複数の検出点の位置をいう。 In the present embodiment, the division line refers to a white line drawn on a road. The non-adjacent division line refers to the first left division line 111 in the present embodiment. The position of the adjacent side division line refers to the position of the plurality of detection points representing the first right lane mark 101 is adjacent the side division line. Further, the position of the non-adjacent lane marking refers to the positions of a plurality of detection points representing the first left lane marking 111 that is the non-adjacent lane marking.

これによれば、自車線90の道路パラメータのうち隣接車線の道路パラメータをそのまま利用できないパラメータを、隣接車線の道路パラメータに基づいて推定することができる。   According to this, it is possible to estimate a parameter that cannot use the road parameter of the adjacent lane as it is among the road parameters of the own lane 90 based on the road parameter of the adjacent lane.

(1e)例えば、図5に示すように分岐路140を備えるような道路では、分岐路140側では複数の区画線を表す検出点が取得され得るため、どの検出点の並びが第1左区画線111に相当するかを推定した上で、該検出点の位置に基づいてレーン幅Wj、オフセットej等の自車線パラメータを推定することが望ましい。 (1e) For example, on a road including the branch road 140 as shown in FIG. 5, since the detection points representing a plurality of lane markings can be acquired on the branch road 140 side, the arrangement of the detection points is the first left partition. After estimating whether the line corresponds to the line 111, it is desirable to estimate the own lane parameters such as the lane width Wj and the offset ej based on the position of the detection point.

そこで、推定装置50は、隣接車線(右隣接車線91)の曲率である隣接曲率Rを取得し、自車両100から見て自車線90において隣接側区画線(第1右区画線101)とは反対側に位置し反隣接側区画線(第1左区画線111)の候補となる線を構成する複数の検出点の位置を取得してもよい(S310)。   Therefore, the estimation device 50 acquires the adjacent curvature R that is the curvature of the adjacent lane (the right adjacent lane 91), and determines the adjacent lane (the first right lane 101) in the own lane 90 when viewed from the own vehicle 100. The positions of a plurality of detection points constituting a line that is located on the opposite side and is a candidate for the non-adjacent side lane marking (first left lane marking 111) may be acquired (S310).

推定装置50は、複数の検出点の並びによって表される複数の候補線121〜123を抽出し(S330)、該複数の候補線121〜123のうち曲率が隣接曲率Rに最も近くなる候補線121を仮想区画線121とし、該仮想区画線121を含む予め定められた幅の帯状の範囲である推定範囲Iを設定を設定してもよい(S350)。予め定められた幅とは、例えば白線の幅や縁石の幅といった区画線の幅であってもよいし、これに限らず任意に定められる幅であってもよい。   The estimating device 50 extracts a plurality of candidate lines 121 to 123 represented by an arrangement of a plurality of detection points (S330), and among the plurality of candidate lines 121 to 123, a candidate line whose curvature is closest to the adjacent curvature R. 121 may be used as the virtual division line 121, and an estimation range I which is a band-like range having a predetermined width including the virtual division line 121 may be set (S350). The predetermined width may be, for example, the width of a division line such as the width of a white line or the width of a curbstone, or may be an arbitrary determined width.

そして、推定装置50は、少なくとも推定範囲I内に存在する検出点の位置を取得し(S270)、推定範囲I内に位置する検出点によって表される線を反隣接側区画線(第1左区画線111)であると推定してもよい。   Then, the estimation device 50 acquires at least the position of the detection point present in the estimation range I (S270), and draws the line represented by the detection point located in the estimation range I on the opposite-adjoining side division line (first left line). It may be presumed to be the division line 111).

これによれば、曲率が隣接曲率Rに一致する仮想区画線121を含む推定範囲I内に、反隣接側区画線の候補となる線を表す検出点があると推定するので、分岐路140を備える場合でも、反隣接側区画線を推定することができる。この結果、自車線90のレーン幅Wjやオフセットejを推定することが可能となる。   According to this, it is estimated that there is a detection point representing a line that is a candidate for the non-adjacent lane marking in the estimation range I including the virtual lane marking 121 whose curvature matches the adjacent curvature R. Even if it is provided, it is possible to estimate the non-adjacent lane marking. As a result, the lane width Wj and the offset ej of the own lane 90 can be estimated.

なお、区画線を表す白線や縁石は所定の幅を有するので、推定範囲I内に位置する検出点は、必ずしも、白線や縁石の中央位置を表しているとは限らない。このため、仮想区画線121を第1左区画線111として推定すると、仮に白線や縁石の中央位置を並べて得られる線に対して、誤差が生じるおそれがある。   In addition, since the white line and the curb indicating the lane marking have a predetermined width, the detection point located in the estimation range I does not always represent the center position of the white line and the curb. For this reason, if the virtual lane marking 121 is estimated as the first left lane marking 111, an error may possibly occur with respect to a white line or a line obtained by arranging the center positions of curbs.

本実施形態によれば、仮想区画線121を含む推定範囲I内の検出点に基づいて反隣接側区画線(第1左区画線111)を推定するので、仮に仮想区画線121を第1左区画線111とする場合よりも、精度よく第1左区画線111の位置を推定することができる。   According to the present embodiment, since the non-adjacent lane marking (first left lane marking 111) is estimated based on the detection points in the estimation range I including the virtual lane marking 121, the virtual lane marking 121 is temporarily set to the first left lane marking. The position of the first left lane marking 111 can be estimated more accurately than when the lane marking 111 is used.

なお、第1実施形態において、推定装置50が自車線情報推定装置の一例に相当する。また、推定装置50が、隣接パラメータ取得部、隣接パラメータ取得部、隣接位置取得部、反隣接側推定部、検出点位置取得部、検出点取得部、範囲設定部の一例に相当する。また、S225が隣接パラメータ取得部としての処理の一例に相当し、S230、S275が、隣接パラメータ取得部としての処理の一例に相当し、S265が隣接位置取得部としての処理の一例に相当する。また、S270が、反隣接側推定部、検出点位置取得部としての処理の一例に相当する。S310が検出点取得部としての処理の一例に相当し、S350が範囲設定部としての処理の一例に相当する。   In the first embodiment, the estimating device 50 corresponds to an example of the own lane information estimating device. Further, the estimation device 50 corresponds to an example of an adjacent parameter acquisition unit, an adjacent parameter acquisition unit, an adjacent position acquisition unit, a non-adjacent side estimation unit, a detection point position acquisition unit, a detection point acquisition unit, and a range setting unit. Further, S225 corresponds to an example of processing as an adjacent parameter acquisition unit, S230 and S275 correspond to an example of processing as an adjacent parameter acquisition unit, and S265 corresponds to an example of processing as an adjacent position acquisition unit. In addition, S270 corresponds to an example of processing as the non-adjacent side estimation unit and the detection point position acquisition unit. S310 corresponds to an example of processing as a detection point acquisition unit, and S350 corresponds to an example of processing as a range setting unit.

[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2. Second Embodiment]
[2-1. Differences from First Embodiment]
Since the second embodiment has the same basic configuration as the first embodiment, the description of the common configuration will be omitted, and the description will focus on the differences. The same reference numerals as in the first embodiment denote the same components, and refer to the preceding description.

前述した第1実施形態では、推定範囲設定処理において、隣接曲率Rに基づいて推定範囲Iを設定していた。これに対し、第2実施形態では、隣接車線91のレーン幅Wに基づいて推定範囲Iを設定する点で、第1実施形態と相違する。   In the first embodiment described above, the estimation range I is set based on the adjacent curvature R in the estimation range setting process. On the other hand, the second embodiment differs from the first embodiment in that the estimation range I is set based on the lane width W of the adjacent lane 91.

[2−2.処理]
次に、第2実施形態の推定装置50(CPU51)が、第1実施形態の図10に示す処理に代えて実行する推定範囲設定処理について、図11のフローチャートを用いて説明する。なお、本実施形態では、自車両100が、一例として図12に示すような退避領域141を有する道路を走行している場合について説明する。
[2-2. processing]
Next, an estimation range setting process executed by the estimation device 50 (CPU 51) of the second embodiment in place of the process shown in FIG. 10 of the first embodiment will be described with reference to the flowchart of FIG. In the present embodiment, a case will be described in which the host vehicle 100 is traveling on a road having an evacuation area 141 as shown in FIG. 12 as an example.

S320では、CPU51は、隣接車線91におけるレーン幅Wをメモリ52から取得する。
S340では、CPU51は、自車両100から見て第1右区画線101とは反対側に、第1右区画線101からレーン幅Wを隔てたところに、仮の区画線131を設定する。すなわち、第1右区画線101を表す検出点の位置を、幅方向において右隣接車線91とは反対側にレーン幅Wだけ移動させた点によって表される線を、仮の区画線131として設定する。
In S320, the CPU 51 acquires the lane width W in the adjacent lane 91 from the memory 52.
In S340, the CPU 51 sets a temporary lane marking 131 on the opposite side of the first right lane marking 101 from the host vehicle 100 and at a distance of the lane width W from the first right lane marking 101. That is, a line represented by a point where the position of the detection point representing the first right lane marking 101 is moved by the lane width W to the opposite side to the right adjacent lane 91 in the width direction is set as the temporary lane marking 131. I do.

S360では、図10に示すS350と同様に、仮の区画線131を含む所定幅の帯状の範囲を推定範囲Iとして設定する。
[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)〜(1d)に加え、以下の効果が得られる。
In S360, as in S350 shown in FIG. 10, a band-shaped range having a predetermined width including the provisional division line 131 is set as the estimated range I.
[2-3. effect]
According to the second embodiment described in detail above, the following effects are obtained in addition to the effects (1a) to (1d) of the above-described first embodiment.

(2a)推定装置50は、隣接車線91の車線幅である隣接車線幅(レーン幅W)を取得し、隣接側区画線である第1右区画線101から自車両100側にレーン幅Wを隔てたところに、予め定められた幅の帯状の範囲である推定範囲Iを設定してもよい(S360)。また、推定装置50は、少なくとも推定範囲I内に存在する区画線の位置を取得してもよい(S270)。そして、推定装置50は、推定範囲I内に位置する検出点により表される区画線を反隣接側区画線(第1左区画線111)であると推定してもよい。   (2a) The estimation device 50 acquires the adjacent lane width (lane width W) which is the lane width of the adjacent lane 91, and calculates the lane width W from the first right lane marking 101 which is the adjacent lane line toward the host vehicle 100. An estimated range I, which is a band-like range having a predetermined width, may be set at a distance (S360). In addition, the estimation device 50 may acquire at least the position of the lane marking existing in the estimation range I (S270). Then, the estimating device 50 may estimate that the lane marking represented by the detection point located within the estimation range I is the non-adjacent lane marking (the first left lane marking 111).

これによれば、既に検出されている第1右区画線101を単にレーン幅W分だけ反隣接車線側へ平行移動させて得られる仮の区画線131に基づいて推定範囲Iを設定するので、推定範囲Iを設定する際のCPU51の処理負荷を低減することができる。   According to this, the estimation range I is set based on the temporary lane marking 131 obtained by simply translating the already detected first right lane marking 101 to the opposite lane side by the lane width W. The processing load on the CPU 51 when setting the estimation range I can be reduced.

なお、第2実施形態において、推定装置50が範囲設定部、区画線位置取得部の一例に相当する。また、S360が範囲設定部としての処理の一例に相当し、S270が、区画線位置取得部としての処理の一例に相当する。   In the second embodiment, the estimation device 50 corresponds to an example of a range setting unit and a lane marking position acquisition unit. Further, S360 corresponds to an example of processing as a range setting unit, and S270 corresponds to an example of processing as a lane marking position acquisition unit.

[3.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
[3. Other Embodiments]
The embodiments for carrying out the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and can be implemented with various modifications.

(3a)上記実施形態では、図5に示す例に基づいて、自車線90についての右側の白線である第1右区画線101が検出されており、左側の白線である第1左区画線111が検出されていない場合に、右隣接車線91を隣接車線とし、第1右区画線101を隣接側区画線であるとし、第1左区画線111を反隣接側区画線であるとして、推定装置50の作動を説明した。ただし、これに限定されるものではない。例えば、推定装置50は、第1左区画線111が検出されており第1右区画線が検出されていない場合は、左隣接車線92を隣接車線とし、第1左区画線111を隣接側区画線とし、第1右区画線101を反隣接側区画線として、自車線パラメータを推定するために同様の処理を実行してもよい。 (3a) In the above embodiment, based on the example shown in FIG. 5, the first right lane marking 101 that is the right white lane for the own lane 90 is detected, and the first left lane marking 111 that is the left white lane. Is not detected, it is assumed that the right adjacent lane 91 is an adjacent lane, the first right lane marking 101 is an adjacent lane marking, and the first left lane marking 111 is an anti-adjacent lane marking. The operation of 50 has been described. However, it is not limited to this. For example, when the first left lane marking 111 is detected and the first right lane marking is not detected, the estimating apparatus 50 sets the left adjacent lane 92 as the adjacent lane and sets the first left lane marking 111 as the adjacent lane. A similar process may be executed to estimate the own lane parameter using the first right lane marking line 101 as the non-adjacent lane marking line.

(3b)上記実施形態では、推定装置50は、隣接車線91の道路パラメータにおけるヨー角θ及び曲率Rを、自車線90のヨー角θj、曲率Rjとして用いたが、これに限定されるものではない。例えば、推定装置50は、隣接車線91についての道路パラメータのうち、ヨー角θと曲率Rとレーン幅Wのうちの少なくとも一つを、自車線パラメータとしてそのまま用いてもよい。すなわち、隣接パラメータとは、隣接車線91についての道路パラメータのうち、自車線パラメータとしてそのまま用いることが可能な、オフセットe以外の少なくとも一つの道路パラメータをいう。 (3b) In the above embodiment, the estimation device 50 uses the yaw angle θ and the curvature R in the road parameters of the adjacent lane 91 as the yaw angle θj and the curvature Rj of the own lane 90, but is not limited thereto. Absent. For example, the estimation device 50 may use at least one of the yaw angle θ, the curvature R, and the lane width W among the road parameters for the adjacent lane 91 as the own lane parameter. That is, the adjacent parameter refers to at least one road parameter other than the offset e that can be directly used as the own lane parameter among the road parameters for the adjacent lane 91.

(3c)上記実施形態では、オフセットej、レーン幅Wjを、隣接車線91の道路パラメータをそのまま利用できないパラメータとして、(2)式に基づいて推定したが、これに限定されるものではない。例えば、自車線90の道路パラメータのうちのいずれのパラメータを(2)式に基づいて推定してもよい。   (3c) In the above embodiment, the offset ej and the lane width Wj are estimated based on the equation (2) as parameters that cannot use the road parameters of the adjacent lane 91 as they are, but the present invention is not limited to this. For example, any of the road parameters of the own lane 90 may be estimated based on the equation (2).

(3d)上記実施形態では、推定装置50は、各白線に挟まれた領域を車線として認識していたが、白線以外の区画線に挟まれた領域を車線として認識してもよい。例えば、区画線とは、道路に描かれた黄線や、縁石やガードレール等のような道路に設置された立体物である路測物によって表される線等であってよい。   (3d) In the above embodiment, the estimation device 50 recognizes an area sandwiched by each white line as a lane, but may recognize an area sandwiched by division lines other than the white line as a lane. For example, the division line may be a yellow line drawn on a road, a line represented by a road surveying object such as a curbstone, a guardrail, or the like, which is a three-dimensional object installed on the road.

(3e)上記実施形態では、推定装置50は、自車線90についての左右両側の白線が検出されているときは、道路パラメータ推定処理を実行しなかったが、これに限定されるものではない。例えば、推定装置50は、自車線90の左右両側の白線が検出されているときであっても、該白線の一部が擦れているような場合には、道路パラメータ推定処理を実行してもよい。   (3e) In the above embodiment, the estimation device 50 did not execute the road parameter estimation processing when the white lines on both the left and right sides of the own lane 90 were detected, but the present invention is not limited to this. For example, the estimation device 50 may perform the road parameter estimation process even when white lines on both the left and right sides of the own lane 90 are detected, and when some of the white lines are rubbed. Good.

(3f)上記実施形態では、推定装置50は、仮想区画線121に基づいて設定される推定範囲I内の検出点を用いて反隣接側区画線(第1左区画線111)を推定していたが、これに限るものではない。例えば、推定装置50は、精度が要求されない場合は、仮想区画線121を第1左区画線111として推定してもよい。   (3f) In the above embodiment, the estimation device 50 estimates the non-adjacent side lane line (the first left lane line 111) using the detection points within the estimation range I set based on the virtual lane line 121. However, it is not limited to this. For example, when the accuracy is not required, the estimation device 50 may estimate the virtual lane marking 121 as the first left lane marking 111.

つまり、図10に表すフローチャートを用いて説明すると、推定装置50は、S300では隣接曲率Rを取得し、S310では、自車両100から見て自車線90において隣接側区画線(第1右区画線101)とは反対側に位置し隣接区画線の候補となる線を構成する複数の検出点の位置を取得してもよい。そして、推定装置50は、S330では、検出点の並びによって表される複数の候補線121〜123を抽出し、複数の候補線121〜123のうち曲率が隣接曲率に最も近くなる候補線121を仮想区画線121とし、第1実施形態とは異なり、該仮想区画線121を反隣接側区画線(第1左区画線111)として推定してもよい。 In other words, using the flowchart shown in FIG. 10, the estimation device 50 acquires the adjacent curvature R in S300, and in S310, the adjacent lane marking (the first right lane marking) in the own lane 90 as viewed from the host vehicle 100. 101), the positions of a plurality of detection points constituting a line that is located on the opposite side and is a candidate for an adjacent side lane marking line may be acquired. Then, in S330, the estimation device 50 extracts the plurality of candidate lines 121 to 123 represented by the arrangement of the detection points, and selects the candidate line 121 whose curvature is closest to the adjacent curvature among the plurality of candidate lines 121 to 123. Unlike the first embodiment, the virtual lane marking 121 may be assumed to be the virtual lane marking 121 as the non-adjacent lane marking (the first left lane marking 111).

すなわち、本実施形態では、推定装置50は、図6に示すS140〜S170を省略し、S175において、第1実施形態とは異なり、仮想区画線121を表す検出点と第1右区画線101を表す検出点とを用いて自車線パラメータを推定してもよい。また、推定装置50は、S185において、第1実施形態とは異なり、本実施形態のS310で取得した検出点のうち仮想区画線121を表す検出点を除いた検出点を、範囲外検出点として取得してもよい。 That is, in the present embodiment, the estimating apparatus 50 omits S140 to S170 shown in FIG. 6 and, in S175, differs from the first embodiment in that the detection point indicating the virtual lane marking 121 and the first right lane marking 101 are different. The own lane parameters may be estimated using the detected detection points. Also, in S185, unlike the first embodiment, the estimation device 50 sets detection points excluding the detection points representing the virtual lane marking 121 among the detection points acquired in S310 of this embodiment as out-of-range detection points. May be acquired.

(3g)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   (3g) A plurality of functions of one component in the above embodiment may be realized by a plurality of components, or one function of one component may be realized by a plurality of components. . Also, a plurality of functions of a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added to or replaced by the configuration of another above-described embodiment. In addition, all aspects included in the technical idea specified only by the language described in the claims are embodiments of the present invention.

(3h)上述した推定装置50、当該推定装置50を構成要素とする車両制御システム1、当該推定装置50を機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、自車線情報推定方法など、種々の形態で本発明を実現することもできる。   (3h) The above-described estimating device 50, the vehicle control system 1 including the estimating device 50 as a component, a program for causing the estimating device 50 to function, a non-transitional actual recording medium such as a semiconductor memory storing the program. The present invention can also be implemented in various forms, such as an own lane information estimation method.

50 ECU、51 CPU。   50 ECU, 51 CPU.

Claims (7)

道路において車両が走行する領域を表す車線のうち自車両が走行する自車線に隣接する車線である隣接車線についての車線の形状を表す隣接形状、及び前記隣接形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む隣接パラメータを取得する隣接パラメータ取得部(S225)と、
前記隣接パラメータから、前記隣接車線と自車線とが隣接していることを用いて、自車線についての車線の形状を表す自形状、及び前記自形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む自車線パラメータを推定する自パラメータ推定部(S230、S275)と、
自車線における自車線と他の領域とを区画する境界としての区画線であって、前記隣接車線側の区画線である隣接側区画線の位置を取得する隣接位置取得部(S265)と、
前記隣接側区画線の位置と、前記隣接パラメータとから、隣接車線と自車線とが隣接していることを用いて、自車線における前記隣接側区画線とは反対側の区画線である反隣接側区画線の位置を推定する反隣接側推定部(S270)と、
を備え、
前記自パラメータ推定部(S275)は、前記隣接側区画線の位置と前記反隣接側区画線の位置とに基づいて、前記自車線パラメータを推定し、
前記隣接パラメータ取得部は、前記隣接車線の曲率である隣接曲率を取得し、
自車両から見て前記自車線において前記隣接側区画線とは反対側に位置し前記反隣接側区画線の候補となる線を構成する複数の検出点の位置を取得する検出点取得部(S310)と、
前記複数の検出点の並びによって表される複数の候補線を抽出し(S330)、該複数の候補線のうち曲率が前記隣接曲率に最も近くなる候補線を仮想区画線とし、該仮想区画線を含む予め定められた幅の帯状の範囲である推定範囲を設定する範囲設定部(S350)と、
前記推定範囲内に存在する複数の検出点の位置を取得する検出点位置取得部(S270)と、
を更に備え、
前記反隣接側推定部は、前記推定範囲内に位置する複数の検出点によって表される線を前記反隣接側区画線であると推定する
自車線情報推定装置(50)。
An adjacent shape representing a shape of a lane of an adjacent lane which is a lane adjacent to the own lane on which the own vehicle travels among lanes representing an area where the vehicle travels on the road, and a parameter indicating a traveling state of the own vehicle with respect to the adjacent shape. An adjacent parameter acquisition unit (S225) for acquiring an adjacent parameter including at least one of the following:
From the adjacent parameters, using the fact that the adjacent lane and the own lane are adjacent to each other, at least one of a self-shape representing the shape of the lane with respect to the own lane, and a parameter representing the traveling state of the own vehicle with respect to the self-shape Own parameter estimating units (S230, S275) for estimating own lane parameters including one,
An adjacent position acquisition unit (S265) that acquires a position of an adjacent lane marking, which is a lane marking that separates the own lane from the other area in the own lane and is a lane marking on the adjacent lane side;
Based on the position of the adjacent lane marking and the adjacent parameter, using the fact that the adjacent lane and the own lane are adjacent to each other, a non-adjacent one that is a lane marking opposite to the adjacent lane marking in the own lane. An anti-adjacent side estimating unit (S270) for estimating the position of the side lane marking;
With
The own parameter estimating unit (S275) estimates the own lane parameter based on the position of the adjacent lane marking and the position of the opposite adjacent lane marking,
The adjacent parameter acquisition unit acquires an adjacent curvature that is a curvature of the adjacent lane,
A detection point acquisition unit (S310) that acquires the positions of a plurality of detection points that are located on the opposite side of the own lane from the own lane to the adjacent lane marking and that constitute the lines that are candidates for the anti-adjacent lane marking. )When,
A plurality of candidate lines represented by the arrangement of the plurality of detection points are extracted (S330), and a candidate line having a curvature closest to the adjacent curvature among the plurality of candidate lines is defined as a virtual division line. A range setting unit (S350) for setting an estimated range that is a band-like range having a predetermined width including:
A detection point position acquisition unit (S270) for acquiring positions of a plurality of detection points existing in the estimation range;
Further comprising
The own lane information estimation device (50), wherein the non-adjacent-side estimation unit estimates a line represented by a plurality of detection points located within the estimation range as the non-adjacent lane line.
道路において車両が走行する領域を表す車線のうち自車両が走行する自車線に隣接する車線である隣接車線についての車線の形状を表す隣接形状、及び前記隣接形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む隣接パラメータを取得する隣接パラメータ取得部(S225)と、
前記隣接パラメータから、前記隣接車線と自車線とが隣接していることを用いて、自車線についての車線の形状を表す自形状、及び前記自形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む自車線パラメータを推定する自パラメータ推定部(S230、S275)と、
自車線における自車線と他の領域とを区画する境界としての区画線であって、前記隣接車線側の区画線である隣接側区画線の位置を取得する隣接位置取得部(S265)と、
前記隣接側区画線の位置と、前記隣接パラメータとから、隣接車線と自車線とが隣接していることを用いて、自車線における前記隣接側区画線とは反対側の区画線である反隣接側区画線の位置を推定する反隣接側推定部(S270)と、
自車両から見て前記自車線において前記隣接側区画線とは反対側に位置し前記隣接区画線の候補となる線を構成する複数の検出点の位置を取得する検出点取得部(S310)と、
を備え、
前記自パラメータ推定部(S275)は、前記隣接側区画線の位置と前記反隣接側区画線の位置とに基づいて、前記自車線パラメータを推定し、
前記隣接パラメータ取得部は、前記隣接車線の曲率である隣接曲率を取得し、
前記反隣接側推定部は、前記複数の検出点の並びによって表される複数の候補線を抽出し、該複数の候補線のうち曲率が前記隣接曲率に最も近くなる候補線を仮想区画線とし、該仮想区画線を前記反隣接側区画線として推定する
自車線情報推定装置(50)。
An adjacent shape representing a shape of a lane of an adjacent lane which is a lane adjacent to the own lane on which the own vehicle travels among lanes representing an area where the vehicle travels on the road, and a parameter indicating a traveling state of the own vehicle with respect to the adjacent shape. An adjacent parameter acquisition unit (S225) for acquiring an adjacent parameter including at least one of the following:
From the adjacent parameters, using the fact that the adjacent lane and the own lane are adjacent to each other, at least one of a self-shape representing the shape of the lane with respect to the own lane, and a parameter representing the traveling state of the own vehicle with respect to the self-shape Own parameter estimating units (S230, S275) for estimating own lane parameters including one,
An adjacent position acquisition unit (S265) that acquires a position of an adjacent lane marking, which is a lane marking that separates the own lane from the other area in the own lane and is a lane marking on the adjacent lane side;
Based on the position of the adjacent lane marking and the adjacent parameter, using the fact that the adjacent lane and the own lane are adjacent to each other, a non-adjacent one that is a lane marking opposite to the adjacent lane marking in the own lane. An anti-adjacent side estimating unit (S270) for estimating the position of the side lane marking;
Detection point acquisition unit that acquires a position of the plurality of detection points forming the candidate to become line located opposite the adjacent side division line and said adjacent side partition lines in the own traffic lane when viewed from the vehicle (S310) When,
With
The own parameter estimating unit (S275) estimates the own lane parameter based on the position of the adjacent lane marking and the position of the opposite adjacent lane marking,
The adjacent parameter acquisition unit acquires an adjacent curvature that is a curvature of the adjacent lane,
The anti-adjacent side estimating unit extracts a plurality of candidate lines represented by the arrangement of the plurality of detection points, and sets a candidate line having a curvature closest to the adjacent curvature to a virtual demarcation line among the plurality of candidate lines. Own lane information estimating device (50) for estimating the virtual lane marking as the non-adjacent lane marking.
道路において車両が走行する領域を表す車線のうち自車両が走行する自車線に隣接する車線である隣接車線についての車線の形状を表す隣接形状、及び前記隣接形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む隣接パラメータを取得する隣接パラメータ取得部(S225)と、
前記隣接パラメータから、前記隣接車線と自車線とが隣接していることを用いて、自車線についての車線の形状を表す自形状、及び前記自形状に対する自車両の走行状態を表すパラメータのうち少なくとも一つを含む自車線パラメータを推定する自パラメータ推定部(S230、S275)と、
自車線における自車線と他の領域とを区画する境界としての区画線であって、前記隣接車線側の区画線である隣接側区画線の位置を取得する隣接位置取得部(S265)と、
前記隣接側区画線の位置と、前記隣接パラメータとから、隣接車線と自車線とが隣接していることを用いて、自車線における前記隣接側区画線とは反対側の区画線である反隣接側区画線の位置を推定する反隣接側推定部(S270)と、
を備え、
前記自パラメータ推定部(S275)は、前記隣接側区画線の位置と前記反隣接側区画線の位置とに基づいて、前記自車線パラメータを推定し、
前記隣接パラメータ取得部は、前記隣接車線の曲率である隣接曲率を取得し、
自車両から見て前記自車線において前記隣接側区画線とは反対側に位置し前記反隣接側区画線の候補となる線を構成する複数の検出点の位置を取得する検出点取得部(S310)と、
前記複数の検出点の並びによって表される複数の候補線を抽出し(S330)、該複数
の候補線のうち曲率が前記隣接曲率に最も近くなる候補線を仮想区画線とし、該仮想区画線を含む予め定められた幅の帯状の範囲である推定範囲を設定する範囲設定部(S350)と、
前記推定範囲外に存在する前記複数の検出点の位置を取得し、前記推定範囲外に位置する複数の検出点によって表される道路パラメータを推定する範囲外推定部(S290)と、
を更に備える自車線情報推定装置(50)。
An adjacent shape representing a shape of a lane of an adjacent lane which is a lane adjacent to the own lane on which the own vehicle travels among lanes representing an area where the vehicle travels on the road, and a parameter indicating a traveling state of the own vehicle with respect to the adjacent shape. An adjacent parameter acquisition unit (S225) for acquiring an adjacent parameter including at least one of the following:
From the adjacent parameters, using the fact that the adjacent lane and the own lane are adjacent to each other, at least one of a self-shape representing the shape of the lane with respect to the own lane, and a parameter representing the traveling state of the own vehicle with respect to the self-shape Own parameter estimating units (S230, S275) for estimating own lane parameters including one,
An adjacent position acquisition unit (S265) that acquires a position of an adjacent lane marking, which is a lane marking that separates the own lane from the other area in the own lane and is a lane marking on the adjacent lane side;
Based on the position of the adjacent lane marking and the adjacent parameter, using the fact that the adjacent lane and the own lane are adjacent to each other, a non-adjacent one that is a lane marking opposite to the adjacent lane marking in the own lane. An anti-adjacent side estimating unit (S270) for estimating the position of the side lane marking;
With
The own parameter estimating unit (S275) estimates the own lane parameter based on the position of the adjacent lane marking and the position of the opposite adjacent lane marking,
The adjacent parameter acquisition unit acquires an adjacent curvature that is a curvature of the adjacent lane,
A detection point acquisition unit (S310) that acquires positions of a plurality of detection points that are located on the opposite side of the own lane from the own lane to the adjacent lane markings and that constitute lines that are candidates for the anti-adjacent lane markings. )When,
A plurality of candidate lines represented by the arrangement of the plurality of detection points are extracted (S330), and a candidate line having a curvature closest to the adjacent curvature among the plurality of candidate lines is defined as a virtual partition line. A range setting unit (S350) for setting an estimated range that is a band-like range having a predetermined width including:
An out-of-range estimation unit (S290) that acquires the positions of the plurality of detection points existing outside the estimation range, and estimates a road parameter represented by the plurality of detection points located outside the estimation range;
Own lane information estimating device (50) further comprising:
請求項3に記載の自車線情報推定装置であって、
少なくとも前記推定範囲内に存在する複数の検出点の位置を取得する検出点位置取得部(S270)と、
前記反隣接側推定部は、前記推定範囲内に位置する複数の検出点によって表される線を前記反隣接側区画線であると推定する
自車線情報推定装置。
The own lane information estimating device according to claim 3,
A detection point position acquisition unit (S270) for acquiring at least the positions of a plurality of detection points existing within the estimation range;
The self-lane information estimating device, wherein the anti-adjacent-side estimating unit estimates that a line represented by a plurality of detection points located within the estimation range is the anti-adjacent lane marking.
請求項3に記載の自車線情報推定装置であって、
前記反隣接側推定部は、前記複数の検出点の並びによって表される複数の候補線を抽出し、該複数の候補線のうち曲率が前記隣接曲率に最も近くなる候補線を仮想区画線とし、該仮想区画線を前記反隣接側区画線として推定する
自車線情報推定装置。
The own lane information estimating device according to claim 3,
The anti-adjacent side estimating unit extracts a plurality of candidate lines represented by the arrangement of the plurality of detection points, and sets a candidate line having a curvature closest to the adjacent curvature to a virtual demarcation line among the plurality of candidate lines. An own lane information estimating device for estimating the virtual lane marking as the non-adjacent lane marking.
請求項1から請求項5のいずれか一項に記載の自車線情報推定装置であって、
前記隣接パラメータ取得部は、前記隣接車線の曲率を取得し、
前記自パラメータ推定部(S230)は、前記隣接車線の曲率を、自車線における曲率の推定値として用いる
自車線情報推定装置。
The own lane information estimating device according to any one of claims 1 to 5,
The adjacent parameter acquisition unit acquires a curvature of the adjacent lane,
The own lane information estimating device, wherein the own parameter estimating unit (S230) uses the curvature of the adjacent lane as an estimated value of the curvature in the own lane.
請求項1から請求項6のいずれか一項に記載の自車線情報推定装置であって、
前記隣接パラメータ取得部は、隣接車線の延びる方向に対する自車両の進行方向を表すヨー角を取得し、
前記自パラメータ推定部(S230)は、前記隣接車線に対するヨー角を、自車線の延びる方向に対する自車両の進行方向を表すヨー角の推定値として用いる
自車線情報推定装置。
The own lane information estimating device according to any one of claims 1 to 6,
The adjacent parameter acquisition unit acquires a yaw angle indicating a traveling direction of the own vehicle with respect to a direction in which an adjacent lane extends,
The own-lane information estimating device, wherein the own-parameter estimating unit (S230) uses the yaw angle with respect to the adjacent lane as an estimated value of the yaw angle indicating the traveling direction of the own vehicle with respect to the direction in which the own lane extends.
JP2015244407A 2015-12-15 2015-12-15 Own lane information estimation device Active JP6631226B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015244407A JP6631226B2 (en) 2015-12-15 2015-12-15 Own lane information estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015244407A JP6631226B2 (en) 2015-12-15 2015-12-15 Own lane information estimation device

Publications (2)

Publication Number Publication Date
JP2017111566A JP2017111566A (en) 2017-06-22
JP6631226B2 true JP6631226B2 (en) 2020-01-15

Family

ID=59079688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015244407A Active JP6631226B2 (en) 2015-12-15 2015-12-15 Own lane information estimation device

Country Status (1)

Country Link
JP (1) JP6631226B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6930394B2 (en) * 2017-11-24 2021-09-01 トヨタ自動車株式会社 Object recognition device
JP2020135586A (en) * 2019-02-22 2020-08-31 株式会社豊田中央研究所 Peripheral line segment processing device, track estimation device, and peripheral line segment processing program
CN114023077B (en) * 2021-10-27 2022-11-04 海信集团控股股份有限公司 Traffic monitoring method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4687563B2 (en) * 2006-05-23 2011-05-25 株式会社デンソー Lane mark recognition device for vehicles
JP5863517B2 (en) * 2012-03-12 2016-02-16 アルパイン株式会社 Lane mark detection device and lane mark search range setting method
JP6232883B2 (en) * 2013-09-27 2017-11-22 日産自動車株式会社 Own vehicle position recognition device

Also Published As

Publication number Publication date
JP2017111566A (en) 2017-06-22

Similar Documents

Publication Publication Date Title
CA2987373C (en) Position estimation device and position estimation method
CA2997171C (en) Vehicle position estimation device, vehicle position estimation method
US10776634B2 (en) Method for determining the course of the road for a motor vehicle
US10325163B2 (en) Vehicle vision
US11631257B2 (en) Surroundings recognition device, and surroundings recognition method
JP2010083244A (en) Vehicle steering control device
JPWO2018061084A1 (en) Self-position estimation method and self-position estimation apparatus
CN110470309A (en) This truck position apparatus for predicting
WO2020145053A1 (en) Travel lane estimation device, travel lane estimation method, control program, and computer-readable non-transitory recording medium
JPWO2018066133A1 (en) Vehicle determination method, travel route correction method, vehicle determination device, and travel route correction device
JP6631226B2 (en) Own lane information estimation device
JP2010127908A (en) Object position detector
US20230111364A1 (en) Method for detecting crosswalk using lidar sensor and crosswalk detection device for performing the method
JP7130580B2 (en) Road surface detector
US11215459B2 (en) Object recognition device, object recognition method and program
JP2024020641A (en) location estimation system
JP7043765B2 (en) Vehicle driving control method and equipment
JP6747157B2 (en) Self-position estimation method and self-position estimation device
JP2018105636A (en) Route generation device
JP2023099851A (en) Measurement device, method for measurement, and program
JP2018026044A (en) Road compartment line detector
JP2007241470A (en) Device for updating map data for vehicle
JP2022146256A (en) Track estimation method and track estimation device
JP2020057146A (en) Traveling lane estimation device, traveling lane estimation method, and control program
JP7344744B2 (en) Roadside edge detection method and roadside edge detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R151 Written notification of patent or utility model registration

Ref document number: 6631226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250