JP2016057750A - Estimation device and program of own vehicle travel lane - Google Patents

Estimation device and program of own vehicle travel lane Download PDF

Info

Publication number
JP2016057750A
JP2016057750A JP2014182264A JP2014182264A JP2016057750A JP 2016057750 A JP2016057750 A JP 2016057750A JP 2014182264 A JP2014182264 A JP 2014182264A JP 2014182264 A JP2014182264 A JP 2014182264A JP 2016057750 A JP2016057750 A JP 2016057750A
Authority
JP
Japan
Prior art keywords
lane
vehicle
travel
boundary
traveling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014182264A
Other languages
Japanese (ja)
Other versions
JP6492469B2 (en
Inventor
チュンジャオ グオ
Chunjao Guo
チュンジャオ グオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2014182264A priority Critical patent/JP6492469B2/en
Publication of JP2016057750A publication Critical patent/JP2016057750A/en
Application granted granted Critical
Publication of JP6492469B2 publication Critical patent/JP6492469B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To estimate an own vehicle travel lane when a lane mark is unclear or not present.SOLUTION: A lane boundary detection part 26 detects a boundary of a lane where an own vehicle is traveling, on the basis of an image created by an imaging device 14. An own vehicle travel lane estimation part 28 estimates a lane parameter of the travel lane where the own vehicle is traveling, on the basis of a vehicle travel locus corresponding to an absolute location of the own vehicle detected by the location detection part 20 and the detected lane boundary, and creates data indicating a virtual travel lane where the own vehicle is traveling, on the basis of the estimated lane parameter.SELECTED DRAWING: Figure 1

Description

本発明は、自車走行レーン推定装置及びプログラムに関する。   The present invention relates to a host vehicle travel lane estimation apparatus and program.

従来より、自車位置を推定し記録する手段を有し、過去の走行軌跡から自車位置の近傍範囲内にあるものを平均化することで走行軌跡を推定する走行軌跡推定装置が知られている(特許文献1)。   2. Description of the Related Art Conventionally, there is known a travel locus estimation device that has means for estimating and recording a vehicle position, and that estimates a travel locus by averaging those in the vicinity of the vehicle position from a past travel locus. (Patent Document 1).

また、車両の軌跡情報を取得し、自車と同一の車線を走行していると判断される車両軌跡を、車線認識に利用する走行車線認識装置が知られている(特許文献2)。   Further, a traveling lane recognition device that acquires vehicle trajectory information and uses a vehicle trajectory determined to be traveling in the same lane as the host vehicle for lane recognition is known (Patent Document 2).

また、非特許文献1では、レーンマークを検出し、その内部を自車線として検出する一般的な方法が記載されている。   Non-Patent Document 1 describes a general method of detecting a lane mark and detecting the inside as a lane.

障害物の有無を表すグリッドマップを生成し、自車位置とグリッドマップをもとに経路生成を行う方法が知られている(非特許文献2)。   A method is known in which a grid map representing the presence or absence of an obstacle is generated, and a route is generated based on the vehicle position and the grid map (Non-Patent Document 2).

また、詳細な高精度地図に基づき、走行レーン推定などの走行支援を行う方法が知られている(非特許文献3)。   In addition, a method of performing travel support such as travel lane estimation based on a detailed high-accuracy map is known (Non-Patent Document 3).

特開2008−14870号公報JP 2008-14870 A 特開2013−168016号公報JP2013-168016A

J. C. McCall and M. M. Trivedi, “Video-based lane estimation and tracking for driver assistance: Survey, system, and evaluation,” IEEE Transactions on Intelligent Transport Systems, vol. 7, no. 1, pp. 20−37, Mar. 2006.JC McCall and MM Trivedi, “Video-based lane estimation and tracking for driver assistance: Survey, system, and evaluation,” IEEE Transactions on Intelligent Transport Systems, vol. 7, no. 1, pp. 20-37, Mar. 2006 . G. Tanzmeister, M. Friedl, A. Lawitzky, D. Wollherr, and M. Buss, “Road course estimation in unknown, structured environments,” in IEEE Intell. Vehicles Symposium, 2013, pp. 630-635.G. Tanzmeister, M. Friedl, A. Lawitzky, D. Wollherr, and M. Buss, “Road course estimation in unknown, structured environments,” in IEEE Intell. Vehicles Symposium, 2013, pp. 630-635. A. Chen, A. Ramanandan, and J. Farrel, High-precision lane-level road map building for vehicle navigation, Proc. of IEEE/ION Position Location and Navigation Symposium, 2010, pp:1035-1042.A. Chen, A. Ramanandan, and J. Farrel, High-precision lane-level road map building for vehicle navigation, Proc. Of IEEE / ION Position Location and Navigation Symposium, 2010, pp: 1035-1042.

上記の特許文献1に記載の技術では、過去の軌跡を平均化して目標軌跡を定めるため、外れ値の影響を受けることがある。また、車線の境界を求める手段を有していない。   In the technique described in Patent Document 1, since the target trajectory is determined by averaging past trajectories, it may be affected by outliers. Also, there is no means for determining the lane boundary.

上記の特許文献2に記載の技術では、周囲の車両の軌跡情報も利用して走行車線を認識するが、画像情報を用いていない。道路上に車線推定の手がかりとなるパターンがある場合は、それを利用するほうが有効であると考えられる。   In the technique described in Patent Document 2, the traveling lane is recognized using the trajectory information of surrounding vehicles, but image information is not used. If there is a pattern on the road that serves as a clue to lane estimation, it is considered more effective to use it.

上記の非特許文献1に記載の技術では、レーンマークの存在を前提としているため、レーンマークの存在しない道路、レーンマークが劣化した道路、もしくは交差点通過時に、推定を誤ることがある。   Since the technique described in Non-Patent Document 1 is based on the premise of the presence of lane marks, estimation may be erroneous when a road where no lane mark exists, a road where the lane mark has deteriorated, or an intersection is passed.

上記の非特許文献2に記載の技術では、前方の障害物回避走行可能な経路を検出できるが、走行規制や一般の車の走行パターンを考慮しないため、一般道における自車線推定には適さない。   In the technique described in Non-Patent Document 2 above, it is possible to detect a route that allows obstacle avoidance traveling ahead, but it is not suitable for estimation of the own lane on a general road because it does not take into account travel regulations or travel patterns of ordinary vehicles. .

上記の非特許文献3に記載の技術では、高精度なレーン単位の地図を利用し自車線情報を得ることができるが、高額センサと人手による地図作成コストを要する。更新も莫大なコストを要する。   In the technique described in Non-Patent Document 3, the own lane information can be obtained by using a highly accurate map in lane units, but it requires a costly sensor and manual map creation cost. Renewal also requires enormous costs.

本発明は、上記の事情を鑑みてなされたもので、レーンマークが不明瞭もしくは存在しない場合であっても、自車走行レーンを推定することができる自車走行レーン推定装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a vehicle lane estimation apparatus and program capable of estimating the vehicle lane even when the lane mark is not clear or does not exist. For the purpose.

上記目的を達成するために、本発明の自車走行レーン推定装置は、自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段と、自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段と、を含んで構成されている。   In order to achieve the above object, the host vehicle traveling lane estimation device of the present invention is mounted on the host vehicle, and based on an image generated by an imaging unit that images the periphery of the host vehicle and generates an image, Time-series data of the absolute position corresponding to the absolute position of the own vehicle detected by the lane boundary detecting means for detecting the boundary of the lane in which the own vehicle is traveling and the position detecting means for detecting the absolute position of the own vehicle Lane parameters of the traveling lane in which the host vehicle is traveling are estimated based on the vehicle traveling locus obtained in advance expressed by the following equation and the boundary of the lane detected by the lane boundary detecting means, and the estimated Vehicle lane estimation means for generating data representing a virtual lane in which the vehicle is traveling based on the lane parameters.

本発明に係るプログラムは、コンピュータを、自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段、及び自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段として機能させるためのプログラムである。   The program according to the present invention is based on an image generated by an imaging unit that is mounted on a host vehicle and images the periphery of the host vehicle to generate an image of the lane in which the host vehicle is traveling. Vehicle obtained in advance represented by time-series data of the absolute position corresponding to the absolute position of the own vehicle detected by the lane boundary detecting means for detecting the boundary and the absolute position of the own vehicle detected by the position detecting means for detecting the absolute position of the own vehicle Based on the travel trajectory and the boundary of the lane detected by the lane boundary detection means, the lane parameter of the travel lane in which the host vehicle is traveling is estimated, and based on the estimated lane parameter, the host vehicle Is a program for functioning as own vehicle traveling lane estimation means for generating data representing a virtual traveling lane in which the vehicle is traveling.

本発明によれば、車線境界検出手段によって、自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する。そして、自車走行レーン推定手段によって、自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する。   According to the present invention, the host vehicle is traveling based on the image that is mounted on the host vehicle by the lane boundary detection unit and that is generated by the imaging unit that captures an image of the periphery of the host vehicle and generates an image. Detect lane boundaries. Then, the vehicle obtained in advance represented by the time series data of the absolute position corresponding to the absolute position of the own vehicle detected by the position detecting means for detecting the absolute position of the own vehicle by the own vehicle traveling lane estimating means. Based on the travel trajectory and the boundary of the lane detected by the lane boundary detection means, the lane parameter of the travel lane in which the host vehicle is traveling is estimated, and based on the estimated lane parameter, the host vehicle Data representing a virtual traveling lane in which the vehicle is traveling is generated.

このように、車両走行軌跡と、検出された車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、自車両が走行している仮想的な走行レーンを表すデータを生成することにより、レーンマークが不明瞭もしくは存在しない場合であっても、自車走行レーンを推定することができる。   As described above, based on the vehicle travel locus and the detected lane boundary, the lane parameter of the travel lane in which the host vehicle is traveling is estimated to represent a virtual travel lane in which the host vehicle is traveling. By generating the data, it is possible to estimate the own vehicle traveling lane even when the lane mark is not clear or does not exist.

本発明に係る自車走行レーン推定装置は、前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡に基づいて、自車両が走行している車線の境界を推定する車線境界推定手段を更に含み、前記車線境界検出手段は、前記撮像手段によって生成された画像、及び前記車線境界推定手段によって推定された前記車線の境界に基づいて、前記車線の境界を検出するようにすることができる。これによって、車線の境界を精度よく検出することができる。   The own vehicle travel lane estimation apparatus according to the present invention estimates a boundary of a lane in which the host vehicle is traveling based on a vehicle travel locus corresponding to the absolute position of the host vehicle detected by the position detection unit. The lane boundary detection means further detects the lane boundary based on the image generated by the imaging means and the lane boundary estimated by the lane boundary estimation means. be able to. Thereby, the boundary of the lane can be detected with high accuracy.

本発明に係る自車走行レーン推定装置は、自車両の目的地までの走行経路に基づいて、前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡のうち、自車両の走行に関連する車両走行軌跡を選択する関連軌跡選択手段を更に含み、前記自車走行レーン推定手段は、前記関連軌跡選択手段によって選択された車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成するようにすることができる。これによって、より精度よく、自車走行レーンを推定することができる。   The host vehicle travel lane estimation device according to the present invention is based on a travel route to the destination of the host vehicle, out of the vehicle travel trajectory corresponding to the absolute position of the host vehicle detected by the position detecting means. The vehicle further includes a related trajectory selection means for selecting a vehicle travel trajectory related to the travel, and the host vehicle travel lane estimation means is detected by the vehicle travel trajectory selected by the related trajectory selection means and the lane boundary detection means. Based on the lane boundary, the lane parameter of the travel lane is estimated, and based on the estimated lane parameter, data representing a virtual travel lane in which the host vehicle is traveling is generated. be able to. This makes it possible to estimate the own vehicle traveling lane with higher accuracy.

本発明に係る自車走行レーン推定装置は、前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡から、複数の進行方向の各々について、前記進行方向の車両走行軌跡を取得する複数方向軌跡取得手段を更に含み、前記自車走行レーン推定手段は、前記複数の進行方向の各々について、前記複数方向軌跡取得手段によって取得された前記進行方向の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成するようにすることができる。これによって、複数の進行方向があるシーンであっても、自車走行レーンを推定することができる。   The own vehicle travel lane estimation apparatus according to the present invention acquires the vehicle travel trajectory in the travel direction for each of a plurality of travel directions from the vehicle travel trajectory corresponding to the absolute position of the host vehicle detected by the position detection means. A plurality of directional trajectory acquisition means, and the host vehicle travel lane estimation means includes, for each of the plurality of travel directions, the travel direction vehicle travel trajectory acquired by the multi-direction trajectory acquisition means, and the lane boundary. Data representing a virtual traveling lane in which the host vehicle is traveling based on the lane parameter of the traveling lane estimated based on the lane boundary detected by the detecting means, and based on the estimated lane parameter. Can be generated. As a result, even in a scene with a plurality of traveling directions, the vehicle traveling lane can be estimated.

本発明に係る自車走行レーン推定装置は、複数の走行車線の各々について、前記走行車線の走行軌跡を取得する複数車線軌跡取得手段を更に含み、前記自車走行レーン推定手段は、前記複数の走行車線の各々について、前記複数車線軌跡取得手段によって取得された前記走行車線の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成するようにすることができる。これによって、複数の走行車線があるシーンであっても、自車走行レーンを推定することができる。   The own vehicle travel lane estimation device further includes a plurality of lane trajectory acquisition means for acquiring a travel trajectory of the travel lane for each of a plurality of travel lanes, and the host vehicle travel lane estimation means includes the plurality of travel lane estimation means Based on the vehicle travel locus of the travel lane acquired by the plurality of lane track acquisition means and the boundary of the lane detected by the lane boundary detection means for each of the travel lanes, the lane parameter of the travel lane is determined. Based on the estimated lane parameter, data representing a virtual traveling lane in which the host vehicle is traveling can be generated. Thereby, even in a scene with a plurality of traveling lanes, the own vehicle traveling lane can be estimated.

上記の自車走行レーン推定手段は、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる各制御点の前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成するようにすることができる。   The own vehicle travel lane estimation means corrects the vehicle travel locus based on the lane boundary detected by the lane boundary detection means, and according to the extended Kalman filter based on the corrected vehicle travel locus. The lane parameter of each control point used in the cubic spline model is estimated, and data representing the virtual traveling lane is generated based on the estimated lane parameter of each control point and the cubic spline model. can do.

上記の車線境界検出手段は、前記撮像手段によって生成された画像に基づいて、エッジ点を抽出し、抽出されたエッジ点に基づいて、拡張カルマンフィルタに従って、クロソイドスプラインモデルで用いられるモデルパラメータを推定し、前記推定されたモデルパラメータ及び前記クロソイドスプラインモデルに基づいて、自車両が走行している車線の境界を検出するようにすることができる。   The lane boundary detection means extracts an edge point based on the image generated by the imaging means, and estimates model parameters used in the clothoid spline model according to the extended Kalman filter based on the extracted edge point. Based on the estimated model parameter and the clothoid spline model, the boundary of the lane in which the host vehicle is traveling can be detected.

なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。   The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.

以上説明したように、本発明の自車走行レーン推定装置及びプログラムによれば、車両走行軌跡と、検出された車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、自車両が走行している仮想的な走行レーンを表すデータを生成することにより、レーンマークが不明瞭もしくは存在しない場合であっても、自車走行レーンを推定することができる、という効果が得られる。   As described above, according to the own vehicle travel lane estimation apparatus and program of the present invention, the lane parameters of the travel lane in which the host vehicle is traveling are determined based on the vehicle travel trajectory and the detected lane boundary. By estimating and generating data representing a virtual traveling lane in which the host vehicle is traveling, it is possible to estimate the host vehicle traveling lane even if the lane mark is not clear or does not exist An effect is obtained.

本発明の第1の実施の形態に係る運転支援制御装置を示すブロック図である。1 is a block diagram showing a driving support control device according to a first embodiment of the present invention. (a)修正された画像の例を示す図、及び(b)車線境界検出指標を示す図である。(A) The figure which shows the example of the corrected image, (b) It is a figure which shows a lane boundary detection parameter | index. (a)エッジ点の抽出結果を示す図、(b)セクション内の線分を示す図、(c)一貫したエッジ境界としてラベルを付けられた線分を示す図、及び(d)レーンマーク境界としてラベルを付けられた線分を示す図である。(A) Figure showing edge point extraction results, (b) Figure showing lines within a section, (c) Figure showing lines labeled as consistent edge boundaries, and (d) Lane mark boundaries FIG. 3 is a diagram showing a line segment labeled as. (a)レーンマークの検出結果による自車走行レーンの推定結果を示す図、(b)過去の走行軌跡だけを用いて自車走行レーンを推定した結果を示す図、(c)融合されるデータの観測結果を示す図、(d)上記(c)の拡大図、(e)本実施の形態の手法による自車走行レーンの推定結果を示す図、及び(f)検出された道路境界によって生成された仮想的なレーンマークを示す図である。(A) The figure which shows the estimation result of the own vehicle traveling lane by the detection result of a lane mark, (b) The figure which shows the result of estimating the own vehicle traveling lane only using the past traveling locus, (c) Data to be fused (D) Enlarged view of (c), (e) Diagram showing estimation result of own vehicle lane by the method of this embodiment, and (f) Generated by detected road boundary It is a figure which shows the made virtual lane mark. 仮想的な自車走行レーンを推定する際の状態遷移を示す図である。It is a figure which shows the state transition at the time of estimating a virtual own vehicle traveling lane. (a)クロソイドスプラインモデルを用いた仮想的な自車走行レーンの推定結果を示す図、(b)キュービックスプラインモデルを用いた仮想的な自車走行レーンの推定結果を示す図、(c)クロソイドスプラインモデルを用いた観測結果を示す図、及び(d)キュービックスプラインモデルを用いた観測結果を示す図である。(A) The figure which shows the estimation result of the virtual own vehicle travel lane using a clothoid spline model, (b) The figure which shows the estimation result of the virtual own vehicle travel lane using a cubic spline model, (c) Clothoid It is a figure which shows the observation result using a spline model, and (d) The figure which shows the observation result using a cubic spline model. 本発明の第1の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the own vehicle driving | running | working lane estimation process routine in the computer of the driving assistance control apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る運転支援制御装置のコンピュータにおける車線境界検出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the lane boundary detection process in the computer of the driving assistance control apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る運転支援制御装置のコンピュータにおけるレーン推定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the lane estimation process in the computer of the driving assistance control apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る運転支援制御装置を示すブロック図である。It is a block diagram which shows the driving assistance control apparatus which concerns on the 2nd Embodiment of this invention. (a)車両走行軌跡を示す図、(b)空間スコアを視覚化した図、及び(c)投票範囲を示す図である。(A) The figure which shows a vehicle travel locus | trajectory, (b) The figure which visualized the space score, and (c) The figure which shows the voting range. 本発明の第2の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the own vehicle driving | running | working lane estimation process routine in the computer of the driving assistance control apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る運転支援制御装置を示すブロック図である。It is a block diagram which shows the driving assistance control apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the own vehicle traveling lane estimation process routine in the computer of the driving assistance control apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係る運転支援制御装置を示すブロック図である。It is a block diagram which shows the driving assistance control apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the own vehicle driving | running | working lane estimation process routine in the computer of the driving assistance control apparatus which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係る運転支援制御装置を示すブロック図である。It is a block diagram which shows the driving assistance control apparatus which concerns on the 5th Embodiment of this invention. 本発明の第5の実施の形態に係る運転支援制御装置のコンピュータにおける自車走行レーン推定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the own vehicle driving | running | working lane estimation process routine in the computer of the driving assistance control apparatus which concerns on the 5th Embodiment of this invention. 実験における車線境界の検出結果を示す図である。It is a figure which shows the detection result of the lane boundary in experiment. 実験における仮想的な自車走行レーンの推定結果を示す図である。It is a figure which shows the estimation result of the virtual own vehicle travel lane in an experiment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、第1の実施の形態では、車線維持制御を行う際の自車走行レーンを推定して運転支援部に出力する運転支援制御装置に、本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the first embodiment, a case where the present invention is applied to a driving support control apparatus that estimates the own vehicle traveling lane at the time of performing lane keeping control and outputs it to the driving support unit will be described as an example.

<概要>
従来型の車線維持支援(LKA:lane keep assist)システムおよびアダプティブ・クルーズ・コントロール(ACC:adaptive cruise control)システムでは、低レベルの車線検出結果が高レベルの機能のため、そのまま使用される。
<Overview>
In conventional lane keeping assistance (LKA) systems and adaptive cruise control (ACC) systems, low level lane detection results are used as they are for high level functions.

本実施の形態は、車線維持支援(LKA)およびアダプティブ・クルーズ・コントロール(ACC)のような高レベルの次世代運転者支援システム(ADAS:advanced driver assistance systems)のために、低レベルのレーンマークなどの車線境界の検出から自車走行レーンを推定する手法に関する。具体的に言うと、本実施の形態は、拡張カルマンフィルタ(EKF)に基づく追跡方式において、オンライン車線境界検出結果を事前の車両走行軌跡と融合させることにより、低レベルのレーンマークなどの車線境界の検出性能を改善すると共に、仮想的な長距離の自車走行レーンを発生させるために車両走行軌跡を使用する一般的な枠組みを提供する。   This embodiment provides a low-level lane mark for advanced driver assistance systems (ADAS) such as lane keeping assistance (LKA) and adaptive cruise control (ACC). It is related with the method of estimating the own vehicle travel lane from the detection of lane boundaries, such as. Specifically, in the present embodiment, in the tracking method based on the extended Kalman filter (EKF), the lane boundary detection result such as a low-level lane mark is obtained by fusing the online lane boundary detection result with the previous vehicle travel locus. It provides a general framework that uses vehicle travel trajectories to improve detection performance and to generate virtual long-distance vehicle lanes.

LKAシステムおよびACCシステムは、特に、カメラのような手頃な価格のセンサを使用した自車走行レーンの推定を必要とする。現在のところ、従来型のLKAシステムおよびACCシステムは、左右のレーンマーク境界の内側の領域が自車走行レーンであると仮定しており、自車走行レーンの推定が、レーンマーク検出に依存している。しかし、日常の交通でこのような機能を実施するために、主に2種類の困難がある。   The LKA system and the ACC system, in particular, require estimation of the vehicle lane using an affordable sensor such as a camera. At present, the conventional LKA system and the ACC system assume that the area inside the boundary between the left and right lane marks is the own vehicle traveling lane, and the estimation of the own vehicle traveling lane depends on the detection of the lane mark. ing. However, there are mainly two types of difficulties in performing such functions in everyday traffic.

(1)多くの普通の市街地街路では、レーンマークは、非常に劣悪であるため確実に検出できない。典型的に、交差点付近で、または、小型道路では、走行車線を画定する、または、車線曲率を指示するレーンマークが存在しないことさえある。この場合には、自車走行レーンは、推定される可能性がないので、LKA機能およびACC機能の失敗という結果になる。 (1) In many ordinary urban streets, the lane mark is very bad and cannot be reliably detected. Typically, near intersections, or on small roads, there may be no lane mark that defines a driving lane or indicates lane curvature. In this case, there is no possibility that the own vehicle traveling lane will be estimated, resulting in a failure of the LKA function and the ACC function.

(2)明瞭なレーンマークが存在しても、長距離のレーンマーク情報を含んでいる画像パッチの解像度は、非常に低いので、遠方距離における車線境界の情報を取り出すことは、困難である。その上、幹線道路の場面とは違って、普通の市街地街路は、通常、雑然とし、レーンマークは、多くの場合に分断されることがある。その結果、遠方距離において自車走行レーン情報を取得することは、困難である。 (2) Even if there is a clear lane mark, the resolution of an image patch including long-distance lane mark information is very low, so it is difficult to extract lane boundary information at a long distance. Moreover, unlike main road scenes, normal urban streets are usually cluttered and lane marks are often fragmented. As a result, it is difficult to acquire the vehicle lane information at a long distance.

本実施の形態では、上記の困難を解決することを目的として、付加情報を提供するために過去の車両走行軌跡を使用する。検出レベルが低い場合、過去の車両走行軌跡は、エッジ点抽出に再重み付けをすること、線分投票範囲を再設定すること、線分ペアリングに再スコア付けをすること、および、車線境界追跡器を切り替えることを含み、検出ステップ毎に、車線境界検出を改善するために付加的な空間支援を提供する。高い理解レベルでは、過去の車両走行軌跡は、遠方距離における自車線の曲率情報を提供し、この曲率情報は、EKFに基づく方式において、側方車線境界と、空いている道路空間境界と、過去の車両走行軌跡とを融合させることにより、自車両の仮想走行レーンを生成させるために使用される。   In the present embodiment, for the purpose of solving the above-described difficulty, a past vehicle travel locus is used to provide additional information. If the detection level is low, the past vehicle trajectory will be reweighted for edge point extraction, reset the segment voting range, re-scoring for segment pairing, and lane boundary tracking For each detection step, additional spatial assistance is provided to improve lane boundary detection. At a high level of understanding, past vehicle trajectories provide curvature information of the own lane at long distances, and this curvature information, in an EKF-based scheme, is used for side lane boundaries, vacant road space boundaries, and past This is used to generate a virtual travel lane of the host vehicle by fusing the vehicle travel trajectory.

自車走行レーンの情報は、広範囲の次世代運転者支援システム(ADAS)にとって極めて重大である。たとえば、車線維持支援(LKA)システムは、車道の内側で車両走行を維持するために自車走行レーンの情報を必要とする。アダプティブ・クルーズ・コントロール(ACC)システムは、安全距離を維持するように先行車両/対象物を決定するために、自車走行レーンの情報を必要とする。   Information about the driving lane is extremely important for a wide range of next-generation driver assistance systems (ADAS). For example, a lane keeping assistance (LKA) system requires information on the own vehicle travel lane in order to keep the vehicle running inside the roadway. The adaptive cruise control (ACC) system needs information on the own vehicle lane to determine the preceding vehicle / object so as to maintain a safe distance.

現在のところ、自車走行レーンは、多くの場合に、ペイントされたレーンマークを検出することにより推定される。ある程度の数の従来手法は、全く視覚センサのみの使用に重点を置いていたが、その他の従来手法は、時に視覚と組み合わせてLIDARセンサを利用していた。LIDARセンサは、道路フェンスおよび縁石のような物理的な道路境界を検出するのを補助するため、非都会地域で役に立つが、返されるレーザーデータの強度の変化だけがペイントされたレーンマークを表し、その上、LIDARビームの個数が非常に限定されている。このようなシステムは、ある種の状況では非常に巧く機能する可能性があるが、視覚は大量の情報を供給できるので、広範囲の状況で巧く機能するように視覚が利用される可能性がある。   At present, the vehicle lane is often estimated by detecting a painted lane mark. A certain number of conventional approaches have focused entirely on the use of only visual sensors, while other conventional approaches have utilized LIDAR sensors, sometimes in combination with vision. LIDAR sensors are useful in non-urban areas to help detect physical road boundaries such as road fences and curbs, but only changes in the intensity of the returned laser data represent painted lane marks, Moreover, the number of LIDAR beams is very limited. Such a system can work very well in certain situations, but vision can provide a large amount of information, so vision can be used to work well in a wide range of situations. There is.

ペイントされたレーンマークとは別に、自車走行レーンの推定は、空いている道路空間または物理的な道路境界を検出することによっても行われる可能性がある。道路検出結果は、自車両の前方に安全な車道を与える可能性があるが、交通法規または通常の走行パターンが考慮されていない。その結果、推定された車道は、グリッドマップ/道路境界が動的な障害物を含んでいるので、自動車より標準的なモバイルロボットのためより一層適している。モバイルロボットは、空間が空いている限り自由に移動することができるが、自動車は、標識のない道路においても運転ルールおよび人々の予想に従う初期設定区域内を走行することが必要である。現在のところ、このような情報は、車道(たとえば、各走行レーンのセンターライン)を表現し、かつ、縁石、交通標識などのような付加情報を含んでいる環境の地図によって通常は与えられる。このような地図の生成は、道路ネットワーク全体を走行することと、専用かつ高価なセンサを用いて自車位置および道路データを記録することと、膨大な手動による後処理の努力とを一般に必要とする。大量の詳細情報および精度が達成される可能性があるが、プローブカーの高価格と手動による処理の低効率とは、現在のADASシステムからもたらされる恩恵を維持するこのような地図データの生成または更新を困難にする。   Apart from the painted lane mark, the estimation of the vehicle lane may also be made by detecting an empty road space or a physical road boundary. The road detection result may give a safe road ahead of the host vehicle, but does not take into account traffic regulations or normal driving patterns. As a result, the estimated roadway is more suitable for a standard mobile robot than a car because the grid map / road boundary includes dynamic obstacles. Mobile robots are free to move as long as space is available, but cars are required to travel within a preset area that follows driving rules and people's expectations even on unsigned roads. Currently, such information is usually provided by a map of the environment that represents the roadway (eg, the center line of each lane) and includes additional information such as curbs, traffic signs, and the like. Generating such a map generally requires traveling the entire road network, recording the vehicle position and road data using dedicated and expensive sensors, and enormous manual post-processing efforts. To do. While large amounts of detail and accuracy can be achieved, the high cost of probe cars and the low efficiency of manual processing can produce such map data or maintain the benefits that come from current ADAS systems. Make updating difficult.

本実施の形態では、蓄積された車両走行軌跡は、交通シーンへの車線レベルの手掛かりを提供し、交通対象物間の関係/相互作用に関する推論を可能にすることがあり得るので、蓄積された車両走行軌跡に基づいて自車走行レーンを頑健に推定する手法が提示される。   In this embodiment, the accumulated vehicle travel trajectory provides a lane level cue to the traffic scene and may allow inferences regarding relationships / interactions between traffic objects, so A method for robustly estimating the own vehicle traveling lane based on the vehicle traveling locus is presented.

<第1の実施の形態>
<システム構成>
図1に示すように、本発明の第1の実施の形態に係る運転支援制御装置10は、GPS衛星からの電波を受信するGPS受信部12と、自車両の前方を撮像して、画像を生成する撮像装置14と、GPS受信部12によって受信されたGPS衛星からの受信信号、及び撮像装置14によって撮像された画像に基づいて、自車両の仮想的な走行レーンを生成して、運転支援部18に出力するコンピュータ16と、を備えている。
<First Embodiment>
<System configuration>
As shown in FIG. 1, the driving assistance control apparatus 10 according to the first embodiment of the present invention captures an image of a GPS receiver 12 that receives radio waves from GPS satellites and the front of the host vehicle. Based on the imaging device 14 to be generated, the received signal from the GPS satellite received by the GPS receiver 12, and the image captured by the imaging device 14, a virtual traveling lane of the host vehicle is generated to assist driving. And a computer 16 for outputting to the unit 18.

運転支援部18は、生成された自車両の仮想的な走行レーンに基づいて、例えば、自車両の車線維持制御を行う。   The driving support unit 18 performs lane keeping control of the host vehicle, for example, based on the generated virtual traveling lane of the host vehicle.

GPS受信部12は、各時刻について、複数のGPS衛星からの電波を受信して、受信した全てのGPS衛星からの受信信号を、コンピュータ16へ出力する。   The GPS receiver 12 receives radio waves from a plurality of GPS satellites at each time and outputs received signals from all the received GPS satellites to the computer 16.

撮像装置14は、各時刻について、自車両の前方を繰り返し撮像して、画像を繰り返し生成し、コンピュータ16へ出力する。なお、撮像装置14は、ステレオ画像を生成するものであってもよい。   The imaging device 14 repeatedly captures the front of the vehicle for each time, repeatedly generates an image, and outputs the image to the computer 16. Note that the imaging device 14 may generate a stereo image.

コンピュータ16を機能ブロックで表すと、上記図1に示すように、GPS受信部12から、電波を受信した全てのGPS衛星について、GPS衛星の情報を取得して、各時刻における自車両の絶対位置を算出する位置検出部20と、位置検出部20によって算出された自車両の絶対位置の時系列データを、車両走行軌跡として生成する車両走行軌跡生成部22と、車両走行軌跡生成部22によって過去に生成された車両走行軌跡を記憶する軌跡データベース24と、撮像装置14によって生成された画像から、自車両の走行レーンの車線境界を検出する車線境界検出部26と、車線境界検出部26によって検出された車線境界、位置検出部20によって検出された自車両の絶対位置、及び軌跡データベース24に記憶されている車両走行軌跡に基づいて、自車両の仮想的な走行レーンを推定する自車走行レーン推定部28とを備えている。   When the computer 16 is represented by functional blocks, as shown in FIG. 1, the GPS satellite information is obtained from the GPS receiver 12 for all GPS satellites that have received radio waves, and the absolute position of the vehicle at each time is obtained. The position detector 20 that calculates the time, the vehicle travel locus generator 22 that generates time series data of the absolute position of the host vehicle calculated by the position detector 20 as the vehicle travel locus, and the vehicle travel locus generator 22 A lane boundary detection unit 26 that detects a lane boundary of a traveling lane of the host vehicle and a lane boundary detection unit 26 that detect the lane boundary of the traveling lane of the host vehicle from the trajectory database 24 that stores the generated vehicle travel trajectory and the image generated by the imaging device 14. Lane boundary, the absolute position of the host vehicle detected by the position detection unit 20, and the vehicle travel gauge stored in the trajectory database 24 Based on, and a current lane estimation unit 28 for estimating a virtual lane of the host vehicle.

位置検出部20は、GPS受信部12から、電波を受信した全てのGPS衛星について、GPS衛星の情報を取得し、取得したGPS情報に基づいて、自車両の絶対位置を算出する。本実施の形態では、自車両の絶対位置は、GPS衛星の情報とINS(Inertial Navigation System)センサ(図示省略)によって得られた情報とを用いて、特許文献3(特開2013−130480号公報参照)に記載の測位システムと同様の手法により算出される。特許文献3に記載の測位システムの手法では、GPSおよびINS(Inertial Navigation System)センサを使用するので、自車両の絶対位置は、誤差を有している。概して、絶対位置誤差は、1mから3mに及ぶ。INSセンサとしては、例えば、加速度センサ、地磁気センサ、ジャイロセンサ等を用いればよい。   The position detection unit 20 acquires GPS satellite information for all GPS satellites that have received radio waves from the GPS reception unit 12, and calculates the absolute position of the host vehicle based on the acquired GPS information. In the present embodiment, the absolute position of the host vehicle is obtained by using the information of GPS satellites and information obtained by an INS (Inertial Navigation System) sensor (not shown), as disclosed in JP-A-2013-130480. It is calculated by the same method as the positioning system described in the reference). In the positioning system method described in Patent Document 3, since the GPS and INS (Inertial Navigation System) sensors are used, the absolute position of the host vehicle has an error. In general, the absolute position error ranges from 1 m to 3 m. As the INS sensor, for example, an acceleration sensor, a geomagnetic sensor, a gyro sensor, or the like may be used.

車両走行軌跡生成部22は、特許文献3に記載の測位システムと同様の手法により、位置検出部20によって算出された自車両の絶対位置の時系列データを収集し、車両走行軌跡を生成し、軌跡データベース24に格納する。   The vehicle travel locus generation unit 22 collects time series data of the absolute position of the host vehicle calculated by the position detection unit 20 using the same method as the positioning system described in Patent Document 3, and generates a vehicle travel locus. Stored in the trajectory database 24.

車線境界検出部26は、撮像装置14によって生成された画像から、自車走行レーンの車線境界を検出する。   The lane boundary detection unit 26 detects the lane boundary of the vehicle lane from the image generated by the imaging device 14.

ここで、車線境界検出部26により車線境界を検出する原理について説明する。   Here, the principle of detecting the lane boundary by the lane boundary detection unit 26 will be described.

道路車線境界は、典型的に、安全かつ合法的な走行領域を画定するペイントされたレーンマークまたはその他の一貫した強度/テクスチャ変化で指示される。後述する図4(a)に示されるように、左境界は、一貫した高−低強度エッジによって指示され、右境界は、低−高−低強度エッジのペアである破線レーンマークによってマークを付けられる。これらの境界を見つけることは、これらのタイプを突き止めることと共に、多くのADASシステムにとって極めて重大である。   Road lane boundaries are typically indicated by painted lane marks or other consistent strength / texture changes that define safe and legal driving areas. As shown in FIG. 4 (a) below, the left boundary is indicated by a consistent high-low intensity edge and the right boundary is marked by a dashed lane mark that is a pair of low-high-low intensity edges. It is done. Finding these boundaries, along with locating these types, is crucial for many ADAS systems.

概して、車線境界検出処理は、4つのステップ:1)エッジ点抽出、2)特徴線分投票、3)特徴線分グルーピング、4)車線境界推定に分類される。本実施の形態では、撮像された原画像は、最初に、逆透視マッピング(IPM)によって修正され、続いて、車線境界は、図2(a)に示すように、4つの水平セクションS,...,Sに分割されている、修正された画像内で検出される。通常、テーラー展開を使用して近似されたクロソイドモデルは、側方車線境界を表現するために使用される。その結果、検出される車線境界位置は、以下の式によって表される。 Generally, the lane boundary detection process is classified into four steps: 1) edge point extraction, 2) feature line segment voting, 3) feature line segment grouping, and 4) lane boundary estimation. In this embodiment, the captured original image is first modified by inverse perspective mapping (IPM), and then the lane boundary is divided into four horizontal sections S 0 , S 0 , as shown in FIG. . . . , Is divided into S 3, it is detected in the modified image. Usually, clothoid models approximated using Taylor expansion are used to represent side lane boundaries. As a result, the detected lane boundary position is expressed by the following equation.

ただし、xk,t(z)は、距離zおよび時点tでの車線境界の横位置である。xk,t(z)は、自車両に対する車線センターラインの横位置オフセットx0,tと、車線に対する自車両の走行のヨー角θと、曲率c0,tと、曲率の変動c1,tとによって与えられる。これらのパラメータは、推定される状態ベクトルS、すなわち、S=(x0,t,θ,c0,t,c1,t)を形成する。 However, x k, t (z) is a lateral position of the lane boundary at the distance z and the time point t. x k, t (z) is the lateral position offset x 0, t of the lane center line with respect to the host vehicle, the yaw angle θ t of the traveling of the host vehicle with respect to the lane, the curvature c 0, t, and the curvature variation c 1. , T and These parameters form the estimated state vector S t , namely S t = (x 0, t , θ t , c 0, t , c 1, t ).

図2(b)は、車線境界検出指標を示しており、DおよびDは、それぞれ、左および右の境界検出を表す。図2(b)の例では、S0〜S2が、画像内での「境界検出」を意味しており、S3は、「境界非検出」を意味する。S left,...,S leftおよびS right,...,S rightは、それぞれ、左および右の水平セクションである。TおよびTは、それぞれ、左および右の境界のタイプ(一貫したエッジ境界、実線状レーンマーク境界、破線状レーンマーク境界)を表す。図2(b)の例では、Tは、一貫したエッジ境界を表し、Tは、破線状レーンマーク境界を表している。 FIG. 2 (b) shows a lane boundary detected index, D L and D R each represent left and right border detection. In the example of FIG. 2B, S 0 to S 2 mean “boundary detection” in the image, and S 3 means “boundary non-detection”. S 0 left,. . . , S 3 left and S 0 right,. . . , S 3 right are the left and right horizontal sections, respectively. T L and T R represent the type of left and right boundaries (consistent edge boundary, solid lane mark boundary, dashed lane mark boundary, respectively). In the example of FIG. 2 (b), T L represents a consistent edge boundary, T R represents the broken-line lane mark boundary.

次に、エッジ点抽出のステップについて説明する。   Next, the edge point extraction step will be described.

入力画像が与えられると、最初に、以下の(2)式で計算されるエッジ強度Sep(u,v)によって、撮像された原画像内で各水平走査線と共にエッジ点が抽出される。   When an input image is given, first, an edge point is extracted together with each horizontal scanning line in the captured original image by the edge intensity Sep (u, v) calculated by the following equation (2).

ただし、Sep(u,v)は、エッジ点としての点(u,v)の強度であり、低−高強度エッジ点では、Sep>0であり、高−低強度エッジ点では、Sep<0である。I(・)は、強度であり、Fは、微分フィルタのサイズである。絶対値が閾値より大きいエッジ強度を持つ点は、図3(a)に示されるように保存されることになる。 However, S ep (u, v) is the intensity of the point (u, v) as an edge point, S ep > 0 at the low-high intensity edge point, and S ep at the high-low intensity edge point. ep <0. I (•) is the intensity, and F is the size of the differential filter. A point having an edge strength whose absolute value is larger than the threshold value is stored as shown in FIG.

次に、特徴線分投票のステップについて説明する。   Next, the feature line segment voting step will be described.

保存されたエッジ点は、修正された画像の座標系に投影される。次に、セクションSおよびS内のエッジ点は、ハフ変換投票方式に基づいて、低−高強度線分および高−低強度線分にそれぞれグルーピングされる。セクション毎に、図3(a)の実施例に示されるように、セクション最下行の中間点にある原点O(u,v)を用いてパラメータ投票空間(r,α)が定義される。パラメータrは、線とOとの間の距離を表現し、αは、Oからこの最近接点までのベクトルの角度である。続いて、座標(u,v)をもつセクション内の保存されたエッジ点毎に、このエッジ点を通る線は、 The stored edge points are projected onto the modified image coordinate system. Next, the edge points in sections S 1 and S 2 are grouped into a low-high intensity line segment and a high-low intensity line segment, respectively, based on the Hough transform voting scheme. For each section, the parameter voting space (r, α) is defined using the origin O (u 0 , v 0 ) at the midpoint of the bottom row of the section, as shown in the embodiment of FIG. . The parameter r represents the distance between the line and O, and α is the angle of the vector from O to this nearest point. Subsequently, for each stored edge point in the section with coordinates (u, v), the line through this edge point is

r(α)=(u−u)cosα+(v−v)sinα (3) r (α) = (u−u 0 ) cos α + (v−v 0 ) sin α (3)

となるペア(r,α)である。ただし、αは、対応するrを計算するために範囲[−αmax,αmax]に広がる。ペア(r,α)は、結果rが範囲[−rmax,rmax]に属する場合に投票するために保存されることになる。αmaxおよびrmaxは、投票空間のサイズを定義するために正の定数である。投票された値の極大をもつペアは、図3(b)に示されるように、セクション内の線分を指示する。その上、各線分の平均エッジ強度が計算される。道路に沿った強い影は、多くの場合に、線分を発生させ、この線分が車線境界グルーピングに影響を与えることになることに注意を要する。影の影響を除去するために、線分は、近傍点の平均強度が閾値を下回る場合に放棄されることになる。 Is a pair (r, α). Where α extends to the range [−α max , α max ] to calculate the corresponding r. The pair (r, α) will be saved for voting if the result r belongs to the range [−r max , r max ]. α max and r max are positive constants to define the size of the voting space. The pair with the maximum of the voted value indicates a line segment within the section, as shown in FIG. In addition, the average edge strength of each line segment is calculated. Note that strong shadows along the road often generate line segments that can affect lane boundary groupings. In order to remove the effects of shadows, the line segment will be discarded if the average intensity of neighboring points is below the threshold.

次に、特徴線分をグルーピング(ペアリング)するステップについて説明する。   Next, the step of grouping (pairing) feature line segments will be described.

取得された線分に基づいて、以下の2通りの方法で線分ペアを見つけるための判定処理が行われる。   Based on the acquired line segment, determination processing for finding a line segment pair is performed by the following two methods.

(1)セクションSとSとの間で、一貫したエッジ境界を見つけるため、同じタイプの線分のペアが検索される。ペア候補毎に、各線分の平均エッジ強度に関する条件と、線分間の方向αの差に関する条件と、セクションS内の線分の上方端点とセクションS内の線分の下方端点との間の代数的距離に関する条件とを含む条件群について、条件を満たすか否かが判定される。条件群の全部が満たされた場合、2個の線分は、図3(c)に示されるように、ペア化され、一貫したエッジ境界としてラベルを付けられることになる。 (1) between the section S 1 and S 2, to find a consistent edge boundary, the line segment of the same type pairs are retrieved. For each pair candidate, between the condition regarding the average edge strength of each line segment, the condition regarding the difference in the direction α between the line segments, and the upper end point of the line segment in the section S 1 and the lower end point of the line segment in the section S 2 It is determined whether or not the condition group including the condition relating to the algebraic distance is satisfied. If all of the conditions are met, the two line segments will be paired and labeled as a consistent edge boundary, as shown in FIG. 3 (c).

(2)同じセクションSまたはSにおいて、左側の低−高強度線分と右側の高−低強度線分とのペアが検索される。ペア候補毎に、各線分の平均エッジ強度に関する条件と、方向α差に関する条件と、線分間の代数的距離に関する条件と、これらの2個の線分の間にある点の平均強度に関する条件とを含む条件群について、条件を満たすか否かが判定される。条件群の全部が満たされた場合、内側の線分は、図3(d)に示されるように、レーンマーク境界としてラベルを付けられることになる。 (2) In the same section S 1 or S 2, left lower - high strength line and the right high - pairs of low intensity line is searched. For each pair candidate, a condition regarding the average edge strength of each line segment, a condition regarding the direction α difference, a condition regarding the algebraic distance between the line segments, and a condition regarding the average intensity of the points between these two line segments, It is determined whether or not the condition group including the condition is satisfied. If all of the condition groups are met, the inner line segment will be labeled as a lane mark boundary, as shown in FIG.

これらの条件群の両方を満たす線分に対し、この線分は、両方のラベルをもつことになる。境界が新たに見つけられた境界である場合、レーンマーク境界のラベルは、より高い優先順位を有することになる。そうではない場合、追跡された境界と一致するラベルが使用されることになる。   For a line that satisfies both of these groups of conditions, this line will have both labels. If the boundary is a newly found boundary, the lane mark boundary label will have a higher priority. Otherwise, the label that matches the tracked boundary will be used.

次に、車線境界推定のステップについて説明する。   Next, steps for estimating the lane boundary will be described.

自車両の走行レーンの左右に存在する車線境界が、2つのEKFフィルタを独立に使用することにより推定され、追跡される。本実施の形態では、ベクトル   Lane boundaries existing on the left and right of the driving lane of the host vehicle are estimated and tracked by using two EKF filters independently. In this embodiment, a vector

がSの代わりに使用される。 Is used instead of St.

また、自車両の走行レーンの左に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分が、左の車線境界のEKFフィルタの観測値として使用される。また、自車両の走行レーンの右に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分が、右の車線境界のEKFフィルタの観測値として使用される。   In addition, the line segment with the consistent edge boundary label or the lane mark boundary label acquired corresponding to the lane boundary existing on the left of the driving lane of the host vehicle is the EKF filter of the left lane boundary. Used as an observation. In addition, a line segment with a consistent edge boundary label or lane mark boundary label acquired corresponding to the lane boundary existing to the right of the driving lane of the host vehicle is the EKF filter of the right lane boundary. Used as an observation.

以上説明したように、車線境界検出部26は、撮像装置14によって生成された画像に基づいて、エッジ点抽出、特徴線分投票、特徴線分グルーピング、及び車線境界推定の各ステップを実行して、自車両の走行レーンの左右の各々の車線境界を検出する。   As described above, the lane boundary detection unit 26 executes the steps of edge point extraction, feature line segment voting, feature line segment grouping, and lane boundary estimation based on the image generated by the imaging device 14. The left and right lane boundaries of the traveling lane of the host vehicle are detected.

次に、自車走行レーン推定部28によって仮想的な自車走行レーンを推定する原理について説明する。   Next, the principle of estimating the virtual vehicle lane by the vehicle lane estimation unit 28 will be described.

道路状況における近隣の障害物を、自車走行レーンのような道路構造体自体と共に理解することは、市街環境におけるADAS適用の成功の鍵である。これは、特に、膨大な混乱が生じている動的な市街地シーン、または、道路構造体を指示するレーンマークが存在しない、といった場面で、非常に難しい問題である。従来のシステムは、車線境界検出によって自車走行レーンを決定する。しかし、図4(a)に示されるように、車線境界検出は、前述の難問のために安定性を欠くこと、または、さらに不正確であることがあり得る。その上、市街地場面では、車載カメラで殆ど見ることができないので遠方範囲車線境界を検出することは、困難である。   Understanding nearby obstacles in road conditions along with the road structure itself, such as the vehicle lane, is key to successful ADAS application in an urban environment. This is a very difficult problem especially in a dynamic urban scene where enormous confusion has occurred, or where there is no lane mark indicating a road structure. The conventional system determines the vehicle lane by detecting the lane boundary. However, as shown in FIG. 4 (a), lane boundary detection may lack stability or be more inaccurate due to the aforementioned challenges. In addition, it is difficult to detect a far-range lane boundary in an urban scene because it can hardly be seen with an in-vehicle camera.

ここで、図4に、車線境界と過去の車両走行軌跡とを融合させることによる仮想的な自車走行レーンを生成した結果を示す。図4(a)では、比較例として、レーンマークの検出結果による自車走行レーンの推定結果を示す。図4(b)では、比較例として、過去の走行軌跡だけを用いて自車走行レーンを推定した結果を示す。図4(c)、(d)では、融合されるデータの観測結果を示す。各種の線が、車両走行軌跡、左右の境界観測、過去の軌跡および左右の車線境界がそれぞれ当てはめられたスプラインを表している。図4(e)では、本実施の形態の手法による自車走行レーンの推定結果を表し、図4(f)が、検出された道路境界によって生成された仮想的なレーンマークを表している。   Here, FIG. 4 shows a result of generating a virtual own vehicle traveling lane by fusing the lane boundary and the past vehicle traveling locus. FIG. 4A shows an estimation result of the own vehicle traveling lane based on the detection result of the lane mark as a comparative example. FIG. 4B shows a result of estimating the own vehicle travel lane using only the past travel trajectory as a comparative example. 4C and 4D show the observation results of the data to be merged. The various lines represent splines in which the vehicle travel locus, the left and right boundary observations, the past locus, and the left and right lane boundaries are respectively applied. FIG. 4 (e) represents the estimation result of the host vehicle lane by the method of the present embodiment, and FIG. 4 (f) represents a virtual lane mark generated by the detected road boundary.

検出された車線境界の内側の区域が自車走行レーンであると仮定して、車線境界検出結果をそのまま使用する従来型のADASシステムと違って、本実施の形態では、自車両走行に対する仮想的な走行レーンを推定し、生成する。ここで、仮想的な自車走行レーンの長距離車線モデルのパラメータを推定し、追跡するために、車両走行軌跡は使用される。前述したように、位置測位誤差に起因して、車両走行軌跡から直接的に推定された自車走行レーンは、通常は、図4(b)に示されているように、横位置およびヨー角の偏差を含んでいる。そこで、キュービックスプラインに基づく長距離車線モデルによってモデル化されたEKFに基づく追跡プロセスによって、検出された車線境界を車両走行軌跡と融合させて、仮想的な自車走行レーンを推定し、生成する。仮想的な自車走行レーンを推定する際の状態遷移を、図5に示す。レーンマークまたは一貫したエッジ境界が検出されない場合、仮想的な自車走行レーンは、車両走行軌跡からそのまま導出されることになる。そうではない場合、検出されたレーンマーク/道路境界は、図4(c)〜(d)に示されるように、車両位置測定によって生じさせられた誤差を補償するように走行軌跡を修正するために使用される。次に、仮想的な自車走行レーンが生成される。   Unlike the conventional ADAS system that uses the lane boundary detection result as it is, assuming that the area inside the detected lane boundary is the own vehicle traveling lane, in the present embodiment, the virtual lane boundary for the own vehicle traveling is used. Estimate and generate the correct driving lane. Here, the vehicle travel trajectory is used to estimate and track the parameters of the long-distance lane model of the virtual own vehicle travel lane. As described above, due to the position positioning error, the own vehicle traveling lane estimated directly from the vehicle traveling locus usually has a lateral position and a yaw angle as shown in FIG. Includes deviations. Accordingly, a virtual own vehicle traveling lane is estimated and generated by fusing the detected lane boundary with the vehicle traveling locus by the tracking process based on EKF modeled by the long-distance lane model based on the cubic spline. FIG. 5 shows the state transition when estimating the virtual vehicle lane. If a lane mark or a consistent edge boundary is not detected, the virtual own vehicle traveling lane is derived as it is from the vehicle traveling locus. If this is not the case, the detected lane mark / road boundary will correct the travel trajectory to compensate for errors caused by vehicle position measurement, as shown in FIGS. 4 (c)-(d). Used for. Next, a virtual own vehicle traveling lane is generated.

本実施の形態で用いる、キュービックスプラインに基づく長距離車線モデルは、自車走行レーンの効果的かつ効率的な推定のため非常に重要である。概して、自車走行レーンは、車線境界検出のように、通常は、近接範囲において良い結果を取得する可能性があるクロソイドスプラインモデルに基づいてモデル化される。しかし、このモデル化は、車線曲率が均等に分布していない長距離範囲では失敗する可能性がある。図6に示されるように、近接範囲内の車線は、殆ど直線であるが、遠方範囲では、急な曲線が存在する。遠方範囲において曲率を当てはめるために、クロソイドスプラインは、図6(c)における観測のスプラインに示されるように、同様に比較的大きい曲率を有するものであり、典型的に、近接範囲において不正確な角度をもたらす。現実の角度は、車両の走行のヨー誤差を訂正するために、検出された車線境界から導出されるので、車両走行軌跡は、図6(c)のスプラインに示されるように、ヨー角が検出された車線境界に適合することを確実にするためにさらに変換され、遠方範囲において過去の軌跡の大きいオフセット誤差を生成することになる。この例では、遠方範囲における曲率は、比較的正確であるが、図6(a)に示されるように、位置に誤りがある。   The long-distance lane model based on the cubic spline used in the present embodiment is very important for effective and efficient estimation of the vehicle lane. In general, the vehicle lane is typically modeled based on a clothoid spline model that may obtain good results in close range, such as lane boundary detection. However, this modeling can fail over long distance ranges where the lane curvature is not evenly distributed. As shown in FIG. 6, the lanes in the proximity range are almost straight, but a steep curve exists in the far range. In order to fit curvature in the far range, clothoid splines are also of relatively large curvature, as shown in the observation spline in FIG. 6 (c), and are typically inaccurate in the near range. Bring an angle. Since the actual angle is derived from the detected lane boundary in order to correct the yaw error of the vehicle travel, the vehicle travel trajectory is detected by the yaw angle as shown in the spline in FIG. Further transformations are made to ensure that the lane boundaries are met, producing a large offset error of the past trajectory in the far range. In this example, the curvature in the far range is relatively accurate, but there is an error in position as shown in FIG.

キュービックスプラインの制御点は、実際には曲線上にあり、キュービックスプラインは、局所制御を有しているので、すなわち、1個の制御点だけを修正することは、この制御点の近くにある曲線の一部分に影響を与える。そこで、上記問題を取り扱うために、本実施の形態では、仮想的な自車走行レーンの生成のためにキュービックスプラインを採用する。これらの特性は、遠方範囲における急な曲線の当てはめが近接範囲における直線的な車線の観測に影響を与えないことを確実にする。   The control point of the cubic spline is actually on the curve, and the cubic spline has local control, ie modifying only one control point is a curve near this control point. Affects a part of Therefore, in order to deal with the above problem, the present embodiment adopts cubic spline for generating a virtual vehicle lane. These characteristics ensure that steep curve fitting in the far range does not affect the observation of linear lanes in the near range.

図6に、車線境界および過去の車両走行軌跡を融合させることによる仮想的な自車走行レーンの生成結果を示す。図6(a)に、クロソイドスプラインモデルを用いた自車走行レーンの推定結果を示す。図6(b)に、キュービックスプラインモデルを用いた自車走行レーンの推定結果を示す。図6(c)に、クロソイドモデルを用いた観測結果を示す。図6(d)に、キュービックスプラインモデルを用いた観測結果を示す。   FIG. 6 shows a generation result of a virtual own vehicle traveling lane by merging lane boundaries and past vehicle traveling trajectories. FIG. 6A shows an estimation result of the own vehicle travel lane using the clothoid spline model. FIG. 6B shows the estimation result of the own vehicle travel lane using the cubic spline model. FIG. 6C shows an observation result using a clothoid model. FIG. 6D shows an observation result using a cubic spline model.

位置の系列(P,P,...,P)を仮定すると、Catmull−Romスプラインは、点PからPn−1までを補間(通過)することが可能である。さらに、Pでの接線ベクトルは、Pi−1とPi+1とを接続する線に平行である。1個の線分に対するCatmull−Romキュービックスプラインの式は、以下の式である。 Assuming a sequence of positions (P 0 , P 1 ,..., P n ), the Catmull-Rom spline can interpolate (pass) from points P 1 to P n−1 . Further, the tangent vector at P i is parallel to a line connecting the P i-1 and P i + 1. The Catmull-Rom cubic spline formula for one line segment is:

ただし、Pは、Catmull−Romスプラインが通過することを必要とする制御点であり、t∈[0,1]である。 However, P i is a control point that needs to Catmull-Rom spline passes a t∈ [0,1].

本実施の形態では、6個の制御点をもつCatmull−Romスプラインが、自車走行レーンを記述するために使用される。第1の(最近接)制御点は、修正された画像内の目に見える道路の下端にあるように設定される。最後の(最遠方)制御点として、修正された画像内の過去の車両走行軌跡の端点が設定される。残りの制御点は、両端の制御点の間に等間隔で分布している。制御点の横位置は、ベクトル   In the present embodiment, a Catmull-Rom spline having six control points is used to describe the own vehicle travel lane. The first (nearest) control point is set to be at the lower end of the visible road in the modified image. As the last (farthest) control point, the end point of the past vehicle travel locus in the corrected image is set. The remaining control points are distributed at equal intervals between the control points at both ends. The lateral position of the control point is a vector

を用いてEKFに基づく追跡プロセスによって計算される。図6(d)に示されるように、近接範囲内の車線の直線部分は、遠方範囲内の急な曲線の位置決め誤差をもたらさないので、仮想的な自車走行レーンは、図6(b)に示されるように、正しく生成される。 Is calculated by a tracking process based on EKF. As shown in FIG. 6D, the straight line portion of the lane in the close range does not cause a positioning error of a steep curve in the far range. As shown, it is generated correctly.

以上説明したように、自車走行レーン推定部28は、車線境界検出部26によって検出された車線境界と、位置検出部20によって検出された自車両の絶対位置に対応する、軌跡データベース24に記憶されている車両走行軌跡とに基づいて、キュービックスプラインモデルの各制御点におけるレーンパラメータを推定し、推定されたレーンパラメータと、キュービックスプラインモデルとに基づいて、自車両の仮想的な走行レーンを表すデータを生成し、運転支援部18に出力する。   As described above, the host vehicle travel lane estimation unit 28 stores the lane boundary detected by the lane boundary detection unit 26 and the trajectory database 24 corresponding to the absolute position of the host vehicle detected by the position detection unit 20. The lane parameters at each control point of the cubic spline model are estimated based on the vehicle traveling trajectory, and the virtual traveling lane of the host vehicle is represented based on the estimated lane parameters and the cubic spline model. Data is generated and output to the driving support unit 18.

<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
<Operation of the driving support control device>
Next, the operation of the present embodiment will be described.

運転支援制御装置10を搭載した車両が走行しているときであって、撮像装置14によって自車両の前方を撮像し、画像を逐次生成すると共に、GPS受信部12によって、GPS衛星からの信号を逐次受信しているときに、運転支援制御装置10は、図7に示す自車走行レーン推定処理ルーチンを実行する。   When the vehicle equipped with the driving support control device 10 is running, the imaging device 14 captures the front of the host vehicle, sequentially generates images, and the GPS receiver 12 receives signals from GPS satellites. When receiving sequentially, the driving assistance control apparatus 10 performs the own vehicle travel lane estimation processing routine shown in FIG.

ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。   In step 100, an image generated by the imaging device 14 is acquired, and in step 102, a GPS signal received by the GPS receiving unit 12 is acquired.

そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。   In step 104, the absolute position of the host vehicle is detected based on the GPS signal acquired in step 102 and the INS information output from the INS sensor (not shown).

次のステップ106では、前回検出された車線境界と、上記ステップ100で取得した画像とに基づいて、レーンマークなどの車線境界を検出して追跡する。   In the next step 106, a lane boundary such as a lane mark is detected and tracked based on the previously detected lane boundary and the image acquired in step 100.

ステップ108では、上記ステップ104で検出された自車両の絶対位置に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、かつ、自車両の進行方向と同じ方向の車両走行軌跡を取得する。このとき、複数の車両走行軌跡が得られた場合には、複数の車両走行軌跡を平均した車両走行軌跡を取得する。   In step 108, based on the absolute position of the host vehicle detected in step 104, the vehicle travel locus including the position corresponding to the absolute position of the host vehicle is detected from the track database 24 and the traveling direction of the host vehicle is reached. The vehicle travel locus in the same direction as is acquired. At this time, when a plurality of vehicle traveling tracks are obtained, a vehicle traveling track obtained by averaging the plurality of vehicle traveling tracks is acquired.

そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ108で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、仮想的な自車走行レーンを推定して追跡し、運転支援部18に出力して、上記ステップ100へ戻る。   In step 110, based on the lane boundary detected in step 106, the vehicle travel locus acquired in step 108, and the virtual vehicle lane estimated last time, the virtual vehicle travel is performed. The lane is estimated and tracked, output to the driving support unit 18, and the process returns to step 100.

上記の自車走行レーン推定処理ルーチンが繰り返し実行されることにより、逐次生成された仮想的な自車走行レーンが、運転支援部18へ出力され、運転支援部18により、仮想的な自車走行レーンに基づく運転支援が行われる。   By repeatedly executing the above-described own vehicle travel lane estimation processing routine, the virtual vehicle travel lanes that are sequentially generated are output to the driving support unit 18, and the driving support unit 18 performs virtual host vehicle travel. Driving assistance based on lanes is provided.

また、運転支援制御装置10は、検出された自車両の絶対位置の時系列データに基づいて、車両走行軌跡を生成し、軌跡データベース24に格納する。   In addition, the driving support control device 10 generates a vehicle travel locus based on the detected time-series data of the absolute position of the host vehicle, and stores the vehicle travel locus in the locus database 24.

上記ステップ106は、図8に示す車線境界検出処理ルーチンによって実現される。   Step 106 is realized by the lane boundary detection processing routine shown in FIG.

ステップ120では、上記ステップ100で取得した画像から、各水平走査線上において、上記(2)式で計算されるエッジ強度に従って、低−高強度エッジ点又は高−低強度エッジ点を抽出する。   In step 120, low-high intensity edge points or high-low intensity edge points are extracted from the image acquired in step 100 in accordance with the edge intensity calculated by the above equation (2) on each horizontal scanning line.

そして、ステップ122において、上記ステップ100で取得した画像を、逆透視マッピング(IPM)によって修正し、上記ステップ120で抽出されたエッジ点を、修正された画像の座標系に投影する。次に、修正された画像のセクションSおよびS内のエッジ点は、ハフ変換投票方式に基づいて、低−高強度線分および高−低強度線分にそれぞれグルーピングされる。ステップ124において、各線分の平均エッジ強度が計算され、平均エッジ強度が閾値を下回る線分が放棄され、最終的に、修正された画像のセクションSおよびS内で、低−高強度線分および高−低強度線分が取得される。 In step 122, the image acquired in step 100 is corrected by inverse perspective mapping (IPM), and the edge points extracted in step 120 are projected onto the coordinate system of the corrected image. Next, the edge points in sections S 1 and S 2 of the modified image are grouped into low-high intensity line segments and high-low intensity line segments, respectively, based on the Hough transform voting scheme. In step 124, the system calculates the average edge intensity of each line segment, the line segment average edge strength is below the threshold is discarded, and finally, in the sections S 1 and S 2 of the modified image, the low - high strength line Minutes and high-low intensity line segments are acquired.

次のステップ126では、上記ステップ124で取得された、各セクション内の低−高強度線分および高−低強度線分に基づいて、一貫したエッジ境界を見つけるための条件群を満たすか否かを判定して、低−高強度線分および高−低強度線分の各々について、線分をグルーピングして、一貫したエッジ境界のラベルを付ける。また、レーンマーク境界を見つけるための条件群を満たすか否かを判定して、低−高強度線分および高−低強度線分の各々について、線分をグルーピングして、レーンマーク境界のラベルを付ける。   In the next step 126, whether or not a condition group for finding a consistent edge boundary is satisfied based on the low-high intensity line segment and the high-low intensity line segment obtained in step 124 above. For each of the low-high intensity line segments and the high-low intensity line segments, group the line segments and label them with consistent edge boundaries. In addition, it is determined whether or not the condition group for finding the lane mark boundary is satisfied, the line segment is grouped for each of the low-high intensity line segment and the high-low intensity line segment, and the label of the lane mark boundary Add.

そして、ステップ128において、左右の車線境界の各々について、上記ステップ126で得られた、一貫したエッジ境界のラベルが付された線分、又はレーンマーク境界のラベルが付された線分と、前回のステップ128で推定された車線境界の各点のレーンパラメータとに基づいて、EKFフィルタを用いて、車線境界の各点のレーンパラメータを推定し、推定したレーンパラメータとクロソイドモデルとに基づいて、車線境界を推定して追跡し、車線境界検出処理ルーチンを終了する。なお、上記ステップ126で、何れの線分にも、一貫したエッジ境界又はレーンマーク境界のラベルが付されなかった場合には、車線境界が検出されなかったと判断される。   Then, in step 128, for each of the left and right lane boundaries, the line segment with the consistent edge boundary label or the line segment with the lane mark boundary label obtained in step 126 above is added. Based on the lane parameters at each point of the lane boundary estimated in step 128 of the above, the lane parameters at each point of the lane boundary are estimated using the EKF filter, and based on the estimated lane parameter and the clothoid model, The lane boundary is estimated and tracked, and the lane boundary detection processing routine is terminated. In step 126, if no consistent edge boundary or lane mark boundary label is attached to any line segment, it is determined that no lane boundary has been detected.

上記ステップ110は、図9に示すレーン推定処理ルーチンによって実現される。   Step 110 is realized by the lane estimation processing routine shown in FIG.

ステップ130では、上記ステップ106の処理により車線境界が検出されたか否かを判定する。車線境界が検出されなかった場合には、後述するステップ134へ移行する。一方、車線境界が検出された場合には、ステップ132において、上記ステップ108で取得した車両走行軌跡の位置及びヨー角を、上記ステップ106の処理により検出された車線境界に基づいて修正する。   In step 130, it is determined whether or not a lane boundary has been detected by the processing in step 106. When the lane boundary is not detected, the routine proceeds to step 134 described later. On the other hand, if a lane boundary is detected, in step 132, the position and yaw angle of the vehicle travel locus acquired in step 108 are corrected based on the lane boundary detected in step 106.

ステップ134では、上記ステップ108で取得した車両走行軌跡、又は上記ステップ132で修正された車両走行軌跡と、上記ステップ106の処理により検出された車線境界と、前回のステップ134で推定された自車走行レーンのレーンパラメータとに基づいて、EKFフィルタを用いて、自車走行レーンのレーンパラメータを推定して追跡し、推定したレーンパラメータとキュービックスプラインモデルとに基づいて、仮想的な自車走行レーンを表すデータを生成し、運転支援部18に出力し、レーン推定処理ルーチンを終了する。   In step 134, the vehicle travel trajectory acquired in step 108 or the vehicle travel trajectory corrected in step 132, the lane boundary detected by the processing in step 106, and the host vehicle estimated in the previous step 134 Based on the lane parameters of the driving lane, the EKF filter is used to estimate and track the lane parameters of the own vehicle lane, and based on the estimated lane parameters and the cubic spline model, Is generated and output to the driving support unit 18, and the lane estimation processing routine is terminated.

以上説明したように、本発明の第1の実施の形態に係る運転支援制御装置によれば、車両走行軌跡と、検出された車線境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、自車両が走行している仮想的な自車走行レーンを生成することにより、レーンマークが不明瞭もしくは存在しない場合であっても、自車走行レーンを推定することができる。   As described above, according to the driving support control apparatus according to the first embodiment of the present invention, the travel lane in which the host vehicle is traveling is based on the vehicle travel locus and the detected lane boundary. By estimating the lane parameters and generating a virtual vehicle lane in which the vehicle is traveling, the vehicle lane can be estimated even if the lane mark is not clear or does not exist. .

また、車両走行軌跡を用いることで、画像情報のみでは推定できない遠方の車線の曲率等を求めて、自車走行レーンを推定することができる。   In addition, by using the vehicle traveling locus, it is possible to estimate the vehicle traveling lane by obtaining the curvature of a distant lane that cannot be estimated only by image information.

<第2の実施の形態>
<システム構成>
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
<Second Embodiment>
<System configuration>
Next, a second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、車両走行軌跡を用いて、車線境界を予測し、予測結果を更に用いて、車線境界を検出している点が、第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that the lane boundary is predicted using the vehicle travel locus, and the lane boundary is detected using the prediction result.

第1の実施の形態で説明した、車線境界検出部26による車線境界検出方法は、複雑なパターン、曲率、および雑音のような多くの難題を取り扱う可能性がある。しかし、低品質の車線の特徴に起因し、視覚的な車線境界の証拠に識別力がない状況において、車線の誤検出が起こることがある。実際のところ、このような誤検出は、一般的な見え方に基づく車線検出の殆どに起こるものである。本実施の形態では、車両走行軌跡が、シーンの構造を明らかにし、状況への手掛かりを提供することができるので、雑音に対して目立たないターゲットを識別するように付加的なサポートを提供するために、車両走行軌跡を採用する。   The lane boundary detection method by the lane boundary detection unit 26 described in the first embodiment may handle many difficult problems such as complicated patterns, curvature, and noise. However, lane misdetection may occur in situations where visual lane boundary evidence is not discriminating due to low quality lane features. In fact, such false detection occurs in most lane detection based on general appearance. In this embodiment, the vehicle trajectory can reveal the structure of the scene and provide clues to the situation, so as to provide additional support to identify targets that are not noticeable to noise In addition, the vehicle travel locus is adopted.

ここで、過去の車両走行軌跡は、車線境界を検出するための前提または予測を提供するために使用され、車線境界検出部26の各ステップにおける車線境界検出性能を改善する。本実施の形態における車線境界予測部224は、車線境界検出部26の各ステップのいずれにおいてもアドオンとして使用される可能性があり、検出性能が改善される。   Here, the past vehicle travel trajectory is used to provide a premise or prediction for detecting the lane boundary, and improves the lane boundary detection performance in each step of the lane boundary detection unit 26. The lane boundary prediction unit 224 in the present embodiment may be used as an add-on in any of the steps of the lane boundary detection unit 26, and the detection performance is improved.

図10に示すように、第2の実施の形態に係る運転支援制御装置210のコンピュータ216は、位置検出部20と、車両走行軌跡生成部22と、軌跡データベース24と、位置検出部20によって検出された自車両の絶対位置、及び軌跡データベース24に記憶されている車両走行軌跡に基づいて、車線境界を予測する車線境界予測部224と、撮像装置14によって生成された画像及び車線境界予測部224によって予測された車線境界に基づいて、自車両の走行レーンの車線境界を検出する車線境界検出部226と、自車走行レーン推定部28とを備えている。なお、車線境界検出部226が、車線境界推定手段の一例である。   As shown in FIG. 10, the computer 216 of the driving support control apparatus 210 according to the second embodiment is detected by the position detection unit 20, the vehicle travel locus generation unit 22, the locus database 24, and the position detection unit 20. A lane boundary prediction unit 224 that predicts a lane boundary based on the absolute position of the subject vehicle that has been recorded and a vehicle travel locus stored in the locus database 24, and an image generated by the imaging device 14 and a lane boundary prediction unit 224. Is provided with a lane boundary detection unit 226 for detecting the lane boundary of the traveling lane of the host vehicle, and a host vehicle traveling lane estimation unit 28. The lane boundary detection unit 226 is an example of a lane boundary estimation unit.

車線境界予測部224は、車線境界の予測として、車線境界検出部226によるエッジ点の抽出で用いられるスコアに重み付けするための、スコアを算出する。   The lane boundary prediction unit 224 calculates a score for weighting the score used in edge point extraction by the lane boundary detection unit 226 as prediction of the lane boundary.

ここで、車線境界予測部224によってスコアを算出する原理について説明する。   Here, the principle of calculating the score by the lane boundary prediction unit 224 will be described.

位置は、対象物と現実世界との間のコンテキスト関係の5つの最も重要なクラスのうちの1つである。対象物がシーンにありそうであると仮定すると、対象物は、多くの場合に、何らかの位置で見つけられ、その他の位置では見つけられない。車線検出の例では、過去の車両走行軌跡は、車両が殆どの時間で走行車線の中央で走行し、その結果、車線境界の見込み位置を明らかにするので、このような付加的な空間情報を提供する可能性がある。   Location is one of the five most important classes of contextual relationship between objects and the real world. Assuming that the object is likely to be in the scene, the object is often found at some location and not at any other location. In the example of lane detection, the past vehicle travel trajectory is such that the vehicle travels in the middle of the travel lane most of the time, and as a result reveals the expected position of the lane boundary. There is a possibility to provide.

各車両走行軌跡は、左の車線境界および右の車線境界にそれぞれ対応して、左の車線境界から、車線幅の半分だけ離れている位置の集合と、右の車線境界から、車線幅の半分だけ離れている位置の集合とを意味する。日本の道路建設法規によれば、車線幅は、3メートルと3.5メートルとの間である。その結果、走行車線は、平均幅μが3.25メートルであり、標準偏差σが2.0メートルである、と仮定する。空間スコアSp(u,v)は、境界位置から車両走行軌跡までの距離の分散が考慮され、以下の(4)式で計算される。   Each vehicle trajectory corresponds to the left lane boundary and the right lane boundary, a set of positions that are separated from the left lane boundary by half the lane width, and half the lane width from the right lane boundary. It means a set of positions that are only separated. According to Japanese road construction regulations, the lane width is between 3 and 3.5 meters. As a result, it is assumed that the travel lane has an average width μ of 3.25 meters and a standard deviation σ of 2.0 meters. The spatial score Sp (u, v) is calculated by the following equation (4) in consideration of the dispersion of the distance from the boundary position to the vehicle travel locus.

ただし、(u,v)は、修正された画像座標内の点である。Nは、現在のシーン内に存在する車両走行軌跡の個数であり、uは、横ラインv内のk番目の軌跡の水平位置である。ここで、過去の車両走行軌跡の統計値を活かすために、各車両走行軌跡のスコアの最大値ではなく、合計を使用する。図11(b)において、空間スコアが、階調部分として視覚化されている。 However, (u, v) is a point in the corrected image coordinates. N is the number of vehicle travel trajectories existing in the current scene, and uk is the horizontal position of the kth trajectory in the horizontal line v. Here, in order to make use of the statistical value of the past vehicle travel locus, the total is used instead of the maximum score of each vehicle travel locus. In FIG. 11B, the spatial score is visualized as a gradation portion.

混乱、雑音および照明のようなある程度の数の要因が原因で、局所的な見え方が不十分であるとき、境界特徴抽出を改善するため、このような空間コンテキスト情報は、エッジ点に重み付けをするために使用されることになる。すなわち、車線境界検出部226によるエッジ点の抽出で用いられるエッジ強度は、SepとSとの積ということになる。 Such spatial context information weights edge points to improve boundary feature extraction when local appearance is poor due to a certain number of factors such as confusion, noise and lighting. Will be used to do. That is, the edge strength used in the extraction of the edge points by the lane boundary detection unit 226, it comes to the product of the S ep and S p.

以上説明したように、車線境界予測部224は、自車両の絶対位置に対応して取得した車両走行軌跡に基づいて、各座標(u,v)における空間スコアSp(u,v)を算出する。 As described above, the lane boundary prediction unit 224 calculates the spatial score Sp (u, v) at each coordinate (u, v) based on the vehicle travel locus acquired corresponding to the absolute position of the host vehicle. To do.

また、車線境界予測部224は、自車両の絶対位置に対応して取得した車両走行軌跡の局所的なヨー角αtraを算出する。 Further, the lane boundary prediction unit 224 calculates a local yaw angle α tra of the vehicle travel locus acquired corresponding to the absolute position of the host vehicle.

車線境界検出部226は、上記(1)式に従って、各座標のエッジ強度Sep(u,v)を算出し、車線境界予測部224によって算出された空間スコアS(u,v)との積を、各座標のエッジ強度とし、絶対値が閾値より大きいエッジ強度を持つ点を、エッジ点として抽出する。 The lane boundary detection unit 226 calculates the edge strength S ep (u, v) of each coordinate according to the above equation (1), and the spatial score S p (u, v) calculated by the lane boundary prediction unit 224 The product is set as the edge strength of each coordinate, and a point having an edge strength whose absolute value is larger than the threshold is extracted as an edge point.

次に、車線境界検出部226による特徴線分投票のステップについて説明する。   Next, the feature line segment voting step by the lane boundary detection unit 226 will be described.

上記第1の実施の形態では、投票プロセス中に、αの投票範囲は、車線境界の線分が車両の走行方向と殆ど平行であると仮定して、[−αmax,αmax]として設定される。多くの車線検出システムは、この仮定が無関係の殆ど水平線および雑音の影響を除去し、計算負荷を低減する可能性があるので、このような仮定を採用する。しかし、この仮定は、曲線状の道路で、または、自車両の運転中に成り立たないことがある。ところが、過去の車両走行軌跡は、道路曲率について正確であり、かつ、局所的な情報を提供する可能性があり、複数の車両走行軌跡のうちの平均軌跡は、車両の運転の影響を低減する可能性がある。 In the first embodiment, during the voting process, the voting range of α is set as [−α max , α max ] on the assumption that the line segment of the lane boundary is almost parallel to the traveling direction of the vehicle. Is done. Many lane detection systems employ such assumptions because this assumption can eliminate the effects of almost unrelated horizon and noise and reduce the computational load. However, this assumption may not hold on curved roads or while the vehicle is driving. However, past vehicle travel trajectories are accurate with respect to road curvature and may provide local information, and the average trajectory of the plurality of vehicle travel trajectories reduces the influence of vehicle driving. there is a possibility.

そこで、車線境界検出部226では、車線境界予測部224によって算出された車両走行軌跡の局所的なヨー角αtraを用いて、投票範囲を[−αmax+αtra,αmax+αtra]として設定する(図11(c)参照)。 Therefore, the lane boundary detection unit 226 sets the voting range as [−α max + α tra , α max + α tra ] using the local yaw angle α tra of the vehicle travel locus calculated by the lane boundary prediction unit 224. (See FIG. 11C).

次に、車線境界検出部226による特徴線分のグルーピングのステップについて説明する。   Next, the step of grouping feature line segments by the lane boundary detection unit 226 will be described.

投票範囲の再設定の他に、過去の車両走行軌跡は、局所的な軌跡への平行度が高い候補ほどより大きい重みを与える線分ペアリングにおいてさらに使用される。より形式的には、線分の方向がそれぞれにαl1およびαl2であると仮定すると、方向に関する条件の判定は、以下の(5)式で表わされるスコアを用いて行われる。 In addition to resetting the voting range, past vehicle travel trajectories are further used in line segment pairing that gives higher weight to candidates with higher parallelism to local trajectories. More formally, assuming that the direction of the line segment is α l1 and α l2 , respectively, the determination of the condition regarding the direction is performed using a score expressed by the following equation (5).

ただし、第1項は、元のスコアであり、第2項は、再重み付けスコアである。λおよびλorは、重み付け定数である。 However, the first term is the original score, and the second term is the reweighted score. λ o and λ or are weighting constants.

車線境界検出部226は、セクションSとSとの間で、一貫したエッジ境界を見つけるための条件群を満たすか否かにより、2個の線分がペア化され、一貫したエッジ境界としてラベルを付けられることになる。このとき、方向αの差に関する条件では、上記の式のスコアを用いた条件となる。 The lane boundary detection unit 226 pairs two line segments depending on whether or not a condition group for finding a consistent edge boundary is satisfied between the sections S 1 and S 2, and as a consistent edge boundary. Will be labeled. At this time, the condition regarding the difference in the direction α is a condition using the score of the above formula.

また、車線境界検出部226は、同じセクションSまたはSにおいて、レーンマークを見つけるための条件群を満たすか否かにより、ペア候補の内側の線分が、レーンマーク境界としてラベルを付けられることになる。このとき、方向αの差に関する条件では、上記(5)式のスコアを用いた条件となる。 Further, lane boundary detecting section 226, in the same section S 1 or S 2, depending on whether satisfy conditions set for finding the lane mark, the inner segment of the pair candidates, are labeled as lane mark boundary It will be. At this time, the condition relating to the difference in the direction α is a condition using the score of the formula (5).

また、車線境界検出部226は、自車両の走行レーンの左に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された左の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの左に存在する車線境界を推定して、追跡する。また、車線境界検出部226は、自車両の走行レーンの右に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された右の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの右に存在する車線境界を推定して、追跡する。   In addition, the lane boundary detection unit 226 includes a line segment with a consistent edge boundary label or lane mark boundary label acquired corresponding to the lane boundary existing on the left side of the traveling lane of the host vehicle, and the previous time. Based on the detected left lane boundary, the lane boundary existing on the left of the traveling lane of the host vehicle is estimated and tracked according to the EKF filter. The lane boundary detection unit 226 also obtains a line segment with a consistent edge boundary label or lane mark boundary label acquired corresponding to the lane boundary present on the right of the traveling lane of the host vehicle, and the previous time. Based on the detected right lane boundary, the lane boundary existing on the right of the traveling lane of the host vehicle is estimated and tracked according to the EKF filter.

<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
<Operation of the driving support control device>
Next, the operation of the present embodiment will be described.

運転支援制御装置210は、図12に示す自車走行レーン推定処理ルーチンを実行する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   The driving support control device 210 executes a host vehicle travel lane estimation processing routine shown in FIG. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。   In step 100, an image generated by the imaging device 14 is acquired, and in step 102, a GPS signal received by the GPS receiving unit 12 is acquired.

そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。   In step 104, the absolute position of the host vehicle is detected based on the GPS signal acquired in step 102 and the INS information output from the INS sensor (not shown).

ステップ108では、上記ステップ104で検出された自車両の絶対位置に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、かつ、自車両の進行方向と同じ方向の車両走行軌跡を取得する。複数の車両走行軌跡が得られた場合には、複数の車両走行軌跡を平均した車両走行軌跡を取得する。   In step 108, based on the absolute position of the host vehicle detected in step 104, the vehicle travel locus including the position corresponding to the absolute position of the host vehicle is detected from the track database 24 and the traveling direction of the host vehicle is reached. The vehicle travel locus in the same direction as is acquired. When a plurality of vehicle travel tracks are obtained, a vehicle travel track obtained by averaging the plurality of vehicle travel tracks is acquired.

ステップ250では、上記ステップ108で取得した車両走行軌跡に基づいて、各座標の空間スコアを算出する。   In step 250, a spatial score of each coordinate is calculated based on the vehicle travel locus acquired in step 108.

ステップ252では、上記ステップ108で取得した車両走行軌跡に基づいて、局所的な車両走行軌跡のヨー角を算出する。   In step 252, the yaw angle of the local vehicle travel locus is calculated based on the vehicle travel locus acquired in step 108.

そして、ステップ106では、上記ステップ250で算出した空間スコア、上記ステップ252で算出した局所的な車両走行軌跡のヨー角、及び前回検出された車線境界を用いて、上記ステップ100で取得した画像から、レーンマークなどの車線境界を検出して追跡する。   In step 106, using the spatial score calculated in step 250, the local vehicle travel locus yaw angle calculated in step 252 and the lane boundary detected last time, the image acquired in step 100 is used. Detect and track lane boundaries such as lane marks.

そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ108で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、仮想的な自車走行レーンを推定して追跡し、運転支援部18に出力して、上記ステップ100へ戻る。   In step 110, based on the lane boundary detected in step 106, the vehicle travel locus acquired in step 108, and the virtual vehicle lane estimated last time, the virtual vehicle travel is performed. The lane is estimated and tracked, output to the driving support unit 18, and the process returns to step 100.

上記ステップ106は、上記図8に示す車線境界検出処理ルーチンと同様の処理ルーチンによって実現される。   Step 106 is realized by a processing routine similar to the lane boundary detection processing routine shown in FIG.

ただし、ステップ120では、上記ステップ100で取得した画像から、各水平走査線上において、上記(2)式で算出されたスコアと、上記ステップ250で算出した空間スコアとに基づいて、低−高強度エッジ点又は高−低強度エッジ点を抽出する。   However, in step 120, the low-high intensity is calculated based on the score calculated by the above equation (2) and the spatial score calculated in step 250 on each horizontal scanning line from the image acquired in step 100. Extract edge points or high-low intensity edge points.

また、ステップ122において、上記ステップ252で算出された局所的な車両走行軌跡のヨー角を用いて設定された投票範囲に従って、線分投票が行われる。   In step 122, line segment voting is performed according to the voting range set by using the yaw angle of the local vehicle travel locus calculated in step 252.

ステップ126では、方向αの差に関する条件として、上記(5)式のスコアを用いた条件を含む条件群であって、一貫したエッジ境界を見つけるための条件群を満たすか否かを判定して、低−高強度線分および高−低強度線分の各々について、線分をグルーピングして、一貫したエッジ境界のラベルを付ける。また、方向αの差に関する条件として、上記(5)式のスコアを用いた条件を含む条件群であって、レーンマーク境界を見つけるための条件群を満たすか否かを判定して、低−高強度線分および高−低強度線分の各々について、線分をグルーピングして、レーンマーク境界のラベルを付ける。   In step 126, it is determined whether or not a condition group including a condition using the score of the formula (5) as a condition regarding the difference in the direction α and satisfying the condition group for finding a consistent edge boundary is satisfied. For each of the low-high intensity line segments and the high-low intensity line segments, the line segments are grouped and labeled with consistent edge boundaries. Further, as a condition relating to the difference in the direction α, it is determined whether or not a condition group including a condition using the score of the above formula (5) satisfies a condition group for finding a lane mark boundary. For each of the high intensity line segments and the high-low intensity line segments, the line segments are grouped and labeled with lane mark boundaries.

なお、第2の実施の形態に係る運転支援制御装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the driving assistance control apparatus which concern on 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

このように、車両走行軌跡を用いることで、レーンマークなどの境界線が劣化もしくは存在しない道路においても、車線の境界を精度よく求めることができ、仮想的な自車走行レーンを精度よく推定することができる。   In this way, by using the vehicle travel locus, it is possible to accurately determine the lane boundary even on a road where the boundary line such as the lane mark is deteriorated or does not exist, and the virtual own vehicle traveling lane is accurately estimated. be able to.

<第3の実施の形態>
<システム構成>
次に、第3の実施の形態について説明する。なお、第1の実施の形態及び第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
<Third Embodiment>
<System configuration>
Next, a third embodiment will be described. In addition, about the part which becomes the same structure as 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第3の実施の形態では、自車両の経路を用いて、関連する車両走行軌跡を選択している点が、第1の実施の形態と異なっている。   The third embodiment is different from the first embodiment in that the relevant vehicle travel locus is selected using the route of the host vehicle.

前述のとおり、軌跡データベース24に記憶された車両走行軌跡は、車両が複数回に亘って道路網内を走行しているときに収集されたものである。自車走行レーン推定のために用いられる車両走行軌跡は、自車両の位置に従って関連付けられた複数の車両走行軌跡である。自車両が非分岐レーン内を走行しているとき、関連付けられた複数の車両走行軌跡の形状は、基本的に同じであり、車両走行軌跡の平均は、自車走行レーンを推定すると共に、車線境界検出性能を改善するため使用されることになる。しかし、自車両が交差点に接近しているとき、関連付けられた複数の車両走行軌跡は、これらの異なった走行方向、すなわち、左折、右折または直進に起因して全く異なることがある。複数の車両走行軌跡の例は、上記図11(a)に示されている。   As described above, the vehicle travel trajectory stored in the trajectory database 24 is collected when the vehicle travels in the road network a plurality of times. The vehicle travel trajectory used for the own vehicle travel lane estimation is a plurality of vehicle travel trajectories associated according to the position of the own vehicle. When the host vehicle is traveling in a non-branching lane, the shapes of a plurality of associated vehicle travel trajectories are basically the same, and the average of the vehicle travel trajectories estimates the own vehicle travel lane, and the lane It will be used to improve the boundary detection performance. However, when the host vehicle is approaching an intersection, the associated multiple vehicle trajectories may be quite different due to these different travel directions, ie, left turn, right turn or straight ahead. An example of a plurality of vehicle travel trajectories is shown in FIG.

図13に示すように、第3の実施の形態に係る運転支援制御装置310のコンピュータ316は、位置検出部20と、車両走行軌跡生成部22と、軌跡データベース24と、車線境界予測部224と、位置検出部20によって検出された自車両の絶対位置、及び自車両の経路に基づいて、軌跡データベース24に記憶されている車両走行軌跡から、自車両の目的地までの走行経路に関連する車両走行軌跡を選択する関連軌跡選択部324と、車線境界検出部226と、車線境界検出部226によって検出された車線境界、位置検出部20によって検出された自車両の絶対位置、及び関連軌跡選択部324によって選択された車両走行軌跡に基づいて、自車両の仮想的な走行レーンを推定する自車走行レーン推定部328とを備えている。   As shown in FIG. 13, the computer 316 of the driving support control apparatus 310 according to the third embodiment includes a position detection unit 20, a vehicle travel locus generation unit 22, a locus database 24, and a lane boundary prediction unit 224. Based on the absolute position of the host vehicle detected by the position detection unit 20 and the route of the host vehicle, the vehicle related to the travel route from the vehicle travel track stored in the track database 24 to the destination of the host vehicle. An associated trajectory selection unit 324 that selects a travel trajectory, a lane boundary detection unit 226, a lane boundary detected by the lane boundary detection unit 226, an absolute position of the host vehicle detected by the position detection unit 20, and an associated trajectory selection unit And a host vehicle travel lane estimation unit 328 that estimates a virtual travel lane of the host vehicle based on the vehicle travel trajectory selected by H.324.

関連軌跡選択部324は、現在の自車両の目的地までの走行経路に関連する車両走行軌跡を選択する。自車両の走行経路は、グローバルGPS位置をもつ中継点の系列を有しているカーナビゲーションシステム(図示省略)から取得される。走行経路と関連付けられた車両走行軌跡との間の全体的な距離が計算され、所定の閾値未満の距離をもつ車両走行軌跡、すなわち、走行経路と同じ走行方向を有している車両走行軌跡が選択されることになる。選択された車両走行軌跡の平均は、自車走行レーンを推定すると共に、車線境界検出性能を改善するため使用されることになる。統計的に、平均化された車両走行軌跡は、低価格のGPSセンサ/INSセンサが使用されるにもかかわらず、道路の正確な空間情報を提供する可能性があることに注意すべきである。   The related trajectory selection unit 324 selects a vehicle travel trajectory related to the current travel route to the destination of the host vehicle. The travel route of the host vehicle is acquired from a car navigation system (not shown) having a series of relay points having a global GPS position. An overall distance between the travel route and the associated vehicle travel locus is calculated, and a vehicle travel locus having a distance less than a predetermined threshold, i.e., a vehicle travel locus having the same travel direction as the travel route. Will be selected. The average of the selected vehicle travel locus is used to estimate the vehicle travel lane and improve the lane boundary detection performance. Statistically, it should be noted that the averaged vehicle trajectory may provide accurate spatial information of the road despite the use of low cost GPS / INS sensors. .

自車走行レーン推定部328は、車線境界検出部226によって検出された車線境界と、関連軌跡選択部324によって選択された車両走行軌跡の平均と、前回推定された各制御点におけるレーンパラメータとに基づいて、キュービックスプラインモデルの各制御点におけるレーンパラメータを推定し、推定されたレーンパラメータと、キュービックスプラインモデルとに基づいて、自車両の仮想的な走行レーンを生成して追跡し、運転支援部18に出力する。   The own vehicle travel lane estimation unit 328 calculates the lane boundary detected by the lane boundary detection unit 226, the average of the vehicle travel trajectory selected by the related trajectory selection unit 324, and the lane parameter at each control point estimated last time. Based on the estimated lane parameters at each control point of the cubic spline model, based on the estimated lane parameters and the cubic spline model, a virtual driving lane of the host vehicle is generated and tracked, and the driving support unit 18 is output.

<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
<Operation of the driving support control device>
Next, the operation of the present embodiment will be described.

運転支援制御装置310は、図14に示す自車走行レーン推定処理ルーチンを実行する。なお、第1の実施の形態及び第2の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   The driving support control device 310 executes a host vehicle travel lane estimation processing routine shown in FIG. In addition, about the process similar to 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。   In step 100, an image generated by the imaging device 14 is acquired, and in step 102, a GPS signal received by the GPS receiving unit 12 is acquired.

そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。   In step 104, the absolute position of the host vehicle is detected based on the GPS signal acquired in step 102 and the INS information output from the INS sensor (not shown).

ステップ300では、ナビゲーションシステムから、自車両の目的地までの走行経路を取得する。次のステップ302において、上記ステップ104で検出された自車両の絶対位置及び上記ステップ300で取得した自車両の走行経路に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、自車両の進行方向と同じ方向の車両走行軌跡であり、自車両の走行経路に関連する車両走行軌跡を取得する。複数の車両走行軌跡が得られた場合には、複数の車両走行軌跡を平均した車両走行軌跡を取得する。   In step 300, a travel route to the destination of the host vehicle is acquired from the navigation system. In the next step 302, based on the absolute position of the host vehicle detected in step 104 and the travel route of the host vehicle acquired in step 300, a position corresponding to the absolute position of the host vehicle is included from the trajectory database 24. The vehicle travel locus is a vehicle travel locus in the same direction as the traveling direction of the host vehicle, and a vehicle travel locus related to the travel route of the host vehicle is acquired. When a plurality of vehicle travel tracks are obtained, a vehicle travel track obtained by averaging the plurality of vehicle travel tracks is acquired.

ステップ250では、上記ステップ302で取得した車両走行軌跡に基づいて、各座標の空間スコアを算出する。   In step 250, a spatial score of each coordinate is calculated based on the vehicle travel locus acquired in step 302.

ステップ252では、上記ステップ302で取得した車両走行軌跡に基づいて、局所的な車両走行軌跡のヨー角を算出する。   In step 252, the yaw angle of the local vehicle travel locus is calculated based on the vehicle travel locus acquired in step 302.

そして、ステップ106では、上記ステップ250で算出した空間スコア、及び上記ステップ252で算出した局所的な車両走行軌跡のヨー角を用いて、上記ステップ100で取得した画像から、レーンマークなどの車線境界を検出する。   In step 106, a lane boundary such as a lane mark is obtained from the image acquired in step 100, using the spatial score calculated in step 250 and the yaw angle of the local vehicle travel locus calculated in step 252. Is detected.

そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ302で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、仮想的な自車走行レーンを推定して追跡し、運転支援部18に出力して、上記ステップ100へ戻る。   Then, in step 110, based on the lane boundary detected in step 106, the vehicle travel locus acquired in step 302, and the virtual vehicle lane estimated last time, the virtual vehicle travel is performed. The lane is estimated and tracked, output to the driving support unit 18, and the process returns to step 100.

なお、第3の実施の形態に係る運転支援制御装置の他の構成及び作用については、第2の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the driving assistance control apparatus which concern on 3rd Embodiment, since it is the same as that of 2nd Embodiment, description is abbreviate | omitted.

このように、自車両の経路に関連する車両走行軌跡を用いることで、複数の走行方向があるシーンにおいても、車線の境界を精度よく求めることができ、仮想的な自車走行レーンを精度よく推定することができる。   In this way, by using the vehicle travel locus related to the route of the host vehicle, the boundary of the lane can be obtained accurately even in a scene having a plurality of travel directions, and the virtual host vehicle travel lane can be accurately determined. Can be estimated.

なお、上記の実施の形態では、車線境界予測部を設けた場合を例に説明したが、これに限定されるものではなく、上記の第1の実施の形態と同様に、車線境界予測部を用いて、車線境界を検出するようにしてもよい。   In the above-described embodiment, the case where the lane boundary prediction unit is provided has been described as an example. However, the present invention is not limited to this, and the lane boundary prediction unit is not limited to this, as in the first embodiment. It may be used to detect a lane boundary.

<第4の実施の形態>
<システム構成>
次に、第4の実施の形態について説明する。なお、第1の実施の形態〜第3の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
<Fourth embodiment>
<System configuration>
Next, a fourth embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment-3rd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第4の実施の形態では、自車両の走行方向毎に、関連する車両走行軌跡を取得し、自車両の走行方向毎に、車線境界検出及び自車走行レーン推定における追跡を行っている点が、第1の実施の形態と異なっている。   In the fourth embodiment, a related vehicle travel locus is acquired for each travel direction of the host vehicle, and tracking in lane boundary detection and host vehicle travel lane estimation is performed for each travel direction of the host vehicle. This is different from the first embodiment.

走行経路が、カーナビゲーションシステムから取得されない場合がある。たとえば、運転者は、通常、慣れている道路を進行しているとき、カーナビゲーションシステムに行き先を設定しない。このとき、自車両の走行に関連付けられる複数の車両走行軌跡は、自車両が交差点に接近しているとき、異なった形状を有するものであり、複数の車両走行軌跡の1つずつが、現在の自車両の走行のため考えられる。   The travel route may not be obtained from the car navigation system. For example, a driver typically does not set a destination in a car navigation system when traveling on a familiar road. At this time, the plurality of vehicle travel trajectories associated with the travel of the host vehicle have different shapes when the host vehicle is approaching the intersection, and each of the plurality of vehicle travel trajectories is It can be considered for running the vehicle.

図15に示すように、第4の実施の形態に係る運転支援制御装置410のコンピュータ416は、位置検出部20と、車両走行軌跡生成部22と、軌跡データベース24と、位置検出部20によって検出された自車両の絶対位置に基づいて、軌跡データベース24に記憶されている車両走行軌跡から、複数の走行方向毎に、自車両の走行に関連する車両走行軌跡を取得する複数軌跡取得部422と、複数の走行方向毎に、複数軌跡取得部422によって取得された自車両の走行に関連する車両走行軌跡に基づいて、車線境界を予測する車線境界予測部424と、複数の走行方向毎に、撮像装置14によって生成された画像及び車線境界予測部224によって予測された車線境界に基づいて、自車両の走行レーンの車線境界を検出する車線境界検出部426と、複数の走行方向毎に、車線境界検出部426によって検出された車線境界、位置検出部20によって検出された自車両の絶対位置、及び複数軌跡取得部422によって取得された車両走行軌跡に基づいて、自車両の仮想的な走行レーンを推定する自車走行レーン推定部428とを備えている。なお、複数軌跡取得部422が、複数方向軌跡取得手段の一例である。   As shown in FIG. 15, the computer 416 of the driving support control apparatus 410 according to the fourth embodiment is detected by the position detection unit 20, the vehicle travel locus generation unit 22, the locus database 24, and the position detection unit 20. A plurality of trajectory acquisition units 422 for acquiring, from the vehicle travel trajectory stored in the trajectory database 24, a vehicle travel trajectory related to the travel of the own vehicle based on the absolute position of the host vehicle, For each of a plurality of travel directions, a lane boundary prediction unit 424 that predicts a lane boundary based on the vehicle travel trajectory related to the travel of the host vehicle acquired by the plurality of trajectory acquisition units 422, and for each of the plurality of travel directions, A lane boundary that detects the lane boundary of the traveling lane of the host vehicle based on the image generated by the imaging device 14 and the lane boundary predicted by the lane boundary prediction unit 224 For each of a plurality of travel directions, the departure part 426, the lane boundary detected by the lane boundary detection part 426, the absolute position of the host vehicle detected by the position detection part 20, and the vehicle travel acquired by the multiple trajectory acquisition part 422 A host vehicle travel lane estimation unit 428 that estimates a virtual travel lane of the host vehicle based on the trajectory is provided. The multiple trajectory acquisition unit 422 is an example of a multi-directional trajectory acquisition unit.

複数軌跡取得部422では、位置検出部20によって検出された自車両の絶対位置に基づいて、現在の自車両の走行に関連する車両走行軌跡を、軌跡データベース24から取得し、複数の走行方向毎に、たとえば、左折、直進、右折のそれぞれに対して、取得された車両走行軌跡をグルーピングし、平均化する。   The multiple trajectory acquisition unit 422 acquires a vehicle travel trajectory related to the current travel of the host vehicle from the trajectory database 24 based on the absolute position of the host vehicle detected by the position detection unit 20, and performs a plurality of travel directions. For example, the acquired vehicle travel locus is grouped and averaged for each of a left turn, a straight advance, and a right turn.

車線境界予測部424は、複数の走行方向毎に、当該走行方向について取得した車両走行軌跡に基づいて、車線境界の予測として、車線境界検出部226によるエッジ点の抽出で用いられるスコアに重み付けするための、スコアを算出する。   The lane boundary prediction unit 424 weights the score used in edge point extraction by the lane boundary detection unit 226 as prediction of the lane boundary based on the vehicle travel trajectory acquired for the travel direction for each of a plurality of travel directions. To calculate the score.

また、車線境界予測部424は、複数の走行方向毎に、当該走行方向について取得した車両走行軌跡の局所的なヨー角αtraを算出する。 Further, the lane boundary prediction unit 424 calculates a local yaw angle α tra of the vehicle travel locus acquired for the travel direction for each of a plurality of travel directions.

車線境界検出部426は、複数の走行方向毎に、上記(1)式に従って、各座標のエッジ強度Sep(u,v)を算出し、車線境界予測部424によって当該走行方向に対して算出された空間スコアS(u,v)との積を、各座標のエッジ強度とし、絶対値が閾値より大きいエッジ強度を持つ点を、エッジ点として抽出する。 The lane boundary detection unit 426 calculates the edge strength S ep (u, v) of each coordinate in accordance with the above equation (1) for each of a plurality of traveling directions, and the lane boundary prediction unit 424 calculates it for the traveling direction The product of the obtained spatial score Sp (u, v) is used as the edge strength of each coordinate, and a point having an edge strength whose absolute value is larger than the threshold is extracted as an edge point.

車線境界検出部426では、複数の走行方向毎に、車線境界予測部424によって当該走行方向に対して算出された車両走行軌跡の局所的なヨー角αtraを用いて、投票範囲を[−αmax+αtra,αmax+αtra]として設定する。 The lane boundary detection unit 426 uses the local yaw angle α tra of the vehicle travel locus calculated for the travel direction by the lane boundary prediction unit 424 for each of a plurality of travel directions, and determines the voting range [−α max + α tra , α max + α tra ].

車線境界検出部426は、複数の走行方向毎に、セクションSとSとの間で、一貫したエッジ境界を見つけるための条件群を満たすか否かにより、2個の線分がペア化され、一貫したエッジ境界としてラベルを付けられることになる。 The lane boundary detection unit 426 pairs two line segments depending on whether a condition group for finding a consistent edge boundary is satisfied between sections S 1 and S 2 for each of a plurality of traveling directions. And will be labeled as a consistent edge boundary.

また、車線境界検出部426は、複数の走行方向毎に、同じセクションSまたはSにおいて、レーンマークを見つけるための条件群を満たすか否かにより、ペア候補の内側の線分が、レーンマーク境界としてラベルを付けられることになる。 Further, the lane boundary detection unit 426 determines whether the line segment inside the pair candidate is a lane depending on whether or not a condition group for finding a lane mark is satisfied in the same section S 1 or S 2 for each of a plurality of traveling directions. It will be labeled as a mark boundary.

また、車線境界検出部426は、複数の走行方向毎に、自車両の走行レーンの左に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された左の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの左に存在する車線境界を推定して、追跡する。また、車線境界検出部426は、複数の走行方向毎に、自車両の走行レーンの右に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された右の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの右に存在する車線境界を推定して、追跡する。   Further, the lane boundary detection unit 426 attaches a consistent edge boundary label or lane mark boundary label acquired corresponding to the lane boundary existing on the left side of the traveling lane of the host vehicle for each of a plurality of traveling directions. Based on the detected line segment and the left lane boundary detected last time, the lane boundary existing on the left of the traveling lane of the host vehicle is estimated and tracked according to the EKF filter. The lane boundary detection unit 426 attaches a consistent edge boundary label or lane mark boundary label acquired corresponding to the lane boundary present on the right side of the traveling lane of the host vehicle for each of a plurality of traveling directions. Based on the detected line segment and the right lane boundary detected last time, the lane boundary existing on the right of the traveling lane of the host vehicle is estimated and tracked according to the EKF filter.

このように、車線境界検出部426では、複数の走行方向毎に、車線境界検出のための追跡を行う。結果の1つずつは、現在の走行のために検出された結果の可能性又は信頼度を指示するために検出スコアを保持する。自車両が交差点に入ると直ぐに、現在の走行に適合しない検出結果、すなわち、異なった走行方向についての検出結果は、即座に放棄されることになり、同じ方向での検出結果だけが保存されることになる。   As described above, the lane boundary detection unit 426 performs tracking for lane boundary detection for each of a plurality of traveling directions. Each of the results holds a detection score to indicate the likelihood or confidence of the results detected for the current run. As soon as the vehicle enters the intersection, detection results that do not match the current driving, i.e. detection results for different driving directions, are immediately discarded and only the detection results in the same direction are saved. It will be.

自車走行レーン推定部428は、複数の走行方向毎に、車線境界検出部426によって検出された車線境界と、複数軌跡取得部422によって取得された車両走行軌跡の平均と、前回推定された各制御点におけるレーンパラメータとに基づいて、キュービックスプラインモデルの各制御点におけるレーンパラメータを推定して追跡し、推定されたレーンパラメータと、キュービックスプラインモデルとに基づいて、自車両の仮想的な走行レーンを生成し、運転支援部18に出力する。   The own vehicle travel lane estimation unit 428 includes, for each of a plurality of travel directions, the lane boundary detected by the lane boundary detection unit 426, the average of the vehicle travel trajectory acquired by the multiple trajectory acquisition unit 422, and each previously estimated Based on the lane parameters at the control points, the lane parameters at each control point of the cubic spline model are estimated and tracked, and based on the estimated lane parameters and the cubic spline model, a virtual driving lane of the host vehicle Is output to the driving support unit 18.

自車走行レーン推定部428では、複数の走行方向毎に、車両走行レーン推定のための追跡を行う。結果の1つずつは、現在の走行のために推定された結果の可能性又は信頼度を指示するために検出スコアを保持する。しかし、自車両が交差点に入ると直ぐに、現在の走行に適合しない結果、すなわち、異なった方向をもつ結果は、即座に放棄されることになり、同じ方向での結果だけが保存されることになる。   The own vehicle travel lane estimation unit 428 performs tracking for vehicle travel lane estimation for each of a plurality of travel directions. Each of the results holds a detection score to indicate the likelihood or confidence of the estimated result for the current run. However, as soon as the vehicle enters the intersection, results that do not fit the current run, that is, results with a different direction, will be immediately abandoned and only results in the same direction will be saved. Become.

<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
<Operation of the driving support control device>
Next, the operation of the present embodiment will be described.

運転支援制御装置410は、図16に示す自車走行レーン推定処理ルーチンを実行する。なお、第1の実施の形態及び第2の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   The driving support control device 410 executes a host vehicle travel lane estimation processing routine shown in FIG. In addition, about the process similar to 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。   In step 100, an image generated by the imaging device 14 is acquired, and in step 102, a GPS signal received by the GPS receiving unit 12 is acquired.

そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。   In step 104, the absolute position of the host vehicle is detected based on the GPS signal acquired in step 102 and the INS information output from the INS sensor (not shown).

ステップ400では、上記ステップ104で検出された自車両の絶対位置に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、自車両の進行方向と同じ方向の車両走行軌跡を取得し、複数の車両走行軌跡が得られた場合には、複数の走行方向(右折、左折、直進)に、複数の車両走行軌跡をグルーピングし、複数の走行方向毎に、グルーピングされた複数の車両走行軌跡を平均した車両走行軌跡を取得する。   In step 400, based on the absolute position of the own vehicle detected in step 104, the vehicle travel locus including the position corresponding to the absolute position of the own vehicle is obtained from the locus database 24 and is the same as the traveling direction of the own vehicle. When a plurality of vehicle travel trajectories are obtained, a plurality of vehicle travel trajectories are grouped in a plurality of travel directions (right turn, left turn, and straight travel). Then, a vehicle travel locus obtained by averaging a plurality of grouped vehicle travel tracks is acquired.

ステップ402では、複数の走行方向のうちの何れか1つを、処理対象の走行方向として設定する。   In step 402, any one of a plurality of travel directions is set as a travel direction to be processed.

ステップ250では、上記ステップ400で処理対象の走行方向について取得した車両走行軌跡に基づいて、各座標の空間スコアを算出する。   In step 250, the spatial score of each coordinate is calculated based on the vehicle travel trajectory acquired for the travel direction to be processed in step 400.

ステップ252では、上記ステップ400で処理対象の走行方向について取得した車両走行軌跡に基づいて、局所的な車両走行軌跡のヨー角を算出する。   In step 252, the yaw angle of the local vehicle travel locus is calculated based on the vehicle travel locus acquired for the travel direction to be processed in step 400.

そして、ステップ106では、上記ステップ250で算出した空間スコア、上記ステップ252で算出した局所的な車両走行軌跡のヨー角、及び前回検出された車線境界を用いて、上記ステップ100で取得した画像から、処理対象の走行方向について、レーンマークなどの車線境界を検出する。このとき、処理対象の走行方向について、車線境界を追跡する追跡器から得られるスコアが、低い場合には、処理対象の走行方向について得られた車線境界の検出結果は破棄される。   In step 106, using the spatial score calculated in step 250, the local vehicle travel locus yaw angle calculated in step 252 and the lane boundary detected last time, the image acquired in step 100 is used. A lane boundary such as a lane mark is detected for the traveling direction to be processed. At this time, when the score obtained from the tracker that tracks the lane boundary is low for the traveling direction of the processing target, the detection result of the lane boundary obtained for the traveling direction of the processing target is discarded.

そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ302で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、処理対象の走行方向について、仮想的な自車走行レーンを推定して、運転支援部18に出力する。このとき、処理対象の走行方向について、仮想的な自車走行レーンを追跡する追跡器から得られるスコアが、低い場合には、処理対象の走行方向について得られた仮想的な自車走行レーンの推定結果は破棄される。   In step 110, based on the lane boundary detected in step 106, the vehicle travel locus acquired in step 302, and the virtual vehicle lane estimated last time, the travel direction to be processed is determined. The virtual vehicle lane is estimated and output to the driving support unit 18. At this time, if the score obtained from the tracking device that tracks the virtual vehicle lane is low for the processing direction, the virtual vehicle lane obtained for the processing direction is low. The estimation result is discarded.

ステップ404において、複数の走行方向の全てについて、上記ステップ402〜ステップ110の処理を実行したか否かを判定し、上記ステップ402〜ステップ110の処理を実行していない走行方向が存在する場合には、上記ステップ402へ戻り、当該走行方向を、処理対象の走行方向として設定する。また、複数の走行方向の全てについて、上記ステップ402〜ステップ110の処理を実行した場合には、上記ステップ100へ戻る。   In Step 404, it is determined whether or not the processing of Step 402 to Step 110 has been executed for all of the plurality of traveling directions, and there is a traveling direction in which the processing of Step 402 to Step 110 is not executed. Returns to step 402 and sets the travel direction as the travel direction to be processed. Further, when the processes of Step 402 to Step 110 are executed for all of the plurality of traveling directions, the process returns to Step 100.

なお、第4の実施の形態に係る運転支援制御装置の他の構成及び作用については、第2の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the driving assistance control apparatus which concern on 4th Embodiment, since it is the same as that of 2nd Embodiment, description is abbreviate | omitted.

このように、複数の走行方向毎に、関連する車両走行軌跡を用いることで、複数の走行方向があるシーンにおいても、車線の境界を精度よく求めることができ、仮想的な自車走行レーンを精度よく推定することができる。   In this way, by using related vehicle travel trajectories for each of a plurality of travel directions, a lane boundary can be accurately obtained even in a scene having a plurality of travel directions. It can be estimated with high accuracy.

なお、上記の実施の形態では、車線境界予測部を設けた場合を例に説明したが、これに限定されるものではなく、上記の第1の実施の形態と同様に、車線境界予測部を用いて、車線境界を検出するようにしてもよい。   In the above-described embodiment, the case where the lane boundary prediction unit is provided has been described as an example. However, the present invention is not limited to this, and the lane boundary prediction unit is not limited to this, as in the first embodiment. It may be used to detect a lane boundary.

<第5の実施の形態>
<システム構成>
次に、第5の実施の形態について説明する。なお、第1の実施の形態〜第4の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
<Fifth embodiment>
<System configuration>
Next, a fifth embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment-4th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第5の実施の形態では、複数の走行車線毎に、関連する車両走行軌跡を取得し、走行車線毎に、車線境界検出及び自車走行レーン推定における追跡を行っている点が、第1の実施の形態と異なっている。   In the fifth embodiment, for each traveling lane, a related vehicle traveling locus is acquired, and for each traveling lane, tracking in lane boundary detection and own vehicle traveling lane estimation is performed. This is different from the embodiment.

複数の車線を含む広い道路では、同じ走行方向にいくつもの車線が存在することがある。このような問題を取り扱うために、同じ方向をもつ車両走行軌跡が最初に選択され、複数の追跡器が、複数の走行車線に対処するために生成されることになる。より高いスコアをもつ自車走行レーンが運転支援部へ出力されることになる。   On a wide road including a plurality of lanes, there may be a number of lanes in the same traveling direction. In order to deal with such problems, a vehicle travel trajectory with the same direction is first selected and multiple trackers will be generated to deal with multiple travel lanes. The own vehicle traveling lane having a higher score is output to the driving support unit.

図17に示すように、第5の実施の形態に係る運転支援制御装置510のコンピュータ516は、位置検出部20と、車両走行軌跡生成部22と、軌跡データベース24と、関連軌跡選択部324と、関連軌跡選択部324によって選択された、自車両の走行に関連する車両走行軌跡に基づいて、複数の走行車線毎に、自車両の走行に関連する車両走行軌跡をグルーピングして、車両走行軌跡を取得する複数車線生成部522と、複数の走行車線毎に、複数車線生成部522によって取得された車両走行軌跡に基づいて、車線境界を予測する車線境界予測部524と、複数の走行車線毎に、撮像装置14によって生成された画像及び車線境界予測部524によって予測された車線境界に基づいて、自車両の走行レーンの車線境界を検出する車線境界検出部526と、複数の走行車線毎に、車線境界検出部526によって検出された車線境界、位置検出部20によって検出された自車両の絶対位置、及び複数車線生成部522によって取得された車両走行軌跡に基づいて、自車両の仮想的な走行レーンを推定する自車走行レーン推定部528とを備えている。なお、複数車線生成部522が、複数車線軌跡取得手段の一例である。   As shown in FIG. 17, the computer 516 of the driving support control apparatus 510 according to the fifth embodiment includes a position detection unit 20, a vehicle travel locus generation unit 22, a locus database 24, and an associated locus selection unit 324. Based on the vehicle travel trajectory selected by the related trajectory selection unit 324 and related to the travel of the host vehicle, the vehicle travel trajectory related to the travel of the host vehicle is grouped for each of a plurality of travel lanes. A plurality of lane generation units 522, a lane boundary prediction unit 524 that predicts a lane boundary based on the vehicle travel trajectory acquired by the plurality of lane generation units 522 for each of a plurality of travel lanes, and a plurality of travel lanes In addition, the vehicle that detects the lane boundary of the traveling lane of the host vehicle based on the image generated by the imaging device 14 and the lane boundary predicted by the lane boundary prediction unit 524 For each of a plurality of travel lanes, the boundary detection unit 526, the lane boundary detected by the lane boundary detection unit 526, the absolute position of the host vehicle detected by the position detection unit 20, and the vehicle acquired by the multiple lane generation unit 522 And a host vehicle travel lane estimation unit 528 that estimates a virtual travel lane of the host vehicle based on the travel trajectory. The multiple lane generation unit 522 is an example of a multiple lane track acquisition unit.

複数車線生成部522では、関連軌跡選択部324によって取得された、現在の自車両の走行に関連する車両走行軌跡に基づいて、複数の走行車線毎に、車両走行軌跡をグルーピングし、平均化する。   The multiple lane generation unit 522 groups and averages the vehicle travel trajectories for each of the plurality of travel lanes based on the vehicle travel trajectory related to the current travel of the host vehicle acquired by the related trajectory selection unit 324. .

車線境界予測部524は、複数の走行車線毎に、当該走行車線について取得した車両走行軌跡に基づいて、車線境界の予測として、車線境界検出部526によるエッジ点の抽出で用いられるスコアに重み付けするための、スコアを算出する。   The lane boundary prediction unit 524 weights, for each of a plurality of travel lanes, a score used in edge point extraction by the lane boundary detection unit 526 as a lane boundary prediction based on the vehicle travel trajectory acquired for the travel lane. To calculate the score.

また、車線境界予測部524は、複数の走行車線毎に、当該走行車線について取得した車両走行軌跡の局所的なヨー角αtraを算出する。 Further, the lane boundary prediction unit 524 calculates a local yaw angle α tra of the vehicle travel locus acquired for the travel lane for each of the plurality of travel lanes.

車線境界検出部526は、複数の走行車線毎に、上記(1)式に従って、各座標のエッジ強度Sep(u,v)を算出し、車線境界予測部524によって当該走行車線に対して算出された空間スコアS(u,v)との積を、各座標のエッジ強度とし、絶対値が閾値より大きいエッジ強度を持つ点が、エッジ点として抽出される。 The lane boundary detection unit 526 calculates the edge strength S ep (u, v) of each coordinate according to the above equation (1) for each of the plurality of traveling lanes, and calculates the lane boundary prediction unit 524 for the traveling lane. The product of the obtained spatial score Sp (u, v) is used as the edge strength of each coordinate, and a point having an edge strength whose absolute value is larger than the threshold is extracted as an edge point.

車線境界検出部526では、複数の走行車線毎に、車線境界予測部524によって当該走行車線に対して算出された車両走行軌跡の局所的なヨー角αtraを用いて、投票範囲を[−αmax+αtra,αmax+αtra]として設定する。 In the lane boundary detection unit 526, the voting range is set to [−α for each of a plurality of travel lanes by using the local yaw angle α tra of the vehicle travel locus calculated for the travel lane by the lane boundary prediction unit 524. max + α tra , α max + α tra ].

車線境界検出部526は、複数の走行車線毎に、セクションSとSとの間で、一貫したエッジ境界を見つけるための条件群を満たすか否かにより、2個の線分がペア化され、一貫したエッジ境界としてラベルを付けられることになる。 The lane boundary detection unit 526 pairs two line segments depending on whether or not a condition group for finding a consistent edge boundary is satisfied between sections S 1 and S 2 for each of a plurality of traveling lanes. And will be labeled as a consistent edge boundary.

また、車線境界検出部526は、複数の走行車線毎に、同じセクションSまたはSにおいて、レーンマークを見つけるための条件群を満たすか否かにより、ペア候補の内側の線分が、レーンマーク境界としてラベルを付けられることになる。 Further, lane boundary detecting section 526, for each of a plurality of traffic lane in the same section S 1 or S 2, depending on whether satisfy conditions set for finding the lane mark, the inner segment of the pair candidates, lane It will be labeled as a mark boundary.

車線境界検出部526は、複数の走行車線毎に、自車両の走行レーンの左に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された左の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの左に存在する車線境界を推定して、追跡する。また、車線境界検出部526は、複数の走行車線毎に、自車両の走行レーンの右に存在する車線境界に対応して取得された、一貫したエッジ境界のラベル又はレーンマーク境界のラベルが付けられた線分と、前回検出された右の車線境界とに基づいて、EKFフィルタに従って、自車両の走行レーンの右に存在する車線境界を推定して、追跡する。   The lane boundary detection unit 526 is provided with a consistent edge boundary label or lane mark boundary label acquired corresponding to the lane boundary existing on the left side of the traveling lane of the host vehicle for each of the plurality of traveling lanes. Based on the line segment and the left lane boundary detected last time, the lane boundary existing on the left of the traveling lane of the host vehicle is estimated and tracked according to the EKF filter. Further, the lane boundary detection unit 526 attaches a consistent edge boundary label or lane mark boundary label acquired corresponding to the lane boundary present to the right of the traveling lane of the host vehicle for each of the plurality of traveling lanes. Based on the detected line segment and the right lane boundary detected last time, the lane boundary existing on the right of the traveling lane of the host vehicle is estimated and tracked according to the EKF filter.

このように、車線境界検出部526では、複数の走行車線毎に、車線境界検出のための追跡を行う。結果の1つずつは、現在の走行のために検出された結果の可能性又は信頼度を指示するために検出スコアを保持する。   As described above, the lane boundary detection unit 526 performs tracking for lane boundary detection for each of a plurality of traveling lanes. Each of the results holds a detection score to indicate the likelihood or confidence of the results detected for the current run.

上記図11(a)に示すように、典型的な車線分割シーンでは、新しい車線境界が現れたとき、通常、追跡器が新しい車線境界へ移動するために少数のフレームを必要とし、このプロセス中の結果は、非常に安定性を欠く可能性がある。しかし、本実施の形態では、走行車線毎に、追跡器が走行車線の両側から車線境界を検出する。このことは、現実の状況と良く一致する。結果は、前の車線境界から新しい車線境界へ車線境界を移動させる代わりに、追跡器の間で切り替えられる。   As shown in FIG. 11 (a) above, in a typical lane split scene, when a new lane boundary appears, the tracker typically requires a small number of frames to move to the new lane boundary, The results may be very unstable. However, in this embodiment, the tracker detects the lane boundary from both sides of the traveling lane for each traveling lane. This is in good agreement with the actual situation. The result is switched between trackers instead of moving the lane boundary from the previous lane boundary to the new lane boundary.

自車走行レーン推定部528は、複数の走行車線毎に、車線境界検出部526によって検出された車線境界と、複数車線生成部522によって取得された車両走行軌跡の平均と、前回推定された各制御点におけるレーンパラメータとに基づいて、キュービックスプラインモデルの各制御点におけるレーンパラメータを推定して追跡し、推定されたレーンパラメータと、キュービックスプラインモデルとに基づいて、自車両の仮想的な走行レーンを生成し、運転支援部18に出力する。   The own vehicle travel lane estimation unit 528 has, for each of a plurality of travel lanes, the lane boundary detected by the lane boundary detection unit 526, the average of the vehicle travel trajectory acquired by the multiple lane generation unit 522, and each previously estimated Based on the lane parameters at the control points, the lane parameters at each control point of the cubic spline model are estimated and tracked, and based on the estimated lane parameters and the cubic spline model, a virtual driving lane of the host vehicle Is output to the driving support unit 18.

自車走行レーン推定部528では、複数の走行車線毎に、車両走行レーン推定のための追跡を行う。すなわち、走行車線毎に、追跡器が、仮想的な走行レーンを推定する。   The own vehicle travel lane estimation unit 528 performs tracking for vehicle travel lane estimation for each of a plurality of travel lanes. That is, for each traveling lane, the tracker estimates a virtual traveling lane.

<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
<Operation of the driving support control device>
Next, the operation of the present embodiment will be described.

運転支援制御装置510は、図18に示す自車走行レーン推定処理ルーチンを実行する。なお、第1の実施の形態〜第3の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   The driving support control device 510 executes the own vehicle travel lane estimation processing routine shown in FIG. In addition, about the process similar to 1st Embodiment-3rd Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップ100では、撮像装置14によって生成された画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得する。   In step 100, an image generated by the imaging device 14 is acquired, and in step 102, a GPS signal received by the GPS receiving unit 12 is acquired.

そして、ステップ104において、上記ステップ102で取得したGPS信号と、INSセンサ(図示省略)から出力されたINS情報とに基づいて、自車両の絶対位置を検出する。   In step 104, the absolute position of the host vehicle is detected based on the GPS signal acquired in step 102 and the INS information output from the INS sensor (not shown).

ステップ300では、ナビゲーションシステムから、自車両の目的地までの走行経路を取得する。次のステップ302において、上記ステップ104で検出された自車両の絶対位置及び上記ステップ300で取得した自車両の走行経路に基づいて、軌跡データベース24から、自車両の絶対位置に対応する位置を含む車両走行軌跡であって、自車両の進行方向と同じ方向の車両走行軌跡であり、自車両の走行経路に関連する車両走行軌跡を取得する。   In step 300, a travel route to the destination of the host vehicle is acquired from the navigation system. In the next step 302, based on the absolute position of the host vehicle detected in step 104 and the travel route of the host vehicle acquired in step 300, a position corresponding to the absolute position of the host vehicle is included from the trajectory database 24. The vehicle travel locus is a vehicle travel locus in the same direction as the traveling direction of the host vehicle, and a vehicle travel locus related to the travel route of the host vehicle is acquired.

ステップ500では、上記ステップ302で取得された、複数の車両走行軌跡を、複数の走行車線毎にグルーピングし、複数の走行車線毎に、グルーピングされた複数の車両走行軌跡を平均した車両走行軌跡を取得する。   In step 500, the plurality of vehicle travel tracks acquired in step 302 are grouped for each of the plurality of travel lanes, and the vehicle travel track obtained by averaging the plurality of grouped vehicle travel tracks for each of the plurality of travel lanes. get.

ステップ502では、複数の走行車線のうちの何れか1つを、処理対象の走行車線として設定する。   In step 502, any one of the plurality of travel lanes is set as a processing target travel lane.

ステップ250では、上記ステップ500で処理対象の走行車線について取得した車両走行軌跡に基づいて、各座標の空間スコアを算出する。   In step 250, a spatial score of each coordinate is calculated based on the vehicle travel locus acquired for the travel lane to be processed in step 500.

ステップ252では、上記ステップ500で処理対象の走行車線について取得した車両走行軌跡に基づいて、局所的な車両走行軌跡のヨー角を算出する。   In step 252, the yaw angle of the local vehicle travel locus is calculated based on the vehicle travel locus acquired for the travel lane to be processed in step 500.

そして、ステップ106では、上記ステップ250で算出した空間スコア、上記ステップ252で算出した局所的な車両走行軌跡のヨー角、及び前回検出された車線境界を用いて、上記ステップ100で取得した画像から、処理対象の走行車線について、レーンマークなどの車線境界を検出して追跡する。   In step 106, using the spatial score calculated in step 250, the local vehicle travel locus yaw angle calculated in step 252 and the lane boundary detected last time, the image acquired in step 100 is used. The lane boundary such as the lane mark is detected and tracked for the lane to be processed.

そして、ステップ110において、上記ステップ106で検出された車線境界と、上記ステップ500で取得した車両走行軌跡と、前回推定された仮想的な自車走行レーンとに基づいて、処理対象の走行車線について、仮想的な自車走行レーンを推定して追跡する。   Then, in step 110, based on the lane boundary detected in step 106, the vehicle travel locus acquired in step 500, and the virtual vehicle lane estimated last time, the travel lane to be processed is determined. Estimate and track virtual vehicle lanes.

ステップ504において、複数の走行車線の全てについて、上記ステップ502〜ステップ110の処理を実行したか否かを判定し、上記ステップ502〜ステップ110の処理を実行していない走行車線が存在する場合には、上記ステップ502へ戻り、当該走行車線を、処理対象の走行車線として設定する。また、複数の走行車線の全てについて、上記ステップ502〜ステップ110の処理を実行した場合には、上記ステップ506へ進む。   In step 504, it is determined whether or not the processing in steps 502 to 110 has been executed for all of the plurality of traveling lanes, and there is a traveling lane in which the processing in steps 502 to 110 is not performed. Returns to step 502 and sets the travel lane as the travel lane to be processed. In addition, when the processes in steps 502 to 110 are executed for all of the plurality of traveling lanes, the process proceeds to step 506.

ステップ506では、上記ステップ110により複数の走行車線について推定された自車走行レーンのうち、仮想的な自車走行レーンを追跡する追跡器から得られるスコアが最も高いものを選択し、仮想的な自車走行レーンの推定結果として、運転支援部18へ出力し、上記ステップ100へ戻る。   In step 506, the vehicle lane estimated for the plurality of driving lanes in step 110 is selected with the highest score obtained from the tracker that tracks the virtual vehicle lane. As an estimation result of the own vehicle traveling lane, the vehicle driving lane is output to the driving support unit 18 and the process returns to the step 100.

なお、第5の実施の形態に係る運転支援制御装置の他の構成及び作用については、第2の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the driving assistance control apparatus which concern on 5th Embodiment, since it is the same as that of 2nd Embodiment, description is abbreviate | omitted.

このように、複数の走行車線毎に、関連する車両走行軌跡を用いることで、複数の走行車線があるシーンにおいても、車線の境界を精度よく求めることができ、仮想的な自車走行レーンを精度よく推定することができる。   In this way, by using the related vehicle travel trajectory for each of the plurality of travel lanes, the boundary of the lane can be accurately obtained even in a scene with a plurality of travel lanes. It can be estimated with high accuracy.

次に、本発明の実施の形態で説明した手法の実験結果について説明する。車線境界検出の結果例は、図19に示されている。図19(a)〜(c)には、複雑なパターンとなる状況での車線境界検出の結果を示す。図19(d)〜(f)には、曲率がある状況での車線境界検出の結果を示す。図19(g)には、逆光がある状況での車線境界検出の結果を示す。図19(h)〜(i)には、レーンマークが消えていることに起因する雑音のある状況での車線境界検出の結果を示す。   Next, experimental results of the method described in the embodiment of the present invention will be described. An example of the result of lane boundary detection is shown in FIG. FIGS. 19A to 19C show the lane boundary detection results in a complicated pattern. FIGS. 19D to 19F show the results of lane boundary detection in a situation where there is a curvature. FIG. 19G shows the result of lane boundary detection in the presence of backlight. FIGS. 19H to 19I show the results of lane boundary detection in a noisy situation caused by the disappearance of the lane mark.

図20(a)は、元の車線検出だけを、仮想自車線生成に使用することによる自車線推定結果を示し、図20(b)は、改善された車線境界検出だけを、仮想自車線生成に使用することによる自車線推定結果を示し、図20(c)は、過去の車両走行軌跡を用いた、本発明の実施の形態で説明した手法による自車線推定結果を示し、比較を表している。   FIG. 20A shows the own lane estimation result by using only the original lane detection for virtual lane generation, and FIG. 20B shows only the improved lane boundary detection by virtual lane generation. FIG. 20 (c) shows the own lane estimation result by the method described in the embodiment of the present invention using the past vehicle travel locus, and shows a comparison. Yes.

図20(d)〜(f)、図20(g)〜(i)、図20(j)〜(l)も同様に比較を表しており、これらの実験例から、本発明の実施の形態で説明した手法は、車線境界検出だけを使用する自車線推定より遥かに正確であり、かつ、頑健性があることが分かる。 20 (d) to (f), FIGS. 20 (g) to (i), and FIGS. 20 (j) to (l) similarly show comparisons. From these experimental examples, the embodiment of the present invention is shown. It can be seen that the technique described in is much more accurate and robust than the own lane estimation using only lane boundary detection.

なお、上記の第5の実施の形態では、車線境界予測部を設けた場合を例に説明したが、これに限定されるものではなく、上記の第1の実施の形態と同様に、車線境界予測部を用いて、車線境界を検出するようにしてもよい。   In the fifth embodiment, the case where the lane boundary prediction unit is provided has been described as an example. However, the present invention is not limited to this, and the lane boundary prediction is the same as in the first embodiment. You may make it detect a lane boundary using a prediction part.

また、上記の第1の実施の形態〜第5の実施の形態では、軌跡データベースに、自車両の車両走行軌跡が格納されている場合を例に説明したが、これに限定されるものではなく、他車両の車両走行軌跡が格納されていてもよい。また、軌跡データベースが、他の装置に設けられており、ネットワークを介して、当該他の装置の軌跡データベースにアクセスするようにしてもよい。   In the first to fifth embodiments, the case where the vehicle travel locus of the host vehicle is stored in the locus database is described as an example. However, the present invention is not limited to this. The vehicle travel locus of other vehicles may be stored. Further, a trajectory database may be provided in another device, and the trajectory database of the other device may be accessed via a network.

また、車線境界検出部が、クロソイドスプラインモデルを用いて、車線境界を検出する場合を例に説明したが、これに限定されるものではなく、他のモデルを用いて、車線境界を検出するようにしてもよい。   In addition, the case where the lane boundary detection unit detects a lane boundary using a clothoid spline model has been described as an example, but the present invention is not limited to this, and other models may be used to detect a lane boundary. It may be.

また、自車走行レーン推定部が、キュービックスプラインモデルを用いて、仮想的な自車走行レーンを推定する場合を例に説明したが、これに限定されるものではなく、他のモデルを用いて、仮想的な自車走行レーンを推定するようにしてもよい。   In addition, the case where the vehicle lane estimation unit estimates a virtual vehicle lane using a cubic spline model has been described as an example, but the present invention is not limited to this, and other models are used. Alternatively, a virtual own vehicle traveling lane may be estimated.

10、210、310、410、510 運転支援制御装置
12 GPS受信部
14 撮像装置
16、216、316、416、516 コンピュータ
18 運転支援部
20 位置検出部
22 車両走行軌跡生成部
24 軌跡データベース
26、226、426、526 車線境界検出部
28、328、428、528 自車走行レーン推定部
224、424、524 車線境界予測部
324 関連軌跡選択部
422 複数軌跡取得部
522 複数車線生成部
10, 210, 310, 410, 510 Driving support control device 12 GPS receiving unit 14 Imaging device 16, 216, 316, 416, 516 Computer 18 Driving support unit 20 Position detection unit 22 Vehicle travel locus generation unit 24 Track database 26, 226 426, 526 Lane boundary detection unit 28, 328, 428, 528 Own vehicle travel lane estimation unit 224, 424, 524 Lane boundary prediction unit 324 Related track selection unit 422 Multiple track acquisition unit 522 Multiple lane generation unit

Claims (8)

自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段と、
自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段と、
を含む自車走行レーン推定装置。
Lane boundary detection means for detecting the boundary of the lane in which the host vehicle is traveling, based on an image mounted on the host vehicle and generated by an imaging unit that images the periphery of the host vehicle and generates an image;
The vehicle travel locus determined in advance by the time-series data of the absolute position corresponding to the absolute position of the own vehicle detected by the position detecting means for detecting the absolute position of the own vehicle, and the lane boundary detecting means Based on the detected boundary of the lane, a lane parameter of a traveling lane in which the host vehicle is traveling is estimated, and on the basis of the estimated lane parameter, a virtual traveling lane in which the host vehicle is traveling Vehicle lane estimation means for generating data representing
Vehicle lane estimation device including
前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡に基づいて、自車両が走行している車線の境界を推定する車線境界推定手段を更に含み、
前記車線境界検出手段は、前記撮像手段によって生成された画像、及び前記車線境界推定手段によって推定された前記車線の境界に基づいて、前記車線の境界を検出する請求項1記載の自車走行レーン推定装置。
Lane boundary estimation means for estimating a boundary of a lane in which the host vehicle is traveling based on a vehicle travel locus corresponding to the absolute position of the host vehicle detected by the position detection unit;
The vehicle lane according to claim 1, wherein the lane boundary detection unit detects the lane boundary based on the image generated by the imaging unit and the lane boundary estimated by the lane boundary estimation unit. Estimating device.
自車両の目的地までの走行経路に基づいて、前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡のうち、自車両の走行に関連する車両走行軌跡を選択する関連軌跡選択手段を更に含み、
前記自車走行レーン推定手段は、前記関連軌跡選択手段によって選択された車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する請求項1又は2記載の自車走行レーン推定装置。
A related trajectory for selecting a vehicle travel trajectory related to the travel of the host vehicle from the vehicle travel trajectories corresponding to the absolute position of the host vehicle detected by the position detection unit based on the travel route to the destination of the host vehicle. Further comprising a selection means,
The own vehicle travel lane estimation means estimates the lane parameters of the travel lane based on the vehicle travel trajectory selected by the related trajectory selection means and the lane boundary detected by the lane boundary detection means. The host vehicle travel lane estimation device according to claim 1, wherein data representing a virtual travel lane in which the host vehicle is traveling is generated based on the estimated lane parameter.
前記位置検出手段によって検出された自車両の絶対位置に対応する車両走行軌跡から、複数の進行方向の各々について、前記進行方向の車両走行軌跡を取得する複数方向軌跡取得手段を更に含み、
前記自車走行レーン推定手段は、前記複数の進行方向の各々について、前記複数方向軌跡取得手段によって取得された前記進行方向の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する請求項1又は2記載の自車走行レーン推定装置。
A plurality of direction trajectory acquisition means for acquiring a vehicle travel trajectory in the travel direction for each of a plurality of travel directions from a vehicle travel trajectory corresponding to the absolute position of the host vehicle detected by the position detection means;
The own vehicle travel lane estimation means includes, for each of the plurality of travel directions, the travel direction vehicle travel trajectory acquired by the multi-direction trajectory acquisition means and the lane boundary detected by the lane boundary detection means. The lane parameter of the said driving | running lane is estimated based on these, The data showing the virtual driving | running lane which the own vehicle is drive | working are produced | generated based on the said estimated lane parameter. Self-vehicle travel lane estimation device.
複数の走行車線の各々について、前記走行車線の走行軌跡を取得する複数車線軌跡取得手段を更に含み、
前記自車走行レーン推定手段は、前記複数の走行車線の各々について、前記複数車線軌跡取得手段によって取得された前記走行車線の車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、前記走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する請求項1又は2記載の自車走行レーン推定装置。
For each of a plurality of travel lanes, further comprising a plurality of lane trajectory acquisition means for acquiring a travel trajectory of the travel lane,
The own vehicle travel lane estimation means includes a vehicle travel trajectory of the travel lane acquired by the plurality of lane trajectory acquisition means and a boundary between the lanes detected by the lane boundary detection means for each of the plurality of travel lanes. The lane parameter of the said driving | running lane is estimated based on these, The data showing the virtual driving | running lane which the own vehicle is drive | working are produced | generated based on the said estimated lane parameter. Self-vehicle travel lane estimation device.
前記自車走行レーン推定手段は、前記車線境界検出手段によって検出された前記車線の境界に基づいて、前記車両走行軌跡を修正し、前記修正された車両走行軌跡に基づいて、拡張カルマンフィルタに従って、キュービックスプラインモデルで用いられる各制御点の前記レーンパラメータを推定し、前記推定された各制御点のレーンパラメータ及び前記キュービックスプラインモデルに基づいて、前記仮想的な走行レーンを表すデータを生成する請求項1〜請求項5の何れか1項記載の自車走行レーン推定装置。   The own vehicle travel lane estimating means corrects the vehicle travel locus based on the lane boundary detected by the lane boundary detection means, and based on the corrected vehicle travel locus, cubic Cubic according to an extended Kalman filter. The lane parameter of each control point used in the spline model is estimated, and data representing the virtual traveling lane is generated based on the estimated lane parameter of each control point and the cubic spline model. The own vehicle travel lane estimation device according to any one of claims 5 to 6. 前記車線境界検出手段は、前記撮像手段によって生成された画像に基づいて、エッジ点を抽出し、抽出されたエッジ点に基づいて、拡張カルマンフィルタに従って、クロソイドスプラインモデルで用いられるモデルパラメータを推定し、前記推定されたモデルパラメータ及び前記クロソイドスプラインモデルに基づいて、自車両が走行している車線の境界を検出する請求項1〜請求項6の何れか1項記載の自車走行レーン推定装置。   The lane boundary detection means extracts edge points based on the image generated by the imaging means, estimates model parameters used in the clothoid spline model according to the extended Kalman filter based on the extracted edge points, The own vehicle travel lane estimation device according to any one of claims 1 to 6, wherein a boundary of a lane in which the subject vehicle is traveling is detected based on the estimated model parameter and the clothoid spline model. コンピュータを、
自車両に搭載され、かつ、自車両の周辺を撮像して画像を生成する撮像手段によって生成された画像に基づいて、自車両が走行している車線の境界を検出する車線境界検出手段、及び
自車両の絶対位置を検出する位置検出手段によって検出された自車両の絶対位置に対応する、前記絶対位置の時系列データによって表される予め求められた車両走行軌跡と、前記車線境界検出手段によって検出された前記車線の境界とに基づいて、自車両が走行している走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、自車両が走行している仮想的な走行レーンを表すデータを生成する自車走行レーン推定手段
として機能させるためのプログラム。
Computer
Lane boundary detection means for detecting a boundary of a lane in which the host vehicle is traveling, based on an image that is mounted on the host vehicle and that is generated by an imaging unit that images the periphery of the host vehicle and generates an image; and The vehicle travel locus determined in advance by the time-series data of the absolute position corresponding to the absolute position of the own vehicle detected by the position detecting means for detecting the absolute position of the own vehicle, and the lane boundary detecting means Based on the detected boundary of the lane, a lane parameter of a traveling lane in which the host vehicle is traveling is estimated, and on the basis of the estimated lane parameter, a virtual traveling lane in which the host vehicle is traveling A program for functioning as a vehicle lane estimation means for generating data representing the vehicle.
JP2014182264A 2014-09-08 2014-09-08 Own vehicle travel lane estimation device and program Expired - Fee Related JP6492469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014182264A JP6492469B2 (en) 2014-09-08 2014-09-08 Own vehicle travel lane estimation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014182264A JP6492469B2 (en) 2014-09-08 2014-09-08 Own vehicle travel lane estimation device and program

Publications (2)

Publication Number Publication Date
JP2016057750A true JP2016057750A (en) 2016-04-21
JP6492469B2 JP6492469B2 (en) 2019-04-03

Family

ID=55758424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014182264A Expired - Fee Related JP6492469B2 (en) 2014-09-08 2014-09-08 Own vehicle travel lane estimation device and program

Country Status (1)

Country Link
JP (1) JP6492469B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108121339A (en) * 2016-11-29 2018-06-05 本田技研工业株式会社 Wheeled zone setting device and wheeled area setting method
KR20180078699A (en) * 2016-12-30 2018-07-10 경북대학교 산학협력단 Apparatus and method for sensing the lane departure
CN110174113A (en) * 2019-04-28 2019-08-27 福瑞泰克智能系统有限公司 A kind of localization method, device and the terminal in vehicle driving lane
CN111095291A (en) * 2018-02-27 2020-05-01 辉达公司 Real-time detection of lanes and boundaries by autonomous vehicles
CN112556718A (en) * 2019-09-25 2021-03-26 通用汽车环球科技运作有限责任公司 Inferring lane boundaries via high speed vehicle telemetry
CN112706785A (en) * 2021-01-29 2021-04-27 重庆长安汽车股份有限公司 Method and device for selecting cognitive target of driving environment of automatic driving vehicle and storage medium
WO2021091039A1 (en) * 2019-11-06 2021-05-14 엘지전자 주식회사 Display device for vehicle and control method therefor
WO2021117464A1 (en) * 2019-12-12 2021-06-17 日立Astemo株式会社 Driving assistance device and driving assistance system
JPWO2021205193A1 (en) * 2020-04-08 2021-10-14
GB2611117A (en) * 2021-09-27 2023-03-29 Continental Autonomous Mobility Germany GmbH Method and system for lane tracking for an autonomous vehicle
WO2023046975A1 (en) * 2021-09-27 2023-03-30 Continental Autonomous Mobility Germany GmbH Method and system for lane tracking for an autonomous vehicle
CN116465394A (en) * 2023-06-19 2023-07-21 西安深信科创信息技术有限公司 Road network structure generation method and device based on vehicle track data
JP7437512B2 (en) 2020-01-06 2024-02-22 ルミナー,エルエルシー Lane detection and tracking method for imaging systems

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067755A (en) * 2001-08-28 2003-03-07 Nissan Motor Co Ltd Road white line recognition device
US20080291276A1 (en) * 2003-10-24 2008-11-27 Martin Randler Method for Driver Assistance and Driver Assistance Device on the Basis of Lane Information
JP2009020549A (en) * 2007-07-10 2009-01-29 Mazda Motor Corp Vehicle operation support system
JP2010191661A (en) * 2009-02-18 2010-09-02 Nissan Motor Co Ltd Traveling path recognition device, automobile, and traveling path recognition method
JP2012507780A (en) * 2008-11-06 2012-03-29 ボルボ テクノロジー コーポレイション Method and system for determining road data
JP2013226973A (en) * 2012-04-26 2013-11-07 Denso Corp Vehicle behavior control apparatus
JP2014160322A (en) * 2013-02-19 2014-09-04 Denso Corp Lane boundary deviation suppression device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067755A (en) * 2001-08-28 2003-03-07 Nissan Motor Co Ltd Road white line recognition device
US20080291276A1 (en) * 2003-10-24 2008-11-27 Martin Randler Method for Driver Assistance and Driver Assistance Device on the Basis of Lane Information
JP2009020549A (en) * 2007-07-10 2009-01-29 Mazda Motor Corp Vehicle operation support system
JP2012507780A (en) * 2008-11-06 2012-03-29 ボルボ テクノロジー コーポレイション Method and system for determining road data
JP2010191661A (en) * 2009-02-18 2010-09-02 Nissan Motor Co Ltd Traveling path recognition device, automobile, and traveling path recognition method
JP2013226973A (en) * 2012-04-26 2013-11-07 Denso Corp Vehicle behavior control apparatus
JP2014160322A (en) * 2013-02-19 2014-09-04 Denso Corp Lane boundary deviation suppression device

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108121339B (en) * 2016-11-29 2022-06-24 本田技研工业株式会社 Driving region setting device and driving region setting method
CN108121339A (en) * 2016-11-29 2018-06-05 本田技研工业株式会社 Wheeled zone setting device and wheeled area setting method
KR20180078699A (en) * 2016-12-30 2018-07-10 경북대학교 산학협력단 Apparatus and method for sensing the lane departure
KR101961528B1 (en) * 2016-12-30 2019-07-17 경북대학교 산학협력단 Apparatus and method for sensing the lane departure
CN111095291A (en) * 2018-02-27 2020-05-01 辉达公司 Real-time detection of lanes and boundaries by autonomous vehicles
CN111095291B (en) * 2018-02-27 2024-04-09 辉达公司 Real-time detection of lanes and boundaries by autonomous vehicles
CN110174113A (en) * 2019-04-28 2019-08-27 福瑞泰克智能系统有限公司 A kind of localization method, device and the terminal in vehicle driving lane
CN110174113B (en) * 2019-04-28 2023-05-16 福瑞泰克智能系统有限公司 Positioning method, device and terminal for vehicle driving lane
CN112556718A (en) * 2019-09-25 2021-03-26 通用汽车环球科技运作有限责任公司 Inferring lane boundaries via high speed vehicle telemetry
WO2021091039A1 (en) * 2019-11-06 2021-05-14 엘지전자 주식회사 Display device for vehicle and control method therefor
US11453346B2 (en) 2019-11-06 2022-09-27 Lg Electronics Inc. Display device for a vehicle and method for controlling the same
JP7277349B2 (en) 2019-12-12 2023-05-18 日立Astemo株式会社 Driving support device and driving support system
JP2021093060A (en) * 2019-12-12 2021-06-17 日立Astemo株式会社 Driving assisting device and driving assisting system
US11941983B2 (en) 2019-12-12 2024-03-26 Hitachi Astemo, Ltd. Driving assistance device and driving assistance system
WO2021117464A1 (en) * 2019-12-12 2021-06-17 日立Astemo株式会社 Driving assistance device and driving assistance system
JP7437512B2 (en) 2020-01-06 2024-02-22 ルミナー,エルエルシー Lane detection and tracking method for imaging systems
US11761787B2 (en) 2020-04-08 2023-09-19 Nissan Motor Co., Ltd. Map information correction method, driving assistance method, and map information correction device
CN115427759B (en) * 2020-04-08 2023-08-29 日产自动车株式会社 Map information correction method, driving assistance method, and map information correction device
WO2021205193A1 (en) * 2020-04-08 2021-10-14 日産自動車株式会社 Map information correction method, driving assistance method, and map information correction device
JP7349561B2 (en) 2020-04-08 2023-09-22 日産自動車株式会社 Map information correction method, driving support method, and map information correction device
CN115427759A (en) * 2020-04-08 2022-12-02 日产自动车株式会社 Map information correction method, driving support method, and map information correction device
JPWO2021205193A1 (en) * 2020-04-08 2021-10-14
CN112706785A (en) * 2021-01-29 2021-04-27 重庆长安汽车股份有限公司 Method and device for selecting cognitive target of driving environment of automatic driving vehicle and storage medium
WO2023046975A1 (en) * 2021-09-27 2023-03-30 Continental Autonomous Mobility Germany GmbH Method and system for lane tracking for an autonomous vehicle
GB2611117A (en) * 2021-09-27 2023-03-29 Continental Autonomous Mobility Germany GmbH Method and system for lane tracking for an autonomous vehicle
CN116465394A (en) * 2023-06-19 2023-07-21 西安深信科创信息技术有限公司 Road network structure generation method and device based on vehicle track data
CN116465394B (en) * 2023-06-19 2023-11-03 西安深信科创信息技术有限公司 Road network structure generation method and device based on vehicle track data

Also Published As

Publication number Publication date
JP6492469B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6492469B2 (en) Own vehicle travel lane estimation device and program
US20210311490A1 (en) Crowdsourcing a sparse map for autonomous vehicle navigation
US11200433B2 (en) Detection and classification systems and methods for autonomous vehicle navigation
US10248124B2 (en) Localizing vehicle navigation using lane measurements
JP6197393B2 (en) Lane map generation device and program
JP6747269B2 (en) Object recognition device
JP5162849B2 (en) Fixed point position recorder
JP6171612B2 (en) Virtual lane generation apparatus and program
US20220035378A1 (en) Image segmentation
JP5404861B2 (en) Stationary object map generator
JP2008250687A (en) Feature information collection device and feature information collection method
Shunsuke et al. GNSS/INS/on-board camera integration for vehicle self-localization in urban canyon
JP2008065087A (en) Apparatus for creating stationary object map
JP2007303842A (en) Vehicle position estimation device, and map information preparation device
Revilloud et al. An improved approach for robust road marking detection and tracking applied to multi-lane estimation
CN112781599A (en) Method for determining the position of a vehicle
JP6507841B2 (en) Preceding vehicle estimation device and program
Rabe et al. Lane-level map-matching based on optimization
CN115923839A (en) Vehicle path planning method
Kellner et al. Laserscanner based road curb feature detection and efficient mapping using local curb descriptions
Matthaei et al. Robust grid-based road detection for ADAS and autonomous vehicles in urban environments
Burger et al. Unstructured road slam using map predictive road tracking
Meis et al. A new method for robust far-distance road course estimation in advanced driver assistance systems
KR20200002257A (en) Corner detection-based road sign detecting method and apparatus
JP2021188914A (en) Vehicle control device and method for estimating vehicle position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6492469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees