JP6171612B2 - Virtual lane generation apparatus and program - Google Patents
Virtual lane generation apparatus and program Download PDFInfo
- Publication number
- JP6171612B2 JP6171612B2 JP2013129956A JP2013129956A JP6171612B2 JP 6171612 B2 JP6171612 B2 JP 6171612B2 JP 2013129956 A JP2013129956 A JP 2013129956A JP 2013129956 A JP2013129956 A JP 2013129956A JP 6171612 B2 JP6171612 B2 JP 6171612B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- vehicle
- virtual
- traveling
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、仮想レーン生成装置及びプログラムに関する。 The present invention relates to a virtual lane generation device and a program.
従来より、車載カメラからレーンマークを構成するエッジを抽出し、それらの分布に基づき白線を検出する白線検出装置が知られている(特許文献1)。また、白線検出後、道路パラメータを算出して白線が本線のものかどうかを判定し、自車の走行すべき経路を算出する境界線検出装置が知られている(特許文献2)。 2. Description of the Related Art Conventionally, a white line detection device that extracts edges constituting a lane mark from an in-vehicle camera and detects a white line based on their distribution is known (Patent Document 1). In addition, a boundary line detection apparatus is known that calculates road parameters after a white line is detected, determines whether the white line is a main line, and calculates a route on which the host vehicle should travel (Patent Document 2).
上記の特許文献1、2に記載の技術では、道路白線に基づいたレーン逸脱防止が可能となり、高速道路等においては有効である。しかし、一般道では白線が不明瞭もしくは存在しない場合もあり、そのような場合への適用は難しい。 The technologies described in Patent Documents 1 and 2 can prevent lane departure based on a road white line, and are effective on highways and the like. However, there are cases where the white line is unclear or does not exist on general roads, and it is difficult to apply to such cases.
本発明は、上記の事情を鑑みてなされたもので、白線が不明瞭もしくは存在しない場合であっても、仮想的な走行レーンを生成することができる仮想レーン生成装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a virtual lane generation device and a program capable of generating a virtual traveling lane even when a white line is unclear or does not exist. Objective.
上記目的を達成するために、本発明の仮想レーン生成装置は、車両に搭載され、かつ、前記車両の周辺を撮像してステレオ画像を生成する撮像手段によって生成されたステレオ画像に基づいて得られる前記ステレオ画像の視差情報に基づいて、車両の走行可能領域を検出する道路検出手段と、前記車両の絶対位置を検出する位置検出手段によって検出された前記車両の絶対位置と、各地点の道路情報を表す予め用意された道路地図データとに基づいて、前記車両が走行している走行レーンを表すレーンパラメータの初期値を設定する初期値設定手段と、前記道路検出手段によって検出された前記走行可能領域と、前記初期値設定手段によって設定された前記レーンパラメータの初期値とに基づいて、前記車両が走行している仮想的な走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、前記車両が走行している仮想的な走行レーンを表すデータを生成する仮想レーン生成手段とを含んで構成されている。 In order to achieve the above object, a virtual lane generation device of the present invention is obtained based on a stereo image that is mounted on a vehicle and that is generated by an imaging unit that images the periphery of the vehicle to generate a stereo image. Based on the parallax information of the stereo image, road detection means for detecting a travelable area of the vehicle, absolute position of the vehicle detected by the position detection means for detecting the absolute position of the vehicle, and road information of each point Initial value setting means for setting an initial value of a lane parameter representing a travel lane on which the vehicle is traveling based on road map data prepared in advance, and the travel possible detected by the road detection means Based on the region and the initial value of the lane parameter set by the initial value setting means, a virtual travel lane in which the vehicle is traveling Of the lane parameter estimation, based on the estimated lane parameter, the vehicle is configured to include a virtual lane generating means for generating data representing a virtual traveling lane running.
本発明に係るプログラムは、コンピュータを、車両に搭載され、かつ、前記車両の周辺を撮像してステレオ画像を生成する撮像手段によって生成されたステレオ画像に基づいて得られる前記ステレオ画像の視差情報に基づいて、車両の走行可能領域を検出する道路検出手段、前記車両の絶対位置を検出する位置検出手段によって検出された前記車両の絶対位置と、各地点の道路情報を表す予め用意された道路地図データとに基づいて、前記車両が走行している走行レーンを表すレーンパラメータの初期値を設定する初期値設定手段、及び前記道路検出手段によって検出された前記走行可能領域と、前記初期値設定手段によって設定された前記レーンパラメータの初期値とに基づいて、前記車両が走行している仮想的な走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、前記車両が走行している仮想的な走行レーンを表すデータを生成する仮想レーン生成手段として機能させるためのプログラムである。 The program according to the present invention includes a computer mounted on parallax information of the stereo image obtained on the basis of a stereo image generated by an imaging unit that is mounted on a vehicle and generates a stereo image by imaging the periphery of the vehicle. Based on road detection means for detecting a travelable area of the vehicle, a road map prepared in advance representing the absolute position of the vehicle detected by the position detection means for detecting the absolute position of the vehicle, and road information of each point Initial value setting means for setting an initial value of a lane parameter representing a travel lane in which the vehicle is traveling based on the data, the travelable area detected by the road detection means, and the initial value setting means Based on the initial value of the lane parameter set by the lane parameter of the virtual driving lane in which the vehicle is driving. Estimating the over data, based on the estimated lane parameters, a program for functioning as a virtual lane generating means for generating data representing a virtual lane on which the vehicle is traveling.
本発明によれば、撮像手段によって、前記車両の周辺を撮像してステレオ画像を生成し、道路検出手段によって、撮像手段によって生成されたステレオ画像に基づいて得られる前記ステレオ画像の視差情報に基づいて、車両の走行可能領域を検出する。 According to the present invention, the imaging unit captures the periphery of the vehicle to generate a stereo image, and the road detection unit, based on the stereo image parallax information obtained based on the stereo image generated by the imaging unit. Thus, the travelable area of the vehicle is detected.
そして、初期値設定手段によって、前記車両の絶対位置を検出する位置検出手段によって検出された前記車両の絶対位置と、各地点の道路情報を表す予め用意された道路地図データとに基づいて、前記車両が走行している走行レーンを表すレーンパラメータの初期値を設定する。仮想レーン生成手段によって、前記道路検出手段によって検出された前記走行可能領域と、前記初期値設定手段によって設定された前記レーンパラメータの初期値とに基づいて、前記車両が走行している仮想的な走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、前記車両が走行している仮想的な走行レーンを表すデータを生成する。 Then, based on the absolute position of the vehicle detected by the position detection means for detecting the absolute position of the vehicle by the initial value setting means, and road map data prepared in advance representing road information of each point, An initial value of a lane parameter indicating a traveling lane in which the vehicle is traveling is set. The virtual lane generation means is a virtual vehicle in which the vehicle is running based on the travelable area detected by the road detection means and the initial value of the lane parameter set by the initial value setting means. A lane parameter of the traveling lane is estimated, and data representing a virtual traveling lane in which the vehicle is traveling is generated based on the estimated lane parameter.
このように、ステレオ画像の視差情報に基づいて、車両の走行可能領域を検出し、車両の絶対位置と、道路地図データとに基づいて、車両が走行している走行レーンを表すレーンパラメータの初期値を設定し、検出された走行可能領域と、レーンパラメータの初期値とに基づいて車両が走行している仮想的な走行レーンのレーンパラメータを推定することにより、白線が不明瞭もしくは存在しない場合であっても、仮想的な走行レーンを生成することができる。 As described above, based on the parallax information of the stereo image, the vehicle travelable area is detected, and based on the absolute position of the vehicle and the road map data, the initial lane parameter indicating the travel lane in which the vehicle is traveling When a white line is unclear or does not exist by setting a value and estimating the lane parameter of a virtual driving lane in which the vehicle is driving based on the detected travelable area and the initial value of the lane parameter Even so, a virtual travel lane can be generated.
本発明に係る仮想レーン生成装置は、前記撮像手段によって生成されたステレオ画像のうちの少なくとも一方の画像に基づいて車両候補を検出する車両検出手段と、前記撮像手段によって生成されたステレオ画像に基づいて検出される前記車両が走行している走行レーン、又は前記仮想レーン生成手段によって生成された前記仮想的な走行レーンと、前記車両検出手段によって検出された車両候補との関係に基づいて、運転支援に用いられる対象車両を検出する対象車両検出手段と、を更に含むようにすることができる。 The virtual lane generation apparatus according to the present invention is based on vehicle detection means for detecting a vehicle candidate based on at least one of the stereo images generated by the imaging means, and on the stereo image generated by the imaging means. Driving based on the relationship between the travel lane in which the vehicle is traveling detected or the virtual travel lane generated by the virtual lane generation means and the vehicle candidate detected by the vehicle detection means And a target vehicle detecting means for detecting a target vehicle used for support.
本発明に係る道路検出手段は、各時刻について、前記撮像手段によって生成されたステレオ画像に基づいて得られる前記ステレオ画像の視差情報に基づいて、前記走行可能領域を検出し、前記仮想レーン生成手段は、前記初期値設定手段によって設定されたレーンパラメータの初期値を表すパーティクルを複数生成し、各時刻について、前記道路検出手段によって検出された前記走行可能領域に基づいて、前記複数のパーティクルから前記パーティクルの各々をサンプリングし、サンプリングされた前記パーティクルの各々が表すレーンパラメータを、予め定められた状態遷移モデルに従って更新することを繰り返すことにより、各時刻について前記仮想的な走行レーンを表すレーンパラメータを推定し、推定されたレーンパラメータに基づいて、前記仮想的な走行レーンを表すデータを生成するようにすることができる。 The road detection unit according to the present invention detects the travelable area based on parallax information of the stereo image obtained based on the stereo image generated by the imaging unit for each time, and the virtual lane generation unit Generates a plurality of particles representing the initial value of the lane parameter set by the initial value setting means, and for each time, based on the travelable area detected by the road detection means, from the plurality of particles By sampling each of the particles and repeatedly updating the lane parameter represented by each of the sampled particles according to a predetermined state transition model, the lane parameter representing the virtual traveling lane for each time is obtained. Based on estimated lane parameters Te, it is possible to generate the data representing the virtual lane.
また、上記の仮想レーン生成手段は、前記サンプリングされた前記パーティクルの各々が表すレーンパラメータを、クロソイド曲線に基づいて予め定められた前記状態遷移モデルに従って更新するようにすることができる。 Further, the virtual lane generation unit can update the lane parameter represented by each of the sampled particles according to the state transition model determined in advance based on a clothoid curve.
また、上記の仮想レーン生成装置は、前記撮像手段によって生成されたステレオ画像のうちの少なくとも一方の画像に基づいて車両を検出する車両検出手段を更に含み、前記仮想レーン生成手段は、各時刻について、前記道路検出手段によって検出された前記走行可能領域のうちの、前記車両検出手段によって検出された車両が走行している他の走行レーンの領域と重複する走行レーンのレーンパラメータを表すパーティクルに対して、前記車両が走行している走行レーンの領域と重複するほど、小さな重みを付して、前記パーティクルの各々をサンプリングし、サンプリングされた前記パーティクルの各々が表すレーンパラメータを、前記状態遷移モデルに従って更新するようにすることができる。 The virtual lane generation device further includes a vehicle detection unit that detects a vehicle based on at least one of the stereo images generated by the imaging unit, and the virtual lane generation unit The particles representing the lane parameters of the traveling lane that overlaps the region of the other traveling lane in which the vehicle detected by the vehicle detecting unit is traveling out of the travelable region detected by the road detecting unit. The particles are sampled each of the particles with a smaller weight so as to overlap the area of the driving lane in which the vehicle is traveling, and the lane parameters represented by the sampled particles are represented by the state transition model. Can be updated accordingly.
上記の対象車両検出手段は、前記仮想的な走行レーン内に存在する前記車両候補を、追跡対象の車両として検出するようにすることができる。 The target vehicle detection means may detect the vehicle candidate existing in the virtual traveling lane as a tracking target vehicle.
なお、本発明のプログラムを記憶する記憶媒体は、特に限定されず、ハードディスクであってもよいし、ROMであってもよい。また、CD−ROMやDVDディスク、光磁気ディスクやICカードであってもよい。更にまた、該プログラムを、ネットワークに接続されたサーバ等からダウンロードするようにしてもよい。 The storage medium for storing the program of the present invention is not particularly limited, and may be a hard disk or a ROM. Further, it may be a CD-ROM, a DVD disk, a magneto-optical disk or an IC card. Furthermore, the program may be downloaded from a server or the like connected to the network.
以上説明したように、本発明の仮想レーン生成装置及びプログラムによれば、ステレオ画像の視差情報に基づいて、車両の走行可能領域を検出し、車両の絶対位置と、道路地図データとに基づいて、車両が走行している走行レーンを表すレーンパラメータの初期値を設定し、検出された走行可能領域と、レーンパラメータの初期値とに基づいて車両が走行している仮想的な走行レーンのレーンパラメータを推定することにより、白線が不明瞭もしくは存在しない場合であっても、仮想的な走行レーンを生成することができる、という効果が得られる。 As described above, according to the virtual lane generation device and the program of the present invention, the travelable area of the vehicle is detected based on the parallax information of the stereo image, and based on the absolute position of the vehicle and the road map data. An initial value of a lane parameter representing a travel lane in which the vehicle is traveling is set, and a virtual travel lane in which the vehicle is traveling based on the detected travelable area and the initial value of the lane parameter. By estimating the parameters, there is an effect that a virtual travel lane can be generated even when the white line is not clear or does not exist.
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、第1の実施の形態では、車線維持制御を行う際の走行レーン及び追従制御を行う際の追従対象車両を検出して運転支援部に出力する運転支援制御装置に、本発明を適用した場合を例に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the first embodiment, the present invention is applied to a driving support control device that detects a driving lane when performing lane keeping control and a tracking target vehicle when performing tracking control and outputs the detected vehicle to a driving support unit. A case will be described as an example.
<概要>
本実施の形態は、主に幹線道路などの体系化された道路において使用されている高度運転支援システム(ADAS:advanced driver assistance systems)の使用を、通常の都市街路、特にマークのない道路まで拡張するための手法に関する。具体的には、本実施の形態は、ADASシステムの要件を満たすための仮想目標を、システムを変更することなく生成することができる。本実施の形態は、LKA(lane keep assist:車線維持支援)システムのための仮想レーンマークの生成、ACC(adaptive cruise control:車間自動制御)システムのための自車レーン内での先行車両の特定(または仮想車両の生成)に関するものである。
<Overview>
This embodiment extends the use of advanced driver assistance systems (ADAS), which are mainly used on systematic roads such as arterial roads, to ordinary city streets, especially roads without marks. It relates to the technique to do. Specifically, this embodiment can generate a virtual target for satisfying the requirements of the ADAS system without changing the system. In the present embodiment, generation of a virtual lane mark for an LKA (lane keep assistance) system, and identification of a preceding vehicle in the own vehicle lane for an ACC (adaptive cruise control) system (Or generation of a virtual vehicle).
ADAS技術、特にカメラなどの手ごろなセンサを使用する技術には依然として多くの未解決問題が残っている。これらのシステムを日常交通に向けて実施するには、主として以下の2種類の難点がある。 Many unresolved problems still remain in ADAS technology, particularly those that use affordable sensors such as cameras. In order to implement these systems for daily traffic, there are mainly the following two types of difficulties.
(1)システムの機能に従った構造情報が必要とされる。例えばLKAシステムは自車を車道の内側からはみ出さずに走行させるためにレーンマークを検出する必要がある。ACCシステムは自車レーン内の前方/先行車両の検出を必要とし、PCSシステムは、衝突を回避するためにそのような車両の検出を必要とする。しかし、多くの通常の都市街路には、走行レーンを定義し、またはレーン曲率を表示するレーンマークがない。走行レーンやレーン曲率を理解することがなければ、LKAシステムやACCシステムは、図2に示すように、路側の車両(駐車車両など)や他の走行レーン(交差路/曲線路における進路変更車両など)を、自車レーン上の本物の目標と区別することができず、誤警報や誤った制御コマンドを生成する場合がある。さらに、PCS(pre−crash system)は、衝突回避動作時に他の物体にぶつかるのを回避するために道路上の自由空間情報を必要とする。いくつかのシステムは、そのような情報を得るために、RNDF(Route Network Definition File:経路ネットワーク定義ファイル)やGIS(Geographic Information System:地理情報システム)といった他の事前情報と共にGPSを利用する。しかし、GPSは空間および時間分解能に限界があり、地図データは、特にレーンレベルでは、最新のデータでなく、不正確である可能性もある。さらに、そのような地図は静的であり、リアルタイムで動的な車両に対応することができない。 (1) Structural information according to the function of the system is required. For example, the LKA system needs to detect a lane mark in order to run the vehicle without protruding from the inside of the roadway. The ACC system requires detection of forward / preceding vehicles in the vehicle lane, and the PCS system requires detection of such vehicles to avoid collisions. However, many normal city streets do not have a lane mark that defines a driving lane or displays a lane curvature. If the driving lane and the lane curvature are not understood, the LKA system and the ACC system, as shown in FIG. 2, use a roadside vehicle (such as a parked vehicle) or another driving lane (a vehicle that changes course on a crossing / curved road). Etc.) may not be distinguished from real targets on the vehicle lane, and false alarms and erroneous control commands may be generated. Furthermore, PCS (pre-crash system) requires free space information on the road in order to avoid hitting other objects during the collision avoidance operation. Some systems use GPS along with other prior information such as RNDF (Route Network Definition File) and GIS (Geographic Information System) to obtain such information. However, GPS has limited spatial and temporal resolution, and map data is not up-to-date and may be inaccurate, especially at the lane level. Furthermore, such a map is static and cannot accommodate a dynamic vehicle in real time.
(2)交通現場で、車線、他の車両といった目標を認識することは、コンピュータビジョンにとって困難である。というのは、目標の外観が、多くの場合、容易に検出されず、時間的、空間的に変化するいくつかの要因、例えば、道路材料、車両のタイプおよび向き、照明、天候条件などの影響を受けるからである。これらの要因は、目標の視認性に多大な影響を及ぼす可能性があり、そのため、システムの正確さ、および信頼性にも提供を及ぼす。 (2) It is difficult for computer vision to recognize targets such as lanes and other vehicles at traffic sites. This is because the appearance of the target is often not easily detected and affects several factors in time and space, such as road material, vehicle type and orientation, lighting, weather conditions, etc. Because it receives. These factors can have a significant impact on the visibility of the target and thus also provide for system accuracy and reliability.
本実施の形態では、通常の都市街路内の構造情報を反映するために仮想レーンが生成され、自車と走行レーンと他の車両との間のコンテクスト関係が、ADAS要件を満たすと共に、物体検出性能を改善するために用いられる。 In this embodiment, a virtual lane is generated to reflect structural information in a normal city street, and the context relationship among the own vehicle, the traveling lane, and another vehicle satisfies the ADAS requirement, and the object detection. Used to improve performance.
今日では、高品質カメラが非常に低価格で市販されているため、本実施の形態では、前述の問題についての立体視ベースの解決策を目指す。LKA、ACCおよびPCSをレーンマークのない道路で実行するためには、走行レーン、近くの車両の検出、およびそれらの関係の推定を必要とする。 Today, high-quality cameras are commercially available at very low prices, so this embodiment aims at a stereoscopic-based solution to the above-mentioned problem. In order to execute LKA, ACC and PCS on a road without a lane mark, it is necessary to detect a driving lane, nearby vehicles, and estimate their relationship.
本実施の形態では、まず、ナビ地図およびクロソイド道路モデルに基づいて入力ステレオ画像から走行レーンを認識する。走行レーンの認識処理の中で、入力画像から近くの車両が検出される。続いて、走行レーンの認識結果及び車両の検出結果が、以下の2つの目的でコンテクスト相関に使用される。目的の1つは、走行レーンおよび車両についての検出性能および信頼性を高めることであり、もう1つは、ADASシステムの要件を満たす仮想目標を生成することである。 In this embodiment, first, a travel lane is recognized from an input stereo image based on a navigation map and a clothoid road model. In the traveling lane recognition process, a nearby vehicle is detected from the input image. Subsequently, the recognition result of the traveling lane and the detection result of the vehicle are used for context correlation for the following two purposes. One objective is to increase detection performance and reliability for lanes and vehicles, and the other is to generate virtual targets that meet the requirements of the ADAS system.
画像入力が与えられた場合、レーンマーク検出がまず実行される。レーンマークが検出された場合、LKAなどのADASは、検出結果を使用して運転者/自車を誘導する。現時点の道路にレーンマークが存在しない場合には、LKAシステムの要件を満たすための仮想レーンが、以下のように、走行可能領域の境界から生成される。 When an image input is given, lane mark detection is first executed. When the lane mark is detected, ADAS such as LKA uses the detection result to guide the driver / own vehicle. When there is no lane mark on the current road, a virtual lane that satisfies the requirements of the LKA system is generated from the boundary of the travelable area as follows.
最初に、ステレオ画像に基づいて、視差マップが、SGM(Semi−global Matching stereo:準グローバルマッチング立体)を使用して算出され、画像内の道路の形状特性を説明するコストマップが生成される。続いて、コストマップに基づいて、走行可能領域の境界が、ビリーフプロパゲーションアルゴリズムを使用して、MRF(Markov Random Field)ベースの方式において検出される。さらに、GPS位置決めを使用して、ナビ地図において自車が位置決めされ、ナビ地図から得られる自車位置の道路情報に基づいて、走行レーンを表すレーンパラメータの初期値が提供される。結果として得られる初期値を使用することにより、仮想走行レーンが、パーティクルフィルタに基づく方式において生成される。このとき、クロソイド道路モデルに基づいて、パーティクルフィルタを更新する。クロソイド道路モデルは、現実の世界でレーンマークおよび縁石を構築するための道路設計において広く使用されているからである。 First, based on the stereo image, a parallax map is calculated using SGM (Semi-global Matching Stereo), and a cost map that describes the shape characteristics of the road in the image is generated. Subsequently, based on the cost map, the boundaries of the travelable area are detected in an MRF (Markov Random Field) based method using a belief propagation algorithm. Further, the vehicle is positioned in the navigation map using GPS positioning, and an initial value of the lane parameter representing the traveling lane is provided based on the road information of the vehicle position obtained from the navigation map. By using the resulting initial value, a virtual lane is generated in a particle filter based manner. At this time, the particle filter is updated based on the clothoid road model. This is because clothoid road models are widely used in road design to build lane marks and curbs in the real world.
また、既存のADASシステムの大部分は、関心対象の物体を検出すること、または場面のセグメンテーション(道路、車両などといった異なるカテゴリ)を作成することに焦点を合わせたものであったが、これらの方法によって提供される情報のレベルは、前述のように、通常の都市街路において、LKA、ACC、PCSといったADASシステムを実施するにはあまりに限られたものである。道路コンテクストにおける近くの車両、ならびに走行レーンといった道路構造自体を理解することが、都市環境におけるADAS適用成功の鍵である。これは、特に多くのクラッタが生じる動的な都市場面や、道路構造を表示するレーンマークがないシナリオにおいては、きわめて困難である。本実施の形態では、検出又は生成された走行レーンと車両とを相関させることにより、関心対象の物体を検出する。 Also, most of the existing ADAS systems focused on detecting objects of interest or creating scene segmentation (different categories such as roads, vehicles, etc.) The level of information provided by the method is too limited to implement ADAS systems such as LKA, ACC, and PCS on normal city streets as described above. Understanding the road structure itself, such as nearby vehicles and road lanes in the road context, is the key to successful ADAS application in urban environments. This is extremely difficult especially in a dynamic urban scene where many clutters occur or in a scenario where there is no lane mark to display the road structure. In the present embodiment, an object of interest is detected by correlating the detected or generated travel lane with the vehicle.
<システム構成>
図1に示すように、本発明の第1の実施の形態に係る運転支援制御装置10は、GPS衛星からの電波を受信するGPS受信部12と、自車両の前方を撮像して、ステレオ画像を生成する撮像装置14と、GPS受信部12によって受信されたGPS衛星からの受信信号、及び撮像装置14によって撮像されたステレオ画像に基づいて、走行レーンを検出又は生成して、運転支援部18で用いる仮想目標を生成するコンピュータ16と、を備えている。
<System configuration>
As shown in FIG. 1, the driving support control device 10 according to the first embodiment of the present invention captures a GPS receiver 12 that receives radio waves from GPS satellites and the front of the host vehicle to obtain a stereo image. The driving lane is detected or generated based on the imaging device 14 that generates the image, the received signal from the GPS satellite received by the GPS receiver 12, and the stereo image captured by the imaging device 14, and the driving support unit 18. And a computer 16 for generating a virtual target used in the above.
運転支援部18は、検出又は生成された走行レーンに基づいて、自車両の車線維持制御を行うと共に、仮想目標として生成された、例えば追従対象となる先行車両に基づいて、自車両の追従運転制御を行う。 The driving support unit 18 performs lane keeping control of the host vehicle based on the detected or generated travel lane, and also follows the driving of the host vehicle based on, for example, a preceding vehicle that is generated as a virtual target. Take control.
GPS受信部12は、各時刻について、複数のGPS衛星からの電波を受信して、受信した全てのGPS衛星からの受信信号を、コンピュータ16へ出力する。 The GPS receiver 12 receives radio waves from a plurality of GPS satellites at each time and outputs received signals from all the received GPS satellites to the computer 16.
撮像装置14は、各時刻について、自車両の前方を繰り返し撮像して、ステレオ画像を繰り返し生成し、コンピュータ16へ出力する。 The imaging device 14 repeatedly captures the front of the host vehicle at each time, repeatedly generates a stereo image, and outputs the stereo image to the computer 16.
コンピュータ16を機能ブロックで表すと、上記図1に示すように、GPS受信部12から、電波を受信した全てのGPS衛星について、GPS衛星の情報を取得して、各時刻における自車両の位置を算出する位置検出部20と、撮像装置14によって生成されたステレオ画像から、自車両の走行レーンのレーンマークを検出するレーンマーク検出部22と、各時刻について、レーンマークが検出されなかった場合に、撮像装置14によって生成されたステレオ画像に基づいて、自車両の走行可能領域を検出する道路検出部24と、撮像装置14によって生成されたステレオ画像に基づいて、他の車両候補を検出する車両検出部26と、各地点の道路情報を格納したナビゲーション地図データを記憶する地図データベース28と、道路モデルを表すデータを記憶する道路モデル記憶部30と、検出された自車両の位置、検出された走行可能領域、検出された他の車両候補、ナビゲーション地図データ、及び道路モデルを表すデータに基づいて、各時刻について、走行レーン又は仮想走行レーンを認識するレーン認識部32と、認識された走行レーン又は仮想走行レーンと検出された車両とのコンテクスト相関を計算するコンテクスト相関計算部34と、コンテクストモデルを表すデータを記憶したコンテクストモデル記憶部36と、コンテクスト相関に基づいて、車両を検出する対象車両検出部37と、検出された車両に基づいて、仮想目標を生成する仮想目標生成部38とを備えている。なお、レーン認識部32が、初期値設定手段及び仮想レーン生成手段の一例である。 When the computer 16 is represented by functional blocks, as shown in FIG. 1 above, GPS satellite information is obtained from the GPS receiver 12 for all GPS satellites that have received radio waves, and the position of the vehicle at each time is determined. When the position detection unit 20 to calculate, the lane mark detection unit 22 that detects the lane mark of the traveling lane of the host vehicle from the stereo image generated by the imaging device 14, and when no lane mark is detected for each time A road detection unit 24 that detects the travelable area of the host vehicle based on the stereo image generated by the imaging device 14 and a vehicle that detects other vehicle candidates based on the stereo image generated by the imaging device 14. A detection unit 26, a map database 28 for storing navigation map data storing road information at each point, and a road model Based on the road model storage unit 30 that stores data to be represented, the detected position of the own vehicle, the detected travelable area, the detected other vehicle candidates, the navigation map data, and the data representing the road model, A lane recognition unit 32 for recognizing a travel lane or virtual travel lane, a context correlation calculation unit 34 for calculating a context correlation between the recognized travel lane or virtual travel lane and the detected vehicle, and a context model. A context model storage unit 36 that stores data, a target vehicle detection unit 37 that detects a vehicle based on the context correlation, and a virtual target generation unit 38 that generates a virtual target based on the detected vehicle. Yes. The lane recognition unit 32 is an example of an initial value setting unit and a virtual lane generation unit.
位置検出部20は、GPS受信部12から、電波を受信した全てのGPS衛星について、GPS衛星の情報を取得し、取得したGPS情報に基づいて、自車両の絶対位置を算出する。 The position detection unit 20 acquires GPS satellite information for all GPS satellites that have received radio waves from the GPS reception unit 12, and calculates the absolute position of the host vehicle based on the acquired GPS information.
レーンマーク検出部22は、各時刻について、撮像装置14によって生成されたステレオ画像の例えば左画像から、例えばパターンマッチングにより、レーンマークを検出する。 The lane mark detection unit 22 detects a lane mark, for example, by pattern matching, for example, from the left image of the stereo image generated by the imaging device 14 at each time.
道路検出部24は、レーンマーク検出部22によりレーンマークが検出されなかった場合、撮像装置14によって生成されたステレオ画像から、視差マップを計算し(図3(a)参照)、計算した視差マップから、垂直方向の視差の勾配に基づくコストマップを生成する(図3(b)参照)。道路検出部24は、生成されたコストマップに基づいて、MRFベースの手法に従って、走行可能領域の境界を検出し(図3(c)参照)、走行可能領域を検出する。 When no lane mark is detected by the lane mark detection unit 22, the road detection unit 24 calculates a parallax map from the stereo image generated by the imaging device 14 (see FIG. 3A), and calculates the calculated parallax map. From this, a cost map based on the vertical parallax gradient is generated (see FIG. 3B). The road detection unit 24 detects the boundary of the travelable area based on the generated cost map according to the MRF-based method (see FIG. 3C), and detects the travelable area.
車両検出部26は、撮像装置14によって生成されたステレオ画像の例えば左画像について、関心領域(ROI:region−of−interest)内で、勾配の方向ヒストグラム(HOG:histogram of oriented gradient)特徴を用いた変形可能なパートモデル(DPF:deformable part−based model)に基づいて車両候補を検出し、車両候補に対して、検出処理で得られたスコアの閾値判定を行うことによって、撮像装置14によって生成されたステレオ画像の左画像から、車両を検出する。 The vehicle detection unit 26 uses, for example, a left-right image of the stereo image generated by the imaging device 14 in a region of interest (ROI: region-of-interest) and a gradient direction histogram (HOG) feature. Generated by the imaging device 14 by detecting vehicle candidates based on a deformable part-based model (DPF) and determining a threshold value of the score obtained in the detection process for the vehicle candidates. The vehicle is detected from the left image of the stereo image.
地図データベース28は、各地点の道路情報(レーン幅、曲率、曲率の変化)を格納したナビゲーション地図データを記憶している。 The map database 28 stores navigation map data storing road information (lane width, curvature, change in curvature) at each point.
道路モデル記憶部30は、クロソイド道路モデルに基づく状態遷移モデルのパラメータを記憶している。 The road model storage unit 30 stores parameters of a state transition model based on the clothoid road model.
レーン認識部32は、レーンマーク検出部22によってレーンマークが検出された場合、検出されたレーンマークに基づいて、走行レーンを認識する。複数の走行レーンが存在する場合には、複数の走行レーンが認識される。 When the lane mark detection unit 22 detects a lane mark, the lane recognition unit 32 recognizes a traveling lane based on the detected lane mark. When there are a plurality of traveling lanes, the plurality of traveling lanes are recognized.
レーン認識部32は、レーンマーク検出部22によってレーンマークが検出されなかった場合、検出された自車両位置、検出された走行可能領域、検出された他の車両、ナビゲーション地図データ、及び状態遷移モデルのパラメータに基づいて、以下に説明するように、各時刻について、自車両が走行している仮想的な走行レーンを生成する。 When no lane mark is detected by the lane mark detection unit 22, the lane recognition unit 32 detects the detected vehicle position, the detected travelable area, the detected other vehicle, the navigation map data, and the state transition model. Based on these parameters, a virtual travel lane in which the host vehicle is traveling is generated for each time as described below.
まず、クロソイド道路モデルにおいてレーン境界位置は次式で表される。 First, in the clothoid road model, the lane boundary position is expressed by the following equation.
ただし、xk,t(z)は、距離z、時刻tにおけるレーン境界の横位置である。k={−1,1}は、レーン境界の側、すなわち、−1は左側、1は右側を示す。図4−1(a)に示すように、時刻tにおける道路および道路に対する自車の位置は、レーン幅wt、道路のセンターラインに対する自車の横方向オフセットx0,t、道路に対する自車のヨー角θt、曲率c0,t、および曲率の変化c1,tによって与えられる。これらのパラメータは、推定されるべき状態ベクトルStを形成し、St=(wt,x0,t,θt,c0,t,c1,t)であり、レーンパラメータの一例である。Stについての時刻tとt+Δtとの間の状態遷移モデルは、クロソイド道路モデルに基づいて次式として定義される。 However, x k, t (z) is the lateral position of the lane boundary at the distance z and time t. k = {-1, 1} indicates the lane boundary side, that is, -1 indicates the left side and 1 indicates the right side. As shown in FIG. 4A, the road and the position of the vehicle relative to the road at time t are the lane width w t , the lateral offset x 0, t of the vehicle relative to the center line of the road, and the vehicle relative to the road. Given by the yaw angle θ t , the curvature c 0, t , and the change in curvature c 1, t . These parameters form a state vector S t to be estimated, where S t = (w t , x 0, t , θ t , c 0, t , c 1, t ), which is an example of a lane parameter is there. The state transition model between time t and t + Delta] t for the S t is defined as the following equation on the basis of the clothoid road model.
本実施の形態では、レーンマークが検出されない道路について、パーティクルフィルタを使用して、追跡プロセスにおいてレーンレベルの道路構造を推定する(図4−1(b)、(c)参照)。各推定周期において、1500個のパーティクルが生成され、各パーティクルが、クロソイド道路モデルに基づくレーン境界位置を表すレーンパラメータを有し、これらのパーティクルと関連付けられた重みが、図4−2(d)、(e)に示すような道路エネルギーマップ上の尤度測定に基づいて計算される。尤度スコアは次式によって計算される。 In the present embodiment, a road structure in which no lane mark is detected is estimated using a particle filter in a tracking process in a tracking process (see FIGS. 4-1 (b) and (c)). In each estimation period, 1500 particles are generated, each particle has a lane parameter indicating a lane boundary position based on the clothoid road model, and the weight associated with these particles is shown in FIG. , (E) is calculated based on the likelihood measurement on the road energy map. The likelihood score is calculated by the following formula.
ただし、PLは、仮想的な左右のレーンマーク間の領域である。pはPL内部の画素であり、NPLは、PLのサイズである。ρは、道路点α、β、γのエネルギーを表す正の定数であり、α、β、γは、特定の点のエネルギーを調整するための正の定数である。実験に際して、本実施の形態では、ρ=1、α=10、β=5、γ=50に設定した。実際には、上記(3)式で定義される尤度スコアは、仮想的な左右のレーンマーク間の領域の各点の平均値であり、これにより、推定される仮想的な走行レーンが、非道路点を除外しつつ、より多くの道路点を含むことになる。 However, P L is a region between the virtual left and right lane marks. p is P L inner pixels, N PL is the size of the P L. ρ is a positive constant representing the energy of the road points α, β, γ, and α, β, γ are positive constants for adjusting the energy of a specific point. In the experiment, in this embodiment, ρ = 1, α = 10, β = 5, and γ = 50 were set. Actually, the likelihood score defined by the above equation (3) is the average value of each point in the area between the virtual left and right lane marks, and the estimated virtual driving lane is More road points are included while excluding non-road points.
上記(4)式に示すように、各点pは、走行可能領域のうちの自車両が走行可能なフリー走行レーンPblue(上記図4−2(d)の細線斜線領域参照)、走行可能領域のうちの自車両が走行不可能な走行レーンPred(上記図4−2(e)の細線斜線領域参照)、それ以外の走行可能領域Proad(上記図4−2(d)、(e)の白色領域参照)、走行可能領域以外の領域Pnon-road(上記図4−2(d)、(e)の黒色領域参照)、の何れかに分類される。 As shown in the above equation (4), each point p is a free running lane Pblue (see the thin hatched area in FIG. 4-2 (d) above) in which the host vehicle can travel, and a travelable area. Among the driving lanes Pred (see the thin hatched area in FIG. 4-2 (e) above) and other driving possible areas Proad (see FIGS. 4-2 (d) and (e) above). A white area), and a non-travelable area Pnon-road (see black areas in FIGS. 4-2 (d) and (e) above).
走行可能領域のうちの自車両が走行可能なフリー走行レーンPblue、走行可能領域のうちの自車両が走行不可能な領走行レーンPred、それ以外の走行可能領域Proadを表す道路エネルギーマップが、走行可能領域の検出結果と、他の車両の検出結果との相関に基づいて、上記図4(d)、(e)に示すように、求められる。例えば、検出された他の車両が、安全ROIの外部にある場合には、当該他の車両が走行している走行レーンは、自車両の走行に使用することができるため、自車両が走行可能なフリー走行レーンPblueとして求められる。また、検出された他の車両が、安全ROIの内部にある場合には、当該他の車両が走行している他の走行レーンは、当該他の車両に占有されており、自車両の走行に使用することができないため、自車両が走行不可能な走行レーンPredとして求められる。上記のフリー走行レーンPblue、走行不可能な走行レーンPredは、上記の状態ベクトルの、x0,tを除くパラメータと同じパラメータによって定義される。 The road energy map representing the free travel lane Pblue in which the host vehicle can travel in the travelable region, the region travel lane Pred in which the host vehicle cannot travel in the travelable region, and the other travelable region Proad is traveled. Based on the correlation between the detection result of the possible region and the detection result of the other vehicle, it is obtained as shown in FIGS. 4D and 4E. For example, when the detected other vehicle is outside the safety ROI, the traveling lane in which the other vehicle is traveling can be used for traveling the own vehicle, so that the own vehicle can travel. Is required as a free-running lane Pblue. Further, when the detected other vehicle is inside the safety ROI, the other traveling lane in which the other vehicle is traveling is occupied by the other vehicle, and the own vehicle is traveling. Since it cannot be used, it is calculated | required as driving lane Pred in which the own vehicle cannot drive | work. The above-described free travel lane Pblue and the travel lane Pred incapable of travel are defined by the same parameters as the parameters other than x0, t in the above state vector.
レーン認識部32は、検出された自車両位置に基づいて、ナビゲーション地図データから、現在の自車両位置における道路情報(レーン幅、曲率など)を取得し、自車両位置、道路情報を用いて、状態ベクトルSの初期値を設定する。設定された状態ベクトルの初期値を用いて、複数のパーティクルを生成する。生成された各パーティクルについて、当該パーティクルの状態ベクトルが表す仮想的な走行レーンについて、上記(3)式に従って、重みを計算する。 The lane recognition unit 32 acquires road information (lane width, curvature, etc.) at the current own vehicle position from the navigation map data based on the detected own vehicle position, and uses the own vehicle position and road information, An initial value of the state vector S is set. A plurality of particles are generated using the initial value of the set state vector. For each generated particle, the weight is calculated according to the above equation (3) for the virtual traveling lane represented by the state vector of the particle.
計算された重みに応じて、生成された各パーティクルから、パーティクルをサンプリングし、サンプリングされた各パーティクルの状態ベクトルを、上記(2)式に従って更新する。各時刻で検出された走行可能領域に基づく道路エネルギーマップに基づいて、各パーティクルの重みの計算、及びパーティクルのサンプリングを各時刻において繰り返すことにより、各時刻の車両位置におけるレーンパラメータを推定し、推定された各時刻のレーンパラメータに基づいて、自車両が走行している各時刻の仮想的な走行レーンを認識する(図5参照)。 In accordance with the calculated weight, the particles are sampled from the generated particles, and the state vectors of the sampled particles are updated according to the above equation (2). Based on the road energy map based on the travelable area detected at each time, the lane parameters at the vehicle position at each time are estimated and estimated by repeating the calculation of the weight of each particle and the sampling of the particle at each time. Based on the lane parameter at each time, a virtual travel lane at each time the host vehicle is traveling is recognized (see FIG. 5).
次に、認識された走行レーン又は仮想走行レーンと検出された車両とのコンテクスト相関に基づいて、仮想目標を生成する原理について説明する。 Next, the principle of generating a virtual target based on the context correlation between the recognized travel lane or virtual travel lane and the detected vehicle will be described.
現実の世界では、環境と環境内で見られる物体との間、例えば道路と車両との間には強い関係が存在する。物体の構成を現実世界へ特徴付けることができる物体の設定と当該物体との間の5つの関係クラスを提示する。これらは、1)介在(物体がその背景に割り込む)、2)支持(物体が表面上で静止する傾向にある)、3)可能性(物体があるコンテクストでは見つかるが、別のコンテクストでは見つからない傾向にある)、4)位置(ある物体がある場面において予想される場合に、その物体は多くの場合ある位置で見つかり、他の位置では見つからない)、5)よく知られたサイズ(物体と他の物体とのサイズ関係の集合が限られたものである)である。そのようなコンテクスト情報は、物体検出において、少なくとも2つのやり方で有益な役割を果たすことができる。第1に、このコンテクスト情報は、考慮される必要のある位置および尺度の数を削減することにより物体識別を簡略化することができる。第2に、このコンテクスト情報は、クラッタ、雑音、遮蔽、ポーズおよび照明の変動といったいくつかの要因のために局所的な外観サポートが不十分であるときに、物体認識性能を改善するために、検出の仮説に再度重み付けすることができる。 In the real world, there is a strong relationship between the environment and the objects found in the environment, for example between the road and the vehicle. We present five relationship classes between object settings and objects that can characterize the composition of the object to the real world. These are: 1) intervening (object cuts into its background), 2) support (object tends to rest on the surface), 3) possibility (found in one context but not found in another context) 4) location (when an object is expected in one scene, the object is often found in one location and not found elsewhere), 5) a well-known size (with object The set of size relationships with other objects is limited). Such context information can play a beneficial role in object detection in at least two ways. First, this context information can simplify object identification by reducing the number of positions and scales that need to be considered. Second, this context information is used to improve object recognition performance when local appearance support is inadequate due to several factors such as clutter, noise, occlusion, pose and lighting variations. The detection hypothesis can be weighted again.
また、外観モデルだけによって返される誤検出は、以下の3つの主要カテゴリへ分けることができる。 In addition, false detections returned by only the appearance model can be divided into the following three main categories.
1)非現実的な位置における誤った車両検出:外観モデルによる検出では、多くの場合、立体視によって高い信頼度で検出される、空中や走行不可能領域内といった画像内の非現実的な位置に位置する車両を検出する。しかし、現実の世界では、車両は、道路上や道路の近くなど、ある一定の場所にある可能性がより高い。 1) Incorrect vehicle detection at an unrealistic position: In the detection by an appearance model, an unrealistic position in an image, such as in the air or in a non-running area, which is often detected with high reliability by stereoscopic vision. A vehicle located at is detected. However, in the real world, a vehicle is more likely to be at a certain location, such as on or near a road.
2)不合理なサイズを有する誤った車両検出:外観モデルによる検出では、多くの場合、カメラの近くに見えるが、きわめて小さい検出を返し、あるいはカメラから遠く離れているが、きわめて大きい検出を返す。しかし、ピンホール・カメラ・モデルによれば、画像内の車両サイズは、車両とカメラとの距離に反比例するはずである。 2) False vehicle detection with an unreasonable size: Appearance model detection often looks close to the camera, but returns very small detection or is far away from the camera but returns very large detection . However, according to the pinhole camera model, the vehicle size in the image should be inversely proportional to the distance between the vehicle and the camera.
3)弱い外観サポートによる誤った車両未検出:現実の交通では、車両は普通、走行レーンに沿って走行する。自車レーン内の車両は、カメラから遠く離れているとき、画像内で非常に小さい場合もある。隣のレーンの車両は、前方の車両による遮蔽のために一部しか見えない場合もある。これらの場合には、外観サポートが弱すぎて、外観モデルだけによって検出することができなくなる。 3) False vehicle not detected due to weak appearance support: In real traffic, the vehicle usually travels along the lane. A vehicle in its own lane may be very small in the image when it is far away from the camera. The vehicles in the adjacent lanes may only be partially visible due to shielding by the vehicles ahead. In these cases, the appearance support is too weak to be detected by the appearance model alone.
上記の状況における車両検出の改善に寄与するように、本実施の形態では、低レベルの検出改善と高レベルの道路理解との両方のために、検出される走行可能領域の境界によって提供される空間的コンテクストを組み合わせる。そのような手法は、ADASシステムの性能ならびに信頼性を大幅に改善することができる。 To contribute to improved vehicle detection in the above situation, the present embodiment is provided by the boundaries of detected travelable areas for both low level detection improvement and high level road understanding. Combine spatial contexts. Such an approach can greatly improve the performance and reliability of the ADAS system.
本実施の形態では、車両検出部26により、関心領域ROI内で、車両候補を検出する。コンテクスト相関計算部34では、検出された車両候補が以下の2つの方法で使用される。一方の方法では、比較的高い外観証拠を有する車両候補を抽出するために、粗い閾値処理が実行される。他方の方法では、空間的位置および空間的大きさを含む空間的サポートを探索するために、車両候補を道路コンテクストと相関させる。次いで、得られる結果の両方について、車両認識の出力のためのAND論理を用いて、交差検証が行われ、それによって、外観と空間的サポートの両方について最も妥当な車両検出結果が取り出される。 In the present embodiment, the vehicle detection unit 26 detects vehicle candidates within the region of interest ROI. In the context correlation calculation unit 34, the detected vehicle candidate is used in the following two methods. In one method, rough threshold processing is performed in order to extract vehicle candidates having relatively high appearance evidence. In the other method, vehicle candidates are correlated with the road context to search for spatial support including spatial location and size. Both results obtained are then cross-validated using AND logic for the vehicle recognition output, thereby retrieving the most reasonable vehicle detection results for both appearance and spatial support.
また、本実施の形態では、道路と、バウンディングボックスb={pu,pv,w,h}で表示される車両候補(図6(a)の矩形枠参照)との間の車両空間構成を取り込むための特徴ベクトルを、4次元空間的コンテクスト記述子β={dL,dR,O,H}として定義する。(pu,pv)は、バウンディングボックスの左上点の画像座標であり、w、hは、それぞれ、バウンディングボックスの幅と高さである。dLは、自車レーンのセンターライン(図6(c)のドッド部分参照)までの車両候補の距離である。前述のように、弱い外観サポートを有する車両は、普通、走行レーンにおいて現れ、したがって、本実施の形態では、平行な走行レーン内に位置する車両候補には高い重みを与え、可能性がない位置に位置する車両候補には低い重みを割り当てる。dRは、道路領域までの車両候補の垂直方向の距離である。道路上を走行している車両は、検出される走行可能領域の近くにあるはずであり、その場合、高い重みが割り当てられる。垂直方向に道路領域から遠く離れている車両候補は、普通、地上に属するものではない。本実施の形態では、距離測定の水平方向を省く。というのは、相対的水平位置は、交通シナリオにおいていかなる識別情報ももたないからである。図6(b)に示すように、車両候補の距離はすべて、視差マップからの3次元再構築により得られる正投影画像において測定される。Oは、走行可能領域に対する車両候補のバウンディングボックスのオーバーラップ率である。すなわち、以下の式で、オーバーラップ率Oが計算される。 In the present embodiment, the vehicle space configuration between the road and the vehicle candidates (see the rectangular frame in FIG. 6A) displayed in the bounding box b = {p u , p v , w, h}. Is defined as a four-dimensional spatial context descriptor β = {d L , d R , O, H}. (P u , p v ) are the image coordinates of the upper left point of the bounding box, and w and h are the width and height of the bounding box, respectively. d L is the distance of the vehicle candidate to the center line of the own vehicle lane (see the dodd portion in FIG. 6C). As described above, a vehicle having a weak appearance support usually appears in a driving lane, and therefore, in the present embodiment, a high weight is given to a candidate vehicle located in a parallel driving lane, and a position where there is no possibility. A low weight is assigned to the vehicle candidate located at. d R is the vertical distance of the vehicle candidate to the road area. A vehicle traveling on the road should be near the detected travelable area, in which case a higher weight is assigned. Vehicle candidates that are far away from the road area in the vertical direction usually do not belong to the ground. In the present embodiment, the horizontal direction of distance measurement is omitted. This is because the relative horizontal position does not have any identifying information in a traffic scenario. As shown in FIG. 6B, all the distances of the vehicle candidates are measured in an orthographic image obtained by three-dimensional reconstruction from the parallax map. O is the overlap rate of the bounding box of the vehicle candidate with respect to the travelable area. That is, the overlap rate O is calculated by the following equation.
O =(バウンディングボックス内での走行可能領域の画素数)/(バウンディングボックスの総画素数) O = (number of pixels in the travelable area in the bounding box) / (total number of pixels in the bounding box)
大きいオーバーラップ率は誤検出に対応する。というのは、道路検出部24による走行可能領域の検出の信頼度が非常に高いからである。Hは現実の世界での車高であり、これはバウンディングボックスから推定され、すなわち、H=h・dc/fである。ただし、dcは車両候補とカメラとの距離であり、fはカメラの焦点距離である。現実の車両は、当該車両の車種に従って、予め定められた高さを有するはずである。 A large overlap rate corresponds to false detection. This is because the reliability of detection of the travelable area by the road detection unit 24 is very high. H is the vehicle height in the real world, which is estimated from the bounding box, ie H = h · d c / f. However, d c is the distance between the vehicle candidate and the camera, f is the focal length of the camera. The actual vehicle should have a predetermined height according to the vehicle type of the vehicle.
すべての特徴は、検出される車両の特定位置およびよく知られたサイズについて高い重みを与えるため、本実施の形態では、これらを、車両候補に再度重み付けするためのコンテクストスコアを計算するためのガウス分布としてモデル化する。特に、本実施の形態では、以下の(5)式で計算されるスコアSconを、車両候補に対する検出スコアに加算して、再度スコアを計算する。 All features give high weights to the specific location and well-known size of the vehicle being detected, so in this embodiment they are Gaussian to calculate a context score for re-weighting the vehicle candidates. Model as a distribution. In particular, in the present embodiment, the score Scon calculated by the following equation (5) is added to the detection score for the vehicle candidate, and the score is calculated again.
ただし、(μ,σ)は、特徴の平均値および標準偏差であり、実データから得られる。iは、走行レーンの数を表す。ここで、本実施の形態では、自車両が走行する走行レーンと隣接する走行レーンとがある場合を考察する。したがって、本実施の形態では、自車走行レーンと隣接する走行レーンとにそれぞれ位置する車両に対応する、dLについての2組の(μ,σ)を得る。同様に本実施の形態では、乗用車などの普通サイズの車両と、トラックなどの大型車両とに対応する、Hについての2組の(μ,σ)も得る。λは、コンテクストスコアの重みを調整するための重みパラメータである。本実施の形態ではλ=0.5に設定し、これにより、0と2との間の値が、検出される車両のサイズおよび位置に応じて、[−1,1]の範囲内の検出スコアに加算されることになる。 However, (μ, σ) is an average value and a standard deviation of features, and is obtained from actual data. i represents the number of traveling lanes. Here, in this embodiment, a case where there is a traveling lane in which the host vehicle travels and an adjacent traveling lane is considered. Therefore, in the present embodiment, two sets (μ, σ) for d L corresponding to vehicles located in the own vehicle traveling lane and the adjacent traveling lane are obtained. Similarly, in the present embodiment, two sets (μ, σ) of H corresponding to a normal size vehicle such as a passenger car and a large vehicle such as a truck are also obtained. λ is a weight parameter for adjusting the weight of the context score. In this embodiment, λ = 0.5 is set so that a value between 0 and 2 is detected within the range of [−1, 1] according to the size and position of the detected vehicle. It will be added to the score.
以上のように、本実施の形態に係る運転支援制御装置10では、コンテクスト相関計算部34によって、車両検出部26において検出された車両候補の各々について、レーン認識部32によって認識された走行レーン又は仮想走行レーンとのコンテクスト相関を計算する。 As described above, in the driving support control apparatus 10 according to the present embodiment, the driving lane recognized by the lane recognition unit 32 for each of the vehicle candidates detected by the vehicle detection unit 26 by the context correlation calculation unit 34 or Calculate the context correlation with the virtual lane.
コンテクストモデル記憶部36には、上記(5)式における各種パラメータが、コンテクストモデルを表すデータとして記憶されている。 In the context model storage unit 36, various parameters in the equation (5) are stored as data representing the context model.
対象車両検出部37は、コンテクスト相関計算部34によって計算されたコンテクスト相関、及びコンテクストモデルを表すデータに基づいて、車両検出部26において検出された車両候補の各々について、上記(5)式に従って、スコアSconを計算し、検出スコアに加算して、再度スコアを算出し、算出されたスコアに基づいて、車両を検出する。また、対象車両検出部37は、車両検出部26において検出された車両候補の各々について、粗い閾値処理により、車両を検出する。対象車両検出部37は、粗い閾値処理による車両の検出結果と、再度算出されたスコアに基づく車両の検出結果とに対して、AND論理により、車両を検出する。 The target vehicle detection unit 37, for each of the vehicle candidates detected by the vehicle detection unit 26 based on the context correlation calculated by the context correlation calculation unit 34 and the data representing the context model, according to the above equation (5). The score Scon is calculated, added to the detection score, the score is calculated again, and the vehicle is detected based on the calculated score. Further, the target vehicle detection unit 37 detects a vehicle by rough threshold processing for each of the vehicle candidates detected by the vehicle detection unit 26. The target vehicle detection unit 37 detects the vehicle by AND logic with respect to the detection result of the vehicle by the rough threshold process and the detection result of the vehicle based on the score calculated again.
仮想目標生成部38は、対象車両検出部37によって検出された車両と、レーン認識部32によって認識された走行レーン又は仮想走行レーンとに基づいて、自車両が走行している走行レーン内の車両を、追従運転制御の仮想目標として生成して、運転支援部18へ出力する。また、仮想目標生成部38は、レーン認識部32によって認識された走行レーン又は仮想走行レーンを、車線維持制御の仮想目標として運転支援部18へ出力する。 The virtual target generation unit 38 is a vehicle in a travel lane in which the host vehicle is traveling based on the vehicle detected by the target vehicle detection unit 37 and the travel lane or virtual travel lane recognized by the lane recognition unit 32. Is generated as a virtual target for the follow-up driving control and output to the driving support unit 18. Further, the virtual target generation unit 38 outputs the travel lane or virtual travel lane recognized by the lane recognition unit 32 to the driving support unit 18 as a virtual target for lane keeping control.
なお、空間的コンテクストに関する特徴の平均値および標準偏差を、事前に定義するのではなく、学習することにより求めてもよい。この場合には、車両と道路との間の空間的相互作用の一般的で、かつ、ロバストな記述がもたらされる。例えば、640×480画素の解像度で毎秒ほぼ15フレームを生じる同期された1対のカメラを装備する実験車両から記録されたデータセット(例えば、750フレームのデータセット)を使用して、平均値及び標準偏差のパラメータ学習を行う。なお、データセットについて、画像において車体の1/4超が見えている限り、すべての車両インスタンスに手操作でラベル付けした。 In addition, you may obtain | require the average value and standard deviation of the characteristic regarding a spatial context not by defining in advance but by learning. In this case, a general and robust description of the spatial interaction between the vehicle and the road is provided. For example, using a data set (eg, a 750 frame data set) recorded from an experimental vehicle equipped with a synchronized pair of cameras that produces approximately 15 frames per second at a resolution of 640 × 480 pixels, the average value and Perform standard deviation parameter learning. For the data set, all vehicle instances were manually labeled as long as more than ¼ of the vehicle body was visible in the image.
<運転支援制御装置の作用>
次に、本実施の形態の作用について説明する。
<Operation of the driving support control device>
Next, the operation of the present embodiment will be described.
運転支援制御装置10を搭載した車両が走行しているときであって、撮像装置14によって自車両の前方を撮像し、ステレオ画像を逐次生成すると共に、GPS受信部12によって、GPS衛星からの信号を逐次受信しているときに、運転支援制御装置10は、図7に示す仮想目標生成処理ルーチンを実行する。 When the vehicle equipped with the driving support control device 10 is running, the imaging device 14 captures the front of the host vehicle, sequentially generates a stereo image, and the GPS receiver 12 generates a signal from a GPS satellite. Are sequentially received, the driving support control device 10 executes a virtual target generation processing routine shown in FIG.
ステップ100では、撮像装置14によって生成されたステレオ画像を取得し、ステップ102において、GPS受信部12によって受信したGPS信号を取得し、自車両の絶対位置を検出する。 In step 100, the stereo image produced | generated by the imaging device 14 is acquired, and in step 102, the GPS signal received by the GPS receiving part 12 is acquired, and the absolute position of the own vehicle is detected.
次のステップ104では、上記ステップ100で取得したステレオ画像の左画像から、車両候補を検出し、車両候補の検出処理で得られた車両候補の検出スコアに対する閾値処理により、車両を検出する。ステップ106では、上記ステップ100で取得したステレオ画像の左画像から、レーンマークを検出する。ステップ108では、上記ステップ106でレーンマークが検出されたか否かを判定する。レーンマークが検出された場合には、ステップ110において、上記ステップ106で検出されたレーンマークに基づいて、走行レーンを認識する。 In the next step 104, a vehicle candidate is detected from the left image of the stereo image acquired in step 100, and the vehicle is detected by threshold processing for the detection score of the vehicle candidate obtained in the vehicle candidate detection process. In step 106, a lane mark is detected from the left image of the stereo image acquired in step 100. In step 108, it is determined whether or not a lane mark is detected in step 106. When the lane mark is detected, in step 110, the traveling lane is recognized based on the lane mark detected in step 106.
一方、レーンマークが検出されなかった場合には、ステップ112において、上記ステップ100で取得したステレオ画像、上記ステップ102で検出された自車両の絶対位置、及び上記ステップ104で検出された車両に基づいて、仮想的な走行レーンを生成する。 On the other hand, if no lane mark is detected, in step 112, based on the stereo image acquired in step 100, the absolute position of the host vehicle detected in step 102, and the vehicle detected in step 104. To generate a virtual driving lane.
ステップ114では、上記ステップ104で検出された車両候補の各々について、上記ステップ110で認識された走行レーン、又は上記ステップ112で生成された仮想的な走行レーンとのコンテクスト相関を計算する。 In step 114, for each vehicle candidate detected in step 104, a context correlation with the travel lane recognized in step 110 or the virtual travel lane generated in step 112 is calculated.
ステップ116において、上記ステップ104で検出された車両候補の各々について、上記ステップ114で計算されたコンテクスト相関、及びコンテクストモデルを表すデータ、当該車両候補の位置及び大きさに基づいて、上記(5)式に従って、コンテクスト相関に関するスコアを算出し、算出したスコアを、当該車両候補の検出スコアに加算して、当該車両候補のスコアを再度計算する。 In step 116, for each of the vehicle candidates detected in step 104, based on the context correlation calculated in step 114, the data representing the context model, the position and size of the vehicle candidate, (5) A score related to the context correlation is calculated according to the equation, the calculated score is added to the detection score of the vehicle candidate, and the score of the vehicle candidate is calculated again.
ステップ118では、上記ステップ104で検出された車両候補の各々について、検出スコアに対する粗い閾値処理を行った結果と、上記ステップ116で再度計算されたスコアに対する閾値処理を行った結果とに対して、AND論理により、車両を検出する。 In step 118, for each of the vehicle candidates detected in step 104, the result of performing rough threshold processing on the detected score and the result of performing threshold processing on the score recalculated in step 116, The vehicle is detected by AND logic.
ステップ120では、上記ステップ118で検出された車両と、上記ステップ110で認識された走行レーン、又は上記ステップ112で生成された仮想的な走行レーンとに基づいて、仮想目標を生成して、運転支援部18に出力して、上記ステップ100へ戻る。 In step 120, a virtual target is generated based on the vehicle detected in step 118 and the driving lane recognized in step 110 or the virtual driving lane generated in step 112, and driving is performed. The data is output to the support unit 18 and the process returns to step 100.
上記の仮想目標生成処理ルーチンが繰り返し実行されることにより、逐次生成された仮想目標が、運転支援部18へ出力され、運転支援部18により、仮想目標に基づく運転支援が行われる。 By repeatedly executing the virtual target generation processing routine described above, the sequentially generated virtual targets are output to the driving support unit 18, and the driving support unit 18 performs driving support based on the virtual targets.
上記ステップ112は、図8に示す仮想レーン生成処理ルーチンによって実現される。 Step 112 is realized by the virtual lane generation processing routine shown in FIG.
ステップ130では、取得したステレオ画像に基づいて、視差マップを計算する。ステップ132では、上記ステップ130で計算された視差マップに基づいて、コストマップを生成する。ステップ134では、上記ステップ132で生成されたコストマップに基づいて、走行可能領域の境界を検出する。 In step 130, a parallax map is calculated based on the acquired stereo image. In step 132, a cost map is generated based on the parallax map calculated in step 130. In step 134, the boundary of the travelable area is detected based on the cost map generated in step 132.
ステップ135では、後述するステップ136により、仮想的な走行レーンを表すレーンパラメータの初期値がすでに設定されているか否かを判定する。レーンパラメータの初期値が設定済みである場合には、後述するステップ137へ移行する。一方、レーンパラメータの初期値が未設定である場合には、ステップ136において、上記ステップ102で検出された自車両の絶対位置と、地図データとに基づいて、自車両の位置における道路情報を取得し、取得した道路情報に基づいて、仮想的な走行レーンを表すレーンパラメータの初期値を設定する。 In step 135, it is determined whether or not the initial value of the lane parameter representing the virtual traveling lane has already been set in step 136 described later. When the initial value of the lane parameter has been set, the process proceeds to step 137 described later. On the other hand, if the initial value of the lane parameter is not set, in step 136, road information at the position of the own vehicle is acquired based on the absolute position of the own vehicle detected in step 102 and the map data. Then, based on the acquired road information, an initial value of a lane parameter representing a virtual traveling lane is set.
そして、ステップ138において、上記ステップ136で設定されたレーンパラメータの初期値又は前回更新されたパーティクルの状態ベクトルと、上記ステップ134で検出された走行可能領域の境界と、上記ステップ104で検出された車両とに基づいて、各パーティクルに対して、重みを計算して、計算された重みに従って、パーティクルをサンプリングすると共に、状態遷移モデルに従って、サンプリングされたパーティクルの各々の状態ベクトルを更新する。 In step 138, the initial value of the lane parameter set in step 136 or the state vector of the particle updated last time, the boundary of the travelable area detected in step 134, and the step 104 detected. Based on the vehicle, a weight is calculated for each particle, the particle is sampled according to the calculated weight, and the state vector of each sampled particle is updated according to the state transition model.
そして、ステップ138において、上記ステップ137で更新されたパーティクルの各々の状態ベクトルに基づいて、自車両の現在位置における仮想的な走行レーンを表すレーンパラメータを推定する。 In step 138, a lane parameter representing a virtual traveling lane at the current position of the host vehicle is estimated based on the state vectors of the particles updated in step 137.
ステップ140では、上記ステップ138で推定されたレーンパラメータに基づいて、仮想的な走行レーンを生成し、仮想レーン生成処理ルーチンを終了する。 In step 140, a virtual travel lane is generated based on the lane parameter estimated in step 138, and the virtual lane generation processing routine is terminated.
以上説明したように、本発明の第1の実施の形態に係る運転支援制御装置によれば、車両前方を撮像して生成されたステレオ画像から得られる視差マップに基づいて、車両の走行可能領域を検出し、GPS受信信号から検出される車両の絶対位置と、道路地図データとに基づいて、車両が走行している走行レーンを表すレーンパラメータの初期値を設定し、検出された走行可能領域と、レーンパラメータの初期値とに基づいて車両が走行している仮想的な走行レーンのレーンパラメータを推定することにより、白線が不明瞭もしくは存在しない場合であっても、仮想的な走行レーンを生成することができる。 As described above, according to the driving support control apparatus according to the first embodiment of the present invention, based on the parallax map obtained from the stereo image generated by imaging the front of the vehicle, the travelable region of the vehicle Based on the absolute position of the vehicle detected from the GPS reception signal and the road map data, the initial value of the lane parameter representing the traveling lane in which the vehicle is traveling is set, and the detected travelable area And the lane parameter of the virtual driving lane in which the vehicle is driving based on the initial value of the lane parameter, the virtual driving lane can be determined even if the white line is not clear or does not exist. Can be generated.
また、ステレオ画像に対するステレオマッチングにより求めた視差マップに基づいて、白線なし道路における走行可能領域が検出される。走行可能領域だけでは、自車の走行すべき経路を定めることは難しいが、ナビゲーション地図から得た道路形状情報を利用し、走行可能領域に曲線を当てはめることで、仮想走行レーンを生成できる。これは、自車の走行すべき経路を表している。 Further, a travelable area on a road without a white line is detected based on a parallax map obtained by stereo matching with respect to a stereo image. Although it is difficult to determine the route on which the vehicle should travel only with the travelable area, a virtual travel lane can be generated by using the road shape information obtained from the navigation map and applying a curve to the travelable area. This represents the route that the host vehicle should travel.
さらに、仮想走行レーンと車両の位置関係に基づいて、簡易な処理により、走路上の車両が追随すべき対象か回避すべき対象かを判定することができる。 Furthermore, based on the positional relationship between the virtual travel lane and the vehicle, it is possible to determine whether the vehicle on the road should be followed or avoided by simple processing.
次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る運転支援制御装置の構成は、第1の実施の形態と同様の構成となるため、同一符号を付して説明を省略する。 Next, a second embodiment will be described. In addition, since the structure of the driving assistance control apparatus which concerns on 2nd Embodiment becomes a structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.
第2の実施の形態では、自車両が走行している走行レーンではなく、衝突回避のための緊急走行レーンを表す仮想的な走行レーンを生成している点が、第1の実施の形態と異なっている。 In the second embodiment, not the travel lane in which the host vehicle is traveling, but a virtual travel lane that represents an emergency travel lane for avoiding a collision is generated. Is different.
第2の実施の形態では、レーン認識部32は、レーンマークのない道路について、パーティクルフィルタを使用して、追跡プロセスにおいてレーンレベルの道路構造を推定する。各推定周期において、1500個のパーティクルが生成され、これらのパーティクルと関連付けられた重みが、道路エネルギーマップ上の尤度測定に基づいて更新される。尤度スコアは次式によって計算される。 In the second embodiment, the lane recognition unit 32 estimates a lane level road structure in a tracking process using a particle filter for a road without a lane mark. In each estimation period, 1500 particles are generated and the weights associated with these particles are updated based on the likelihood measurement on the road energy map. The likelihood score is calculated by the following formula.
ただし、PLは、仮想的な左右のレーンマーク間の領域である。pはPL内部の画素であり、NPLは、PLのサイズである。ρは、道路点γのエネルギーを表す正の定数であり、γは、特定の点のエネルギーを調整するための正の定数である。 However, P L is a region between the virtual left and right lane marks. p is P L inner pixels, N PL is the size of the P L. ρ is a positive constant representing the energy of the road point γ, and γ is a positive constant for adjusting the energy of a specific point.
上記(7)式に示すように、各点pは、走行可能領域Proad、走行可能領域以外の領域Pnon-roadの何れかに分類される。 As shown in the above equation (7), each point p is classified into either a travelable region Proad or a region Pnon-road other than the travelable region.
このように、緊急レーンは、異なるエネルギーマップを使用することを除いて、仮想レーン生成と同様に推定される。このエネルギーマップは、走行可能領域Proadと、走行可能領域以外の領域Pnon-roadとを表している。 Thus, the emergency lane is estimated in the same manner as the virtual lane generation except that a different energy map is used. This energy map represents a travelable region Proad and a region Pnon-road other than the travelable region.
上記(7)式で負の無限大ではなく非常に大きい重みパラメータγを使用しているが、その理由は、このパラメータが、例えば雑音などのために避けられない場合を除いて、確実に非道路点が緊急レーンに含まれないようにするからである。 In the above equation (7), a very large weight parameter γ is used instead of negative infinity because the parameter is surely non-except unless it is unavoidable due to noise or the like. This is because the road points are not included in the emergency lane.
レーン認識部32は、検出された自車両位置に基づいて、ナビゲーション地図データから、現在の自車両位置における道路情報(レーン幅、曲率など)を取得し、自車両位置、道路情報を用いて、状態ベクトルの初期値を設定する。設定された状態ベクトルの初期値を用いて、複数のパーティクルを生成する。生成された各パーティクルについて、当該パーティクルの状態ベクトルが表す仮想的な走行レーンについて、上記(6)式に従って、重みを計算する。 The lane recognition unit 32 acquires road information (lane width, curvature, etc.) at the current own vehicle position from the navigation map data based on the detected own vehicle position, and uses the own vehicle position and road information, Set the initial value of the state vector. A plurality of particles are generated using the initial value of the set state vector. For each generated particle, a weight is calculated according to the above equation (6) for the virtual traveling lane represented by the state vector of the particle.
計算された重みに応じて、生成された各パーティクルから、パーティクルをサンプリングし、サンプリングされた各パーティクルの状態ベクトルを、上記(2)式に従って更新する。各パーティクルの重みの計算、及びパーティクルのサンプリングを各時刻において繰り返すことにより、各時刻の車両位置におけるレーンパラメータを推定し、推定された各時刻のレーンパラメータに基づいて、各時刻における仮想的な緊急走行レーンを認識する。 In accordance with the calculated weight, the particles are sampled from the generated particles, and the state vectors of the sampled particles are updated according to the above equation (2). By calculating the weight of each particle and sampling the particle at each time, the lane parameters at the vehicle position at each time are estimated, and based on the estimated lane parameters at each time, a virtual emergency at each time Recognize the driving lane.
仮想目標生成部38は、対象車両検出部37によって検出された車両を、障害物候補として検出すると共に、レーン認識部32によって認識された仮想緊急走行レーンを、追突回避運転制御の仮想目標として生成して、運転支援部18へ出力する。 The virtual target generation unit 38 detects the vehicle detected by the target vehicle detection unit 37 as an obstacle candidate, and generates the virtual emergency travel lane recognized by the lane recognition unit 32 as a virtual target for rear-end collision avoidance operation control. And output to the driving support unit 18.
なお、第2の実施の形態に係る運転支援制御装置の他の構成及び作用については、第1の実施の形態と同様であるため、説明を省略する。 In addition, about the other structure and effect | action of the driving assistance control apparatus which concern on 2nd Embodiment, since it is the same as that of 1st Embodiment, description is abbreviate | omitted.
このように、車両前方を撮像して生成されたステレオ画像から得られる視差マップに基づいて、車両の走行可能領域を検出し、検出された走行可能領域に基づくコストマップに従って、緊急走行レーンのレーンパラメータを推定することにより、白線が不明瞭もしくは存在しない場合であっても、仮想的な緊急走行レーンを生成することができる。 In this way, the vehicle travelable area is detected based on the parallax map obtained from the stereo image generated by imaging the front of the vehicle, and the lane of the emergency travel lane is determined according to the cost map based on the detected travelable area. By estimating the parameters, a virtual emergency lane can be generated even when the white line is not clear or does not exist.
10 運転支援制御装置
12 GPS受信部
14 撮像装置
16 コンピュータ
18 運転支援部
20 位置検出部
22 レーンマーク検出部
24 道路検出部
26 車両検出部
28 地図データベース
30 道路モデル記憶部
32 レーン認識部
34 コンテクスト相関計算部
36 コンテクストモデル記憶部
37 対象車両検出部
38 仮想目標生成部
DESCRIPTION OF SYMBOLS 10 Driving assistance control apparatus 12 GPS receiving part 14 Imaging device 16 Computer 18 Driving assistance part 20 Position detection part 22 Lane mark detection part 24 Road detection part 26 Vehicle detection part 28 Map database 30 Road model memory | storage part 32 Lane recognition part 34 Context correlation Calculation unit 36 Context model storage unit 37 Target vehicle detection unit 38 Virtual target generation unit
Claims (6)
前記車両の絶対位置を検出する位置検出手段によって検出された前記車両の絶対位置と、各地点の道路情報を表す予め用意された道路地図データとに基づいて、前記車両が走行している走行レーンを表すレーンパラメータの初期値を設定する初期値設定手段と、
前記道路検出手段によって検出された前記走行可能領域と、前記初期値設定手段によって設定された前記レーンパラメータの初期値とに基づいて、前記車両が走行している仮想的な走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、前記車両が走行している仮想的な走行レーンを表すデータを生成する仮想レーン生成手段と、
を含み、
前記道路検出手段は、各時刻について、前記撮像手段によって生成されたステレオ画像に基づいて得られる前記ステレオ画像の視差情報に基づいて、前記走行可能領域を検出し、
前記仮想レーン生成手段は、前記初期値設定手段によって設定されたレーンパラメータの初期値を表すパーティクルを複数生成し、
各時刻について、前記道路検出手段によって検出された前記走行可能領域に基づいて、前記複数のパーティクルから前記パーティクルの各々をサンプリングし、サンプリングされた前記パーティクルの各々が表すレーンパラメータを、予め定められた状態遷移モデルに従って更新することを繰り返すことにより、各時刻について前記仮想的な走行レーンを表すレーンパラメータを推定し、推定されたレーンパラメータに基づいて、前記仮想的な走行レーンを表すデータを生成する仮想レーン生成装置。 A vehicle travelable area is detected based on parallax information of the stereo image obtained on the basis of a stereo image that is mounted on a vehicle and that captures the periphery of the vehicle and generates a stereo image. Road detection means to
A traveling lane in which the vehicle is traveling based on the absolute position of the vehicle detected by a position detecting unit that detects the absolute position of the vehicle and road map data prepared in advance representing road information at each point Initial value setting means for setting an initial value of a lane parameter representing
Based on the travelable area detected by the road detection unit and the initial value of the lane parameter set by the initial value setting unit, the lane parameter of a virtual travel lane in which the vehicle is traveling is determined. Virtual lane generation means for generating data representing a virtual traveling lane in which the vehicle is traveling based on the estimated lane parameters,
Only including,
The road detection means detects the travelable area based on parallax information of the stereo image obtained based on the stereo image generated by the imaging means for each time,
The virtual lane generation unit generates a plurality of particles representing initial values of lane parameters set by the initial value setting unit,
For each time, based on the travelable area detected by the road detection means, each of the particles is sampled from the plurality of particles, and a lane parameter represented by each of the sampled particles is determined in advance. By repeatedly updating according to the state transition model, the lane parameter representing the virtual traveling lane is estimated at each time, and data representing the virtual traveling lane is generated based on the estimated lane parameter. Virtual lane generator.
前記撮像手段によって生成されたステレオ画像に基づいて検出される前記車両が走行している走行レーン、又は前記仮想レーン生成手段によって生成された前記仮想的な走行レーンと、前記車両検出手段によって検出された車両候補との関係に基づいて、運転支援に用いられる対象車両を検出する対象車両検出手段と、
を更に含む請求項1記載の仮想レーン生成装置。 Vehicle detection means for detecting a vehicle candidate based on at least one of the stereo images generated by the imaging means;
A travel lane in which the vehicle is detected detected based on the stereo image generated by the imaging means, or the virtual travel lane generated by the virtual lane generation means, and detected by the vehicle detection means. A target vehicle detecting means for detecting a target vehicle used for driving support based on the relationship with the vehicle candidate,
The virtual lane generation device according to claim 1, further comprising:
前記仮想レーン生成手段は、各時刻について、前記道路検出手段によって検出された前記走行可能領域のうちの、前記車両検出手段によって検出された車両が走行している他の走行レーンの領域と重複する走行レーンのレーンパラメータを表すパーティクルに対して、前記車両が走行している走行レーンの領域と重複するほど、小さな重みを付して、前記パーティクルの各々をサンプリングし、サンプリングされた前記パーティクルの各々が表すレーンパラメータを、前記状態遷移モデルに従って更新する請求項1〜請求項3の何れか1項記載の仮想レーン生成装置。 Vehicle detection means for detecting a vehicle based on at least one of the stereo images generated by the imaging means;
The virtual lane generation unit overlaps with other travel lane regions where the vehicle detected by the vehicle detection unit is traveling among the travelable regions detected by the road detection unit for each time. The particles representing the lane parameters of the traveling lane are sampled each of the particles by applying a smaller weight so as to overlap the region of the traveling lane in which the vehicle is traveling, and each of the sampled particles lane parameters representing the virtual lane generating apparatus of any one of claims 1 to 3 for updating in accordance with the state transition model.
車両に搭載され、かつ、前記車両の周辺を撮像してステレオ画像を生成する撮像手段によって生成されたステレオ画像に基づいて得られる前記ステレオ画像の視差情報に基づいて、車両の走行可能領域を検出する道路検出手段、
前記車両の絶対位置を検出する位置検出手段によって検出された前記車両の絶対位置と、各地点の道路情報を表す予め用意された道路地図データとに基づいて、前記車両が走行している走行レーンを表すレーンパラメータの初期値を設定する初期値設定手段、及び
前記道路検出手段によって検出された前記走行可能領域と、前記初期値設定手段によって設定された前記レーンパラメータの初期値とに基づいて、前記車両が走行している仮想的な走行レーンのレーンパラメータを推定し、前記推定されたレーンパラメータに基づいて、前記車両が走行している仮想的な走行レーンを表すデータを生成する仮想レーン生成手段
として機能させるためのプログラムであって、
前記道路検出手段は、各時刻について、前記撮像手段によって生成されたステレオ画像に基づいて得られる前記ステレオ画像の視差情報に基づいて、前記走行可能領域を検出し、
前記仮想レーン生成手段は、前記初期値設定手段によって設定されたレーンパラメータの初期値を表すパーティクルを複数生成し、
各時刻について、前記道路検出手段によって検出された前記走行可能領域に基づいて、前記複数のパーティクルから前記パーティクルの各々をサンプリングし、サンプリングされた前記パーティクルの各々が表すレーンパラメータを、予め定められた状態遷移モデルに従って更新することを繰り返すことにより、各時刻について前記仮想的な走行レーンを表すレーンパラメータを推定し、推定されたレーンパラメータに基づいて、前記仮想的な走行レーンを表すデータを生成するプログラム。 Computer
A vehicle travelable area is detected based on parallax information of the stereo image obtained on the basis of a stereo image that is mounted on a vehicle and that captures the periphery of the vehicle and generates a stereo image. Road detection means,
A traveling lane in which the vehicle is traveling based on the absolute position of the vehicle detected by a position detecting unit that detects the absolute position of the vehicle and road map data prepared in advance representing road information at each point Based on the initial value setting means for setting the initial value of the lane parameter that represents, the travelable area detected by the road detection means, and the initial value of the lane parameter set by the initial value setting means, Virtual lane generation for estimating lane parameters of a virtual traveling lane in which the vehicle is traveling and generating data representing the virtual traveling lane in which the vehicle is traveling based on the estimated lane parameters A program for functioning as a means ,
The road detection means detects the travelable area based on parallax information of the stereo image obtained based on the stereo image generated by the imaging means for each time,
The virtual lane generation unit generates a plurality of particles representing initial values of lane parameters set by the initial value setting unit,
For each time, based on the travelable area detected by the road detection means, each of the particles is sampled from the plurality of particles, and a lane parameter represented by each of the sampled particles is determined in advance. By repeatedly updating according to the state transition model, the lane parameter representing the virtual traveling lane is estimated at each time, and data representing the virtual traveling lane is generated based on the estimated lane parameter. Program .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013129956A JP6171612B2 (en) | 2013-06-20 | 2013-06-20 | Virtual lane generation apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013129956A JP6171612B2 (en) | 2013-06-20 | 2013-06-20 | Virtual lane generation apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015005132A JP2015005132A (en) | 2015-01-08 |
JP6171612B2 true JP6171612B2 (en) | 2017-08-02 |
Family
ID=52300975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013129956A Expired - Fee Related JP6171612B2 (en) | 2013-06-20 | 2013-06-20 | Virtual lane generation apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6171612B2 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101714185B1 (en) | 2015-08-05 | 2017-03-22 | 엘지전자 주식회사 | Driver Assistance Apparatus and Vehicle Having The Same |
JP6243931B2 (en) * | 2016-01-08 | 2017-12-06 | 株式会社Subaru | Vehicle travel control device |
DE102016210032A1 (en) * | 2016-06-07 | 2017-12-07 | Robert Bosch Gmbh | Method Device and system for wrong driver identification |
DE102016210029A1 (en) * | 2016-06-07 | 2017-12-07 | Robert Bosch Gmbh | Method Device and system for wrong driver identification |
JP6500844B2 (en) * | 2016-06-10 | 2019-04-17 | 株式会社デンソー | Vehicle position and attitude calculation device and vehicle position and attitude calculation program |
JP6550014B2 (en) * | 2016-06-16 | 2019-07-24 | 株式会社Soken | Road surface detection device |
KR102222801B1 (en) * | 2016-07-12 | 2021-03-05 | 닛산 지도우샤 가부시키가이샤 | Driving control method and driving control device |
CN106681318A (en) * | 2016-12-09 | 2017-05-17 | 重庆长安汽车股份有限公司 | Vehicle safety control system and method for lane line detection temporary loss in automatic drive |
CN108583417B (en) * | 2018-04-25 | 2020-09-29 | 深圳市易成自动驾驶技术有限公司 | Lane projection method, lane projection system, projection terminal and storage medium |
KR102595897B1 (en) * | 2018-08-27 | 2023-10-30 | 삼성전자 주식회사 | Method and apparatus of determining road line |
JP7172295B2 (en) * | 2018-08-30 | 2022-11-16 | トヨタ自動車株式会社 | Control device, manager, control system, control method, control program and vehicle |
US20230174112A1 (en) * | 2019-06-24 | 2023-06-08 | Lg Electronics Inc. | Travel method of autonomous vehicle |
JP7156218B2 (en) * | 2019-09-06 | 2022-10-19 | トヨタ自動車株式会社 | Driving support device |
US11688180B2 (en) | 2020-06-03 | 2023-06-27 | Continental Autonomous Mobility US, LLC | Lane departure warning without lane lines |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3700625B2 (en) * | 2001-08-28 | 2005-09-28 | 日産自動車株式会社 | Road white line recognition device |
JP3835438B2 (en) * | 2003-07-11 | 2006-10-18 | トヨタ自動車株式会社 | Vehicle control system for collision |
JP5300357B2 (en) * | 2008-07-22 | 2013-09-25 | 日立オートモティブシステムズ株式会社 | Collision prevention support device |
JP5276637B2 (en) * | 2010-09-08 | 2013-08-28 | 富士重工業株式会社 | Lane estimation device |
JP5513327B2 (en) * | 2010-09-08 | 2014-06-04 | 富士重工業株式会社 | Lane estimation device |
-
2013
- 2013-06-20 JP JP2013129956A patent/JP6171612B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015005132A (en) | 2015-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6171612B2 (en) | Virtual lane generation apparatus and program | |
CN109927719B (en) | Auxiliary driving method and system based on obstacle trajectory prediction | |
CN108571974B (en) | Vehicle positioning using a camera | |
US11948249B2 (en) | Bounding box estimation and lane vehicle association | |
CN110443225B (en) | Virtual and real lane line identification method and device based on feature pixel statistics | |
EP3258214B1 (en) | Object detection device | |
JP5407898B2 (en) | Object detection apparatus and program | |
JP5441549B2 (en) | Road shape recognition device | |
JP5531474B2 (en) | Map generation device, runway estimation device, movable region estimation device, and program | |
JP6492469B2 (en) | Own vehicle travel lane estimation device and program | |
US10553117B1 (en) | System and method for determining lane occupancy of surrounding vehicles | |
US20160363647A1 (en) | Vehicle positioning in intersection using visual cues, stationary objects, and gps | |
JP6520740B2 (en) | Object detection method, object detection device, and program | |
WO2017130640A1 (en) | Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program | |
Paetzold et al. | Road recognition in urban environment | |
CN105182364A (en) | Collision avoidance with static targets in narrow spaces | |
JP2012185011A (en) | Mobile position measuring apparatus | |
KR102441075B1 (en) | Apparatus and method for estmating position of vehicle base on road surface display | |
JP6815963B2 (en) | External recognition device for vehicles | |
Liu et al. | Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions | |
JP4940177B2 (en) | Traffic flow measuring device | |
CN112789208B (en) | Apparatus and method for estimating vehicle position | |
US11403951B2 (en) | Driving assistance for a motor vehicle when approaching a tollgate | |
JP7289761B2 (en) | Vehicle self-position estimation device and self-position estimation method | |
US20230245323A1 (en) | Object tracking device, object tracking method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6171612 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |