JP2020052585A - 区画線認識装置 - Google Patents
区画線認識装置 Download PDFInfo
- Publication number
- JP2020052585A JP2020052585A JP2018179483A JP2018179483A JP2020052585A JP 2020052585 A JP2020052585 A JP 2020052585A JP 2018179483 A JP2018179483 A JP 2018179483A JP 2018179483 A JP2018179483 A JP 2018179483A JP 2020052585 A JP2020052585 A JP 2020052585A
- Authority
- JP
- Japan
- Prior art keywords
- white line
- vehicle
- lane
- unit
- lane marking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009825 accumulation Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 117
- 238000000034 method Methods 0.000 description 59
- 238000010586 diagram Methods 0.000 description 29
- 238000004364 calculation method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/30—Road curve radius
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】道路上の区画線の位置を正確に認識する。【解決手段】区画線認識装置は、自車両に搭載された複数のカメラ101でそれぞれ撮影された複数の画像から道路上の区画線を認識する装置であり、自車両の移動量を推定する移動量推定部203と、複数の画像から区画線の候補としてそれぞれ認識された複数の白線候補の位置を推定する区画線位置推定部201と、移動量推定部203が推定した自車両の移動量と、区画線位置推定部201が推定した白線候補の位置の履歴とに基づいて、現在の白線の位置を決定する区画線位置決定部205とを備える。【選択図】図2
Description
本発明は、道路上の区画線を認識する装置に関する。
従来、複数のカメラでそれぞれ撮像された画像に基づいて、車両の周囲に存在する道路上の区画線(白線)を認識する装置が知られている。特許文献1には、車両の車速を検出する車速検出手段と、前記車両に搭載され、前記車両が走行する車線を区分する左右の白線を撮像することが可能な撮像手段と、前記撮像手段が撮像した画像から前記白線のエッジを抽出するエッジ抽出手段と、前記エッジ抽出手段で抽出した前記エッジを前記画像上の座標と対応付けて保持するエッジ保持手段と、前記エッジ保持手段が保持する前記エッジを、前記車速に応じた前記車両の移動量だけ車両進行方向反対側に移動して更新するエッジ更新手段と、前記エッジ保持手段が保持する前記エッジを線形補完して白線を認識する白線認識手段と、前記白線認識手段で認識した白線内における前記車両の位置及び姿勢を推定する位置姿勢推定手段とを備えることを特徴とする自車位置推定装置が開示されている。
特許文献1の自車位置推定装置では、量子化誤差、キャリブレーション誤差、道路形状の影響等により、各カメラが同じ区画線を捕捉しても、それぞれの画像から認識された区画線の位置には差異が生じることがある。このような場合に、区画線の認識結果を用いて車両制御を行うと、フレームごとの区画線の位置変動と車両挙動とが整合せず、車両制御の不安定化につながるおそれがある。
例えば、レーンキープをはじめとする自動運転において、自車がレーンの真ん中付近を走行するように制御している場合、白線位置の変動に伴って自車が左右に動くことになるため、自車の挙動が安定しなくなる。そのため、複数のカメラを用いた区画線認識装置において、道路上の区画線の位置を正確に認識できる技術が求められている。
本発明による区画線認識装置は、車両に搭載された複数のカメラによって時間経過とともに撮影された複数の画像から道路上の区画線の位置を特定する装置であって、当該時間経過における前記車両の移動量を推定する移動量推定部と、前記複数のカメラによって撮影されたそれぞれの画像から前記車両の位置を基準とした区画線を示す白線候補の位置を推定する区画線位置推定部と、前記移動量推定部が推定した当該時間経過における前記車両の移動量と、前記区画線位置推定部が推定した前記白線候補の位置の当該時間経過における変化とに基づいて、複数の前記白線候補の少なくとも一つを選択する区画線候補選択部と、前記区画線候補選択部が選択した白線候補の中から現在の区画線の位置を決定する区画線位置決定部と、前記移動量推定部が推定した前記車両の移動量と、当該時間経過前に前記区画線位置決定部が決定した前記区画線の位置とに基づいて、前記区画線の基準位置を設定する基準位置設定部と、を備え、前記区画線位置決定部は、前記基準位置設定部が設定した基準位置に最も近い前記白線候補を現在の前記区画線の位置として決定することを特徴とする。
本発明によれば、道路上の区画線の位置を正確に認識することができる。
(第1の実施形態)
図1は、本発明の一実施形態に係る区画線認識装置のハードウェア構成の例を示す図である。図1に示す区画線認識装置1は、車両に搭載された複数のカメラでそれぞれ撮影された複数の画像から道路上の区画線を認識するものであり、記憶装置103、CPU104、メモリ105、CAN I/F106を備える。区画線認識装置1には、自車両前方を監視するためのフロントカメラ101−Frと、自車両後方を監視するためのリアカメラ101−Rrと、自車両左側方を監視するための左サイドカメラ101−SLと、自車両右側方を監視するための右サイドカメラ101−SRとが接続されている。また、CANバス107を介して車両制御ユニット108が接続されている。なお、図1の例では上記の4つのカメラが区画線認識装置1に接続されているが、任意の台数のカメラでそれぞれ撮影された画像を区画線認識装置1に入力することで、区画線認識装置1において各画像から道路上の区画線を認識することができる。したがって以下では、上記の4つのカメラを区別せずに、共通のカメラ101として説明することもある。
図1は、本発明の一実施形態に係る区画線認識装置のハードウェア構成の例を示す図である。図1に示す区画線認識装置1は、車両に搭載された複数のカメラでそれぞれ撮影された複数の画像から道路上の区画線を認識するものであり、記憶装置103、CPU104、メモリ105、CAN I/F106を備える。区画線認識装置1には、自車両前方を監視するためのフロントカメラ101−Frと、自車両後方を監視するためのリアカメラ101−Rrと、自車両左側方を監視するための左サイドカメラ101−SLと、自車両右側方を監視するための右サイドカメラ101−SRとが接続されている。また、CANバス107を介して車両制御ユニット108が接続されている。なお、図1の例では上記の4つのカメラが区画線認識装置1に接続されているが、任意の台数のカメラでそれぞれ撮影された画像を区画線認識装置1に入力することで、区画線認識装置1において各画像から道路上の区画線を認識することができる。したがって以下では、上記の4つのカメラを区別せずに、共通のカメラ101として説明することもある。
記憶装置103には、区画線認識装置1の動作に必要な各種の情報やプログラムが記憶されている。CPU104は、記憶装置103に記憶されている所定のプログラムを実行することで、各カメラ101から入力された画像を用いて画像処理を行い、自車両の周辺に存在する道路上の区画線(白線)を認識する。なお、本実施形態では道路上の区画線として白線を認識する例を説明するが、区画線認識装置1が認識対象とする区画線は白線に限らない。道路上に存在しており、画像処理によって認識できるものであれば、区画線認識装置1は任意の区画線を認識対象とすることができる。メモリ105は揮発性の記憶媒体であり、CPU104が画像処理を実行する際の作業領域として用いられると共に、画像処理で得られた区画線の認識結果が蓄積される。メモリ105に蓄積された区画線の認識結果の情報は、CAN I/F106を介してCANバス107に出力され、車両制御ユニット108に送られる。車両制御ユニット108は、区画線認識装置1から送られた区画線の認識結果を用いて、たとえば自車両が走行車線から逸脱しないように自車両のステアリングを制御するなど、自車両の走行状態に応じた各種の車両制御を行う。
図2は、本発明の第1の実施形態に係る区画線認識装置の機能構成の例を示す図である。図2に示すように、本実施形態の区画線認識装置1は、区画線位置推定部201、区画線候補選択部202、移動量推定部203、基準位置設定部204、区画線位置決定部205を機能的に有する。区画線位置推定部201は、フロントカメラ101−Fr、リアカメラ101−Rr、左サイドカメラ101−SL、右サイドカメラ101−SRにそれぞれ対応するフロントカメラ用区画線位置推定部201−Fr、リアカメラ用区画線位置推定部201−Rr、左サイドカメラ用区画線位置推定部201−SL、右サイドカメラ用区画線位置推定部201−SRにより構成されている。区画線認識装置1は、CPU104で所定のプログラムを実行することにより、これらの各機能ブロックを実現する。
各カメラ101により撮影された画像は、所定の時間間隔で区画線位置推定部201に送られる。以下では、各カメラ101から所定時間ごとに入力される画像の各々を「フレーム」と称することもある。区画線位置推定部201は、各カメラ101でそれぞれ撮影された複数の画像を入力し、これら複数の画像に基づいて、自車両の位置を基準とした各白線候補の位置を推定する。具体的には、例えば、各カメラ101で撮影された画像から白線に対応する特徴点をそれぞれ抽出し、その特徴点を基に、自車両の周囲に存在する区画線の候補である白線候補を撮影画像ごとに認識する。そして、認識した各白線候補上の特徴点座標を、自車両の位置を基準として予め設定された座標系上の座標へとそれぞれ変換することで、自車両から各白線候補までの距離を推定する。区画線位置推定部201では、こうして得られた自車両から各白線候補までの距離の推定値を、自車両の位置を基準とした各白線候補の位置の推定結果として用いることができる。なお、自車両から各白線候補までの距離を推定する際には、例えば、最小二乗法やRANSAC(Random Sample Consensus)等の手法によって、特徴点座標の集合を基に各白線候補に対応する直線の方程式を求め、自車両の前輪位置等の予め決めた場所における当該直線の座標値を、各白線候補までの距離とすることができる。
また、区画線位置推定部201において画像から白線候補を認識する手法としては、例えば、周知のエッジ抽出による手法を用いることができる。具体的には、まず、各カメラ101で撮影された画像から、輝度値が黒色相当と白色相当の境界エッジをそれぞれ抽出する。次に、抽出したこれらの境界エッジ間の間隔を求め、間隔が白線幅相当であれば、境界エッジ上の白色相当の点を特徴点候補として抽出する。そして、抽出した複数の特徴点候補の並びが直線状であり、かつ長さが一定距離以上であれば、その並びを白線候補として認識し、各特徴点候補を白線に対応する候補点として抽出する。なお、上記以外にも、画像から白線候補を認識する手法としては様々なものが考えられるが、本実施形態においてはどのような手法であっても構わない。
移動量推定部203は、自車両が道路上を走行した際の自車両の移動量を推定する。移動量推定部203は、例えば、図1の車両制御ユニット108から自車両の位置変動に関する情報を取得し、この情報に基づいて、各カメラ101が撮影する画像の各フレーム間における自車両の移動量を推定する。車両制御ユニット108では、例えばGPS、車速パルス、ジャイロセンサ等を用いて自車両の位置、速度、進行方向をそれぞれ計算し、その計算結果を示す情報を区画線認識装置1へ出力する。移動量推定部203は、車両制御ユニット108から入力されたこれらの情報に基づき、各カメラ101による前フレームの撮影時点から現フレームの撮影時点までの自車両の横位置変化量、すなわち自車両の進行方向に対して左右方向での移動量を推定することで、自車両の移動量を推定する。なお、本実施形態では移動量推定部203において、自車両の移動量として横位置変化量を推定する例を説明するが、自車両と自車両の周辺に存在する白線との相対位置の変化量を示すものであれば、移動量推定部203において任意の物理量を自車両の移動量として推定することができる。
基準位置設定部204は、移動量推定部203が推定した自車両の移動量、すなわち横位置変化量と、前回の処理において区画線位置決定部205が決定した前フレームの撮影時点における白線位置とに基づいて、現フレームの撮影時点における白線の基準位置を設定する。基準位置設定部204が設定する白線の基準位置とは、現フレームの撮影時点において白線が存在する可能性が高い位置のことであり、区画線位置決定部205が白線位置を決定する際に用いられる。白線の基準位置は、例えば自車両からの距離として計算される。
区画線候補選択部202は、移動量推定部203が推定した自車両の移動量、すなわち横位置変化量と、区画線位置推定部201が推定した各白線候補のフレーム間での位置変化とに基づいて、各カメラ101の撮影画像からそれぞれ認識された複数の白線候補の少なくともいずれか一つを選択する。そして、選択した白線候補に対して区画線位置推定部201が推定した現フレームでの当該白線候補の位置、すなわち自車両から当該白線候補までの距離を、区画線位置決定部205に対して出力する。このとき区画線候補選択部202は、自車両の位置変化に対してつじつまが合う白線候補を選択し、つじつまが合わない白線候補を除外する。例えば、自車両が右方向に移動していれば、自車両の左側の白線は自車両から遠ざかり、右側の白線は自車両に近づくはずである。そのため、少なくともこうした動きに反する白線候補は、自車両の位置変化に対してつじつまが合わない白線候補として除外する。こうして白線候補を選択したら、区画線候補選択部202は、自車両から当該白線候補までの距離を区画線位置決定部205に出力する。
区画線位置決定部205は、移動量推定部203が推定した自車両の移動量、すなわち横位置変化量と、区画線位置推定部201が推定した白線候補の位置の履歴とに基づいて、現フレームの撮影時点における白線の位置を最終決定する。本実施形態では、区画線位置決定部205は、区画線候補選択部202が選択した白線候補に対して区画線位置推定部201が推定した現フレームの撮影時点での当該白線候補の位置、すなわち区画線候補選択部202から出力された自車両から当該白線候補までの距離と、基準位置設定部204が設定した白線の基準位置とに基づいて、現フレームの撮影時点における白線の位置を決定する。具体的には、例えば、区画線候補選択部202から出力された自車両から各白線候補までの距離のうち、基準位置との差がもっとも小さいものを選択し、その距離を現フレームの撮影時点における自車両から白線までの距離とする。なお、区画線位置決定部205が決定した白線位置は、基準位置設定部204に入力され、次フレームにおける基準位置の設定に用いられる。
図3は、区画線位置推定部201による白線候補の認識結果と自車両との位置関係の一例を示した図である。図3に示すように、自車両の左側に存在する白線に対して、例えば白線候補301−FrL、301−SL、301−RrLがそれぞれ認識され、自車両の右側に存在する白線に対して、例えば白線候補301−FrR、301−SR、301−RrRがそれぞれ認識されたとする。このとき、白線候補301−FrL、301−SL、301−RrLは、区画線位置推定部201のフロントカメラ用区画線位置推定部201−Fr、左サイドカメラ用区画線位置推定部201−SL、リアカメラ用区画線位置推定部201−Rrによってそれぞれ認識された白線候補であり、白線候補301−FrR、301−SR、301−RrRは、区画線位置推定部201のフロントカメラ用区画線位置推定部201−Fr、右サイドカメラ用区画線位置推定部201−SR、リアカメラ用区画線位置推定部201−Rrによってそれぞれ認識された白線候補である。つまり、区画線位置推定部201は、フロントカメラ101−Frとリアカメラ101−Rrでそれぞれ撮影された画像からは、自車両の左右に存在する2本の白線をそれぞれ認識することが可能であり、左サイドカメラ101−SLと右サイドカメラ101−SRでそれぞれ撮影された画像からは、自車両の左または右に存在する1本の白線をそれぞれ認識することが可能である。
図3の各白線候補を認識したら、区画線位置推定部201は、自車両から各白線候補までの距離として、前輪車軸中心から各白線候補までの距離を推定する。図3の例では、白線候補301−FrLまでの距離は170cm、白線候補301−SLまでの距離は240cm、白線候補301−RrLまでの距離は168cm、白線候補301−FrRまでの距離は180cm、白線候補301−SRまでの距離は280cm、白線候補301−RrRまでの距離は181cmとなっている。なお、図3の例では原点を前輪車軸中心として、ここから各白線候補までの距離を推定しているが、前輪車軸中心以外に、例えば後輪車軸中心、前輪、後輪などを原点として、各白線候補までの距離を推定してもよい。
次に、区画線認識装置1の処理フローについて説明する。図4は、本発明の第1の実施形態に係る区画線認識装置の処理フローを示す図である。図4の処理フローは、画像1フレーム分の処理を示している。すなわち、本実施形態の区画線認識装置1において、CPU104は、カメラ101から所定のフレームレートで画像が入力される度に、図4の処理フローに従って画像から区画線を認識する処理を実行する。
ステップ401では、移動量推定部203により、自車両の移動量、すなわち自車両の横位置変化量を推定する。ここでは前述のように、車両制御ユニット108から入力される自車両の位置、速度、進行方向等の情報に基づいて、前回の処理からの自車両の横位置変化量を推定する。ステップ401で移動量推定部203が推定した横位置変化量は、メモリ105に格納される。
ステップ401の処理を実施したら、区画線認識装置1は、各カメラ101に対して、当該カメラが認識可能な白線候補に応じた回数分だけステップ402〜404の処理をそれぞれ実施する。すなわち、フロントカメラ101−Frとリアカメラ101−Rrについては、左右の白線2本分に対してステップ402〜404の処理をそれぞれ実行し、左サイドカメラ101−SLと右サイドカメラ101−SRについては、左または右の白線1本分に対してステップ402〜404の処理をそれぞれ実行する。
まず、ステップ402では、区画線位置推定部201により、各カメラ101で撮影された画像において白線候補を認識する。ここでは前述のように、例えば画像から抽出された特徴点の並びによって白線を認識する。ただし、別のアルゴリズムや手法を用いて白線を認識してもよい。
次に、ステップ403では、区画線位置推定部201により、自車両からステップ402で認識した白線候補までの距離を求める。ここでは前述のように、例えば白線候補上の特徴点を直線の方程式に変換し、前輪車軸から白線候補までの距離を算出する。このとき、自車両からみて右側の白線候補については、前輪車軸に対して垂直な直線の方程式における切片の値がそのまま白線候補までの距離になり、左側の白線候補については、切片の値に-1を乗じた値が白線候補までの距離となる。
なお、ステップ403では、ステップ402で画像から抽出した特徴点の座標を画像の座標系から前輪車軸中心の世界座標系に変換することで、世界座標系における直線の方程式を求めることが可能である。一般的に、画像座標と世界座標の関係は、カメラの外部パラメータと内部パラメータによって記述が可能であり、世界座標への変換は、これらカメラパラメータを用いることで可能となる。各カメラ101の外部パラメータと内部パラメータを取得する処理は一般にキャリブレーション処理と呼ばれており、これを実現するための種々の技術が知られている。キャリブレーション処理は、自動車の出荷時に1回だけ実施する場合や、走行中に常時リアルタイムに実行される場合など、様々である。本実施形態の区画線認識装置1においては、ステップ403の処理を行う際に、既に保持しているキャリブレーション結果を取得してもよいし、走行中にその都度キャリブレーション処理を実行してもよい。
次に、ステップ404では、ステップ403の処理で求められた白線候補までの距離をメモリ105において一時的に格納する。このときの格納先のデータ構造は、例えば後述の図16に示すとおりである。なお、距離の単位はセンチメートルまたはメートルが好適であるが、他の単位を用いてもよい。
各カメラ101についてステップ402〜404の処理が終了したら、続いてステップ405〜407の処理を実行する。まず、ステップ405では、区画線候補選択部202により、ステップ402〜404の処理で認識した白線候補のうち、不適切な白線候補を除外する。この処理は前述のように、自車両の位置変化に対してつじつまが合わない白線候補を除外することで、以降の処理対象とする白線候補を選択する処理である。なお、ステップ405の処理の詳細については、後で図6の処理フローを参照して説明する。
次に、ステップ406では、基準位置設定部204により、現フレームの撮影時点における白線の基準位置を設定する。この処理は前述のように、現フレームの撮影時点において白線が存在する可能性が高い位置を白線の基準位置として設定する処理である。なお、ステップ406の処理の詳細については、後で図7の処理フローを参照して説明する。
最後に、ステップ407では、区画線位置決定部205により、現フレームの撮影時点における白線の位置として、自車両から白線までの距離を決定する。この処理は、ステップ405で不適切な白線候補を除外した後に残った各白線候補までの距離と、ステップ406で設定した基準位置とを比較し、その比較結果に基づいて、現フレームの撮影時点における白線の位置を最終決定する処理である。なお、ステップ407の処理の詳細については、後で図8の処理フローを参照して説明する。
図5は、本実施例で用いる区画線位置を示す図である。左側の区画線については点501−L、右側の区画線については点501−Rとなる。すなわち、前輪車軸の延長線上における、左右区画線の自車両に近い側のエッジである。尚、これは区画線位置の決め方の一例であり、後輪車軸や自車両の中心位置を基準としてもよい。しかしながら、レーンキープをはじめとした自動運転技術に本発明の実施例を適用することを鑑みれば、区画線のエッジのうち自車に近い方を区画線位置として採用することには合理性があり、自車から遠い方のエッジを用いることは想定しない。
このとき、点501−L、点501−Rの位置はともに、カメラ101−Rrやカメラ101−Frからは死角となる。しかしながら、各カメラ101においては、撮像可能な範囲で区画線を認識してそれを直線または曲線近似することで方程式を求め、点501−L、点501−Rの位置を推定することが可能である。
図6は、ステップ405で不適切な白線候補を除外する際の処理フローを示す図である。まずステップ601で、区画線候補選択部202は、ステップ401で移動量推定部203が推定した自車両の移動量、すなわち自車両の横位置変化量を取得する。なお、移動量推定部203による自車両の横位置変化量の推定結果は、区画線認識装置1において例えばメモリ105に格納されている。区画線候補選択部202は、これをメモリ105から読み込むことで、ステップ601の処理を実施する。
次にステップ602で、区画線候補選択部202は、前フレームにおける自車両の位置を基準とした白線の位置、すなわち自車両から左右の各白線までの距離を取得する。ここでは、前回の処理において自車両の左右の白線に対してステップ407でそれぞれ決定され、メモリ105に格納された距離のデータをメモリ105から読み出す。
区画線候補選択部202は、ステップ403で自車両からの距離を取得した各白線候補について、ステップ603〜607の処理をそれぞれ実施する。ステップ603では、区画線候補選択部202は、自車両から当該白線候補までの距離を取得する。ここでは、ステップ404で格納されたデータをメモリ105から読み出す。
ステップ604では、区画線候補選択部202は、自車両を基準とした当該白線候補の横移動方向を求める。ここでは、今回の処理におけるステップ603で取得した現フレームでの当該白線候補までの距離と、前回の処理におけるステップ603で取得した前フレームでの当該白線候補までの距離とを比較することで、当該白線候補の位置の変化、すなわち当該白線候補が自車両に対して前フレームでの位置から左右いずれの方向に移動しているかを求める。
ステップ605では、区画線候補選択部202は、ステップ601で取得した自車両の横位置変化量が示す自車両の横移動方向と、ステップ604で求めた当該白線候補の横移動方向とを比較する。
ステップ606では、ステップ605の比較結果に基づいて、当該白線候補の横移動方向が自車両の横移動方向と整合しているか否かを判定する。ここでは、自車両の横移動方向に対して当該白線候補の横移動方向が反対方向の場合、すなわち自車両が右方向に移動したときに当該白線候補が自車両に対して左方向に移動したか、あるいは自車両が左方向に移動したときに当該白線候補が自車両に対して右方向に移動した場合は、これらの移動方向が整合していると判定する。その場合、区画線候補選択部202は、何もせずにそのまま次の白線候補の処理に移る。一方、自車両の横移動方向と当該白線候補の横移動方向が同じ方向の場合や、自車両の横移動が0でないときに当該白線候補の横移動が0である場合は、これらの移動方向が整合していないと判定する。その場合、区画線候補選択部202は、ステップ607に進んで当該白線候補のデータをメモリ105から削除することにより、当該白線候補を以降の処理対象から除外し、次の白線候補の処理に移る。
全ての白線候補についてステップ603〜607の処理を実施したら、区画線候補選択部202は図6の処理フローを終了し、ステップ405の処理を完了する。
図4のステップ405では、以上説明した処理を実行することで、各カメラ101で撮影した画像から認識した白線候補のうち、自車両の位置変化に対してつじつまが合わない白線候補が除外され、適切な白線候補の選択が行われる。
図7は、ステップ406で白線の基準位置を設定する際の処理フローを示す図である。まずステップ701で、基準位置設定部204は、移動量推定部203が推定した自車両の移動量、すなわち自車両の横位置変化量を取得する。ここでは、前述のステップ601と同様に、ステップ401で移動量推定部203が行った自車両の横位置変化量の推定結果をメモリ105から読み込む。
次にステップ702で、基準位置設定部204は、前フレームにおける自車両の位置を基準とした白線の位置、すなわち自車両から左右の各白線までの距離を取得する。ここでは、前述のステップ602と同様に、前回の処理において自車両の左右の白線に対してステップ407でそれぞれ決定され、メモリ105に格納された距離のデータをメモリ105から読み出す。
最後にステップ703で、基準位置設定部204は、左右の白線のそれぞれに対して基準位置を計算する。ここでは、ステップ702で取得した前フレームにおける自車両から当該白線までの距離を、ステップ701で取得した自車両の横位置変化量で加算または減算することにより、自車両の左側にある白線と、自車両の右側にある白線とについて、基準位置をそれぞれ計算する。基準位置の計算結果は、メモリ105に格納される。
左右両方の白線についてステップ703の処理を実施したら、基準位置設定部204は図7の処理フローを終了し、ステップ406の処理を完了する。
図4のステップ406では、以上説明した処理を実行することで、自車両の左右それぞれに対して、現フレームの撮影時点において白線が存在する可能性が高い位置が白線の基準位置として設定される。
図8は、ステップ407で自車両から白線までの距離を決定する際の処理フローを示す図である。まずステップ801で、区画線位置決定部205は、基準位置設定部204が設定した基準位置を取得する。ここでは、ステップ406を実行することで基準位置設定部204が左右の白線に対してそれぞれ設定した基準位置をメモリ105から読み込む。
次にステップ802で、区画線位置決定部205は、最小距離差分を初期値の1mに設定する。この最小距離差分は、以降の処理において変数として用いられるものである。なお、ステップ802では最小距離差分の初期値として任意の値を設定可能であるが、自車両がフレーム間に移動する現実的な距離としておくのが望ましい。本実施形態では、最小距離差分の初期値を1mに設定する。
次にステップ803で、区画線位置決定部205は、左右の白線のそれぞれに対して、当該白線までの距離の初期値を不定値に設定する。この不定値の値は任意でよいが、通常の走行ではありえない距離を設定しておくのが望ましい。
なお、上記ステップ802、803の各処理は、変数である最小距離差分および白線までの距離の初期化である。これらの変数の値は、以降のステップ804〜808の処理によって逐次更新されていく。
区画線位置決定部205は、ステップ403で自車両からの距離を取得した白線候補のうち、ステップ405で除外されずに残った各白線候補について、ステップ804〜808の処理をそれぞれ実施する。なお、以下に説明するステップ804〜808の処理では、左右の白線が区別される。すなわち、自車両の左右にある白線のうち、当該白線候補に対応する方の白線について、基準位置との比較結果に基づき、最小距離差分や白線までの距離が更新される。
ステップ804では、区画線位置決定部205は、自車両から当該白線候補までの距離を取得する。ここでは、ステップ404で格納されたデータをメモリ105から読み出す。
次にステップ805で、区画線位置決定部205は、ステップ804で取得した当該白線までの距離と基準位置との差を計算する。ここでは、ステップ801で自車両の左右の白線についてそれぞれ取得した基準位置のうち、当該白線候補に対応する方の白線の基準位置を用いて、ステップ804で取得した当該白線候補までの距離との差分を計算する。
次にステップ806で、区画線位置決定部205は、ステップ805で算出した差を、現在の最小距離差分の値と比較する。その結果、当該差が現在の最小距離差分よりも小さければ、ステップ807に進む。ステップ807では、ステップ805で算出した差を、左右いずれかの白線に対する最小距離差分の値として、最小距離差分を更新する。続くステップ808では、ステップ804で取得した自車両から当該白線候補までの距離を、左右いずれかの白線までの距離として、白線までの距離を更新する。一方、ステップ805で算出した差が現在の最小距離差分以上であれば、何もせずにそのまま次の白線候補の処理に移る。
除外されずに残った全ての白線候補についてステップ804〜808の処理を実施したら、区画線位置決定部205は図8の処理フローを終了し、ステップ407の処理を完了する。
図4のステップ407では、以上説明した処理を実行することで、現フレームの撮影時点における左右の白線の位置が決定される。
次に図9を参照して、図4のステップ405で不適切な白線候補を除外する処理の具体例を説明する。
図9(a)は、前フレームにおける自車両と各白線候補との位置関係の例を示している。図9(a)において、白線候補901−FrL、901−SL、901−RrLは、フロントカメラ101−Fr、左サイドカメラ101−SL、リアカメラ101−Rrでそれぞれ撮影された画像に基づいて、区画線位置推定部201のフロントカメラ用区画線位置推定部201−Fr、左サイドカメラ用区画線位置推定部201−SL、リアカメラ用区画線位置推定部201−Rrによってそれぞれ認識された白線候補を示している。これらの白線候補は、自車両の左側にある左白線にそれぞれ対応している。また、白線候補901−FrR、901−SR、901−RrRは、フロントカメラ101−Fr、右サイドカメラ101−SR、リアカメラ101−Rrでそれぞれ撮影された画像に基づいて、区画線位置推定部201のフロントカメラ用区画線位置推定部201−Fr、右サイドカメラ用区画線位置推定部201−SR、リアカメラ用区画線位置推定部201−Rrによってそれぞれ認識された白線候補を示している。これらの白線候補は、自車両の右側にある右白線にそれぞれ対応している。ここで、図中の矢印900に示すように、自車両は右前方に移動しているとする。
図9(b)は、現フレームにおける自車両と各白線候補との位置関係の例を示している。図9(b)において、白線候補902−FrL、902−SL、902−RrLは、フロントカメラ101−Fr、左サイドカメラ101−SL、リアカメラ101−Rrでそれぞれ撮影された画像に基づいて、区画線位置推定部201のフロントカメラ用区画線位置推定部201−Fr、左サイドカメラ用区画線位置推定部201−SL、リアカメラ用区画線位置推定部201−Rrによってそれぞれ認識された白線候補を示している。これらの白線候補は、自車両の左側にある左白線にそれぞれ対応している。また、白線候補902−FrR、902−SR、902−RrRは、フロントカメラ101−Fr、右サイドカメラ101−SR、リアカメラ101−Rrでそれぞれ撮影された画像に基づいて、区画線位置推定部201のフロントカメラ用区画線位置推定部201−Fr、右サイドカメラ用区画線位置推定部201−SR、リアカメラ用区画線位置推定部201−Rrによってそれぞれ認識された白線候補を示している。これらの白線候補は、自車両の右側にある右白線にそれぞれ対応している。
図9(c)は、(a)で示した前フレームにおける位置関係と(b)で示した現フレームにおける位置関係とを自車両の位置を合わせて重畳し、これらの間における各白線候補の移動方向を示している。図9(c)において、移動方向903−FrLは、前フレームでの白線候補901−FrLから現フレームでの白線候補902−FrLへの移動方向を示しており、移動方向903−SLは、前フレームでの白線候補901−SLから現フレームでの白線候補902−SLへの移動方向を示しており、移動方向903−RrLは、前フレームでの白線候補901−RrLから現フレームでの白線候補902−RrLへの移動方向を示している。また、移動方向903−FrRは、前フレームでの白線候補901−FrRから現フレームでの白線候補902−FrRへの移動方向を示しており、移動方向903−SRは、前フレームでの白線候補901−SRから現フレームでの白線候補902−SRへの移動方向を示しており、移動方向903−RrRは、前フレームでの白線候補901−RrRから現フレームでの白線候補902−RrRへの移動方向を示している。
ここで、図9(a)の矢印900に示したように、前フレームから現フレームまでの間に自車両は右前方に移動しているため、この間での自車両の横移動方向は右方向である。したがって、左白線に対応する各白線候補901−FrL、901−SL、901−RrLは左方向に移動して自車両から遠ざかるはずであり、反対に右白線に対応する各白線候補901−FrR、901−SR、901−RrRは左方向に移動して自車両に近づくはずである。しかしながら、図9(c)において、移動方向903−SLは自車両に近づく右方向への移動方向を示している。また、移動方向903−RrLおよび903−SRは、横方向への移動量がほぼ0であることを示している。したがって、これらの移動方向で示される移動後の白線候補902−SL、902−RrLおよび902−SRは、図4のステップ405で除外の対象となり、メモリ105から削除される。
図9(d)は、不適切な白線候補を除外した結果を示している。図9(d)では、図9(b)に示した現フレームの各白線候補902−FrL、902−SL、902−RrL、902−FrR、902−SR、902−RrRのうち、図9(c)において不適切と判断された白線候補902−SL、902−RrLおよび902−SRが削除されることで、白線候補902−FrL、902−FrRおよび902−RrRが残っている。
次に図10を参照して、図4のステップ406で白線の基準位置を設定し、ステップ407で白線までの距離を決定する処理の具体例を説明する。
図10(a)は、前フレームと現フレームにおける自車両の位置と、前フレームにおいて決定された前回の白線位置との位置関係の例を示している。図10(a)において、前回白線位置1001−L、1001−Rは前フレームにおける左白線と右白線の位置をそれぞれ示しており、横移動距離1002は前フレームから現フレームまでの間に自車両が横方向に移動した距離を示している。なお、横移動距離1002は右方向を正とし、左方向を負とする。また、図10(a)では現フレームで認識された白線候補から不適切なものを除外した残りとして、図9(d)に示した各白線候補902−FrL、902−FrRおよび902−RrRを重畳して示している。
図10(b)は、前回白線位置1001−L、1001−Rに対して設定される基準位置を示している。図10(b)において、基準位置1003−L、1003−Rは、前回白線位置1001−L、1001−Rから横移動距離1002をそれぞれ減算することによって設定される。
図10(c)は、白線までの距離決定に使用する白線候補の選択結果を示している。図10(b)に示した白線候補902−FrL、902−FrRおよび902−RrRの中で、基準位置1003−L、1003−Rにそれぞれ最も近いものが、白線までの距離決定に使用する白線候補として選択される。その結果、図10(c)に示すように、白線候補902−FrL、902−RrRが選択される。そして、自車両からこれらの白線候補までの距離を取得することで、現フレームにおける自車両から左右の各白線までの距離が決定される。この結果は、次のフレームで基準位置を設定する際に利用されることになる。
以上説明した本発明の第1の実施形態によれば、区画線認識装置1は、自車両の移動と、それに伴う各白線候補の位置の変化とに基づいて、現在の白線の位置を決定する。そのため、道路上の区画線の位置を正確に認識することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態では、第1の実施形態で説明したのとは異なる方法により、複数のカメラで撮影された画像を用いて区画線の位置を決定する例を説明する。なお、本実施形態に係る区画線認識装置のハードウェア構成は、第1の実施形態で説明したものと同一であるため、以下では説明を省略する。
次に、本発明の第2の実施形態について説明する。本実施形態では、第1の実施形態で説明したのとは異なる方法により、複数のカメラで撮影された画像を用いて区画線の位置を決定する例を説明する。なお、本実施形態に係る区画線認識装置のハードウェア構成は、第1の実施形態で説明したものと同一であるため、以下では説明を省略する。
図11は、本発明の第2の実施形態に係る区画線認識装置の機能構成の例を示す図である。図11に示すように、本実施形態の区画線認識装置1は、区画線位置推定部201、移動量推定部203、履歴蓄積部1100、区画線位置決定部1103を機能的に有する。区画線位置推定部201は、第1の実施形態において図2で説明したものと同様に、フロントカメラ101−Fr、リアカメラ101−Rr、左サイドカメラ101−SL、右サイドカメラ101−SRにそれぞれ対応するフロントカメラ用区画線位置推定部201−Fr、リアカメラ用区画線位置推定部201−Rr、左サイドカメラ用区画線位置推定部201−SL、右サイドカメラ用区画線位置推定部201−SRにより構成されており、各カメラ101によって撮影された画像から白線候補を認識する。また、移動量推定部203も、第1の実施形態で説明したのと同様の処理を行う。
履歴蓄積部1100は、横位置履歴1101および区画線位置履歴1102を蓄積して保有する部分であり、例えば記憶装置103により実現される。横位置履歴1101は、移動量推定部203が推定した自車両の移動量の履歴、すなわち横位置変化量の履歴を、フレームごとに蓄積したデータである。区画線位置履歴1102は、区画線位置推定部201が推定した区画線の位置の履歴、すなわち自車両から各白線候補までの距離の履歴を、フレームごとに蓄積したデータである。なお、履歴蓄積部1100において、横位置履歴1101と区画線位置履歴1102を別々のデータとしてではなく、一つのデータベースの同じテーブルに格納してもよい。
区画線位置決定部1103は、履歴蓄積部1100に蓄積された横位置履歴1101および区画線位置履歴1102に基づいて、現フレームの撮影時点における白線の位置を最終決定する。なお、本実施形態における区画線位置決定部1103の処理は、第1の実施形態で説明した区画線位置決定部205の処理とは異なる。以下では、その詳細について説明する。
図12は、本発明の第2の実施形態に係る区画線認識装置の処理フローを示す図である。まずステップ1201では、過去の各カメラ101の撮影画像から区画線位置推定部201が推定した自車両から各白線候補までの距離の履歴を、履歴蓄積部1100に区画線位置履歴1102として蓄積する。続くステップ1202では、移動量推定部203が推定した過去の自車両の横位置変動の履歴を、履歴蓄積部1100に横位置履歴1101として蓄積する。
ステップ1203では、ステップ1201、1202でそれぞれのデータを蓄積済みのフレーム数を予め設定した閾値と比較する。その結果、データ蓄積済みのフレーム数が閾値以下である場合は、ステップ1201、1202の処理を繰り返してデータの蓄積を継続し、データ蓄積済みのフレーム数が閾値以上になると、ステップ1204以降の処理に移行する。
区画線位置決定部1103は、ステップ1204〜1206の処理を白線候補ごとに行う。まず、ステップ1204では、履歴蓄積部1100から横位置履歴1101と区画線位置履歴1102を読み込み、これらの蓄積データに基づいて、自車両の横位置変動の履歴と、当該白線候補までの距離の履歴との類似度を計算する。ここでは、例えばDPマッチングや正規化相関等の周知の手法を用いて、これらの類似度を計算することが可能である。
次に、ステップ1205では、ステップ1204で計算した類似度に基づいて、当該白線候補に対する重みを決定する。ここでは、例えば類似度が高いものほど大きな重みが設定されるように、各白線候補の重みが計算される。その場合、例えば各白線候補の類似度をその合計で正規化した値が、各白線候補の重みとして設定される。
次に、ステップ1206では、区画線位置推定部201が推定した現フレームでの自車両から当該白線候補までの距離を、履歴蓄積部1100に区画線位置履歴1102として格納する。
全ての白線候補についてステップ1204〜1206の処理を実施したら、ステップ1207では、区画線位置決定部1103により、ステップ1205で求めた各白線候補の重み値を用いて、現フレームでの自車両から各白線候補までの距離を加重平均する。ここでは、左右の白線にそれぞれ対応する各白線候補の距離を加重平均することで、左右の白線について加重平均値をそれぞれ求める。これにより、現フレームでの左右の白線の位置、すなわち自車両から左右の各白線までの距離をそれぞれ最終決定する。
最後にステップ1208では、移動量推定部203が推定した自車両の横位置変動を、履歴蓄積部1100に横位置履歴1101として格納する。
なお、以上説明した図12の処理フローで示した処理は、自車両が車線変更したと判断されるまで繰り返される。車線変更が発生すると、それまでに蓄積された横位置履歴1101と区画線位置履歴1102のデータはすべてクリアされ、再びステップ1201から処理が実行される。
図13は、本発明の第2の実施形態に係る区画線認識装置における区画線位置決定部1103のソフトウェア構成の例を示す図である。図13に示すように、区画線位置決定部1103は、類似度計算部1301、重み算出部1302、距離算出部1303で構成される。
類似度計算部1301は、横位置履歴1101と区画線位置履歴1102から白線候補ごとの類似度を計算するブロックであり、図12のステップ1204に対応する。図13では、自車両のフロント、サイド、リア方向にそれぞれ存在する白線候補の類似度を計算する部分を、別々の類似度計算部1301−Fr、1301−SD、1301−Rrとしてそれぞれ示している。なお、これらは左右の白線に対して共通に利用される。
類似度計算部1301−Frには、横位置履歴1101と、区画線位置履歴1102のうち自車両のフロント方向に存在する白線候補の位置の履歴を表すフロント区画線位置履歴1102−Frとが入力される。類似度計算部1301−Frは、これらの履歴同士の類似度を計算し、計算結果を重み算出部1302へ出力する。
類似度計算部1301−SDには、横位置履歴1101と、区画線位置履歴1102のうち自車両のサイド方向に存在する白線候補の位置の履歴を表すサイド区画線位置履歴1102−SDとが入力される。類似度計算部1301−SDは、これらの履歴同士の類似度を計算し、計算結果を重み算出部1302へ出力する。
類似度計算部1301−Rrには、横位置履歴1101と、区画線位置履歴1102のうち自車両のリア方向に存在する白線候補の位置の履歴を表すリア区画線位置履歴1102−Rrとが入力される。類似度計算部1301−Rrは、これらの履歴同士の類似度を計算し、計算結果を重み算出部1302へ出力する。
重み算出部1302は、類似度計算部1301−Fr、1301−SD、1301−Rrにてそれぞれ計算された類似度に基づいて各白線候補の重みを計算するブロックであり、図12のステップ1205に対応する。なお、重み算出部1302も左右の白線に対して共通に利用される。
重み算出部1302は、例えば以下の式(1)〜(3)を用いて、自車両のフロント、サイド、リア方向にそれぞれ存在する白線候補の重みである重み(Fr)、重み(Sd)、重み(Rr)を計算する。式(1)〜(3)において、類似度(Fr)、類似度(Sd)、類似度(Rr)は、類似度計算部1301−Fr、1301−SD、1301−Rrがそれぞれ算出した白線候補の類似度を表している。
重み(Fr)=類似度(Fr)/(類似度(Fr)+類似度(Sd)+類似度(Rr)) ・・・(1)
重み(Sd)=類似度(Sd)/(類似度(Fr)+類似度(Sd)+類似度(Rr)) ・・・(2)
重み(Rr)=類似度(Rr)/(類似度(Fr)+類似度(Sd)+類似度(Rr)) ・・・(3)
重み(Fr)=類似度(Fr)/(類似度(Fr)+類似度(Sd)+類似度(Rr)) ・・・(1)
重み(Sd)=類似度(Sd)/(類似度(Fr)+類似度(Sd)+類似度(Rr)) ・・・(2)
重み(Rr)=類似度(Rr)/(類似度(Fr)+類似度(Sd)+類似度(Rr)) ・・・(3)
距離算出部1303は、重み算出部1302で求められた各白線候補の重みに基づいて自車両から白線までの距離を最終的に決定するブロックであり、図12のステップ1207に対応する。なお、距離算出部1303も左右の白線に対して共通に利用される。
距離算出部1303は、例えば以下の式(4)を用いて、自車両から左右の白線までの距離を計算する。式(4)において、重み(Fr)、重み(Sd)、重み(Rr)は、重み算出部1302が算出したフロント、サイド、リア方向の各白線候補の重みを表している。また、距離(Fr)、距離(Sd)、距離(Rr)は、区画線位置推定部201が推定した現フレームでの自車両から各白線候補までの距離を表している。
距離=重み(Fr)×距離(Fr)+重み(Sd)×距離(Sd)+重み(Rr)×距離(Rr) ・・・(4)
距離=重み(Fr)×距離(Fr)+重み(Sd)×距離(Sd)+重み(Rr)×距離(Rr) ・・・(4)
以上説明した本発明の第2の実施形態によれば、区画線認識装置1は、自車両の移動履歴とこれに伴う各白線候補の位置の変化履歴との類似度に基づいて、各白線候補の位置を加重平均し、現在の白線の位置を決定する。そのため、道路上の区画線の位置を正確に認識することができる。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態では、複数のカメラで撮影された画像を用いて決定された区画線の位置に基づいて車線変更の判定を行う例を説明する。なお、本実施形態に係る区画線認識装置のハードウェア構成は、第1の実施形態で説明したものと同一であるため、以下では説明を省略する。
次に、本発明の第3の実施形態について説明する。本実施形態では、複数のカメラで撮影された画像を用いて決定された区画線の位置に基づいて車線変更の判定を行う例を説明する。なお、本実施形態に係る区画線認識装置のハードウェア構成は、第1の実施形態で説明したものと同一であるため、以下では説明を省略する。
図14は、本発明の第3の実施形態に係る区画線認識装置の機能構成の例を示す図である。図14に示すように、本実施形態の区画線認識装置1は、第1の実施形態で説明した区画線位置推定部201、区画線候補選択部202、移動量推定部203、基準位置設定部204、区画線位置決定部205の各機能ブロックに加えて、さらに車線変更判定部206を有している。
車線変更判定部206は、区画線位置決定部205が決定した現フレームの撮影時点における白線の位置に基づいて自車両が車線変更しているか否かを判定する。一般に車線変更の際には、自車両が左右のいずれかの白線を踏み越えて、現在の走行車線から隣接車線へと移動する。このときには、自車両が踏み越えた白線ではなく、その先にある白線、すなわち移動先の隣接車線の境界線にあたる白線を認識することが必要となる。そのため、本実施形態では、車線変更判定部206により、区画線位置決定部205で決定された自車両から白線までの距離に基づいて、自車両が車線変更中か否かを判定する。
図15は、本発明の第3の実施形態に係る区画線認識装置における車線変更判定部206の処理フローを示す図である。まずステップ1501で、車線変更判定部206は、自車両から白線までの距離を取得する。ここでは、図8のステップ808で最終的に決定された左右の白線までの距離を、区画線位置決定部205から取得する。
次に、ステップ1502で車線変更判定部206は、自車両の横位置変化を取得する。ここでは、図4のステップ401で推定された自車両の移動量を、移動量推定部203から取得する。
次に、ステップ1503で車線変更判定部206は、ステップ1502で取得した自車両の横位置変化に基づいて、左右いずれかの白線を車線変更方向側の白線として選択する。ここでは、自車両が右方向に移動している場合は自車両の右側の白線を、左方向に移動している場合は自車両の左側の白線を、車線変更方向側の白線としてそれぞれ選択する。
ステップ1504で車線変更判定部206は、ステップ1501で取得した左右の白線までの距離のうち、ステップ1503で選択した車線変更方向側の白線までの距離がほぼ0になったか否かを判定する。自車両が左右いずれかの白線を踏み越えて当該白線が距離の原点、例えば前輪車軸中心を通過すると、当該白線までの距離はほぼ0となる。ステップ1504では、こうした条件を満たすか否かを判定し、満たす場合はステップ1505に進み、満たさない場合はステップ1507に進む。
ステップ1505で車線変更判定部206は、ステップ1501で取得した左右の白線までの距離のうち、ステップ1503で選択した車線変更方向側の白線とは反対側にある白線までの距離が、所定値以上であるか否かを判定する。自車両が左右いずれかの白線を踏み越えると、当該白線と反対側の白線は自車両から遠ざかり、自車両から当該反対側の白線までの距離が所定値、例えば自車両の幅よりも大きくなる。ステップ1505では、こうした条件を満たすか否かを判定し、満たす場合はステップ1506に進み、満たさない場合はステップ1507に進む。
ステップ1505からステップ1506に進んだ場合、車線変更判定部206は、自車両が車線変更中であると判定する。ステップ1504またはステップ1505からステップ1507に進んだ場合、車線変更判定部206は、自車両が車線変更していないと判定する。ステップ1506または1507を実施したら、図15の処理フローを終了する。
以上説明した本発明の第3の実施形態によれば、区画線認識装置1は、最終決定された白線の位置に基づいて、自車両が車線変更しているか否かを判定する。そのため、車線変更中であるか否かを正確に判断し、その判断結果に応じて認識対象とする区画線を適宜変更することができる。
なお、以上説明した本発明の第3の実施形態では、第1の実施形態の構成に車線変更判定部206を追加した例を説明したが、第2の実施形態の構成に車線変更判定部206を追加してもよい。この場合、車線変更判定部206は、区画線位置決定部1103が決定した現フレームの撮影時点における白線の位置に基づいて、自車両が車線変更しているか否かを判定すればよい。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。本実施形態では、第1の実施形態で説明したのとは異なる方法により、複数のカメラで撮影された画像を用いて区画線の位置を決定する例を説明する。特に、極座標系を用い、左右の各白線が曲線になっている場合を考慮した実施形態について説明する。なお、本実施形態に係る区画線認識装置のハードウェア構成は、第1の実施形態で説明したものと同一であるため、以下では説明を省略する。
次に、本発明の第4の実施形態について説明する。本実施形態では、第1の実施形態で説明したのとは異なる方法により、複数のカメラで撮影された画像を用いて区画線の位置を決定する例を説明する。特に、極座標系を用い、左右の各白線が曲線になっている場合を考慮した実施形態について説明する。なお、本実施形態に係る区画線認識装置のハードウェア構成は、第1の実施形態で説明したものと同一であるため、以下では説明を省略する。
図17は、本発明の第4の実施形態に係る区画線認識装置の機能構成の例を示す図である。図17に示すように、本実施形態の区画線認識装置1は、第1の実施形態で説明した区画線位置推定部201、区画線候補選択部202、移動量推定部203、基準位置設定部204、区画線位置決定部205の各機能ブロックに加えて、さらに特徴点群累積部1701、道路形状推定部1702を有している。
まず、区画線認識装置1の処理フローについて説明する。図18は、区画線認識装置1の処理フローを示す図であり、画像1フレーム分の処理を示している。すなわち、本実施形態の区画線認識装置1において、CPU104は、カメラ101から所定のフレームレートで画像が入力される度に、図18の処理フローに従って画像から区画線を認識する処理を実行する。
ステップ1801では、移動量推定部203により、自車両の移動量を推定する。ここでは前述のように、車両制御ユニット108から入力される自車両の位置、速度、進行方向等の情報に基づいて、前回の処理からの自車両の移動量を推定する。ステップ1801で移動量推定部203が推定した移動量は、メモリ105に格納される。この処理については図19、図20を用いて後述する。
ステップ1802〜1804は、図4のステップ402〜404と同一の処理であるため、ここでの説明は省略する。ステップ1805は、特徴点群累積部1701により、白線候補を認識する際に抽出した特徴量をバッファリングする処理である。ここでは、白線候補を構成する特徴量だけをバッファリングする。
各カメラ101についてステップ1802〜1805の処理が終了したら、続いてステップ1806〜1808の処理を実行する。まず、ステップ1806では、区画線候補選択部202により、ステップ1802〜1805の処理で認識した白線候補のうち、不適切な白線候補を除外する。この処理は前述のように、自車両の位置変化に対してつじつまが合わない白線候補を除外することで、以降の処理対象とする白線候補を選択する処理である。なお、ステップ1806の処理の詳細については、後で図21の処理フローを参照して説明する。
次に、ステップ1807では、基準位置設定部204により、現フレームの撮影時点における白線の基準位置を設定する。この処理は前述のように、現フレームの撮影時点において白線が存在する可能性が高い位置を白線の基準位置として設定する処理である。なお、ステップ1807の処理の詳細については、後で図22の処理フローを参照して説明する。
最後に、ステップ1808では、区画線位置決定部205により、現フレームの撮影時点における白線の位置として、自車両から白線までの距離を決定する。この処理は、ステップ1806で不適切な白線候補を除外した後に残った各白線候補までの距離と、ステップ1807で設定した基準位置とを比較し、その比較結果に基づいて、現フレームの撮影時点における白線の位置を最終決定する処理である。なお、ステップ1808の処理の詳細については、後で図23の処理フローを参照して説明する。
図19は、曲線に対応した処理で用いるデータに関する図である。点群1905は、ステップ1805でバッファリングされた特徴量である。弧1901は、この点群1905を用いて推定された白線形状を表し、点1902はその曲率中心である。点1903−1は前フレームにおける車両位置であり、点1903−2は現フレームにおける車両位置である。点1904−1は、点1902と点1903−1を結んだ直線と弧1901との交点である。同様に点1904−2は、点1902と点1904−1を結んだ直線と弧1901との交点である。
図20は、ステップ1801の自車両の位置変化を推定する処理のフローである。この処理は、自車両の左右の白線それぞれについて実行するものである。
まず、ステップ2001で、すべての白線特徴量を世界座標系に変換する。例えば自車両の左側の白線について処理を実行している場合、101−Rr、101−Frで取得した特徴量のうち左側の白線に関するもの、カメラ101−SLで取得した特徴量となる。
次に、ステップ2002で、道路形状推定部1702により、点群1905にハフ変換を適用し、近似曲線を求める。これは、弧1901を求める処理に相当する。これによって、白線の形状と曲率中心を求めることが可能となる。なお、ハフ変換は既に一般的に広く用いられているアルゴリズムであるため、ここでの説明は省略する。次に、ステップ2003で、道路形状推定部1702により、当該白線の曲率を判定する。これによって、白線が直線に近い形状なのかカーブなのかを判断する。そして、曲率が閾値より大きい場合に白線の形状がカーブであると判断し、ステップ2004以降の処理に進む。
ステップ2004では、前フレームの自車位置を、曲率中心である点1902を原点とした極座標系に変換する。次にステップ2005で、前フレームにおける白線位置を極座標系で推定する。これはすなわち、点1904−1の座標を極座標系で求めることに相当する。
次に、ステップ2006で、現フレームの自車位置を、曲率中心である点1902を原点とした極座標系に変換する。次にステップ2007で、現フレームにおける白線位置を極座標系で推定する。これはすなわち、点1904−2の座標を極座標系で求めることに相当する。
最後にステップ2008で曲率中心である点1902から自車位置までの距離差を求める。これは、点1903−1と点1904−1との距離、点1903−2と点1904−2との距離の差分を求めることに相当する。例えば、前フレームから現フレームにかけて当該差分が増加すれば、自車両は白線から離れる方向に走行していることになり、当該差分が減少すれば、自車両は白線に近づく方向に走行していることになる。
図21は、ステップ1806で不適切な白線候補を除外する際の処理フローを示す図である。まずステップ2101で、区画線候補選択部202は、ステップ401で移動量推定部203が推定した自車両の移動量を取得する。これはステップ2008で求めた距離差のことである。なお、移動量推定部203による自車両の横位置変化量の推定結果は、区画線認識装置1において例えばメモリ105に格納されている。区画線候補選択部202は、これをメモリ105から読み込むことで、ステップ2101の処理を実施する。
次にステップ2102で、区画線候補選択部202は、前フレームにおける自車両の位置を基準とした白線の位置、すなわち自車両から左右の各白線までの距離を取得する。ここでは、前回の処理において自車両の左右の白線に対してステップ1808でそれぞれ決定され、メモリ105に格納された距離のデータをメモリ105から読み出す。
区画線候補選択部202は、ステップ1803で自車両からの距離を取得した各白線候補について、ステップ2103〜2107の処理をそれぞれ実施する。ステップ2103では、区画線候補選択部202は、自車両から当該白線候補までの曲率中心からの距離を計算する。その計算方法は、ステップ2102と同様である。
ステップ2104では、区画線候補選択部202は、曲率中心を基準とした当該白線候補の移動方向を求める。ここでは、今回の処理におけるステップ2103で取得した現フレームでの当該白線候補までの距離と、前回の処理におけるステップ2103で取得した前フレームでの当該白線候補までの距離とを比較することで、当該白線候補の位置の変化、すなわち当該白線候補が自車両に対して前フレームでの位置から離れているか近づいているかを求める。
ステップ2105では、区画線候補選択部202は、ステップ2101で取得した自車両の移動量が示す自車両の移動方向と、ステップ604で求めた当該白線候補の移動方向とを比較する。
ステップ2106では、ステップ2105の比較結果に基づいて、当該白線候補の移動方向が自車両の移動方向と整合しているか否かを判定する。ここでは、自車両の移動方向に対して当該白線候補の移動方向が反対方向の場合、これらの移動方向が整合していると判定する。その場合、区画線候補選択部202は、何もせずにそのまま次の白線候補の処理に移る。一方、自車両の横移動方向と当該白線候補の横移動方向が同じ方向の場合や、自車両の移動が0でないときに当該白線候補の移動が0である場合は、これらの移動方向が整合していないと判定する。その場合、区画線候補選択部202は、ステップ2107に進んで当該白線候補のデータをメモリ105から削除することにより、当該白線候補を以降の処理対象から除外し、次の白線候補の処理に移る。
全ての白線候補についてステップ2103〜2107の処理を実施したら、区画線候補選択部202は図21の処理フローを終了し、ステップ1806の処理を完了する。
図22は、ステップ1807で白線の基準位置を設定する際の処理フローを示す図である。まずステップ2201で、基準位置設定部204は、移動量推定部203が推定した自車両の移動量を取得する。ここでは、前述のステップ2101と同様に、ステップ1801で移動量推定部203が行った自車両の移動量の推定結果をメモリ105から読み込む。
次にステップ2202で、基準位置設定部204は、前フレームにおける曲率中心の位置を基準とした白線の位置、すなわち曲率中心から左右の各白線までの距離を取得する。ここでは、前述のステップ2102と同様に、前回の処理において自車両の左右の白線に対してステップ1808でそれぞれ決定され、メモリ105に格納された距離のデータをメモリ105から読み出す。
最後にステップ2203で、基準位置設定部204は、左右の白線のそれぞれに対して基準位置を計算する。ここでは、ステップ2202で取得した前フレームにおける曲率中心から当該白線までの距離を、ステップ2201で取得した自車両の移動量で加算または減算することにより、自車両の左側にある白線と、自車両の右側にある白線とについて、基準位置をそれぞれ計算する。基準位置の計算結果は、メモリ105に格納される。
左右両方の白線についてステップ2203の処理を実施したら、基準位置設定部204は図18の処理フローを終了し、ステップ1807の処理を完了する。
図18のステップ1807では、以上説明した処理を実行することで、自車両の左右それぞれに対して、現フレームの撮影時点において白線が存在する可能性が高い位置が白線の基準位置として設定される。
図23は、ステップ1808で自車両から白線までの距離を決定する際の処理フローを示す図である。まずステップ2301で、区画線位置決定部205は、基準位置設定部204が設定した基準位置を取得する。ここでは、ステップ1807を実行することで基準位置設定部204が左右の白線に対してそれぞれ設定した基準位置をメモリ105から読み込む。
次にステップ2302で、区画線位置決定部205は、最小距離差分を初期値の1mに設定する。この最小距離差分は、以降の処理において変数として用いられるものである。なお、ステップ2302では最小距離差分の初期値として任意の値を設定可能であるが、自車両がフレーム間に移動する現実的な距離としておくのが望ましい。本実施形態では、最小距離差分の初期値を1mに設定する。
次にステップ2303で、区画線位置決定部205は、左右の白線のそれぞれに対して、当該白線までの距離の初期値を不定値に設定する。この不定値の値は任意でよいが、通常の走行ではありえない距離を設定しておくのが望ましい。
なお、上記ステップ2302、2303の各処理は、変数である最小距離差分および、曲率中心から白線までの距離の初期化である。これらの変数の値は、以降のステップ2304〜2308の処理によって逐次更新されていく。
区画線位置決定部205は、ステップ1803で曲率中心からの距離を取得した白線候補のうち、ステップ1806で除外されずに残った各白線候補について、ステップ2304〜2308の処理をそれぞれ実施する。なお、以下に説明するステップ2304〜2308の処理では、左右の白線が区別される。すなわち、自車両の左右にある白線のうち、当該白線候補に対応する方の白線について、基準位置との比較結果に基づき、最小距離差分や白線までの距離が更新される。
ステップ2304では、区画線位置決定部205は、曲率中心からから当該白線候補までの距離を取得する。ここでは、ステップ1805で格納されたデータをメモリ105から読み出す。
次にステップ2305で、区画線位置決定部205は、ステップ2304で取得した当該白線までの距離と基準位置との差を計算する。ここでは、ステップ2301で自車両の左右の白線についてそれぞれ取得した基準位置のうち、当該白線候補に対応する方の白線の基準位置を用いて、ステップ2304で取得した当該白線候補までの距離との差分を計算する。
次にステップ2306で、区画線位置決定部205は、ステップ2305で算出した差を、現在の最小距離差分の値と比較する。その結果、当該差が現在の最小距離差分よりも小さければ、ステップ2307に進む。ステップ2307では、ステップ2305で算出した差を、左右いずれかの白線に対する最小距離差分の値として、最小距離差分を更新する。次にステップ2308で、曲率中心から当該白線候補までの距離を、現フレームの自車位置からの距離に変換する。続くステップ2309では、ステップ2304で取得した自車両から当該白線候補までの距離を、左右いずれかの白線までの距離として、白線までの距離を更新する。一方、ステップ2305で算出した差が現在の最小距離差分以上であれば、何もせずにそのまま次の白線候補の処理に移る。
除外されずに残った全ての白線候補についてステップ2304〜2309の処理を実施したら、区画線位置決定部205は図23の処理フローを終了し、ステップ1808の処理を完了する。
図18のステップ1808では、以上説明した処理を実行することで、現フレームの撮影時点における左右の白線の位置が決定される。
なお、第4の実施形態の構成に、先に説明した本発明の第3の実施形態の車線変更判定部206を追加してもよい。この場合、車線変更判定部206は、区画線位置決定部205が決定した現フレームの撮影時点における白線の位置に基づいて、自車両が車線変更しているか否かを判定すればよい。
(白線認識結果のデータ構造)
次に、以上説明した第1〜第4の各実施形態に係る区画線認識装置によって得られた白線認識結果のデータ構造を説明する。図16は、白線認識結果を格納するデータベースのデータ構造の一例を示す図である。図16に示すデータ構造は、累積フレーム数1601およびフレーム情報1602を含んで構成される。
次に、以上説明した第1〜第4の各実施形態に係る区画線認識装置によって得られた白線認識結果のデータ構造を説明する。図16は、白線認識結果を格納するデータベースのデータ構造の一例を示す図である。図16に示すデータ構造は、累積フレーム数1601およびフレーム情報1602を含んで構成される。
累積フレーム数1601は、データを累積したフレーム数を示すフィールドであり、この数だけフレーム情報1602が格納される。
フレーム情報1602は、横移動距離1603、白線距離最終1604、白線候補数1605、白線候補情報1606から構成される。横移動距離1603は、当該フレームにおける自車両の横移動距離を表しており、これは第2の実施形態で説明した図11の横位置履歴1101に相当する。白線距離最終1604は、区画線位置決定部205(第1の実施形態)または区画線位置決定部1103(第2の実施形態)で最終決定された白線までの距離を表している。白線候補数1605は、各カメラ101の撮影画像から区画線位置推定部201が認識した白線候補の数を表しており、この数だけ白線候補情報1606が格納される。なお、第1〜第4各実施形態では、図3に例示した6つの白線候補301−FrL、301−SL、301−RrL、301−FrR、301−SR、301−RrRに対応して、白線候補数1605が表す白線候補の数の最大値は6である。
白線候補情報1606は、白線候補位置1607と白線候補距離1608から構成される。白線候補位置1607は、自車両と当該白線候補との位置関係を表しており、これにはフロント左、サイド左、リア左、フロント右、サイド右、リア右のいずれかを示す識別子が格納される。白線候補距離1608は、当該白線候補までの距離を表しており、これは第2の実施形態で説明した図11の区画線位置履歴1102に相当する。
なお、以上説明したデータ構造では、第2の実施形態において履歴蓄積部1100に蓄積される横位置履歴1101や区画線位置履歴1102を白線認識結果のデータベースに含めているが、これらを別のデータベースとして格納してもよい。また、図16に示したデータ構造はあくまで一例であり、他のデータ構造を採用してもよい。
以上説明した本発明の実施形態によれば、以下の作用効果を奏する。
(1)区画線認識装置1は、自車両に搭載された複数のカメラ101でそれぞれ撮影された複数の画像から道路上の区画線を認識する装置である。区画線認識装置1は、自車両の移動量を推定する移動量推定部203と、複数の画像から区画線の候補としてそれぞれ認識された複数の白線候補について、自車両の位置を基準とした位置を推定する区画線位置推定部201と、移動量推定部203が推定した自車両の移動量と、区画線位置推定部201が推定した白線候補の位置の履歴とに基づいて、現在の白線の位置を決定する区画線位置決定部205とを備える。このようにしたので、道路上の区画線の位置を正確に認識することができる。
(2)第1の実施形態において、区画線認識装置1は、基準位置設定部204と、区画線候補選択部202とを備える。基準位置設定部204は、移動量推定部203が推定した自車両の移動量と、区画線位置決定部205が過去に決定した区画線の位置、すなわち前フレームの撮影時点における白線位置とに基づいて、白線の基準位置を設定する。区画線候補選択部202は、移動量推定部203が推定した自車両の移動量と、区画線位置推定部201が推定した白線候補の位置の変化とに基づいて、複数の白線候補の少なくともいずれか一つを選択する。区画線位置決定部205は、区画線候補選択部202が選択した白線候補の位置と、基準位置設定部204が設定した基準位置とに基づいて、現在の白線の位置を決定する。このようにしたので、複数のカメラを用いて認識された複数の白線候補の中から、自車両の動きを考慮して適切なものを選択し、現在の白線位置を正確に決定することができる。
(3)第2の実施形態において、区画線認識装置1は、履歴蓄積部1100を備える。履歴蓄積部1100は、移動量推定部203が推定した自車両の移動量の履歴である横位置履歴1101と、区画線位置推定部201が推定した白線候補の位置の履歴である区画線位置履歴1102とを蓄積する。区画線位置決定部1103は、履歴蓄積部1100に蓄積された横位置履歴1101と区画線位置履歴1102との類似度を計算し(ステップ1204)、計算した類似度に基づいて各白線候補に対する重みを計算し(ステップ1205)、計算した重みに基づいて複数の白線候補の位置を加重平均した加重平均値を算出し、算出した加重平均値に基づいて、現在の白線の位置を決定する(ステップ1207)。このようにしたので、複数のカメラを用いて認識された複数の白線候補の位置の履歴から、現在の白線位置を正確に決定することができる。
(4)第3の実施形態において、区画線認識装置1は、区画線位置決定部205が決定した白線の位置に基づいて自車両が車線変更しているか否かを判定する車線変更判定部206を備える。このようにしたので、決定した現在の白線位置を利用して自車両が車線変更しているか否かを正しく判定できる。
(5)第4の実施形態において、区画線認識装置1は、基準位置設定部204と、区画線候補選択部202とを備える。基準位置設定部204は、移動量推定部203が推定した自車両の移動量と、区画線位置決定部205が過去に決定した区画線の位置、すなわち前フレームの撮影時点における白線位置とに基づいて、白線の基準位置を設定する。区画線候補選択部202は、移動量推定部203が推定した自車両の移動量と、区画線位置推定部201が推定した白線候補の位置の変化とに基づいて、複数の白線候補の少なくともいずれか一つを選択する。区画線位置決定部205は、区画線候補選択部202が選択した白線候補の位置と、基準位置設定部204が設定した基準位置とに基づいて、現在の白線の位置を決定する。このようにしたので、複数のカメラを用いて認識された複数の白線候補の中から、自車両の動きを考慮して適切なものを選択し、現在の白線位置を正確に決定することができる。
なお、以上説明した実施形態では、車両に搭載される区画線認識装置1を例として説明したが、本発明はこれに限定されない。たとえば、車両に搭載された複数のカメラでそれぞれ撮影された複数の画像をサーバに送信し、これらの画像をサーバにおいて受信して道路上の区画線を認識する場合にも、本発明を適用可能である。この場合、車両に搭載されていないサーバが本発明の区画線認識装置として機能することになる。これ以外にも、任意の形態により本発明を実現可能である。
また、以上説明した実施形態では、CPU104がプログラムを実行することで区画線認識装置1の機能を実現しているが、本発明はこれに限定されない。たとえば、FPGA(Field-Programmable Gate Array)を用いて区画線認識装置1の一部または全部の機能を実現してもよい。これ以外にも、任意のハードウェア構成により本発明の区画線認識装置を実現することが可能である。
以上説明した実施形態や各種の変形例はあくまで一例である。本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。
1:区画線認識装置
101:カメラ
103:記憶装置
104:CPU
105:メモリ
106:CAN I/F
107:CANバス
108:車両制御ユニット
201:区画線位置推定部
202:区画線候補選択部
203:移動量推定部
204:基準位置設定部
205:区画線位置決定部
206:車線変更判定部
1100:履歴蓄積部
1101:横位置履歴
1102:区画線位置履歴
1103:区画線位置決定部
101:カメラ
103:記憶装置
104:CPU
105:メモリ
106:CAN I/F
107:CANバス
108:車両制御ユニット
201:区画線位置推定部
202:区画線候補選択部
203:移動量推定部
204:基準位置設定部
205:区画線位置決定部
206:車線変更判定部
1100:履歴蓄積部
1101:横位置履歴
1102:区画線位置履歴
1103:区画線位置決定部
Claims (4)
- 車両に搭載された複数のカメラによって時間経過とともに撮影された複数の画像から道路上の区画線の位置を特定する装置であって、
当該時間経過における前記車両の移動量を推定する移動量推定部と、
前記複数のカメラによって撮影されたそれぞれの画像から前記車両の位置を基準とした区画線を示す白線候補の位置を推定する区画線位置推定部と、
前記移動量推定部が推定した当該時間経過における前記車両の移動量と、前記区画線位置推定部が推定した前記白線候補の位置の当該時間経過における変化とに基づいて、複数の前記白線候補の少なくとも一つを選択する区画線候補選択部と、
前記区画線候補選択部が選択した白線候補の中から現在の区画線の位置を決定する区画線位置決定部と、
前記移動量推定部が推定した前記車両の移動量と、当該時間経過前に前記区画線位置決定部が決定した前記区画線の位置とに基づいて、前記区画線の基準位置を設定する基準位置設定部と、を備え、
前記区画線位置決定部は、前記基準位置設定部が設定した基準位置に最も近い前記白線候補を現在の前記区画線の位置として決定することを特徴とする区画線認識装置。 - 請求項1に記載の区画線認識装置において、
少なくとも一つのカメラで撮影された画像から抽出された特徴点群を累積していく特徴点群累積部と、
前記特徴点群累積部にて累積された特徴点群を用いて前記車両が走行する道路の形状を推定する道路形状推定部と、をさらに備え、
前記移動量推定部は、前記道路形状推定部にて推定された道路の形状が所定の曲率を持つ場合、当該曲率中心を基準にした前記車両の移動量を推定することを特徴とする区画線認識装置。 - 車両に搭載された複数のカメラによって時間経過とともに撮影された複数の画像から道路上の区画線の位置を特定する装置であって、
当該時間経過における前記車両の移動量を推定する移動量推定部と、
前記複数のカメラによって撮影されたそれぞれの画像から前記車両の位置を基準とした区画線を示す白線候補の位置を推定する区画線位置推定部と、
前記移動量推定部が推定した前記車両の移動量の履歴と、前記区画線位置推定部が推定した前記白線候補の位置の履歴とを蓄積する履歴蓄積部と、
前記履歴蓄積部に蓄積された前記車両の移動量の履歴と前記白線候補の位置の履歴との類似度を計算し、
計算した前記類似度に基づいて、前記白線候補に対する重みを計算し、
計算した前記重みに基づいて、複数の前記白線候補の位置を加重平均した加重平均値を算出し、
算出した前記加重平均値に基づいて、現在の前記区画線の位置を決定する区画線位置決定部と、を備えることを特徴とする区画線認識装置。 - 請求項1から請求項3のいずれか一項に記載の区画線認識装置において、
前記区画線位置決定部が決定した前記区画線の位置に基づいて前記車両が車線変更しているか否かを判定する車線変更判定部を備えることを特徴とする区画線認識装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179483A JP7118836B2 (ja) | 2018-09-25 | 2018-09-25 | 区画線認識装置 |
PCT/JP2019/011181 WO2020066072A1 (ja) | 2018-09-25 | 2019-03-18 | 区画線認識装置 |
EP19864121.9A EP3859677A4 (en) | 2018-09-25 | 2019-03-18 | CUT LINE RECOGNITION DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179483A JP7118836B2 (ja) | 2018-09-25 | 2018-09-25 | 区画線認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020052585A true JP2020052585A (ja) | 2020-04-02 |
JP7118836B2 JP7118836B2 (ja) | 2022-08-16 |
Family
ID=69951313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018179483A Active JP7118836B2 (ja) | 2018-09-25 | 2018-09-25 | 区画線認識装置 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3859677A4 (ja) |
JP (1) | JP7118836B2 (ja) |
WO (1) | WO2020066072A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021210049A1 (ja) * | 2020-04-13 | 2021-10-21 | 三菱電機株式会社 | 走行路認識装置及び走行路認識方法 |
JP2022037779A (ja) * | 2020-08-25 | 2022-03-09 | トヨタ自動車株式会社 | 路上障害物検出装置、路上障害物検出方法およびプログラム |
KR102405472B1 (ko) * | 2021-05-25 | 2022-06-08 | 포티투닷 주식회사 | 난잡한 환경에서 시맨틱 차선을 결정하기 위한 방법 및 장치 |
WO2023027268A1 (ko) * | 2021-08-26 | 2023-03-02 | 한국로봇융합연구원 | 카메라-라이다 캘리브레이션 장치 및 방법 |
JP2023111474A (ja) * | 2022-01-31 | 2023-08-10 | 本田技研工業株式会社 | 車両制御装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111563495B (zh) * | 2020-05-09 | 2023-10-27 | 北京奇艺世纪科技有限公司 | 一种图像中字符的识别方法、装置及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016024777A (ja) * | 2014-07-24 | 2016-02-08 | 株式会社デンソー | 車線検出装置および車線検出方法 |
JP2016206868A (ja) * | 2015-04-21 | 2016-12-08 | アルパイン株式会社 | 電子装置、走行車線識別システムおよび走行車線識別方法 |
JP2018084492A (ja) * | 2016-11-24 | 2018-05-31 | 日産自動車株式会社 | 自己位置推定方法及び自己位置推定装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5991427A (en) * | 1996-07-31 | 1999-11-23 | Aisin Seiki Kabushiki Kaisha | Method and apparatus for detecting a lane on a road |
US9090263B2 (en) * | 2010-07-20 | 2015-07-28 | GM Global Technology Operations LLC | Lane fusion system using forward-view and rear-view cameras |
JP6241172B2 (ja) | 2013-09-25 | 2017-12-06 | 日産自動車株式会社 | 自車位置推定装置及び自車位置推定方法 |
JP6456682B2 (ja) * | 2014-12-25 | 2019-01-23 | 株式会社Soken | 走行区画線認識装置 |
US20170021863A1 (en) * | 2015-07-20 | 2017-01-26 | Dura Operating, Llc | System and method for verifying road position information for a motor vehicle |
KR101889542B1 (ko) | 2017-04-18 | 2018-08-17 | 두산중공업 주식회사 | 연소기 노즐 조립체 및 이를 포함하는 가스터빈 |
-
2018
- 2018-09-25 JP JP2018179483A patent/JP7118836B2/ja active Active
-
2019
- 2019-03-18 WO PCT/JP2019/011181 patent/WO2020066072A1/ja unknown
- 2019-03-18 EP EP19864121.9A patent/EP3859677A4/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016024777A (ja) * | 2014-07-24 | 2016-02-08 | 株式会社デンソー | 車線検出装置および車線検出方法 |
JP2016206868A (ja) * | 2015-04-21 | 2016-12-08 | アルパイン株式会社 | 電子装置、走行車線識別システムおよび走行車線識別方法 |
JP2018084492A (ja) * | 2016-11-24 | 2018-05-31 | 日産自動車株式会社 | 自己位置推定方法及び自己位置推定装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021210049A1 (ja) * | 2020-04-13 | 2021-10-21 | 三菱電機株式会社 | 走行路認識装置及び走行路認識方法 |
JPWO2021210049A1 (ja) * | 2020-04-13 | 2021-10-21 | ||
JP7325620B2 (ja) | 2020-04-13 | 2023-08-14 | 三菱電機株式会社 | 走行路認識装置及び走行路認識方法 |
JP2022037779A (ja) * | 2020-08-25 | 2022-03-09 | トヨタ自動車株式会社 | 路上障害物検出装置、路上障害物検出方法およびプログラム |
KR102405472B1 (ko) * | 2021-05-25 | 2022-06-08 | 포티투닷 주식회사 | 난잡한 환경에서 시맨틱 차선을 결정하기 위한 방법 및 장치 |
WO2023027268A1 (ko) * | 2021-08-26 | 2023-03-02 | 한국로봇융합연구원 | 카메라-라이다 캘리브레이션 장치 및 방법 |
KR20230030955A (ko) * | 2021-08-26 | 2023-03-07 | 한국로봇융합연구원 | 카메라-라이다 캘리브레이션 장치 및 방법 |
KR102556759B1 (ko) * | 2021-08-26 | 2023-07-17 | 한국로봇융합연구원 | 카메라-라이다 캘리브레이션 장치 및 방법 |
JP2023111474A (ja) * | 2022-01-31 | 2023-08-10 | 本田技研工業株式会社 | 車両制御装置 |
JP7377294B2 (ja) | 2022-01-31 | 2023-11-09 | 本田技研工業株式会社 | 車両制御装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3859677A1 (en) | 2021-08-04 |
EP3859677A4 (en) | 2022-06-22 |
JP7118836B2 (ja) | 2022-08-16 |
WO2020066072A1 (ja) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020066072A1 (ja) | 区画線認識装置 | |
JP6978491B2 (ja) | 地面マーキングを認識するための画像処理方法、および地面マーキングを検出するためのシステム | |
US20190086923A1 (en) | Method and apparatus for generating obstacle motion information for autonomous vehicle | |
JP6760114B2 (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
JP6670071B2 (ja) | 車両用画像認識システム、及び対応法 | |
US11023744B2 (en) | Road parameter calculator | |
EP2887315B1 (en) | Camera calibration device, method for implementing calibration, program and camera for movable body | |
CN110555362B (zh) | 物体识别装置 | |
JP6838285B2 (ja) | レーンマーカ認識装置、自車両位置推定装置 | |
JP2020067698A (ja) | 区画線検出装置及び区画線検出方法 | |
JP2007220013A (ja) | 車両用白線検出装置 | |
JP2022013848A (ja) | ある車両の環境中の標的車両の軌道を予測する方法及びシステム | |
CN112329645A (zh) | 图像检测方法、装置、电子设备及存储介质 | |
JP6815963B2 (ja) | 車両用外界認識装置 | |
CN110751040B (zh) | 一种三维物体的检测方法和装置、电子设备、存储介质 | |
CN112037257A (zh) | 一种目标跟踪方法、终端及其计算机可读存储介质 | |
CN113011285B (zh) | 车道线检测方法、装置、自动驾驶车辆及可读存储介质 | |
JP7191671B2 (ja) | キャリブレーション装置、キャリブレーション方法 | |
CN114037977B (zh) | 道路灭点的检测方法、装置、设备及存储介质 | |
KR101653491B1 (ko) | 다중 차로 검출 및 차로 변경 감지 기반의 차로 인식 방법 및 시스템 | |
CN110570680A (zh) | 利用地图信息确定对象位置的方法和系统 | |
KR101910256B1 (ko) | 카메라 기반 도로 곡률 추정을 위한 차선 검출 방법 및 시스템 | |
CN112820115B (zh) | 一种行驶车辆转向状态识别方法 | |
JP2012185134A (ja) | 走路推定装置及びプログラム | |
US20240062505A1 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220803 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7118836 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |