JP6614229B2 - 車線認識装置、車線認識方法 - Google Patents

車線認識装置、車線認識方法 Download PDF

Info

Publication number
JP6614229B2
JP6614229B2 JP2017234092A JP2017234092A JP6614229B2 JP 6614229 B2 JP6614229 B2 JP 6614229B2 JP 2017234092 A JP2017234092 A JP 2017234092A JP 2017234092 A JP2017234092 A JP 2017234092A JP 6614229 B2 JP6614229 B2 JP 6614229B2
Authority
JP
Japan
Prior art keywords
boundary line
lane
unit
point
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017234092A
Other languages
English (en)
Other versions
JP2018055715A (ja
Inventor
久 小磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017234092A priority Critical patent/JP6614229B2/ja
Publication of JP2018055715A publication Critical patent/JP2018055715A/ja
Application granted granted Critical
Publication of JP6614229B2 publication Critical patent/JP6614229B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車線認識装置、車線認識方法に関する。
現在、車両の自動走行などのために車両が走行する車線を認識する車線認識装置が知られている。このような車線認識装置は、車両の進行方向の空間を撮像し、取得された撮像画像上において特定される車線の境界線に基づいて車線を認識する。このような車線認識装置は、車線が誤認識されないように構成されることが望まれる。現在、車線の誤認識を減らすための種々の技術が知られている。
例えば、特許文献1には、誤認識発生を判定して確実な車線認識を試みる車線認識装置が開示されている。特許文献1に開示された車線認識装置は、車線左右に設けられている道路区画線(境界線)の異なる部分を撮影する複数のカメラと、画像中の道路区画線を認識する複数の道路区画線認識部と、道路区画線認識部の認識結果を照合することで認識の成否を判定する判定部と、を備える。
特開2002−92796号公報
しかしながら、特許文献1に開示された車線認識装置では、道路上に描かれた境界線が薄くなったり、途切れたり、消えてしまった場合、適切に車線を認識することができなかった。このため、車両が走行する車線を安定的に認識することが可能な技術が望まれている。
本発明は、このような状況に鑑みてなされたものであり、車両が走行する車線を安定的に認識することが可能な車線認識装置、車線認識方法、及び、プログラムを提供することを目的とする。
上記目的を達成するために、本発明の第1の観点に係る車線認識装置は、 車両に設置され、現実空間内における自身の位置を測定する測定部と、前記車両に設置され、前記車両の進行方向の空間を撮像する撮像部と、前記撮像部により取得された撮像画像上における前記車両が走行する車線の境界線の位置を特定する特定部と、前記特定部による位置の特定が成功した場合、前記測定部により測定された位置と前記特定部により特定された位置とに基づいて、前記境界線の現実空間内における位置を緯度情報と経度情報を含む絶対的な位置を示す座標情報として算出する算出部と、前記算出部により算出された前記境界線の現実空間における位置を示す座標情報とともに前記座標情報が取得された時刻を示す時刻情報を記憶部に記憶させる記録部と、前記特定部による位置の特定が成功した場合、前記特定部により特定された位置に基づいて前記車線を認識し、前記特定部による位置の特定が成功しなかった場合、前記測定部により測定された位置と前記記憶部に記憶された前記座標情報により示される位置とに基づいて前記車線を認識する認識部と、を備え、前記時刻情報に基づいて前記境界線の位置が安定している期間と安定していない期間を判別し、前記境界線の位置が安定していない期間の後に、前記境界線の位置が安定した期間があると判定された場合、前記境界線の位置が安定していない期間の前記座標情報を前記記憶部から消去する、ことを特徴とする。
上記目的を達成するために、本発明の第2の観点に係る車線認識方法は、
車両に設置された測定部により、現実空間内における自身の位置を測定する測定ステップと、前記車両に設置された撮像部により、前記車両の進行方向の空間を撮像する撮像ステップと、前記撮像ステップにより取得された撮像画像上における前記車両が走行する車線の境界線の位置を特定する特定ステップと、 前記特定ステップによる位置の特定が成功した場合、前記測定ステップにより測定された位置と前記特定ステップにより特定された位置とに基づいて、前記境界線の現実空間内における位置を緯度情報と経度情報を含む絶対的な位置を示す座標情報として算出する算出ステップと、前記算出ステップにより算出された前記境界線の現実空間内における位置を示す座標情報とともに前記座標情報が取得された時刻を示す時刻情報を記憶部に記憶させる記録ステップと、前記特定ステップによる位置の特定が成功した場合、前記特定ステップにより特定された位置に基づいて前記車線を認識し、前記特定ステップによる位置の特定が成功しなかった場合、前記測定ステップにより測定された位置と前記記憶部に記憶された前記座標情報により示される位置とに基づいて前記車線を認識する認識ステップと、前記時刻情報に基づいて前記境界線の位置が安定している期間と安定していない期間を判別する判別ステップと、前記境界線の位置が安定していない期間の後に、前記境界線の位置が安定した期間があると判定された場合、前記境界線の位置が安定していない期間の前記座標情報を前記記憶部から消去する、消去ステップと、を備えることを特徴とする。
本発明によれば、車両が走行する車線を安定的に認識することができる。
本発明の実施形態1に係る車線認識システムの構成を示す図である。 本発明の実施形態1に係る車線認識装置の物理的な構成を示すブロック図である。 本発明の実施形態1に係る車線認識装置の機能的な構成を示すブロック図である。 車載カメラとGPS受信機の取り付け位置を示す図である。 車線の境界線を含む撮像画像を示す図である。 車線の境界線の現実空間内における位置を算出する手法を説明するための図である。 本発明の実施形態1に係る車線認識装置が実行する車線認識処理を示すフローチャートである。 (A)は、消失点が下方向に移動した撮像画像を示す図である。(B)は、消失点が上方向に移動した撮像画像を示す図である。
以下、図面を参照して、本発明の実施形態に係る車線認識システムについて説明する。
(実施形態1)
まず、図1を参照して、本発明の実施形態1に係る車線認識システム1000について説明する。車線認識システム1000は、車両が走行する車線を認識するシステムである。なお、車線の認識の結果は、自動運転処理、歩行者検出処理、障害物検出処理などに用いられる。図1に示す例では、車線認識システム1000は、車両150、151、152、153と、サーバ200と、ネットワーク250と、GPS(Global Positioning System)衛星301、302、303と、を備える。
車両150、151、152、153は、それぞれ、車線認識装置100、101、102、103を搭載し、道路上の車線を走行する車両である。車線認識装置101、102、103のそれぞれは、基本的に、車線認識装置100と同様の構成である。以下、基本的に、車両150に注目し、車両150に搭載された車線認識装置100について説明する。また、車両150を自車両とし、車両151、152、153を他車両とする。なお、他車両の台数は、3台に限定されず、2台以下であってもよいし、4台以上であってもよい。
サーバ200は、ネットワーク250を介して、車線認識装置100と接続されるサーバである。サーバ200は、記憶装置210を備える。記憶装置210は、境界線位置情報を記憶する。境界線位置情報は、道路上の車線の境界線の位置を示す情報である。なお、境界線は、車両150からみて右側の境界線と、車両150からみて左側の境界線とが存在する。境界線位置情報のフォーマットは、適宜、調整することができる。
例えば、境界線位置情報は、単純に、境界線上の各地点の現実空間内における位置が列挙された情報であってもよい。もしくは、境界線位置情報は、境界線毎に、境界線上の各地点の現実空間内における位置が列挙された情報であってもよい。なお、現実空間内における位置は、例えば、緯度、経路、高度により表される。境界線位置情報により示される位置を結ぶことにより、境界線が近似される。本実施形態では、1つの撮像画像から、左右の境界線上の位置が1つずつ検出されるものとする。なお、境界線位置情報は、境界線上の位置とこの位置が検出された時刻とが対応付けられて、データベース化された情報で
あってもよい。
サーバ200は、車線認識装置100から受信した境界線位置情報に基づいて記憶装置210に記憶されている境界線位置情報を更新する。また、サーバ200は、車線認識装置100の要求に従って、記憶装置210に記憶されている境界線位置情報を、車線認識装置100に送信する。なお、記憶装置210が記憶する境界線位置情報は、比較的広い範囲に存在する境界線を示す情報であってもよい。一方、車線認識装置100とサーバ200との間で送信または受信される境界線位置情報は、比較的狭い範囲に存在する境界線を示す情報であってもよい。なお、比較的広い範囲とは、例えば、日本全土、都道府県全
域である。一方、比較的狭い範囲とは、例えば、車線認識装置100を搭載した車両150の近傍の範囲である。比較的狭い範囲は、例えば、車両150が最近数秒〜数時間程度の間に通過した範囲、車両150が数秒〜数時間程度後に通過する可能性がある範囲、車両150の位置を中心とする半径数m〜数km程度の範囲などである。
ネットワーク250は、車線認識装置100とサーバ200とを相互に接続するネットワークである。ネットワークは、例えば、インターネットである。
GPS衛星301、302、303のそれぞれは、現在時刻を示す情報(以下「時刻情報」という。)を電波として放出する。後述するように、GPS受信機112は、GPS衛星301、302、303のそれぞれから受信した時刻情報に基づいて、GPS受信機112の現在位置を求めることができる。
次に、図2を参照して、本実施形態に係る車線認識装置100の物理的な構成について説明する。車線認識装置100は、車線認識装置100を搭載する車両150が走行中の車線を認識する装置である。車線認識装置100は、例えば、自動運転支援装置やナビゲーション装置に組み込まれた装置である。なお、本発明が適用される車線認識装置は、図2に示す車線認識装置100に限られない。例えば、車線認識装置100に種々の構成要素が組み込まれた装置に本発明が適用されてもよいし、車線認識装置100から適宜、構成要素が除外された装置に本発明が適用されてもよい。また、車線認識装置100が備え
る構成要素の個数は、図2に示す例に限られない。
図2に示すように、車線認識装置100は、制御部110、車載カメラ111、GPS受信機112、不揮発性メモリ113、ネットワークインターフェース114、タッチスクリーン115、スピーカ116、マイクロフォン117を備える。
制御部110は、車線認識装置100の全体の動作を制御する。制御部110は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備える。制御部110が備えるこれらの構成要素は、バスにより相互に接続される。CPUは、RAMをワークエリアとして使用し、ROMに格納されているプログラムに従って動作することで、制御部110の全体の動作を制御する。
車載カメラ111は、車両150に設置され、車両150の進行方向の空間を撮像し、撮像画像を取得する。本実施形態では、車載カメラ111により取得される撮像画像は、動画像であるものとする。なお、車載カメラ111は、車両150が走行中の車線の左右の境界線が撮像範囲に含まれるように、車両150に設置される。
GPS受信機112は、車両150に設置され、GPS衛星301、302、303のそれぞれから受信した時刻情報に基づいて、GPS受信機112の現在時刻における現在位置を取得する。具体的には、まず、GPS受信機112は、GPS衛星301、302、303のそれぞれから時刻情報を受信する。そして、GPS受信機112は、GPS衛星301、302、303のそれぞれから受信した時刻情報により示される時刻と、GPS衛星301、302、303のそれぞれの位置と、に基づいて、車線認識装置100の現在位置を算出する。GPS受信機112は、取得した時刻情報や算出した位置情報を、制御部110に供給する。
不揮発性メモリ113は、制御部110が実行する制御プログラムや、境界線位置情報などを記憶する。本実施形態では、不揮発性メモリ113は、記憶装置210のバッファメモリとしても機能するものとする。つまり、制御部110は、定期的に、または、不定期に、境界線位置情報をダウンロードおよびアップロードする。例えば、制御部110は、定期的に、または、不定期に、記憶装置210に記憶されている境界線位置情報のうち、車両150の近傍の境界線位置情報を、サーバ200から取得し、不揮発性メモリ113に記憶させる。また、例えば、制御部110は、定期的に、または、不定期に、不揮発性メモリ113に記憶されている、車線認識処理により取得された車両150の近傍の境界線位置情報を、サーバ200に送信し、記憶装置210に記憶されている境界線位置情報をサーバ200に更新させる。
本実施形態では、制御部110は、車線認識処理を開始する直前に、サーバ200から境界線位置情報を受信し、受信した境界線位置情報を不揮発性メモリ113に記憶させる。また、制御部110は、車線認識処理の実行中、不揮発性メモリ113に記憶されている境界線位置情報を使用または更新する。そして、制御部110は、車線認識処理を終了した直後に、境界線位置情報をサーバ200に送信する。不揮発性メモリ113は、例えば、フラッシュメモリである。車線認識装置100は、不揮発性メモリ113に代えて、ハードディスクを備えていても良い。
ネットワークインターフェース114は、車線認識装置100をネットワーク250に接続するためのインターフェースである。
タッチスクリーン115は、ユーザによりなされたタッチ操作を検知し、検知の結果を示す信号を制御部110に供給する。また、タッチスクリーン115は、制御部110などから供給された画像信号に基づく画像を表示する。典型的には、タッチスクリーン115は、車載カメラ111により取得された撮像画像を表示する。このように、タッチスクリーン115は、車線認識装置100のユーザインターフェースとして機能する。
スピーカ116は、制御部110から供給されたデジタル音声信号をアナログ音声信号に変換する。そして、スピーカ116は、変換により得られたアナログ音声信号に従って、音声を出力する。
マイクロフォン117は、周囲の音声を集音し、アナログ音声信号を生成する。そして、マイクロフォン117は、生成されたアナログ音声信号をデジタル音声信号に変換して制御部110に供給する。
なお、本実施形態では、現実空間内における位置や方向を、X軸とY軸とZ軸とを用いて表すものとする。X軸方向は、車両150の進行方向を示す方向成分のうち、鉛直方向に直交する方向である。Y軸方向は、X軸方向と鉛直方向とに直交する方向である。Z軸方向は、鉛直方向である。
次に、図3を参照して、本実施形態に係る車線認識装置100の基本的な機能について説明する。図3に示すように、車線認識装置100は、機能的には、測定部11、撮像部12、特定部13、算出部14、記録部15、記憶部16、認識部17を備える。
なお、車線認識装置100の構成は、図3に示す例に限定されない。例えば、車線認識装置100は、図3に示されていない構成要素を備えていてもよいし、図3に示す構成要素の一部を備えていなくてもよい。また、複数の構成要素の間で授受される情報は、図3において矢印で示すものに限定されない。従って、車線認識装置100は、図3において矢印で示されていない情報を授受してもよいし、図3において矢印で示した情報の一部を授受しなくてもよい。
測定部11は、車両150に設置され、現実空間内における自身の位置を測定する。なお、境界線は、車両150が走行する車線の両端に白または黄色の実線または破線で描かれた線である。測定部11は、例えば、GPS受信機112を備える。
撮像部12は、車両150に設置され、車両150の進行方向の空間を撮像する。撮像部12は、例えば、車載カメラ111を備える。
特定部13は、撮像部12により取得された撮像画像上における車両150が走行する車線の境界線の位置を特定する。特定部13は、例えば、制御部110を備える。
算出部14は、特定部13による位置の特定が成功した場合、測定部11により測定された位置と特定部13により特定された位置とに基づいて、境界線の現実空間内における位置を算出する。算出部14は、例えば、制御部110を備える。
記録部15は、算出部14により算出された位置を示す情報(境界線位置情報)を記憶部16に記憶させる。記録部15は、例えば、制御部110を備える。
認識部17は、特定部13による位置の特定が成功した場合、特定部13により特定された位置に基づいて車線を認識する。一方、認識部17は、特定部13による位置の特定が成功しなかった場合、測定部11により測定された位置と記憶部16に記憶されている情報により示される位置とに基づいて車線を認識する。認識部17は、例えば、制御部110を備える。
ここで、認識部17は、特定部13による位置の特定が成功しなかった場合、測定部11により測定された位置と、記憶部16に記憶されている情報のうち、直近の予め定められた期間において記憶された情報により示される位置と、に基づいて、車線を認識してもよい。なお、この期間は、境界線を認識するために用いる情報の寿命を考慮して、適宜、調整される。例えば、この期間は、道路上に描かれた境界線の寿命や、道路の工事状況などが考慮されて、適宜、調整される。例えば、この期間は、数ヶ月から数年とすることができる。
ここで、算出部14は、撮像部12により取得された撮像画像上において、上下方向の座標が予め定められた左右方向に延びる基準線と、境界線との交点を特定することができる。この場合、算出部14は、測定部11により測定された位置と、交点の左右方向における座標とに基づいて、現実空間内における交点に対応する地点の位置を算出することができる。
次に、図4を参照して、車載カメラ111とGPS受信機112の取り付け位置について説明する。
車載カメラ111は、車両150の進行方向の空間が撮像範囲になるように、車両150に設置される。つまり、車載カメラ111は、車両150の内側において車両150の前方を撮像可能となるように、フロントガラスの内側の上部中央よりに設置される。典型的には、車載カメラ111は、ルームミラーの近傍に固定して設置される。
GPS受信機112は、GPS衛星301、302、303から放射された電波を受信可能となるように、車両150に設置される。つまり、GPS受信機112は、車両150の内側において上述した電波を受信可能となるように、フロントガラスの内側の上部に設置される。典型的には、車載カメラ111は、ルームミラーの近傍に固定して設置される。なお、車載カメラ111とGPS受信機112とは、いずれも車両150に固定されるため、車載カメラ111とGPS受信機112の位置関係は明白である。ここで、GPS受信機112は、受信した電波に基づいて、GPS受信機112の現実空間内における位置を測定することができる。このため、GPS受信機112の現実空間内における位置から、車載カメラ111の現実空間内における位置も算出可能である。
次に、図5を参照して、車線を認識するために車載カメラ111により取得された撮像画像500について説明する。なお、制御部110は、撮像画像500に基づいて、(a)車線の境界線の撮像画像500上における位置を特定し、(b)車線の境界線の現実空間内における位置を特定する。
まず、(a)車線の境界線の撮像画像500上における位置を特定する手法について説明する。図5に示すように、撮像画像500上において、中心線511と基準線512とを想定する。中心線511は、撮像画像500上において上下方向に延びる線であり、左右方向の中心点を結ぶ線である。基準線512は、撮像画像上において左右方向に延びる線であり、上下方向における座標が予め定められた線である。ここで、撮像画像500上において、車線の境界線のうち左側の境界線を境界線513とし、車線の境界線のうち右側の境界線を境界線514とする。なお、撮像画像500上において境界線513や境界線514を特定する手法は、適宜、調整することができる。例えば、エッジ検出やパターンマッチングなどの公知の手法が考えられる。
次に、(b)車線の境界線の現実空間内における位置を特定する手法について説明する
。まず、撮像画像500上において、基準線512と境界線513との交点を点A、基準線512と境界線514との交点を点B、中心線511と基準線512との交点を点Cとする。なお、点Gは、消失点である。消失点は、実際には平行である2つの線が、遠近法により平行でなく描かれる場合に、これらの2つの線が交わる点である。本実施形態では、点Gは、境界線513と境界線514との交点である。
以下、図6を参照して、点A、点B、点Cの撮像画像500上における位置に対応する、点A、点B、点Cの現実空間内における位置を求める手法について説明する。なお、点A、点B、点Cは、現実空間内において、道路上に存在する点である。図6は、点A、点B、点C、点D、点E、点Fの現実空間内における位置関係を示す斜視図である。点Eは、車載カメラ111の現実空間内における位置(焦点位置)である。一方、点Dは、点Eの真下に下ろしたときの道路上の点である。また、点Fは、GPS受信機112の現実空間内における位置である。
ここで、ユーザは、車載カメラ111を車両150に設置した時に、点Cから点Dまでの距離と、撮像画像500上における基準線512上の1画素当たりの現実空間内における距離(以下、適宜、「1画素当たりの距離」という。)と、を求めておく。ユーザは、例えば、現実空間内における点Cと、現実空間内における点Dとの間の距離を、メジャーなどにより測定することにより、点Cから点Dまでの距離を求める。また、ユーザは、予め長さが分かる定規などの基準物600を、撮像画像500上において基準線512に重なるように、道路上に配置する。そして、ユーザは、現実空間500内における基準物600の長さを、撮像画像500上における基準物600の長さに対応する画素数で除算することにより、1画素当たりの距離を求める。
このように、車載カメラ111の設置時に1画素当たりの距離が決定されている場合、撮像画像500上における点Aから点Cまでの画素数が求められることにより、現実空間500内における点Aから点Cまでの距離が求められる。また、車載カメラ111の設置時に現実空間500内における点Cから点Dまでの距離は決定されており、点Aと点Cと点Dとを頂点とする三角形は直角三角形である。従って、点Aから点Cまでの距離と、点Cから点Dまでの距離とから、点Aから点Dまでの距離と、角度ADCであるαとが求められる。このようにして、点Dの位置を基準としたときの点Aの相対的な位置(点Dの位置を基準としたときの点Aまでの距離と点Aの方向)が求められる。
ここで、点Fの現実空間内における位置は、GPS受信機112により求められる。また、点Fを基準としたときの点Eの相対的な位置(点Fの位置を基準としたときの点Eまでの距離と点Eの方向)は明白である。さらに、点Eを基準としたときの点Dの相対的な位置(点Eの位置を基準としたときの点Dまでの距離と点Dの方向)は明白である。従って、点Fの現実空間内における位置が、GPS受信機112により求められると、点Aの現実空間内における位置が求められる。
なお、点Aと同様の手法により、点Bの現実空間内における位置を求めることができる。つまり、撮像画像500上における点Bから点Cまでの画素数により、現実空間500内における点Bから点Cまでの距離が求められる。そして、点Bから点Cまでの距離と、点Cから点Dまでの距離とから、点Bから点Dまでの距離と、角度BDCであるβとが求められる。従って、点Fの現実空間内における位置が、GPS受信機112により求められると、点Bの現実空間内における位置が求められる。
なお、制御部110が、車線を認識する手法は、適宜、調整することができる。例えば、制御部110は、点Eを基準としたときの点Aの相対的な位置と、点Eを基準としたときの点Bの相対的な位置と、に基づいて、車線を認識することができる。なお、点Aの絶対的な位置(点Aの現実空間内における位置)と、点Bの絶対的な位置(点Bの現実空間内における位置)とは、車線の認識に用いられなくてもよい。なお、これらの絶対的な位置は、撮像画像500に基づく車線の認識が適切にできない場合に利用される。
次に、図7に示すフローチャートを参照して、車線認識装置100が実行する車線認識処理について説明する。なお、車線認識装置100は、ユーザから自動運転の開始指示を受け付けたことに応答して、図7に示す車線認識処理の実行を開始する。なお、サーバ200が備える記憶装置210に記憶されている境界線位置情報は、車線認識処理が実行される前に、不揮発性メモリ113にダウンロードされているものとする。
まず、制御部110は、現在位置情報を取得する(ステップS101)。例えば、制御部110は、現在位置の取得処理を開始するようにGPS受信機112を制御した後、GPS受信機112から現在位置情報を取得することができる。なお、現在位置情報は、現在時刻におけるGPS受信機112の位置を示す情報である。
制御部110は、ステップS101の処理を完了すると、撮像画像500を取得する(ステップS102)。例えば、制御部110は、撮像を開始するように車載カメラ111を制御した後、車載カメラ111から撮像画像500を取得することができる。なお、撮像画像500は、例えば、車載カメラ111による撮像により取得された動画像のうち、現在時刻における最新のフレーム画像である。
制御部110は、ステップS102の処理を完了すると、撮像画像500上における境界線位置を特定する(ステップS103)。制御部110は、上述した手法や周知の手法により、撮像画像500上において、境界線513の位置と境界線514の位置とを特定する。
制御部110は、ステップS103の処理を完了すると、境界線位置を適切に特定したか否かを判別する(ステップS104)。例えば、撮像画像500上において、境界線513と境界線514とが明確に映し出されている場合、境界線位置が適切に特定される。一方、撮像画像500上において、境界線513と境界線514とが明確に映し出されていない場合、境界線位置が適切に特定されない。なお、境界線513や境界線514が撮像画像500上において明確に映し出されなくなる原因として、種々の原因が考えられる。例えば、道路上に描かれた境界線513や境界線514がかすれてしまった場合、道路上に他の車両や歩行者がある場合、道路上に水や土砂や落下物などがある場合などが考えられる。
制御部110は、境界線位置を適切に特定したと判別すると(ステップS104:YES)、現在位置情報を適切に取得したか否かを判別する(ステップS105)。例えば、GPS衛生301、302、303から送信された電波の受信状況が良好である場合、現在位置情報が適切に取得される。一方、これらの電波の受信状況が良好でない場合、現在位置情報が適切に取得されない。なお、同じ場所でも、飛行機、樹木、鳥などの障害物、工事車両から発生するノイズ、強雨や強風などの天候不良などにより、電波の受信状況が良好でなくなる可能性がある。
制御部110は、現在位置情報を適切に取得したと判別すると(ステップS105:YES)、現実空間内における境界線位置を算出する(ステップS106)。つまり、制御部110は、上述した手法により、現在位置情報と撮像画像上における境界線位置とに基づいて、現実空間内における、点Aの位置と点Bの位置とを算出する。
制御部110は、ステップS106の処理を完了すると、算出した境界線位置を示す境界線位置情報を記録する(ステップS107)。具体的には、制御部110は、点Aの位置(緯度、経度、高度)を示す情報を、左側の境界線上の位置を示す情報として、不揮発性メモリ113に記憶する。また、制御部110は、点Bの位置(緯度、経度、高度)を示す情報を、右側の境界線上の位置を示す情報として、不揮発性メモリ113に記憶する。
制御部110は、現在位置情報を適切に取得しなかったと判別した場合(ステップS105:NO)、または、ステップS107の処理を完了した場合、特定された境界線位置に基づいて、車線を認識する(ステップS108)。なお、制御部110は、撮像画像500上において境界線位置を適切に特定した場合、車載カメラ111の位置を基準としたときの点Aの相対的な位置と点Bの相対的な位置とを認識可能である。そして、制御部110は、点Aと点Bの間を、車両150が走行すべき車線として認識することができる。
制御部110は、境界線位置を適切に特定しなかったと判別した場合(ステップS104:NO)、境界線位置情報があるか否かを判別する(ステップS109)。例えば、制御部110は、最近1年間に記録された境界線位置情報のうち、現在位置情報により示される現在位置の近傍に関わる境界線位置情報が、不揮発性メモリ113に記憶されているか否かを判別することができる。
制御部110は、境界線位置情報があると判別した場合(ステップS109:YES)、境界線位置情報を取得する(ステップS110)。具体的には、制御部110は、最近1年間に記録された境界線位置情報のうち、現在位置情報により示される現在位置の近傍に関わる境界線位置情報を、不揮発性メモリ113から読み出す。
制御部110は、ステップS110の処理を終了すると、現在位置情報と境界線位置情報とに基づいて車線を認識する(ステップS111)。制御部110は、例えば、現在位置情報により示される現在位置に対する、境界線位置情報により示される境界線位置(点Aの位置および点Bの位置)の相対的な位置を特定することにより、車線を認識することができる。
一方、制御部110は、境界線位置情報がないと判別した場合(ステップS109:NO)、過去に特定した境界線位置に基づいて車線を認識する(ステップS112)。つまり、撮像画像500に基づいて境界線位置が適切に特定されなかった場合でも境界線位置情報が存在しない場合、制御部110は、過去に撮像画像500に基づいて特定された境界線位置に基づいて、車線を認識する。例えば、制御部110は、過去数フレームの平均値から車線を予測して認識する、直近の過去の取得情報のみを補正して使用するなどして車線を認識する。
制御部110は、ステップS108、ステップS111、ステップS112の処理を完了した場合、ステップS101に処理を戻す。
以上説明したように、本実施形態では、撮像画像500に基づいて車線の境界線の位置が適切に特定できない場合、過去に記録された車線の境界線の位置を示す情報に基づいて、車線が認識される。従って、本実施形態によれば、例えば、車線の境界線が明確に描かれていない状態においても車線を適切に認識することができる。つまり、本実施形態によれば、安定した車線認識が実現可能となる。
また、本実施形態では、撮像画像500に基づいて車線の境界線の位置が適切に特定できない場合、過去に記録された車線の境界線の位置を示す情報のうち、直近の予め定められた期間において記録された情報に基づいて、車線が認識される。従って、本実施形態によれば、車線の誤認識を低減することが期待できる。
また、本実施形態では、基準線と境界線との交点に対応する地点の現実空間内における位置が算出され、記憶される。従って、本実施形態によれば、現実空間内における境界線の位置が効率的に管理される。
(実施形態2)
実施形態1では、車載カメラ111の位置や角度が変化しないことを前提として、境界線の現実空間内における位置が算出される例について説明した。本実施形態では、車載カメラ111の位置や角度の変化が考慮されて、境界線の現実空間内における位置が算出される例について説明する。
車載カメラ111は、車両150の予め定められた位置に設置される。しかしながら、車載カメラ111は、車両150が走行する道路の凹凸、タイヤやサスペンションの上下移動、車両150の加速や減速などの影響により、上下方向に移動したり、Y軸方向に延びる回転軸を基準として角度が変化したりする。この結果、車載カメラ111による撮像範囲が変化することになる。従って、撮像範囲が変化したことを検出し、撮像範囲の変化を考慮して、境界線の位置を算出することが好適である。撮像範囲の変化を検出する手法は、適宜、調整することができる。本実施形態では、消失点の変化を検出することにより、撮像範囲の変化を検出する手法について説明する。
まず、初期状態(車載カメラ111の位置や角度が変化していない状態)では、図5に示す撮像画像500が撮像されるものとする。撮像画像500において、消失点である点Gは、撮像画像500の中心である。なお、点Gは、境界線513(境界線513を含む直線)と境界線514(境界線514を含む直線)との交点である。従って、点Gは、撮像画像500において、境界線513の位置と境界線514の位置とを特定することにより特定可能である。
ここで、車載カメラ111が上方向に移動したり、車両150の進行方向に向かって上向きに回転したりする場合を想定する。この場合、撮像範囲が上方に移動し、図8(A)に示す撮像画像501が車載カメラ111により取得される。撮像画像501では、境界線513と境界線514とが消失点である点Gと共に、下方向に移動している。そこで、点Gが下方向に移動した分だけ、基準線512を下方向に移動させる。これにより、撮像画像500における点A(または、点B)から点Cまでの距離と、撮像画像501における点A(または、点B)から点Cまでの距離とが、一致することになる。つまり、撮像範囲が上方向にずれた分だけ基準線512を下方向にずらすことにより、点A(または、点B)により示される境界線の位置が適切に算出される。
また、車載カメラ111が下方向に移動したり、車両150の進行方向に向かって下向きに回転したりする場合を想定する。この場合、撮像範囲が下方に移動し、図8(B)に示す撮像画像502が車載カメラ111により取得される。撮像画像502では、境界線513と境界線514とが消失点である点Gと共に、上方向に移動している。そこで、点Gが上方向に移動した分だけ、基準線512を上方向に移動させる。これにより、撮像画像500における点A(または、点B)から点Cまでの距離と、撮像画像502における点A(または、点B)から点Cまでの距離とが、一致することになる。つまり、撮像範囲が下方向にずれた分だけ基準線512を上方向にずらすことにより、点A(または、点B)により示される境界線の位置が適切に算出される。
本実施形態では、撮像画像内における消失点の上下方向の移動量に応じて、基準線512が上下方向に移動する。従って、本実施形態によれば、撮像範囲が上下方向に移動した場合でも、境界線の位置が適切に算出される。
(変形例)
本発明は、実施形態1、2に開示したものに限られない。
実施形態1では、境界線位置情報が全ての車両により共用され、境界線位置情報が車線認識処理中にダウンロードまたはアップロードされない例について説明した。本発明において、境界線位置情報が車線認識処理中にダウンロードまたはアップロードされてもよい。
なお、境界線位置情報が全ての車両により共用される構成によれば、より多くの境界線位置情報が蓄積されることになり、車線の認識ができない確率を減らすことが期待できる。なお、境界線位置情報は、境界線の位置(境界線に含まれる地点の位置)を現実空間内における座標(例えば、緯度、経度、高度)により示す情報である。このため、例えば、車線認識装置100が備える車載カメラ111と車線認識装置101が備える車載カメラ111とで、設置される位置や角度が異なる場合でも、最終的に記憶される境界線位置情報の整合性はとれることになる。なお、本発明において、境界線位置情報が車両毎に設けられてもよい。
実施形態1では、ほぼ同じ位置に関して異なるタイミングで取得された境界線位置情報の整合性についての説明を省略した。本発明において、ほぼ同じ位置に関して異なるタイミングで取得された境界線位置情報をどのように取り扱うかは、適宜、調整することができる。例えば、ほぼ同じ位置に関して異なるタイミングで複数の境界線位置情報が取得された場合、最新の境界線位置情報が採用されてもよいし、平均的な位置が採用されてもよい。
また、実際の道路は、車線の境界線が薄くなったり消えたりした場合に書き直されたり、道路幅の変更に伴って車線の境界線の位置が変更されたりする。そこで、境界線位置情報とともにこの境界線位置情報が取得された時刻を示す時刻情報とが記憶され、この時刻情報に基づいて、境界線が安定しない期間と境界線が安定する期間とが判別されてもよい。そして、境界線が安定しない期間の後に、境界線が安定した期間があると判別された場合、境界線が安定しない期間において取得された境界線位置情報が消去され、平均化処理などから除外されるようにしてもよい。なお、境界線位置情報が取得された時刻は、GPS受信機112から取得された時刻情報により特定可能である。
実施形態1では、基準線512上における1画素あたりの距離が一定であると定義する例について説明した。本発明において、基準線512上における1画素あたりの距離を横方向における位置に応じて詳細に定義してもよい。例えば、点A近傍における1画素あたりの距離と、点C近傍における1画素あたりの距離とを、定規等を用いた手法により求める。そして、点Aから点Cまでの間の各点における、1画素あたりの距離をリニアに変化させる。そして、点Aから点Cまでの間の各画素の現実空間内における長さを積み重ねることにより、点Aから点Cまでの現実空間内における長さが求められる。かかる構成によれば、点Aの現実空間内における位置が正確に算出可能となる。点Bから点Cまでの距離の算出も同様である。
実施形態1では、撮像画像500上において境界線の位置の特定が成功しなかった場合に、記憶されている境界線位置情報が使用される例について説明した。本発明において、記憶されている境界線位置情報が使用される条件は、この例に限定されない。例えば、夜間、強雨、積雪などの原因により、撮像画像500上において境界線の位置を誤って特定しやすいと推測される場合、積極的に記憶されている境界線位置情報が使用されてもよい。
実施形態1では、車載カメラ111として単眼カメラが採用される例について説明した。本発明において、車載カメラ111として、ステレオカメラが採用されてもよい。
実施形態1では、車載カメラ111により取得された撮像画像500に基づいて、境界線の位置が算出される例について説明した。本発明において、撮像画像500の他、距離を測定可能な各種のセンサにより取得された情報が、境界線の位置の算出に用いられてもよい。
実施形態1では、車線の境界線に対する位置情報が取得および活用される例について説明した。本発明において、横断歩道、信号機、標識、道路標示等に対する位置情報が取得および活用されてもよい。
本発明において、車線認識の状況(例えば、認識結果(成功/失敗))を示す情報がサーバ200などにアップロードされ、解析されてもよい。かかる構成によれば、アップロードされた情報を、メンテナンスなどに利用可能となる。
実施形態1では、境界線位置情報は、基本的に、現実空間内における座標(緯度、経度、高さ)の集合として管理される例について説明した。本発明において、境界線位置情報の管理方法は、適宜、調整することができる。例えば、境界線位置情報は、種々の関数などを用いて境界線の位置を示す情報であってもよい。
上記実施形態では、車線認識装置100がCPUとROMとRAMとを備える制御部110を備え、CPUがROMに記憶されているプログラムに従って、ソフトウェアにより車線認識処理が実現される例を示した。しかし、車線認識装置100が実行する車線認識処理は、ソフトウェアにより実現されるものに限定されない。例えば、車線認識装置100は、マイクロコンピュータ、FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)、DSP(Digital Signal Processor)などにより構成されてもよい。
なお、本発明に係る車線認識装置は、専用のシステムによらず、通常のコンピュータシステムを用いても実現可能である。例えば、コンピュータに、上記動作を実行するためのプログラムを、コンピュータ読み取り可能な記録媒体に記憶して配布し、これをコンピュータシステムにインストールすることにより、上述の処理を実行する車線認識装置を構成しても良い。さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを記憶しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。
11 測定部
12 撮像部
13 特定部
14 算出部
15 記録部
16 記憶部
17 認識部
100、101、102、103 車線認識装置
110 制御部
111 車載カメラ
112 GPS受信機
113 不揮発性メモリ
114 ネットワークインターフェース
115 タッチスクリーン
116 スピーカ
117 マイクロフォン
150、151、152、153 車両
200 サーバ
210 記憶装置
250 ネットワーク
301、302、303 GPS衛星
500、501、502 撮像画像
511 中心線
512 基準線
513、514 境界線
600 基準物
1000 車線認識システム

Claims (2)

  1. 車両に設置され、現実空間内における自身の位置を測定する測定部と、
    前記車両に設置され、前記車両の進行方向の空間を撮像する撮像部と、
    前記撮像部により取得された撮像画像上における前記車両が走行する車線の境界線の位置を特定する特定部と、
    前記特定部による位置の特定が成功した場合、前記測定部により測定された位置と前記特定部により特定された位置とに基づいて、前記境界線の現実空間内における位置を緯度情報と経度情報を含む絶対的な位置を示す座標情報として算出する算出部と、
    前記算出部により算出された前記境界線の現実空間における位置を示す座標情報とともに前記座標情報が取得された時刻を示す時刻情報を記憶部に記憶させる記録部と、
    前記特定部による位置の特定が成功した場合、前記特定部により特定された位置に基づいて前記車線を認識し、前記特定部による位置の特定が成功しなかった場合、前記測定部により測定された位置と前記記憶部に記憶された前記座標情報により示される位置とに基づいて前記車線を認識する認識部と、を備え、
    前記時刻情報に基づいて前記境界線の位置が安定している期間と安定していない期間を判別し、前記境界線の位置が安定していない期間の後に、前記境界線の位置が安定した期間があると判定された場合、前記境界線の位置が安定していない期間の前記座標情報を前記記憶部から消去する、
    ことを特徴とする車線認識装置。
  2. 車両に設置された測定部により、現実空間内における自身の位置を測定する測定ステップと、
    前記車両に設置された撮像部により、前記車両の進行方向の空間を撮像する撮像ステップと、
    前記撮像ステップにより取得された撮像画像上における前記車両が走行する車線の境界線の位置を特定する特定ステップと、
    前記特定ステップによる位置の特定が成功した場合、前記測定ステップにより測定された位置と前記特定ステップにより特定された位置とに基づいて、前記境界線の現実空間内における位置を緯度情報と経度情報を含む絶対的な位置を示す座標情報として算出する算出ステップと、
    前記算出ステップにより算出された前記境界線の現実空間内における位置を示す座標情報とともに前記座標情報が取得された時刻を示す時刻情報を記憶部に記憶させる記録ステップと、
    前記特定ステップによる位置の特定が成功した場合、前記特定ステップにより特定された位置に基づいて前記車線を認識し、前記特定ステップによる位置の特定が成功しなかった場合、前記測定ステップにより測定された位置と前記記憶部に記憶された前記座標情報により示される位置とに基づいて前記車線を認識する認識ステップと、
    前記時刻情報に基づいて前記境界線の位置が安定している期間と安定していない期間を判別する判別ステップと、
    前記境界線の位置が安定していない期間の後に、前記境界線の位置が安定した期間があると判定された場合、前記境界線の位置が安定していない期間の前記座標情報を前記記憶部から消去する、消去ステップと、を備える
    ことを特徴とする車線認識方法。

JP2017234092A 2017-12-06 2017-12-06 車線認識装置、車線認識方法 Active JP6614229B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017234092A JP6614229B2 (ja) 2017-12-06 2017-12-06 車線認識装置、車線認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017234092A JP6614229B2 (ja) 2017-12-06 2017-12-06 車線認識装置、車線認識方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014113493A Division JP6256207B2 (ja) 2014-05-30 2014-05-30 車線認識装置、車線認識方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2018055715A JP2018055715A (ja) 2018-04-05
JP6614229B2 true JP6614229B2 (ja) 2019-12-04

Family

ID=61836830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017234092A Active JP6614229B2 (ja) 2017-12-06 2017-12-06 車線認識装置、車線認識方法

Country Status (1)

Country Link
JP (1) JP6614229B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7149234B2 (ja) * 2019-07-22 2022-10-06 本田技研工業株式会社 車線データ生成装置、位置特定装置、車線データ生成方法および位置特定方法
JP7380443B2 (ja) * 2020-06-22 2023-11-15 トヨタ自動車株式会社 部分画像生成装置及び部分画像生成用コンピュータプログラム
CN113408409A (zh) * 2021-06-17 2021-09-17 阿波罗智联(北京)科技有限公司 交通信号灯识别方法、设备、云控平台和车路协同系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3557656B2 (ja) * 1994-08-03 2004-08-25 日産自動車株式会社 接近予測装置
JP3351247B2 (ja) * 1996-07-29 2002-11-25 トヨタ自動車株式会社 走行制御装置
JP4619962B2 (ja) * 2006-02-15 2011-01-26 三菱電機株式会社 路面標示計測システム、白線モデル計測システムおよび白線モデル計測装置
JP5067847B2 (ja) * 2007-07-23 2012-11-07 アルパイン株式会社 車線認識装置及びナビゲーション装置
JP4986883B2 (ja) * 2008-02-27 2012-07-25 三菱電機株式会社 標定装置、標定方法および標定プログラム
JP5469509B2 (ja) * 2010-03-31 2014-04-16 パナソニック株式会社 車線位置検出装置および車線位置検出方法
JP5814620B2 (ja) * 2011-05-23 2015-11-17 三菱電機株式会社 位置補正データ生成装置、位置標定装置、位置補正データ生成装置の位置補正データ生成方法、位置標定装置の位置標定方法、位置補正データ生成プログラムおよび位置標定プログラム

Also Published As

Publication number Publication date
JP2018055715A (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6325806B2 (ja) 車両位置推定システム
KR102534353B1 (ko) 검출된 배리어에 기반한 차량의 항법
JP4871909B2 (ja) 物体認識装置、および物体認識方法
US11333517B1 (en) Distributed collection and verification of map information
WO2015087502A1 (ja) 自車位置検出装置
JP6614229B2 (ja) 車線認識装置、車線認識方法
JP2016156973A (ja) 地図データ記憶装置、制御方法、プログラム及び記憶媒体
JP4902575B2 (ja) 道路標示認識装置、および道路標示認識方法
JP6973351B2 (ja) センサ校正方法、及びセンサ校正装置
US10679077B2 (en) Road marking recognition device
JP2020533667A5 (ja)
JP6758160B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP6129268B2 (ja) 車両用運転支援システムおよび運転支援方法
JP7173062B2 (ja) 変化点検出装置及び地図情報配信システム
JP6278791B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
JPWO2015177864A1 (ja) 信号機認識装置及び信号機認識方法
WO2020004231A1 (ja) レーン推定装置、方法およびプログラム
JP2011027595A (ja) 地図データ検証システム
JP2018084960A (ja) 自己位置推定方法及び自己位置推定装置
JP7136138B2 (ja) 地図生成用データ収集装置及び地図生成用データ収集方法ならびに車両
JP7103201B2 (ja) 情報処理システム、プログラム、及び情報処理方法
JP6256207B2 (ja) 車線認識装置、車線認識方法、及び、プログラム
JP4375549B2 (ja) 車両位置特定装置
JP6611315B2 (ja) 映像基準点決定システム、映像基準点決定方法および映像基準点決定プログラム
JP6773854B2 (ja) 検出装置、検出方法、および検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191021

R150 Certificate of patent or registration of utility model

Ref document number: 6614229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150