JP6817804B2 - 区画線認識装置 - Google Patents

区画線認識装置 Download PDF

Info

Publication number
JP6817804B2
JP6817804B2 JP2016244281A JP2016244281A JP6817804B2 JP 6817804 B2 JP6817804 B2 JP 6817804B2 JP 2016244281 A JP2016244281 A JP 2016244281A JP 2016244281 A JP2016244281 A JP 2016244281A JP 6817804 B2 JP6817804 B2 JP 6817804B2
Authority
JP
Japan
Prior art keywords
camera
cameras
lane marking
feature points
state transition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016244281A
Other languages
English (en)
Other versions
JP2018097782A5 (ja
JP2018097782A (ja
Inventor
待井 君吉
君吉 待井
健人 緒方
健人 緒方
中村 淳哉
淳哉 中村
清水 直樹
直樹 清水
彩乃 榎本
彩乃 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016244281A priority Critical patent/JP6817804B2/ja
Priority to PCT/JP2017/032174 priority patent/WO2018109999A1/ja
Priority to CN201780077977.5A priority patent/CN110088807B/zh
Priority to US16/349,323 priority patent/US11373417B2/en
Priority to EP17880173.4A priority patent/EP3557529A4/en
Publication of JP2018097782A publication Critical patent/JP2018097782A/ja
Publication of JP2018097782A5 publication Critical patent/JP2018097782A5/ja
Application granted granted Critical
Publication of JP6817804B2 publication Critical patent/JP6817804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Description

本発明は、車両走行環境における路面標示を認識する区画線認識装置に関する。
路面標示を認識する区画線認識装置として、例えば、特許文献1に記載された技術がある。特許文献1に記載された区画線認識装置は、車両の前方の路面を含んで撮像する撮像手段(単一の前方カメラ)と、当該撮像手段の出力する画像情報から路面内のエッジ点を抽出するエッジ点抽出手段と、エッジ点から区画線に相当する可能性を有する線分群を抽出する線分抽出手段と、線分群から区画線に相当する線分を検出する検出手段と、検出を確定する確定手段とを含んでいる。
そして、確定手段は、上記検出手段による検出が所定未検出回数以上なされない場合に、所定再検出回数以上連続して検出手段による検出がされた場合に、当該検出を確定するように構成されている。
また、特許文献2には、画像情報から自車の走行している車線を認識する車線認識装置において、車両に設置され、車線左右に設けられている道路区画線の異なる部分を撮影する複数のカメラと、これらのカメラそれぞれに対応して設けられ、画像中の道路区画線を認識する複数の道路区画線認識部と、道路区画線認識部の各認識結果を照合することにより認識の成否を判定する判定部とを備えることが記載されている。
特開2013−3634号公報 特開2002−92796号公報
特許文献1は、フロントカメラ単体の認識状態の状態遷移を用いて区画線の検知を確定させる技術を開示している。
しかしながら、特許文献1に記載された技術にあっては、単一カメラを用いているため、区間線に関して、遷移不検知・誤検知が発生してもそれらを排除する手段が無く、線種判定の際には不検知・誤検知がそのまま反映されてしまう。
このように、単一カメラによる検知結果の信頼性には限界がある。
一方、特許文献2は、車両が走行中の車線における白線の検知において、複数のカメラで同一の白線を検知し、それらの結果を照合することで白線であるか否かを判定する技術が開示されている。
この場合は、複数のカメラの互いの結果を照合することで、いずれかのカメラが不検知・誤検知の可能性があっても、それを知ることができる。
しかしながら、特許文献2に記載の技術にあっては、カメラの汚れ等によって、同一の白線を常に複数のカメラで検知できるとは限らない。例えば、前方または後方のカメラが汚れていたり、渋滞で白線が見えなかったりする場合には機能しない。
また、特許文献2に記載の技術は、不検知・誤検知の可能性がわかるだけであり、線種を判定する技術に関しては開示されていない。
また、画像の各フレームにおいて白線が見える周期に基づいて線種判定する方法も考えられる。
しかし、白線の見え方は車両と白線との距離に依存する。例えば、車両が白線から遠い場合、複数本の破線が見える可能性があり、白線に近ければ1本しか見えない可能性もある。また、車両が白線から遠い場合、破線が一本の実線に見える可能性があり、白線に近ければ、実際は破線である可能性もある。
これらの画像を、エッジ強度の総和等、同じ基準で評価しても、適切な周期の値を得ることは困難であり、区間線の線種判定が困難であった。
本発明の目的は、路面における区画線の線種を高精度に判定可能な区画線認識装置を実現することである。
上記目的を達成するため、本発明は次のように構成される。
区画線認識装置において、複数のカメラと、上記複数のカメラのそれぞれにより撮像された道路の路面の画像から特徴点を抽出する特徴点抽出部と、上記特徴点抽出部が抽出した特徴点の座標を、上記複数のカメラに共通する俯瞰座標系の座標に変換する座標変換部と、上記複数のカメラのうち、利用可能なカメラを判定するカメラ判定部と、上記カメラ判定部によって利用可能と判定されたカメラにより撮像された画像から抽出された特徴点の状態遷移を判定する状態遷移判定部と、上記状態遷移判定部による上記状態遷移の判定結果に基づいて、区画線の線種を判定する線種判定部と、を備え、上記カメラ判定部は、上記複数のカメラにより撮像された画像から抽出された特徴点の位置関係を用いて、上記区画線以外の部分から特徴点が抽出されたカメラを特定し、当該特定されたカメラ以外のカメラを利用可能なカメラと判定する。
本発明によれば、路面における区画線の線種を高精度に判定可能な区画線認識装置を実現することができる。
本発明の一実施例における区画線認識装置の概略構成図である。 本発明の一実施例におけるソフトウェア構成の例を示す図である。 本発明の一実施例における概略処理フローチャートである。 特徴点抽出部の処理フローチャートである。 座標変換部の処理フローチャートである。 カメラ判定部の処理フローチャートである。 図6に示したステップ602の誤検知判定の処理フローチャートである。 図7に示したステップ701のスコア化の処理フローチャートである。 特徴点の出現の一例を示す図である。 全てのセグメントの組合せについて実行し、生成したデータを示す表である。 ステップ702の信頼度の判定処理フローチャートである。 ステップ702の信頼度の判定を図10のデータ1001に対して適用する様子の説明図である。 車両1301の周辺領域を俯瞰座標に基づいて分割した領域の定義を説明する図である。 区画線が破線の状態遷移モデルを示す図である。 ノードを車速に応じて予測して、破線の状態遷移に合致するか否かを判断する例の説明図である。 状態遷移モデルの、どのノードにいるかを判定する処理フローチャートである。 線種を判定するフローチャートである。 特徴点の出現事例を示す図である。 内部で保持するデータ構造を示す表である。 図16に示したステップ1602のマスク領域判定の処理フローチャートである。 サイドカメラが信頼できないとされた場合における破線の状態遷移モデルを示す図である。 カーブに対応するために必要な処理のフローチャートである。 カーブ対応処理を模式的に示した図である。 車線変更時の処理フローチャートである。 道路種別とそれに対応する道路幅員の関係を示す道路別区画線情報の例を示す図である。 破線間隔に応じた白線捕捉領域の処理フローチャートである。
以下、本発明の実施例について添付図面を参照して説明する。なお、上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
以下、本発明を車両における区画線認識装置に適用した場合の例について説明する。
図1は、本発明の一実施例における区画線認識装置の概略構成図である。
図1において、区画線認識装置は、車両前方を監視するためのフロントカメラ101−Frと、車両後方を監視するためのリアカメラ101−Rrと、車両左側方を監視するための左サイドカメラ101−SLと、車両右側方を監視するための右サイドカメラ101−SRと、これら複数のカメラ(複数の撮像部)からの画像を処理する画像処理装置102と、地図情報等を記憶するための記憶装置103とを備えている。
また、区画線認識装置は、CPU104と、メモリ105と、CAN I/F 106とを備えている。
CPU104は、画像処理装置102の処理結果を用いて車両の自車線、隣接車線を構成する白線の情報をメモリ105に蓄える。そして、その情報をCAN I/F 106を通じてCANバス107に伝送し、車両制御ユニット108に送る。
図2は、本発明の一実施例におけるソフトウェア構成の例であり、画像処理装置102及びCPU104の内部機能ブロックを含む図である。
図2において、各カメラ101−Fr、101−Rr、101−SL、及び101−SRに対応して、特徴点抽出部201(201−SL、201−SR、201―Rr、201−Fr)、座標変換部202(202−SL、202−SR、202―Rr、202−Fr)が備えられている。
特徴点抽出部201は、画像処理装置102に設けられており、カメラ101(カメラ101−Fr、101−Rr、101−SL、及び101−SR)で撮影された画像から特徴点を抽出する。特徴点を抽出する手法は、例えば、輝度値が黒色相当と白色相当の境界エッジを用いる手法が存在する。それらの距離が白線幅相当であれば特徴点とする。その他にも様々な手法が考えられるが、本実施例においてはどのような手法であっても構わない。
座標変換部202は、画像処理装置102に設けられており、特徴点抽出部201で得られた特徴点の座標を俯瞰座標に変換するものである。俯瞰座標に変換された結果は、メモリ105に設けられた共通座標バッファメモリ206に集約される。
カメラ判定部203は、どのカメラから検知された特徴点を採用するかを判定する。各カメラの汚れ方、各カメラが白線を誤検知していないかを判定し、適切なカメラを選択する(利用可能なカメラ(撮像部)を判定する)。
また、状態遷移判定部204は、共通座標バッファメモリ206に集約された特徴点の出現位置を判定し、各位置における特徴点セグメント(特徴点の集合)の有無の状況を状態遷移モデルのノード(特徴点セグメントの出現状態)として確定する。更に、前フレームのノードからの遷移を判定し、破線の状態遷移モデルに合致するか否かを判定する。尚、特徴点セグメントは、互いの距離が近い特徴点の集合である。例えば、互いの距離が10cm以内である特徴点の集合、といった定義である。
線種判定部205は、状態遷移判定部204の結果に基づいて線種を判定する。
カメラ判定部203、状態遷移判定部204、及び線種判定部205は、CPU104内の機能ブロックである。
なお、本実施例では、道路を路面上の区画線として実線、破線及びこれらの不検知を扱うことにする。線種の判定は、遷移状況が破線の状態遷移モデルに合致する、誤検知や不検知の状況ではないことを以って破線と判定する。そうでない場合には、実線あるいは不検知となる。詳細な処理については後述する。
図3は、本実施例における概略処理フローチャートである。この処理フローチャートは、画像1フレーム分の処理である。
まず、図3のステップ301で、各カメラ101(101−SL、101−SR、101−Rr、101−Fr)により撮像された画像から特徴量を抽出する。これは、特徴点抽出部201の処理に相当する。
次のステップ302は、抽出された特徴量を共通座標である俯瞰座標に変換する。これは座標変換部202の処理に相当する。
次に、ステップ303で、選択するカメラを判定する。これはカメラ判定部203の処理である。
次に、ステップ304では、ステップ303で選択されたカメラの特徴点座標を用い、俯瞰座標上での特徴点出現位置の状態遷移を判定する。これは、状態遷移判定部204の処理である。
最後に、ステップ305で、線種を判定する。これは線種判定部205の処理である。
図4は、特徴点抽出部201の処理フローを示した図である。ここでは、車両に搭載されるフロントカメラとリアカメラを想定して説明する。
まず、図4のステップ401で、カメラ101から入力された画像からエッジを抽出する。エッジ抽出の手法としては、例えばソーベルフィルタ等の微分フィルタを用いてエッジ画像を作成する手法が好適である。あるいは、輝度に応じて画像全体を路面、白線、それ以外に分類し、各分類の境界をエッジとみなして抽出してもよい。
次に、抽出した各エッジについてエッジ強度を調べ、強度の極大、極小となるエッジを探索する(ステップ402)。これはまず、各y座標において、左から右へ(x座標の小さい方から大きい方へ)エッジを探索し、エッジ強度が正になるエッジ(輝度低から輝度高になる境界)を探す。更に、右へ探索し、エッジ強度が負になるエッジ(輝度高から輝度低になる境界)を探す。
これらのエッジのx座標の互いの差分が閾値の範囲に入っているか否かを判定し(ステップ403)、閾値以内であれば、それらのうち、自車に近い方のエッジ座標を特徴点として保存する(ステップ404)。これを全エッジ座標について実行することで、白線特徴量を抽出することができる。
なお、サイドカメラの場合はx、y座標の扱いを逆にする必要がある。例えば、図4に示したフローチャートでx、y座標の扱いを逆にするか、画像を90°回転して処理するかのいずれかにすれば、同様の処理が可能である。
図5は、座標変換部202の処理フローである。区画線の判定処理には、俯瞰座標を用いるのが好適であり、図5に示した処理フローはそれを前提にしたものである。
まず、図5のステップ501で、各カメラ101の外部パラメータと内部パラメータを取得する。これはキャリブレーションと呼ばれる処理であり、種々の技術が開示されている。このキャリブレーション処理は、自動車の出荷時に1回だけ実施する場合や、走行中に常時リアルタイムに実行される場合など、様々である。
本実施例においては、既に保持しているキャリブレーション結果を取得しても、走行中にその都度実行してもよい。
次に、各カメラ画像中の全特徴点につき、カメラ101のパラメータを用いて俯瞰座標に変換する(ステップ502)。一般的に、画像座標と俯瞰座標の関係は、カメラの外部パラメータと内部パラメータによって記述が可能である。俯瞰座標への変換後、結果をバッファリングする(ステップ503(共通座標バッファメモリ206に格納する))。
図5に示したステップは、カメラ101の数及び特徴点の数だけ実行される。
次に、カメラ判定部203の処理について説明する。カメラ判定部203では、汚れているカメラを排除したり、白線以外の部分から特徴点を抽出していると考えられる特徴点セグメントを排除したりする。
図6は、カメラ判定部203の処理フローを示す図であり、図3のステップ303の処理に相当するフローを示す図である。これは、カメラ101それぞれに対して実行するものである。
まず、図6のステップ601で、レンズ汚れの判定を実行する。この手法は、例えば特開2014−027539号公報等に開示されているような方法(レンズの輝度勾配に基づいてレンズ表面の白濁度を算出する方法)が適用可能である。
カメラ101すべてについて汚れ判定が終了したら、ステップ602の誤検知判定に移る。この誤検知判定は、各カメラ101で抽出された特徴点の座標に基づいて、誤検知か否かを判定するものであり、「汚れ無し」と判定されたカメラの特徴点座標に基づいて実行される。ステップ602の処理については後述する。
なお、汚れが無いカメラが無い場合は、誤検知の判断は不可となる。
次に、汚れ無しのカメラ101を対象に、ステップ602の誤検知判定結果を得て(ステップ603)、誤検知しているか否かを判断する。誤検知していなければステップ605に進んで、誤検知していないと判断されたカメラ101から得られた特徴点の俯瞰座標を共通座標バッファメモリ206に展開する(後述する図19に示すデータ構造としてのように共通座標バッファメモリ206に格納される)。
図7は、図6に示したステップ602の誤検知判定の処理フローである(区画線である白線以外の部分から特徴点が抽出されたカメラを、誤検知しているカメラと判定(特定)するための処理フロー)。まず、図7のステップ701で、各カメラ101から抽出された特徴点セグメント同士の距離をスコア化する。次に、そのスコアを用いて、各特徴点セグメントの信頼度を判定し、信頼度が閾値以上の特徴点セグメントを残す(ステップ702)。ステップ701、702の処理について、図を用いて更に説明する。
図8は、図7に示したステップ701のスコア化の処理フローである。
まず、図8のステップ801で、自分以外の特徴点セグメント(対象とする特徴点セグメント以外の特徴点セグメント)を選択する。つまり、自分と、選択したセグメントとの関係をスコア化するということである。この両者が、自車からみて同じ側(路面の右側か左側)にあるかを判定する(ステップ802)。同じ側であれば、ステップ803の式(次式(1)、(2))にしたがってスコアを計算する。
距離誤差=│x座標平均の差分│ ・・・(1)
スコア=30−距離誤差[cm] ・・・(2)
これは同じ側のセグメントの場合、距離差が30cm以内であれば同じ白線から抽出された特徴点であるとみなすということである。そして、スコアは、距離差が30cm以内であれば正になるように設定する。
一方、互いに反対側のセグメントの場合には、ステップ804の式(次式(3)、(4))にしたがってスコアを計算する。
距離誤差=││セグメント間距離│−350│ ・・・(3)
スコア=60−距離誤差[cm] ・・・(4)
上記式(3)において、350は車線幅(cm)である。
セグメントが互いに反対側であれば、それらのセグメント間距離は車線幅相当のはずである。したがって、距離誤差はセグメント間距離と車線幅との差分である。そして、スコアは、60cmから距離誤差を減算したものである。
セグメントが同じ側にある場合には距離差が30cm以内であれば同じ白線とみなすため、セグメントが互いに反対側にあれば、距離差がその2倍の60cm以内であれば位置関係として妥当である。そして、距離差が60cm以内の場合に正になるよう、スコアを設定する。スコアを計算した後、ステップ805にてスコアをバッファリングする(メモリ105に格納する)。これを全セグメントについて実行する。
ただし、図8で使用した30cmあるいは60cmという値は、本実施例の説明のための値であり、実施する際には適切に調整する必要がある。
次に、図7及び図8に示したステップ701のスコア化の処理につき、図9に示した特徴点の出現例を想定して述べる。図9の丸1〜丸6の線分は、それぞれ、フロント左、左サイド、リア左、フロント右、右サイド、リア右におけるセグメントを示している。この位置関係に対し、図8のステップ803、804に示したように(式(1)〜(4))、2本の白線の相対的な距離誤差を定義し、すべての白線の組合せについてスコアを算出する。
図9において、座標系は自車中心を原点とする俯瞰座標系である。なお、図9に示した単位はcmとし、丸1〜丸6のセグメントにおけるx座標平均値はそれぞれ、−170、−240、−168、−180、280、181とする。
例えば、図9に示したセグメント丸1とセグメント丸2との関係をスコア化する場合を考える。セグメント丸1とセグメント丸2は、自車からみて同じ側にあり、セグメント丸1の距離は−170であり、セグメント丸2の距離は−240であり、距離誤差は|−170−(−240)|=70となるため、スコアは30−70=−40となる。
また、セグメント丸1とセグメント丸4との関係をスコア化すると、セグメント丸1とセグメント丸4は、自車からみて互いに異なる側にあり、セグメント丸4の距離は180であるから、距離誤差は||(−170−180)|−350|=0となり、スコアは60−0=60となる。
これらの計算をセグメント丸1〜丸6の全てのセグメントの組合せについて実行する。図10は、セグメント丸1〜丸6の全てのセグメントの組合せについて実行し、生成したデータ1001を示す表である。
ここでは、車線幅を350cmと仮定して説明したが、実際は道路によって車線幅が異なる。異なる車線幅に対応するためには、例えばカーナビゲーションシステムから走行中の道路種別を得て、その種別に見合った車線幅を設定することが好適である。あるいは、走行中の道路の車線幅をカーナビゲーションシステムから得ても良い。
図25は、道路種別とそれに対応する道路幅員の関係を示す道路別区画線情報の例を示す図である。図25において、道路別区画線情報2501は、カーナビゲーションシステムが用いる地図データから得られる情報であり、例えばテキストデータあるいはデータベースとして記憶装置103に格納されるデータである。
なお、道路別区画線情報2501に示した道路種別や道路幅員、破線間隔は一例であり、これらに限定されるものではない。このデータを参照することで、車線幅を得ることが可能である。
次に、図7のステップ702の信頼度の判定処理につき説明する。図11は、ステップ702の信頼度の判定処理フローである。
図11において、まず、全ての特徴点セグメントに対して、スコアの合計を計算する(ステップ1101)。次に、ステップ1102では、スコア合計の最小値が0または負の値か否かを判定すると共に、評価対象のセグメントが残っているか否かを判定する。もし、両者がYesであれば、ステップ1103に進み、スコア合計が最小となるセグメントを排除する。そして、残ったセグメントを対象にスコア合計を再計算する(ステップ1104)。スコア合計を再計算する際は、排除されたセグメントのスコアを除いて実行する。その後、ステップ1102に戻って同じ判定を実行する。判定条件のいずれかがNoであれば処理を終了し、Yesであれば前述したステップ1103以降の処理を繰り返す。
図12は、ステップ702の信頼度の判定を図10のデータ1001に対して適用する様子の説明図である。図12を用いてステップ702の信頼度の判定を説明する。
図12において、図11に示したステップ1101の処理(スコアの合計計算)の結果は、データ1201のようになる。次にステップ1102で、スコア合計値の最小値を判定する。このとき、セグメント丸5のスコア−297が最小かつ負の値である。したがって、ステップ1103に進んでセグメント丸5のデータを排除し、ステップ1104でスコア合計を再計算する。その結果がデータ1202である。
次に、図11のステップ1102に戻ってスコア最小値を判定する。このとき、データ1202のスコア−103が最小かつ負の値である。したがって、ステップ1103に進んでセグメント丸2のデータを排除し、ステップ1104でスコア合計を再計算する。その結果がデータ1203である。
そして、ステップ1102に戻ってスコア最小値を判定すると、データ1203の残セグメントすべてにおいてスコアが正のため、ここで処理は終了である。この結果、誤検知していると考えられるセグメントはセグメント丸2とセグメント丸5となり、残りのセグメント丸1、丸3、丸4、及び丸6の特徴点が共通座標バッファメモリ206に展開されることになる。
次に、状態遷移を用いた線種判定について説明する。これは、図11に示す処理フローで誤検知と判定されたセグメント以外のものを使用するが、まずは誤検知が無い場合について説明する。誤検知があった場合の処理については別途説明する。
図13は、車両1301の周辺領域を俯瞰座標に基づいて分割した領域の定義を説明する図である。これは、状態遷移判定部204で特徴点セグメントの有無を判定する領域となる。図13において、本実施例では、領域FL、FRはフロントカメラ101−Frより前方、領域RL、RRはリアカメラ101−Rrより後方、領域SL、SRはフロントカメラ101−Frとリアカメラ101−Rrの間とする。また、領域FL、SL、RLは車両1301の中心より左側、領域FR、SR、RRは右側とする。
図13に示すように設定した領域に基づけば、フロントカメラ101−Frの特徴点は、領域FL、FRに、リアカメラ101−Rrの特徴点は領域RL、RRに出現することになる。また、領域FL、RLにはカメラ101−SLの特徴点が、領域FR、RRにはカメラ101−SRの特徴点がそれぞれ出現する可能性がある。
図14は、区画線が破線の状態遷移モデル(特徴点の集合であるセグメントの出現状態を表すノードの遷移状態を示す、予め定められた状態遷移モデル)を示す図である。本実施例では、状態遷移モデルは6つのノード1401〜1406を保持するとして説明する。
図14において、本状態遷移モデルは、左右の白線において共通のものであり、各ノードは、上からフロント領域、サイド領域、リア領域における特徴点セグメントの有無が記されている。例えば、左白線におけるノード1401は、領域FLに特徴点セグメントあり(丸印)、SL、RLに特徴点セグメント無し(×印)を表すノードである。
各ノードからそのノードに直接遷移している線は、その状態を維持することを示す。
また、各ノードを結ぶ矢印は、線種が破線の場合に遷移するノードである。すなわち、時計回りに遷移し、隣かその隣のノードへ遷移すれば破線の遷移に合致するものとする。例えば、現フレームでノード1401にいる場合、次のフレームでノード1402か1403のいずれかに遷移すれば破線の状態遷移モデルに合致し、この合致状態が1周以上続けば破線となる。
例えば、ノード1401からノード1402に遷移し、続いてノード1402からノード1404に遷移し、さらに、ノード1404からノード1406に遷移し、そして、ノード1406からノード1401に遷移することで、1周することとなり(後述する累積値が6に対応)、破線と判断する。
ただし、遷移するノードを隣またはその隣とする、合致状態が1周以上で破線とする等の条件については、本実施例の説明のために設定したものであり、必ずしもこれに限定されるものではない。例えば、遷移するノードを予め決めておくのではなく、遷移すると考えられるノードを車速に応じて予想し、それに合致すれば破線の遷移に合致するとしてもよい。
これについて、図15を参照しながら説明する。図15は、ノードを車速に応じて予測して、破線の状態遷移に合致するか否かを判断する例の説明図である。
図15において、白線を捕捉する領域は、領域1504であり、白線1504Lの下端のy座標をy(t)とする。
また、車両1301の左には区画線としての破線があり、それを構成する白線の長さはd0、白線間の互いの距離をd1とする。このとき、車両1301は、領域FL(FLを包囲する点線)にて白線1502の下端点を捕捉しており、領域RL(RLを包囲する点線)にて白線1501の上端点を捕捉している。白線1502の下端点及び白線1501の上端点、それぞれのy座標はy(p2)及びy(p1)である。
また、白線1501の下端のy座標はy(p0)=y(p1)−d0であるが、捕捉領域1504の領域外である。白線1502の上端点も同様に、y座標はy(p3)=y(p2)+d0であるが、捕捉領域1504の領域外である。
時刻tの時点で、車両1301の直進方向における破線の端点座標を求める。座標を求める範囲は、次の画像フレームが得られるまでの時間と車速によって決まる。例えば、次の画像フレームが得られるまでの時間が1秒で、車速が40km/hとすると、車両1301は時刻t+1までに約11m進むことになる。したがって、約11m先で捕捉すると予想される白線の端点座標を求める。
ここで、d0=3.5m、d1=4.5mとすると、車両1301が11m進む間に破線の1周期分(d0+d1)+3mを進むことになる。したがって、捕捉領域1505の領域FLで捕捉した白線の下端点は、車両1301から相対的に見た場合、3m下方に位置し、y座標はy(p2)’となる。
領域RLで捕捉した白線上端点も同様に、車両1301から相対的に見た場合、3m下方にずれ、白線を捕捉する捕捉領域1505の領域外となる。また、捕捉領域外であった、白線1502の上端点が3m下方にずれて、捕捉領域1505内に入ったように見える。したがって、白線1503の端点は、捕捉領域1505の領域FLで上端点、領域SLで下端点が捕捉される。
さらに、各端点の相対座標を求め、各領域のセグメント長を求めれば、ノードパターンがわかる。本実施例の場合は、捕捉領域1505において、FLで在り、SLで在り、RLで無しのため、「○○×」となり、ノード1402に遷移すると予想できる。そして、時刻t+1において、実際にノードパターンを特定し、予想と合致するか判断すればよい。
図16は、状態遷移モデルの、どのノードにいるかを判定する処理フローである。図16に示した処理フローは、左右の白線それぞれに対して実施する。まずステップ1601で、各カメラ101の特徴点を、図13の領域ごとに集約する。領域ごとの集約は、当該特徴点を抽出したカメラ101に関しては考慮せず、各特徴点の俯瞰座標のみに基づいて実行される。次に、ステップ1602で、各領域の特徴点を使うか否かを判定する。これは、図7のステップ702の信頼度判定の結果に基づいて実行する。ステップ1602の処理については後述する。
次に、各領域のループに入る。各領域とは、例えば左白線であればFL、SL、RLのことである。
まず、ステップ1603で、ステップ1602の結果を評価し、当該領域のデータを使わない場合にはループの先頭に戻り、次の領域の処理を実行する。そうでなければ、ステップ1604にて、各領域における特徴点セグメント長の最大値を求める。
次に、ステップ1605で、その長さが閾値1より長いか否かを判定する。閾値1より長ければセグメントありと判定し(ステップ1606)、短ければセグメントなしと判定する(ステップ1607)。
なお、セグメント長は、特徴点同士の距離の累積であり、特徴点同士の距離が閾値2(図示しない)より小さければセグメントの継続と判断し、それ以上であればセグメントの切れ目と判断する。各領域についてセグメントの有無を判断したら、現在フレームのノードを確定する(ステップ1608)。セグメントがいずれの領域にも存在しなかった場合には、どのノード無しとして処理する。
図17は、線種を判定するフローである。まず、図17のステップ1701で、図16のフローで確定した現在フレームのノードを得る。次に、ステップ1702で、ノードが無いか否かを判定し、ノード不検知であればステップ1704にて、連続3回ノードが無かったか否かを判断する。もし、連続して3回ノードが無かったのであれば、不検知とする(ステップ1710)。そうでない場合には、前フレームの結果を継続する(ステップ1708)。
ステップ1702でノードありの場合、前フレームで不検知だったか否かを判断する(ステップ1703)。前フレームで不検知だった場合には実線とする(ステップ1711)。つまり、不検知の後で最初にノードありとなった場合には実線とする。
ステップ1703において、前フレームでノードありであった場合には、ステップ1705で、状態遷移が破線のパターンに合致するか否かを判定する。この判定においては、前フレームのノードから現在フレームのノードまでの移動距離が0〜2の場合に破線のパターンに合致しているとみなす。但し、0(すなわち、移動しない)は連続3回以内の場合のみとする。
ステップ1705の判定で、破線の遷移パターンに合致しない場合には、連続3回目か否かを判定する(ステップ1706)。連続3回目の場合には実線とする(ステップ1711)。連続3回目では無い場合には前フレームの結果を継続する(ステップ1709)。
ステップ1705の判定で、破線の遷移パターンに合致している場合、ステップ1707で、図7の遷移を1周したか否かを判定する(ノードの時系列的データを用いて判定する)。1周していれば破線として線種を確定し(ステップ1712)、そうでない場合には実線とする(ステップ1711)。1周したか否かは、前フレームのノードからの差分を累積した値が6以上になったか否かで判定が可能である。この累積値は、線種がステップ1704の判定でNo、またはステップ1703の判定でYesになった場合に0にリセットされ、そうでない場合に累積されていくものである。
以上の処理につき、図18に示された特徴点の出現事例を用いて更に説明する。図18の(a)〜(e)は、それぞれ、図13で定義した白線の捕捉領域を示している。
図18の(a)においては、カメラ101−Frから特徴点セグメント1801、1804が、カメラ101−SLから特徴点セグメント1802が、カメラ101−Rrから特徴点セグメント1803が、それぞれ抽出されている。捕捉領域としてみれば、領域FL、SL、RL、FRに特徴点セグメントが出現していることになる。
したがって、左白線のノードパターンは「○○○」となり、図14に示したノード1403が現フレームのノードとなる。また、右白線のノードパターンは「○××」となり、ノード1401が現フレームのノードとなる。この時点で、右白線、左白線はともに実線と判定される。
次の、図18の(b)においては、左白線のノードパターンは図18の(a)と同じである。図18の(b)の右白線については、カメラ101−Frから特徴点セグメント1804が抽出され、カメラ101−SRから特徴点セグメント1805が抽出されている。領域FR、SRにセグメントが現れているため、ノードパターンは「○○×」となり、ノード1402が現フレームのノードとなる。また、右白線において、前フレームのノードからの移動距離は1となり、累積値も1となる。この時点でも、右白線、左白線はともに実線と判定される。
次の図18の(c)においては、左白線のノードパターンに変化は無い。一方、右白線については、カメラ101−SRから特徴点セグメント1805が抽出され、カメラ101−Rrから特徴点セグメント1806が抽出されている。領域SR、RRにセグメントが出現しているため、ノードパターンは「×○○」となり、ノード1404が現フレームのノードとなる。前フレームからの移動距離は2となり、累積値は3となる。この時点でも、右白線、左白線はともに実線と判定される。
次の図18の(d)においては、左白線のノードパターンに変化は無い。一方、右白線については、カメラ101−Rrから特徴点セグメント1806が抽出されている。領域RRのみにセグメントが出現しているため、ノードパターンは「××○」となり、ノード1405が現フレームのノードとなる。前フレームからの移動距離は1となり、累積値は4となる。この時点でも、右白線、左白線はともに実線と判定される。
次の図18の(e)においては、左白線のノードパターンに変化は無い。一方、右白線については、カメラ101−Frから特徴点セグメント1807が抽出されている。領域FRのみにセグメントが出現しているため、ノードパターンは「○××」となり、ノード1401が現フレームのノードとなる。前フレームからの移動距離は2となり、累積値は6となる(図14のノードを1周する)。この時点で、右白線は実線であり、左白線は破線と判定される。
図19は、内部で保持するデータ構造を示す表である。図19に示したデータは図13で示した領域ごとに保持する。
図19において、領域数1901は、データを保持している領域数であり、本実施例では、FL、FR、SL、SR、RL、及びRRの6となる。領域情報1902は、線種判定に必要な情報である。このうち、現在ノード1903は、現フレームのノードであり、ノード1401〜1406に割り振られたIDが格納される。セグメント長1904は、特徴点セグメントの長さであり、cm単位で格納されるのが好適である。停止数1905は、同じノードに停滞している連続フレーム数である。
誤検知数1906は、状態遷移に乗らなかった連続フレーム数である。不検知数1907は、線種が確定できなかった連続フレーム数である。特徴点数1909は、当該領域に含まれる特徴点数である。俯瞰座標1910は、特徴点数1909分の特徴点の俯瞰座標が格納されている。マスクフラグ1911は、線種判定の際に当該の領域のデータを使うか否かにつき、領域ごとにフラグが格納されている。このフラグが立っている領域がある場合、線種判定の際に、ノード1401〜1406のノードパターンのうち、当該領域についてマスクされる。
図20は、図16に示したステップ1602のマスク領域判定の処理フローである。カメラ101−Fr、101−Rrは、設置場所より前方に白線が見えるため、抽出される特徴点もそれぞれ領域FL、FR、領域RL、RRのみに集約される。一方、カメラ101−SL、101−SRでは、実線の場合に横長に見えることになり、抽出される特徴点は複数領域に分散する。
したがって、カメラ101−SLが信頼できない場合には、領域SLをマスクしてよい。一方、カメラ101−Fr、101−Rrが信頼できない場合は、カメラ101−SLでの特徴点抽出状況や信頼度を考慮してマスクの有無を判断する必要がある。図20は、これを踏まえた処理フローである。なお、左白線の判定を前提として説明する。
図20において、まず、ステップ2001は、カメラ101−SLが信頼できるか否かによる分岐である。信頼できない場合には、ステップ2002で領域SLをマスクする。信頼できる場合は、ステップ2003の、カメラ101−SLが不検知か否かの分岐へ進み、不検知でない場合には何もせずに処理を終了する。ステップ2003において、カメラ101−SLが不検知の場合にはカメラ101−Fr、101−Rrのマスク判定を実行する。図20では、カメラ101−Frの判定が先になっているが、どちらを先に実行してもよい。
ステップ2004は、カメラ101−Frが信頼できるか否かの分岐であり、信頼できない場合にはステップ2005にて、領域FLをマスクする。そうでない場合には、ステップ2006の、カメラ101−Rrが信頼できるか否かの分岐へ進み、信頼できない場合にはステップ2007にて、領域RLをマスクする。そうでない場合には処理終了である。
なお、マスク処理は、車線変更にも適用可能である。車線変更で車両1301が跨ぐ白線は、サイドカメラ101−SL、101−SRで捕捉することができない。したがって、車線変更の方向に設置されているサイドカメラ101−SL又は101−SRでの情報は信頼できないとみなして図19の処理を実行すればよい。例えば、右車線へ移動する場合には、カメラ101−SRが信頼できないとして処理を実行すればよい。
図21は、サイドカメラが信頼できないとされた場合における破線の状態遷移モデルを示す図である。なお、信頼できないとされる理由は、前述したとおり、カメラレンズが汚れている、誤検知の可能性がある、ということである。ここでも、左白線の判定を前提とし、領域SLがマスクされた場合を例に説明する。この場合、各ノードのノードパターンにおいて領域SLの部分をマスクする(図21において、領域SLに対応する箇所をグレー表示している)。つまり、領域FL、RLだけの情報で線種を判定する。また、特徴点抽出結果から作成されるノードパターンも同様に、SLの部分をマスクする。こうすることで、状態遷移モデルを作り直すことなく線種判定を実行できる。
なお、フロントカメラ101−Frが信頼できない場合も同様に、FLの部分をマスクした状態遷移モデルを作成する。この場合は、左サイドカメラ101−SL及びリアカメラ101−Rrにより、領域SL、RLだけの情報で線種を判定する。リアカメラ101−Rrが信頼できない場合も同様に、領域RLの部分をマスクした状態遷移モデルを作成する。この場合は、フロントカメラ101−Fr及び左サイドカメラ101−SLにより、領域FL、SLだけの情報で線種を判定する。
これまでは直線道路を前提として説明してきたが、道路がカーブの場合も適用可能である。カーブにおいては、特徴点を俯瞰座標に変換すると、特徴点セグメントも曲がって見える。この場合は、カーブの曲率に基づいて、特徴点を直線状に並べ直すことで、これまで述べた処理が実行可能である。
図22は、上記のカーブに対応するために必要な処理のフローである。この処理は座標変換部202が行う。
図22において、まず、ステップ2201で、片側の白線の全特徴点座標に基づいて曲線近似する。曲線近似については、様々なもの手法が公知であるため、それらを適用可能である。次に、ステップ2202で、当該曲線において、x座標が極大(または極小)となるy座標を求める。次に、ステップ2203にて、特徴点をy座標順にソートする。
次に、特徴点のy座標順のループに入る。まず、ステップ2204にて、曲線との距離が最短のx座標を調べる。それが確定したら、その前のy座標にて確定した、曲線との距離が最短の特徴点とのユークリッド距離を計算する(ステップ2205)。そして、特徴点座標と距離をバッファリングする(ステップ2206)。
ループを抜けたら、x=極大(極小)x座標となる直線を設定し(ステップ2207)、特徴点同士の距離を保持しながら、曲線との距離が最短の特徴点を当該直線の上に並べ替える(ステップ2208)。
上述したカーブ対応処理を模式的に示したのが図23である。図23の(a)は処理前、図23の(b)が処理後の図である。
図23の(a)において、曲線2301は、左白線から抽出された特徴点pl1〜pl5による近似曲線である。曲線2302は、右白線から抽出された特徴点pr1〜pr4による近似曲線である。なお、特徴点の記号の添字は、y座標順にソートされている。また、各特徴点間の距離dl1〜dl4、dr1〜dr3は、図22に示したステップ2205にて計算された結果である。また、車線幅wは、曲線2301、2302の極大(極小)となる点同士の距離である。図22のステップ2207を実行する際は、これらの極大(極小)点を通る直線をy軸に平行に設定するため、車線幅wがそのまま維持される。
このようにして、曲線2301、2302に対して設定された直線が、図23の(b)に示す直線2303、2304である。図22に示したステップ2208で、これらの直線上に、特徴点pl1〜pl5、pr1〜pr4を並べ替える。この際は、距離dl1〜dl4、dr1〜dr3が維持されるように並べ替える。こうすることで、カーブであっても直線と同じ処理を用いることが可能である。
次に、車線変更時の処理について説明する。例えば右車線への変更の際は車両が右白線を跨ぎ、それがやがて左白線になる。車線変更中であっても、跨ぐ白線は捕捉され続けており、また、その捕捉位置が変わる。したがって、例えば右車線への変更時には、右白線に関して得られた情報を左白線に、左車線への変更時には左白線に関して得られた情報を右白線に引き継ぐ。これによって、車線変更時の性能低下を防ぐことができる。
車線変更の処理について、図24に示した車線変更の処理フローを用いて説明する。図24において、まず、ステップ2401で、捕捉する白線を切り替えるか否かを判定する。この判定には、車両1301と、跨いでいる白線との位置関係を用いるのが好適である。例えば右車線への変更の場合、跨いでいる白線が車両1301の真ん中より左に移動した時点等と決めればよい。なお、前述したように、車線変更方向の白線は、サイドカメラでは捕捉できないため、この判定はフロントカメラ101−Fr、リアカメラ101−Rrのいずれか、あるいは両者を用いるのが好適である。
ステップ2402は、ステップ2401の結果による分岐である。切替え不要の場合には、ステップ2405にて、図3に示した処理を実行する。図3の処理はこれまでに述べてきたとおりである。
ステップ2402において、切替え要の場合にはステップ2403にて、変更方向の白線情報を反対側白線情報バッファに移し、ステップ2404にて、変更方向の白線情報は初期化する。こうすることで、跨いでいる白線については車線変更中であっても継続的に線種判定が可能である。
車線変更の判定処理は、状態遷移判定部204により行われる。
これまでに述べてきた線種判定手法では、破線間隔に応じて領域SL、SRの範囲を変えることで、様々な破線間隔にも対応可能である。車両が走行中の道路種別をカーナビゲーションシステムから受け取り、更に図25の道路別区画線情報2501を参照することで、破線間隔を得ることが可能である。
本実施例では、SLの範囲をカメラ101−Frと101−Rrの間の領域としていたが、この範囲を可変にすることで様々な破線間隔に対応可能である。
この処理について図26に処理フローを示す。図26において、まず、ステップ2601で、走行中の道路種別を得る。次に、ステップ2602にて、当該道路種別をキーとして破線間隔情報を得る。次に、ステップ2603にて、現在の領域SL、SRのy方向長と、破線間情報から得られた破線間隔とを比較する。領域SL、SRのy方向長の方が長ければ、ステップ2604に進み、領域SL、SRのy方向長を破線間隔と同じ値とする。
また、高速道路等の分流、合流における太い破線においても、車両1301の走行地点をカーナビゲーションシステムから得ることで、太い破線に対応した領域設定が可能となる。
なお、図14に示した状態遷移モデルによる破線判断においては、1周するのに必要な最低のノード数は3である(例えば、1401→1403→1405→1401であれば、ノード1401、1403及び1405の3つ)。このため、破線判断のために必要な画像フレームは最低3フレームである。
また、上述したように、フロントカメラ101−Frが信頼できない場合は、左サイドカメラ101−SL及びリアカメラ101−Rrが使用され、リアカメラ101−Rrが信頼できない場合は、フロントカメラ101−Fr及び左サイドカメラ101−SLが使用される。また、サイドカメラ101−SLが信頼できない場合は、フロントカメラ101−Fr及びリアカメラ101−Rrが使用される。
よって、区画線判断のために必要な信頼性を有するカメラの個数は、車両の片側で最低2個である。
ただし、サイドカメラ101−SLが、領域FLの下端部より上方及び領域RLの上端部の下方まで撮像可能なカメラであれば、サイドカメラ101−SLのみで区画線判断が可能であるから、この場合、サイドカメラ101−SLが信頼性を有するときは、区画線判断のために必要なカメラの個数は、車両の片側で最低1個である、よって、車両全体としては信頼性を有するカメラの個数は2個である。
このため、本発明の他の実施例として、車両の両側面(左右の側面)にのみ、カメラ(左右のサイドカメラ101−SL、101−SR)を配置し、そのカメラの信頼性を判断し、信頼性を有するカメラの状態遷移を判断して区画線の線種を判断する構成も含まれる。
以上のように、本発明の一実施例によれば、車両の前方、後方及び側方(側面)に配置した複数の撮像部を備え、これら複数の撮像部が撮像した画像に基づいて、信頼度を判定し(利用可能な撮像部の判定)、誤検知していると判断した撮像部からの画像を除外し、画像の特徴点を抽出して特徴点の出現位置の状態遷移を判定することにより区間線の種別を判断するように構成している。
従って、路面における区画線の線種を高精度に判定可能な区画線認識装置を実現することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
例えば、上述した例は、本発明の区画線認識装置を車両に搭載した場合の例であるが、区画線を利用して走行する移動体(走行ロボット等)に搭載する場合にも適用可能である。
101・・・カメラ、102・・・画像処理装置、103・・・記憶装置、104・・・CPU、105・・・メモリ、108・・・車両制御ユニット、201・・・特徴点抽出部、202・・・座標変換部、203・・・カメラ判定部、204・・・状態遷移判定部、205・・・線種判定部、206・・・共通座標バッファメモリ、1301・・・車両

Claims (8)

  1. 複数のカメラと、
    上記複数のカメラのそれぞれにより撮像された道路の路面の画像から特徴点を抽出する特徴点抽出部と、
    上記特徴点抽出部が抽出した特徴点の座標を、上記複数のカメラに共通する俯瞰座標系の座標に変換する座標変換部と、
    上記複数のカメラのうち、利用可能なカメラを判定するカメラ判定部と、
    上記カメラ判定部によって利用可能と判定されたカメラにより撮像された画像から抽出された特徴点の状態遷移を判定する状態遷移判定部と、
    上記状態遷移判定部による上記状態遷移の判定結果に基づいて、区画線の線種を判定する線種判定部と、を備え
    上記カメラ判定部は、上記複数のカメラにより撮像された画像から抽出された特徴点の位置関係を用いて、上記区画線以外の部分から特徴点が抽出されたカメラを特定し、当該特定されたカメラ以外のカメラを利用可能なカメラと判定することを特徴とする区画線認識装置。
  2. 請求項1に記載の区画線認識装置において、
    上記複数のカメラは、少なくとも2つのカメラであり、移動体の左右の側面に配置されることを特徴とする区画線認識装置。
  3. 請求項2に記載の区画線認識装置において、
    上記複数のカメラは、4つのカメラであり、移動体の左右の側面、前方及び後方に配置されることを特徴とする区画線認識装置。
  4. 請求項3に記載の区画線認識装置において、
    上記状態遷移判定部は、上記複数のカメラのうち、前方及び後方に配置されたカメラのうちの少なくとも1つのカメラにより撮像された画像を用いて、移動体の車線変更を判定することを特徴とする区画線認識装置。
  5. 請求項1に記載の区画線認識装置において、
    上記状態遷移判定部は、上記特徴点の集合であるセグメントの出現状態を表すノードの遷移状態を示す、予め定められた状態遷移モデルを用いて、上記状態遷移を判定し、区画線の線種を判定することを特徴とする区画線認識装置。
  6. 請求項1ないし5のうちのいずれか一項に記載の区画線認識装置において、
    上記カメラ判定部は、上記複数のカメラのレンズ汚れを判定し、レンズが汚れているカメラ除いたカメラを利用可能と判定することを特徴とする区画線認識装置。
  7. 請求項6に記載の区画線認識装置において、
    上記カメラ判定部は、上記複数のカメラにより撮像された画像から抽出された特徴点の位置関係を用いて、上記複数のカメラの信頼度を算出し、算出した信頼度が一定値以下であるカメラを特定し、当該特定されたカメラ以外のカメラを利用可能なカメラと判定することを特徴とする区画線認識装置。
  8. 請求項1ないしのうちのいずれか一項に記載の区画線認識装置において、
    上記道路がカーブであるときは、上記座標変換部は、上記複数のカメラから得られた特徴点の位置を用いて曲線近似し、曲線近似の結果を用いて上記特徴点を直線状に並べ替えることを特徴とする区画線認識装置。
JP2016244281A 2016-12-16 2016-12-16 区画線認識装置 Active JP6817804B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016244281A JP6817804B2 (ja) 2016-12-16 2016-12-16 区画線認識装置
PCT/JP2017/032174 WO2018109999A1 (ja) 2016-12-16 2017-09-06 区画線認識装置
CN201780077977.5A CN110088807B (zh) 2016-12-16 2017-09-06 分隔线识别装置
US16/349,323 US11373417B2 (en) 2016-12-16 2017-09-06 Section line recognition device
EP17880173.4A EP3557529A4 (en) 2016-12-16 2017-09-06 TRACE MARKER DETECTION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016244281A JP6817804B2 (ja) 2016-12-16 2016-12-16 区画線認識装置

Publications (3)

Publication Number Publication Date
JP2018097782A JP2018097782A (ja) 2018-06-21
JP2018097782A5 JP2018097782A5 (ja) 2019-12-05
JP6817804B2 true JP6817804B2 (ja) 2021-01-20

Family

ID=62558447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016244281A Active JP6817804B2 (ja) 2016-12-16 2016-12-16 区画線認識装置

Country Status (5)

Country Link
US (1) US11373417B2 (ja)
EP (1) EP3557529A4 (ja)
JP (1) JP6817804B2 (ja)
CN (1) CN110088807B (ja)
WO (1) WO2018109999A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7131131B2 (ja) * 2018-06-29 2022-09-06 マツダ株式会社 車両用ライン検出装置および該方法
US11093761B2 (en) * 2019-03-06 2021-08-17 GM Global Technology Operations LLC Lane position sensing and tracking in a vehicle
CN111862629B (zh) * 2020-06-18 2021-11-23 东风汽车集团有限公司 一种弯道超速预警及主动限速方法和系统
KR20220148378A (ko) * 2021-04-28 2022-11-07 주식회사 에이치엘클레무브 차량의 주행을 보조하는 장치 및 그 방법

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092796A (ja) 2000-09-18 2002-03-29 Toyota Motor Corp 車線認識装置
JP2003044863A (ja) * 2001-07-30 2003-02-14 Nissan Motor Co Ltd 仕切線認識装置
JP4207935B2 (ja) * 2005-08-19 2009-01-14 トヨタ自動車株式会社 走行路認識装置
JP2007249257A (ja) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd 移動体検出装置および移動体検出方法
JP4878256B2 (ja) * 2006-10-18 2012-02-15 株式会社日立製作所 分岐線認識装置およびカーナビゲーションシステム
JP4492654B2 (ja) * 2007-08-29 2010-06-30 オムロン株式会社 3次元計測方法および3次元計測装置
JP4950858B2 (ja) * 2007-11-29 2012-06-13 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識プログラム
JP2009252198A (ja) * 2008-04-11 2009-10-29 Suzuki Motor Corp 走行環境推測装置、方法及びプログラム並びに車線逸脱警報装置及び操舵アシスト装置
JP2012141691A (ja) * 2010-12-28 2012-07-26 Fujitsu Ten Ltd 映像処理装置
JP5810654B2 (ja) * 2011-06-13 2015-11-11 トヨタ自動車株式会社 区画線認識装置、区画線認識方法、プログラム及び媒体
JP5898475B2 (ja) * 2011-11-28 2016-04-06 クラリオン株式会社 車載カメラシステム及びその較正方法、及びその較正プログラム
JP6055224B2 (ja) 2012-07-27 2016-12-27 クラリオン株式会社 レンズ洗浄装置
JP6084434B2 (ja) 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
JP6086424B2 (ja) * 2012-11-27 2017-03-01 クラリオン株式会社 車載画像処理装置
JP5936527B2 (ja) * 2012-12-10 2016-06-22 三菱電機株式会社 画像処理装置および画像処理方法
JP5966965B2 (ja) * 2013-02-19 2016-08-10 株式会社デンソー 車線境界線逸脱抑制装置及び車線境界線逸脱抑制方法
JP6077655B2 (ja) * 2013-06-11 2017-02-08 シャープ株式会社 撮影システム
JP6331629B2 (ja) * 2014-04-15 2018-05-30 日産自動車株式会社 車線認識装置
CN103942546B (zh) * 2014-05-08 2017-09-12 奇瑞汽车股份有限公司 一种城市环境中导向交通标线识别系统及方法
JP6230482B2 (ja) * 2014-05-19 2017-11-15 本田技研工業株式会社 レーンマーク認識装置、車両及びレーンマーク認識方法
US10191356B2 (en) * 2014-07-04 2019-01-29 Light Labs Inc. Methods and apparatus relating to detection and/or indicating a dirty lens condition
JP6222785B2 (ja) * 2015-08-10 2017-11-01 株式会社Subaru 操舵支援装置
JP6618766B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
CN105741559B (zh) * 2016-02-03 2018-08-31 安徽清新互联信息科技有限公司 一种基于车道线模型的违法占用应急车道检测方法

Also Published As

Publication number Publication date
WO2018109999A1 (ja) 2018-06-21
US11373417B2 (en) 2022-06-28
EP3557529A4 (en) 2020-09-09
CN110088807B (zh) 2023-08-08
US20200193174A1 (en) 2020-06-18
EP3557529A1 (en) 2019-10-23
CN110088807A (zh) 2019-08-02
JP2018097782A (ja) 2018-06-21

Similar Documents

Publication Publication Date Title
JP6817804B2 (ja) 区画線認識装置
US10943131B2 (en) Image based lane marking classification
JP3630100B2 (ja) 車線検出装置
JP5679461B2 (ja) 有効車線区分線を確定する方法及び装置
WO2015012219A1 (ja) 車両監視装置、および車両監視方法
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
US9965690B2 (en) On-vehicle control device
US8385601B2 (en) In-vehicle white line recognition apparatus
CN111149131B (zh) 区划线识别装置
WO2014084121A1 (ja) 車載用制御装置
JPWO2010140578A1 (ja) 画像処理装置、画像処理方法、及び画像処理用プログラム
JP4541609B2 (ja) 停止線認識装置、及び、その停止線認識装置を用いた車両用運転支援装置
JP3748811B2 (ja) 車線境界判定装置
JP2012168884A (ja) 車線境界検出装置及び車線境界検出方法
JP7255345B2 (ja) 走行車線認識装置、走行車線認識方法およびプログラム
JP2020067698A (ja) 区画線検出装置及び区画線検出方法
JP2009245042A (ja) 交通流計測装置及びプログラム
JP2006350699A (ja) 画像処理装置及び方法
JP4296287B2 (ja) 車両認識装置
TWI665114B (zh) 車輛行駛偵測方法及車輛行駛偵測系統
JP7342807B2 (ja) 走行予定経路設定装置及び走行予定経路設定方法
JP5464054B2 (ja) 道路環境情報取得装置及びその方法
US11749002B2 (en) Lane line recognition apparatus
US20220410942A1 (en) Apparatus and method for determining lane change of surrounding objects
JP6234620B2 (ja) 車両のアシスタント・システムのオペレーティングのための方法、並びに、アシスタント・システム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201225

R150 Certificate of patent or registration of utility model

Ref document number: 6817804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150