JP6611334B2 - 区画線認識装置 - Google Patents
区画線認識装置 Download PDFInfo
- Publication number
- JP6611334B2 JP6611334B2 JP2016036753A JP2016036753A JP6611334B2 JP 6611334 B2 JP6611334 B2 JP 6611334B2 JP 2016036753 A JP2016036753 A JP 2016036753A JP 2016036753 A JP2016036753 A JP 2016036753A JP 6611334 B2 JP6611334 B2 JP 6611334B2
- Authority
- JP
- Japan
- Prior art keywords
- white line
- camera
- vehicle
- feature point
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
特許文献1には、2台のカメラで視野が重複する領域は、解像度が高いカメラの撮影画像を用いて合成する俯瞰画像の作製システムが開示されている。
以下、図1〜図19を参照して、区画線認識装置の第1の実施の形態を説明する。
図1は、車両2に搭載される区画線認識装置1の構成を示す図である。車両2は、区画線認識装置1と、車両制御ユニット108と、位置算出装置109とを備える。区画線認識装置1と、車両制御ユニット108とは、CANバス107により接続される。区画線認識装置1が認識した白線に関する情報は、車両制御ユニット108に出力される。
車両制御ユニット108は、区画線認識装置1が出力する白線に関する情報に基づき車両2を制御する。位置算出装置109は、航法衛星システムを構成する受信器であり、複数の航法衛星から受信した電波に含まれる情報に基づき、緯度および経度を算出する。位置算出装置109は、一定時間ごとに緯度および経度を算出し、区画線認識装置1に出力する。
区画線認識装置1は、車両2の前方を撮影する前カメラ101−Frと、車両2の後方を撮影する後カメラ101−Rrと、車両2の左側方を監視する左カメラ101−SLと、車両2の右側方を撮影する右カメラ101−SRと、これらのカメラが撮影して得られた画像を処理する画像処理装置102と、記憶装置103と、CPU104と、メモリ105と、CAN I/F 106とを備える。
前カメラ101−Frは車両2の前方、後カメラ101−Rrは車両2の後方、左カメラ101−SLは車両2の左側面、右カメラ101−SRは車両2の右側面に取り付けられる。以下では、前カメラ101−Fr、後カメラ101−Rr、左カメラ101−SL、および右カメラ101−SRをまとめてカメラ101と呼ぶ。
画像処理装置102は、マイクロコンピュータ、ハードウエア回路、またはFPGAにより構成される装置である。画像処理装置102は、カメラ101のそれぞれから受信した信号に基づき画像(以下、撮影画像)を生成し、撮影画像から特徴点を抽出し、特徴点に関する情報、たとえば抽出した特徴点の撮影画像上の座標をCPU104に出力する。ただし以下では、カメラ101の出力信号に基づき生成した画像を、「カメラ101の撮影画像」とも呼ぶ。
メモリ105は、揮発性記憶媒体である。メモリ105には、後述する共通座標バッファ203および白線情報105Aが格納される。
なお、本実施の形態において区画線認識装置1が4つのカメラを備えることは必須ではなく、少なくとも視野が重複する2つのカメラ、たとえば前カメラ101−Frと左カメラ101−SLとを備えればよい。
画像処理装置102は、その機能として、第1特徴点抽出部201−SL、第2特徴点抽出部201−SR、第3特徴点抽出部201−Rr、および第4特徴点抽出部201−Frを備える。これらはそれぞれ、左カメラ101−SL、右カメラ101−SR、後カメラ101−Rr、および前カメラ101−Frの撮影画像から特徴点を抽出する。特徴点の抽出処理は後述する。以下では、第1特徴点抽出部201−SL、第2特徴点抽出部201−SR、第3特徴点抽出部201−Rr、および第4特徴点抽出部201−Frは全体として、または個々に特徴点抽出部201と呼ぶ。
なお、世界座標系は車両2の中心、たとえば前輪車軸中心や車の重心等を原点とし、車両2の前後方向をY軸、左右方向をX軸とする。ただし、いずれかのカメラ101を基準としてもよいし、地上の固定物を基準としてもよい。
白線情報105Aは、撮影画像から得られた白線の候補数が格納される「白線候補数」、およびそれぞれの白線候補の情報が格納される「白線候補情報」から構成される。「白線候補情報」は「白線候補数」に格納された数と同数が格納され、たとえば「白線候補数」が2であれば、白線情報105Aは「白線候補数」と2つの「白線候補情報」とから構成される。
「特徴点情報」は、特徴が抽出された撮影画像を撮影したカメラを特定する情報である「取得カメラID」と、周辺の点との輝度差である「エッジ強度」と、特徴点である確からしさを示す指標である「スコア」と、特徴点の世界座標系における座標である「世界座標」とから構成される。
図5〜図7を用いて区画線認識装置1の動作の概要を説明する。
図5は、区画線認識装置1を搭載する車両2の走行シーンの一例を示す図である。図5は同一方向に走行するための3つの走行レーンA〜Cを示しており、図示左から走行レーンA、中央が走行レーンB、右が走行レーンCである。これらの走行レーンA〜Cは白線411〜414により構成される。図示左から、白線413、白線411、白線412、白線414の順に並んでいる。白線411は白線411a〜d、白線412は白線412a〜d、白線413は白線413a〜d、白線414は白線414a〜cから構成される。
白線411aは、白線411のうち領域421に含まれる白線である。白線411bは、白線411のうち車両2の前方にあり白線411aを除く白線である。白線411dは、白線411のうち車両2の後方にある白線である。白線411cは、白線411から白線411a、b、dを除いた白線である。
白線412aは、白線412のうち領域421に含まれる白線である。白線412bは、白線412のうち車両2の前方にあり白線412aを除く白線である。白線412dは、白線412のうち車両2の後方にある白線である。白線412cは、白線412から白線412a、b、dを除いた白線である。
白線414aは、白線414のうち車両2の前方にある白線である。白線414cは、白線414のうち車両2の後方にある白線である。白線414bは、白線414から白線414a、cを除いた白線である。
車両後方には後カメラ101−Rrの視野を遮る車両が存在せず、図6(b)には、白線414c、白線412d、白線411d、白線413dが描かれている。また図6(b)に四角のマーカーで示すように、撮影された白線から特徴点が抽出されている。
図6(d)には、左側方車両410の側面が描かれ、この車両により白線413の一部が遮られる。図6(d)に描かれる白線は、白線411、白線413a、および白線413dである。また図6(d)に下向き三角のマーカーで示すように、白線だけでなく左側方車両410からも特徴点が抽出されている。
前述のとおり4台のカメラ101の視野は一部重複しており、視野が重複する位置、すなわち複数のカメラから撮影される位置では複数のカメラの撮影画像から特徴点が抽出される。たとえば図7の左上にある白線413aの位置には、丸と下向き三角のマーカーが存在することからわかるように、前カメラ101−Frの撮影画像と左カメラ101−SLの撮影画像の両方から特徴点が抽出されている。
このように得られた特徴点に基づき、区画線認識装置1は、以下に説明する処理により白線411〜414を白線として検出する。さらに左側方車両410から抽出された特徴点を白線ではないとして棄却する。
(概要を示すフローチャート)
図8は、区画線認識装置1の処理概要を示すフローチャートである。図8に示すフローチャートに示す処理は、画像処理装置102およびCPU104により実行される。画像処理装置102およびCPU104は、カメラ101が撮影を行うたびに以下の処理を行う。
ステップS301では、画像処理装置102の特徴点抽出部201が、それぞれのカメラ101の撮影画像から特徴点を抽出してステップS302に進む。
ステップS302では、CPU104が、カメラ101の内部パラメータ、および外部パラメータに基づき、画像処理装置102により抽出された特徴点の座標をカメラごとに独立した座標系から4つのカメラに共通する世界座標系に変換してステップS303に進む。
ステップS304では、世界座標に変換された特徴点を用いて白線を検知し、図8に示すフローチャートを終了する。カメラ101が再度撮影を行うと、それに応じて再びステップS301から処理を開始する。
以下、ステップS301の詳細は図9、ステップS302の詳細は図10、ステップS303の詳細は図11、ステップS304の詳細は図13、のそれぞれのフローチャートを用いて説明する。
図9は、図8のステップS301の詳細を示すフローチャートである。画像処理装置102は4つのカメラ101のそれぞれに対応する特徴点抽出部201を備えるが、以下ではまず前カメラ101−Frに対応する第4特徴点抽出部201−Fr、および後カメラ101−Rrに対応する第3特徴点抽出部201−Rrの動作を説明する。以下に説明する図9の各ステップの実行主体は、特徴点抽出部201である。
ステップS18LsはY座標に関するループ処理の開始ステップであり、ループ終端のステップS18Leまで、すなわち以下に説明するステップS1802〜S1804までの処理が、撮影画像の全てのY座標について、処理対象とするY座標を順番に変化させて実行される。撮影画像におけるX座標、Y座標の定義は図6に示したとおりであり、たとえば前カメラ101−Frの撮影画像では車両2の進行方向がY軸である。
上述したステップS1804において、撮影画像において「自車に近い」とは、Y座標が大きく、X座標が撮影画像の中心部の値に近いことを意味する。たとえば、前カメラ101−Frの撮影画像において、車両2が走行している走行レーンを構成する白線411および白線412の内側のエッジの座標が特徴点の座標として保存される。
上述した特徴点抽出部201の処理により、例えばアスファルトの継ぎ目、タールのこぼれた跡等、白い領域が現れずにエッジだけが抽出されるような特徴点について、白線の特徴量として誤検知することはなくなる。また、白く塗装された車両が撮影された場合でもその幅は白線と異なるので閾値外として棄却される(ステップS1803:NO)。したがって、白く塗装された車両を白線の特徴量として誤検出する恐れを低減できる。
図10は、図8のステップS302の詳細を示すフローチャートである。このフローチャートにより示される処理は、CPU104により実行される機能である、座標変換部202により実行される。
ステップS19L1sはカメラに関するループ処理の開始ステップであり、ループ終端のステップS19L1eまで、すなわち以下に説明するステップS1901〜S1903の処理が、カメラ101のそれぞれで撮影された画像について実行される。すなわち、処理対象のカメラ101を順番に変更する。
ステップS1901では、記憶装置103から処理対象のカメラ101について、外部パラメータと内部パラメータを取得してステップS19L2sに進む。
ステップS19L2sは特徴点に関するループ処理の開始ステップであり、ループ終端のステップS19L2eまで、すなわち以下に説明するステップS1902〜S1903の処理が、処理対象のカメラ101に対応する特徴点抽出部201が抽出した全ての特徴点について実行される。
まず、処理対象の特徴点を外部パラメータおよび内部パラメータを用いて世界座標に変換する(ステップS1902)。そして、変換した結果を共通座標バッファ203に格納する(ステップS1903)。
全ての特徴点、全てのカメラについて処理が完了すると、図10のフローチャートを終了する。
図11は、図8のステップS303の詳細を示すフローチャートである。このフローチャートにより示される処理は、CPU104により実行される機能である、白線検知部204により実行される。
ステップS801では、共通座標バッファ203に格納されている世界座標の特徴点を、回転角度θがゼロの状態における座標と定義し、ステップS8Lsに進む。ここで車軸を基準とする座標系を採用する理由は、道路を走行中の車両の車軸は白線と略平行である時間が圧倒的に長く、車線変更の際にも白線と車軸のなす角は比較的小さい角度だからである。
まず、特徴点の座標を、車両2を中心に基準状態から所定の角度だけ回転させ(ステップS802)、回転させた特徴点をX軸に投射する(ステップS803)。そして、所定のX座標値の幅ごとに特徴点の数を集計し、極大値と極小値を算出する(ステップS804)。最後に極大値と極小値の差を累計したものを評価値として保存する(ステップS805)。
ステップS806では、繰り返した算出した評価値のうち、最大の評価値を有する回転角、すなわちθ_bestを特定してステップS807に進む。またこのときθ_bestを白線情報105Aの「角度差」に格納する。
ステップS807では、共通座標バッファ203に格納された特徴点を、車両2を中心に基準状態からθ_best回転させて図11のフローチャートを終了する。
上述したステップS803〜S806の処理を要約すると、特徴点を仮に回転させて回転角度ごとの評価値を算出し、最後に特徴点を評価値の最も高い角度だけ回転させるものである。
このように、回転した特徴点のX軸への投射を所定のX座標値の幅ごとに集計し、極大値と極小値の差を評価することにより、特徴点がY軸に平行に並ぶ最適な回転角度θ_bestを得ることができる。
図13は、図8のステップS304の詳細を示すフローチャートである。このフローチャートにより示される処理は、CPU104により実行される機能である、白線検知部204により実行される。
ステップS601では、検出された特徴点が白線から検出されたものであるか否かを判断する閾値thを算出する。本ステップの処理は図15を用いて詳述するが、白線が破線である場合を想定して閾値thを決定する。次にステップS602に進む。
ステップS602では、座標変換部202が座標変換処理を実行する。すなわち、図11のステップS807において回転された特徴点をX軸へ投影する。続くステップS603では、投影された特徴点の特徴量をX座標ごとに累積する。上述したように特徴量とは、たとえばその特徴点のエッジ強度である。そしてステップS604では、その累積値がステップS601において算出した閾値th以上かつ極大となるX座標を抽出する。
図13のフローチャートに戻って説明を続ける。
後述する処理(図16参照)により白線候補を構成する各特徴点が有する特徴量に基づきスコアを算出し(ステップS606)、それらのスコアを累積したスコア累積値を算出する(ステップS607)。算出した特徴点のスコア、および白線候補のスコア累積値は、白線情報105Aに格納される。
後述する処理(図18参照)により白線の確定処理を行い、当該白線候補が白線であるか否かを判断する(ステップS609)。そして、白線であると判断すると後述する処理(図18参照)により線種、すなわち実線か破線かを判定する(ステップS610)。
全ての白線候補についてステップS608〜S610の処理が完了すると、図12のフローチャートを終了する。
図15は、図13のステップS601の詳細を示すフローチャートである。このフローチャートにより示される処理は、CPU104により実行される機能である白線検知部204により実行される。本フローチャートは、カメラ101により撮影される白線が破線であったとしても後述する処理が支障を生じないように適切な閾値thを決定するものである。カメラ101により撮影される白線が道路外側線などであり実線の場合には多くの特徴点が検出されるが、カメラ101により撮影される白線が車線境界線などであり破線の場合には検出される特徴点が少ないからである。
以上で図15のフローチャートを終了する。
図16は、図13のステップS606の詳細を示すフローチャートである。このフローチャートにより示される処理は、CPU104により実行される機能である白線検知部204により実行される。以下に説明する処理は、世界座標において所定距離以内に存在する特徴点であって異なるカメラの撮影画像から得られた特徴点を同一の特徴点とみなし、特徴点である確からしさを示す指標、すなわちスコアを高く設定する。
ステップS7Lsは特徴点に関するループ処理の開始ステップであり、ループ終端のステップS7Leまで、すなわち以下に説明するステップS701〜S704までの処理が、処理対象の白線候補に含まれる全特徴点についてそれぞれ実行される。すなわち、処理対象とする特徴点が順番に変更される。
以上で図16のフローチャートを終了する。
ステップS701において、処理対象の特徴点から距離rf以内の特徴点を抽出すると5つの特徴点が抽出される。そして、ステップS702において処理対象と同じく前カメラ101−Frの撮影画像から得られた白丸のマーカー2つが棄却され、ステップS703では、残りの3つの下向き三角で示す特徴点のエッジ強度の和が算出される。そしてステップS704ではその小計値と(1+3)の積がスコアとして算出される。
図18は、図13のステップS609の詳細を示すフローチャートである。このフローチャートにより示される処理は、CPU104により実行される機能である白線検知部204により実行される。
ステップS801では、白線情報105Aを参照し、処理対象の白線候補のスコア累積値が所定の閾値以上であるか否かを判断する。閾値以上であると判断するとステップS802に進み、閾値未満であると判断するとステップS804に進む。
ステップS802では、スコア累積値が所定の閾値以上である他の白線候補とのX座標との差がレーン幅相当であるか否かを判断する。レーン幅相当であると判断するとステップS803に進み、当該白線候補が白線であると判断して図18のフローチャートを終了する。一方、レーン幅相当ではないと判断するとステップS804に進み、当該白線候補が白線ではないと判断して図18のフローチャートを終了する。
図19は、図13のステップS611の詳細を示すフローチャートである。このフローチャートにより示される処理は、CPU104により実行される機能である白線検知部204により実行される。
ステップS901では、処理対象の白線候補に含まれるすべての特徴点を世界座標のY座標の値でソートし、配列lineに格納する。以下では、配列lineのk番目の要素をline[k]と表現し、配列lineの要素はline[0]〜line[n−1]の全部でn個であるとして説明を続ける。
ステップS9LsはY座標に関するループ処理の開始ステップであり、ループ終端のステップS9Leまで、すなわち以下に説明するステップS903〜S905までの処理が、変数kを1からn−1まで1ずつ順番に増加させて実行される。
line[k]とline[k−1]の差を差分値として算出し(ステップS903)、差分値が差分最大値よりも大きい場合は差分最大値をその差分値とする(ステップS904:YES→ S905)。一方、差分値が差分最大値以下である場合は特段の処理を行わない。
変数kに「n−1」を代入したステップS903〜S905の処理が完了すると,差分最大値が所定の閾値以上であるか否かを判断し(ステップS906)、閾値以上であれば破線であると判断し(ステップS907)、閾値未満であれば直線であると判断する(ステップS908)。以上で図19のフローチャートを終了する。
(1)区画線認識装置1は、一部の視野が重複するように設置された複数のカメラ101と、複数のカメラ101の出力信号から得られたそれぞれの画像から特徴点を抽出する特徴点抽出部201と、特徴点抽出部201が抽出した特徴点の座標を、複数のカメラに共通する世界座標系の座標に変換する座標変換部202と、世界座標系で示される複数の特徴点の位置関係に基づき白線を検出する白線検知部204と、を備える。
区画線認識装置1は、カメラ101のそれぞれの撮影画像から特徴点を抽出し、抽出された特徴点の座標を世界座標系に変換し、世界座標系における特徴点の位置関係に基づき白線を検出する。そのため、それぞれのカメラ101の撮影画像において、他のカメラと視野が重複するか否かに関わらず特徴点が抽出され、抽出された特徴点は白線検出に用いられる。すなわち、複数のカメラ101の視野が重複する領域において、複数のカメラの画像を用いて白線検出をすることができる。たとえば、あるカメラでは側方を走行する車両が障害物となり白線を撮影できない場合でも、別のカメラで白線を撮影し特徴点を抽出することが可能である。
また、座標変換を行う前に特徴点を抽出するので、座標変換を行う処理対象を撮影画像の全体から抽出された特徴点に減少させ、処理を高速化することができる。
そのため、白線候補を構成する各特徴点が特徴点である確からしさに基づき、白線を決定することができる。
車両2に搭載されるカメラ101には、レンズへの異物の付着や太陽光の反射など外乱要素が多数存在しており、これら外乱により現実には物体が存在しない個所から特徴点を検出してしまうことがある。しかし、カメラ101を構成する別々のカメラの撮影画像からそれぞれ抽出された2つの特徴点が世界座標系において近傍に存在する場合は、その2点は同一の被写体である可能性が高い。すなわち、これら2点は信頼性が高いことを理由として、この特徴点のスコアを高く算出することができる。
そのため、白線と同様の幅を有する車両の模様を特徴点として検出した場合に、それらの特徴点から構成される白線候補を棄却することができる。
そのため、車両2が走行する環境やカメラ101の内部パラメータ、および外部パラメータにあわせて適切な閾値を設定することができる。
区画線認識装置1が備える画像処理装置102とCPU104の処理分担が異なってもよい。区画線認識装置1は、図2に示すソフトウエア構成を実現できればよく、たとえば、座標変換部202の機能は画像処理装置102が備えてもよいし、CPU104が特徴点抽出部201の機能を備えてもよい。
区画線認識装置1は、検出した白線と自車両との位置関係をさらに判別してもよい。本変形例では、車両2の世界座標系における位置がX=0となるように、共通座標バッファ203に格納された特徴点の座標があらかじめオフセットされていることとする。
図20は、自車位置と検出した白線との位置関係を判別するフローチャートである。
ステップS1701では、検知した白線の情報を取得し、ステップS17Lsに進む。
ステップS17LsはY座標に関するループ処理の開始ステップであり、ループ終端のステップS17Leまで、すなわち以下に説明するステップS1702〜S1707までの処理が、検知した全ての白線について繰り返される。
ステップS1702では、検出した白線のX座標を取得する。なお、前述のとおり世界座標系はY軸が白線と平行になるように回転させているので、白線の位置はX座標により特定される。
ステップS1704では、白線のX座標が正であるか否かを判断する。世界座標系は車両2の進行方向右側をX軸の正方向と定義しているので、この条件を満たすと判断するとステップS1707に進み、その白線が車両2の右側にあると判断する。一方、この条件を満たさないと判断するとステップS1706に進み、その白線が車両2の左側にあると判断する。
第1の実施の形態では、撮影画像から抽出された特徴点を世界座標に変換した(図8のステップS301、S302)。しかし、撮影画像を世界座標に変換してから特徴点を抽出してもよい。ただし、特徴点の抽出は他のカメラ101の撮影画像とは独立して行い、他のカメラ101と視野が重複する領域からも特徴点を抽出する。
この変形例3によれば、4台のカメラ101の撮影画像を用いて車両2を上から見下ろしたような周囲環境の画像、いわゆる俯瞰画像を作成することを前提とすれば、高い処理負荷がかかる画像の座標変換処理を他の処理に先駆けて開始することができる。
図21〜図22を参照して、区画線認識装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、複数のカメラの視野が重なる領域は特定のカメラの撮影画像のみを用いる点で、第1の実施の形態と異なる。
区画線認識装置1のハードウエア構成は第1の実施の形態と同様である。記憶装置103に格納されるプログラムの動作が第1の実施の形態と一部異なる。
ステップS1900Aでは、世界座標系におけるカメラ101の撮影範囲の分担を設定し、ステップS19L1sに進む。
次に、記憶装置103から処理対象のカメラ101について、外部パラメータと内部パラメータを取得し(ステップS1901)、処理対象の特徴点を外部パラメータおよび内部パラメータを用いて世界座標に変換する(ステップ1902)。そして世界座標に変換した特徴点のうち、処理対象のカメラ101が分担する領域に含まれる特徴点を共通座標バッファ203に格納する(ステップ1903A)。すなわち、処理対象のカメラ101が分担する領域に含まれない特徴点は、共通座標バッファ203に格納しない。
上述した第2の実施の形態によれば、区画線認識装置1は、重複する視野はいずれか1つのカメラの撮影画像しか処理しないため、処理が簡便である。
上述した各実施の形態および変形例では、車道に描かれた白線の認識について説明したが、白線が描かれる場所は車道に限定されず、構内や屋内であってもよい。また、白線は道路区画線の一例として挙げたものであり、認識する線の色は白に限定されず、黄色やオレンジでもよい。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
2 … 車両
101 … カメラ
102 … 画像処理装置
103 … 記憶装置
103A … 道路別区画線情報
105A … 白線情報
108 … 車両制御ユニット
201 … 特徴点抽出部
202 … 座標変換部
203 … 共通座標バッファ
204 … 白線検知部
Claims (3)
- 一部の視野が重複するように設置された複数のカメラと、
前記複数のカメラの出力信号から得られたそれぞれの画像から特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部が抽出した特徴点の座標を、前記複数のカメラに共通する世界座標系の座標に変換する座標変換部と、
前記世界座標系で示される複数の前記特徴点の位置関係に基づき白線を検出する白線検知部と、を備え、
前記白線検知部は、
前記世界座標系における前記特徴点の位置関係に基づき、複数の特徴点から構成される白線候補を抽出し、
前記白線候補が白線と判断される指標であるスコア累計値を、当該白線候補を構成する特徴点の特徴点である確からしさを示すスコアの総計として算出する際、前記世界座標系で所定距離以内に存在する特徴点であって、当該特徴点の検出に用いる撮影画像を得るカメラとは異なるカメラの撮影画像から得られた特徴点が存在する場合に、前記特徴点のスコアを高く算出し、
前記スコア累計値が予め定めた閾値より大きい前記白線候補を白線として検出する区画線認識装置。 - 請求項1に記載の区画線認識装置において、
前記白線検知部は、前記スコア累計値が予め定めた閾値より大きい前記白線候補であって、他の前記スコア累計値が予め定めた閾値より大きい前記白線候補との間隔が、当該区画線認識装置を搭載した車両の走行している走行レーンの間隔と略一致する前記白線候補を前記白線として検出する、区画線認識装置。 - 請求項1に記載の区画線認識装置において、
前記白線検知部は、前記閾値を前記カメラに撮影される白線の長さに基づき決定する、区画線認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016036753A JP6611334B2 (ja) | 2016-02-29 | 2016-02-29 | 区画線認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016036753A JP6611334B2 (ja) | 2016-02-29 | 2016-02-29 | 区画線認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017156795A JP2017156795A (ja) | 2017-09-07 |
JP6611334B2 true JP6611334B2 (ja) | 2019-11-27 |
Family
ID=59810092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016036753A Active JP6611334B2 (ja) | 2016-02-29 | 2016-02-29 | 区画線認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6611334B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109145860B (zh) * | 2018-09-04 | 2019-12-13 | 百度在线网络技术(北京)有限公司 | 车道线跟踪方法和装置 |
JP7255345B2 (ja) * | 2019-05-13 | 2023-04-11 | スズキ株式会社 | 走行車線認識装置、走行車線認識方法およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4327389B2 (ja) * | 2001-10-17 | 2009-09-09 | 株式会社日立製作所 | 走行レーン認識装置 |
JP5469509B2 (ja) * | 2010-03-31 | 2014-04-16 | パナソニック株式会社 | 車線位置検出装置および車線位置検出方法 |
JP6241172B2 (ja) * | 2013-09-25 | 2017-12-06 | 日産自動車株式会社 | 自車位置推定装置及び自車位置推定方法 |
JP6314655B2 (ja) * | 2014-05-23 | 2018-04-25 | 日産自動車株式会社 | 標示線検出装置、標示線検出方法 |
-
2016
- 2016-02-29 JP JP2016036753A patent/JP6611334B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017156795A (ja) | 2017-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11200433B2 (en) | Detection and classification systems and methods for autonomous vehicle navigation | |
US11960293B2 (en) | Systems and methods for navigating lane merges and lane splits | |
US11669102B2 (en) | Navigating a vehicle based on a detected barrier | |
US10753758B2 (en) | Top-down refinement in lane marking navigation | |
US10696227B2 (en) | Determining a road surface characteristic | |
EP3598074B1 (en) | Controlling host vehicle based on the detection of a vehicle moving towards the host vehicle's lane. | |
EP3548845B1 (en) | Navigation based on vehicle activity | |
US20230382422A1 (en) | Systems and methods for vehicle navigation | |
US20220001872A1 (en) | Semantic lane description | |
EP3576008B1 (en) | Image based lane marking classification | |
WO2021096935A2 (en) | Systems and methods for determining road safety | |
WO2015177648A1 (en) | Systems and methods for curb detection and pedestrian hazard assessment | |
US11280630B2 (en) | Updating map data | |
JP2006208223A (ja) | 車両位置認識装置及び車両位置認識方法 | |
JP4761156B2 (ja) | 地物位置認識装置及び地物位置認識方法 | |
US20220136853A1 (en) | Reducing stored parameters for a navigation system | |
JP2020067698A (ja) | 区画線検出装置及び区画線検出方法 | |
JP6611334B2 (ja) | 区画線認識装置 | |
WO2020008787A1 (ja) | カメラ装置の標識認識方法及び標識認識装置 | |
WO2022038415A1 (en) | Systems and methods for processing atomic commands | |
WO2023067385A2 (en) | Radar-camera fusion for vehicle navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20170315 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20170921 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6611334 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |