JP2014142866A - 車線識別装置および車線識別方法 - Google Patents

車線識別装置および車線識別方法 Download PDF

Info

Publication number
JP2014142866A
JP2014142866A JP2013011898A JP2013011898A JP2014142866A JP 2014142866 A JP2014142866 A JP 2014142866A JP 2013011898 A JP2013011898 A JP 2013011898A JP 2013011898 A JP2013011898 A JP 2013011898A JP 2014142866 A JP2014142866 A JP 2014142866A
Authority
JP
Japan
Prior art keywords
image
lane
unit
complexity
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013011898A
Other languages
English (en)
Other versions
JP6126849B2 (ja
Inventor
Yujiro Tani
祐次郎 谷
Yusuke Mizuno
雄介 水野
Yuki Haraguchi
雄基 原口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2013011898A priority Critical patent/JP6126849B2/ja
Publication of JP2014142866A publication Critical patent/JP2014142866A/ja
Application granted granted Critical
Publication of JP6126849B2 publication Critical patent/JP6126849B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】道路上に外乱の要因があった場合でも、車線の検出精度が高く、かつ回路規模が小さくて済む車線識別技術を提供する。
【解決手段】情報処理部14の分散算出部141は、フレームメモリ13から1フレーム分の画像データを読み出す際に、当該画像データを複数のブロックに分けてブロック単位で読み出し、単位ブロック中での輝度および色差の少なくとも一方の分散を算出する処理を行う。マスク処理部142は、分散算出部141で算出された単位ブロック中での輝度および色差の少なくとも一方の分散に基づいて、分散の高いブロックの画像データをマスキングする。直線検出部143は、マスキングされなかったブロックについてエッジ検出処理を施し、検出されたエッジに対して、直線検出処理を施す。統合処理部144は、ブロック単位で検出された直線を、フレーム全体で統合して車線として表示できるようにする。
【選択図】図1

Description

本発明は、車載カメラで撮像した画像に基づいて道路の車線を識別する技術に関する。
従来より、車載カメラで撮像した画像に基づいて道路の車線を識別する技術が開発されており、例えば、特許文献1には、車載カメラで路面を撮像して得られた画像を俯瞰画像に変換し、該俯瞰画像の輝度を車両進行方向に平行に積分して進行方向に垂直な方向に対する輝度プロファイルを求め、該輝度プロファイルにフィルタ処理を施すことによって白線の位置を検出する技術が開示されている。
特許第4927908号公報
しかし、画像を俯瞰画像に変換するには大きなハードウエア構成が必要になり、また、輝度プロファイルにより白線を検出する場合、車両や道路標示(ゼブラゾーンなど)が道路上にあると、それらが外乱となり白線の検出精度が低下し、誤検出の原因となる。特に、ゼブラゾーンは白色であるので、誤検出が非常に多くなってしまう。
本発明は上記のような問題点を解消するためになされたもので、道路上に外乱の要因があった場合でも、車線の検出精度が高く、かつ回路規模が小さくて済む車線識別技術を提供することを目的とする。
本発明に係る車線識別装置の第1の態様は、車載カメラで撮像した画像に基づいて道路の車線を識別する車線識別装置であって、前記画像の1フレーム分の画像データを複数の単位ブロックに区分し、単位ブロックごとに前記画像から前記車線の識別を行う際の外乱要因となる画像の複雑度が所定以上であるかどうかを検出する複雑度検出部と、前記複数の単位ブロックのうち前記画像の複雑度が前記所定以上である単位ブロックについてマスク処理を行うマスク処理部と、前記複数の単位ブロックのうち、前記マスク処理の対象となっていない前記単位ブロックについて前記車線を規定する直線を近似的に検出する直線検出部と、前記単位ブロックごとに検出された直線を、フレーム全体で統合して前記車線とする統合処理部とを備えている。
本発明に係る車線識別装置の第2の態様は、前記複雑度検出部が、前記画像の複雑度を、前記単位ブロック内での輝度の分散値と閾値との比較により判定する。
本発明に係る車線識別装置の第3の態様は、前記複雑度検出部が、前記画像の複雑度を、前記単位ブロック内での色差の分散値と閾値との比較により判定する。
本発明に係る車線識別装置の第4の態様は、前記直線検出部が、前記マスク処理の対象となっていない前記単位ブロックについてエッジ検出処理を施し、検出されたエッジを構成する複数の特徴点に対してハフ変換を施すことで、前記車線を規定する直線を近似的に検出する。
本発明に係る車線識別方法は、車載カメラで撮像した画像に基づいて道路の車線を識別する車線識別方法であって、前記画像の1フレーム分の画像データを複数の単位ブロックに区分し、単位ブロックごとに前記画像から前記車線の識別を行う際の外乱要因となる画像の複雑度が所定以上であるかどうかを検出する複雑度検出を行うステップ(a)と、前記複数の単位ブロックのうち前記画像の複雑度が前記所定以上である単位ブロックについてマスク処理を行うステップ(b)と、前記複数の単位ブロックのうち、前記マスク処理の対象となっていない前記単位ブロックについて前記車線を規定する直線を近似的に検出する直線検出処理を行うステップ(c)と、前記単位ブロックごとに検出された直線を、フレーム全体で統合して前記車線とする統合処理を行うステップ(d)とを備えている。
本発明によれば、外乱要因を含む単位ブロックについてはマスク処理を行い、マスク処理の対象となっていない単位ブロックについて車線を規定する直線を近似的に検出することで、外乱要因を除去して車線検出の精度を高めることができる。
本発明に係る実施の形態の車線識別装置の構成を示すブロック図である。 画像データの読み出し順序を模式的に説明する図である。 カメラによって取得された画像の一例を示す図である。 撮影画像を複数のブロックに区分した場合の一例を示す図である。 車線識別動作を説明するフローチャートである。 ハフ変換の概念を説明する図である。 車線識別動作の変形例を説明するフローチャートである。
<実施の形態>
<装置構成>
図1は、本発明に係る実施の形態の車線識別装置10の構成を示すブロック図である。図1に示されるように、車線識別装置10は、CCD(電荷結合素子)等の撮像素子で撮影した画像をデジタル処理するカメラ11と、画像処理部12と、フレームメモリ13と、情報処理部14と、中間メモリ15とを備えている。
カメラ11は、車両のフロント部(例えば、ルームミラー(車両室内のバックミラー)近傍)に備えられ、車両の進行方向前方を中心とした周辺の道路を撮影可能となっている。
画像処理部12は、カメラ11によって取得された画像の画像データに各種画像処理を施す部位であり、画像処理部12で実行される画像処理としては、例えば、不足している色成分を補間により求める画素補間処理(ベイヤ補間)、画像データの色空間を変換する色空間変換処理等がある。
フレームメモリ13は、画像処理部12から出力される画像処理後の画像データをフレーム単位で一時的に記憶するためのメモリである。
情報処理部14は、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)等で構成され、ROM内に格納されたプログラムを読み出し、当該プログラムをCPUで実行することによって、分散算出部141、マスク処理部142、直線検出部143および統合処理部144を機能的に実現する。なお、当該情報処理部14おいて実現される各機能を、ハードウエア回路で実現しても良い。
分散算出部141は、フレームメモリ13から1フレーム分の画像データを読み出す際に、当該画像データを複数のブロックに分けてブロック単位で読み出し、単位ブロック中での輝度および色差の少なくとも一方の分散を算出する処理を行う。
図2は画像データの読み出し順序を模式的に説明する図である。図2に示すように、1フレーム分の画像データは、水平方向(X方向)および垂直方向(Y方向)にそれぞれ複数に分割されて複数のブロックBKに分けられ、ブロック単位でフレームメモリ13から読み出される。ブロック単位での画像データの読み出しは、例えば、図に向かって最上段左端のブロックBKから読み出され、当該ブロックの処理が終了すると、右隣のブロックが読み出され、以後、右側のブロックが順次読み出され、右端に到達すると、次の段の左端のブロックが読み出されるという順序で行われる。
また、各ブロックでの画像データの読み出し順序は、ブロックの最上部列左端のデータから読み出しを行い、右端に到達すると次の列の左端のデータから読み出だされるという順序で行われる。
マスク処理部142は、分散算出部141で算出された単位ブロック中での輝度および色差の少なくとも一方の分散に基づいて、分散の高いブロックの画像データを以後の処理で使用しないようにマスキングする部位であり、例えば、当該ブロックの画像データを全て予め定めた無意のデータに変更するなどの処理を行う。
直線検出部143は、マスク処理部142でマスキングされなかったブロックについてエッジ検出処理を施し、検出されたエッジに対して、直線検出処理を施す。エッジ検出処理により、道路の車線を規定する複数のライン(例えば、白線)が検出され、直線検出処理により、当該複数のラインそれぞれに沿った複数の直線が近似的に検出されることになる。直線検出部143における各処理は、処理中のデータを中間メモリ15に記憶しつつ行われる。
直線検出処理としては、例えばハフ(Hough)変換を採用することができるが、他の手法を採用しても良い。なお、ハフ変換以外の直線検出処理としては、最小自乗法を用いた方法などが挙げられる。
統合処理部144は、ブロック単位で検出された直線を、フレーム全体で統合して車線として表示できるようにする部位である。
<動作>
次に、図3〜図7を用いて車線識別装置10における車線識別動作について説明する。図3には、カメラ11(図1)によって取得された画像の一例を示している。
図3において、自車両の前方には車両OB1およびOB2が2つの車線を併走しており、路肩に引かれた白線WL1およびWL2が車両OB1およびOB2に隠れて見えにくくなっている。また、車両OB1側には、道路に沿って防音壁OB3が設けられ、車両OB2側には、道路に沿ってガードレールOB4が設けられている。
このように、検出対象である車線は先行する車両に隠れて見えなくなる場合もあり、また、車線の近くに防音壁OB3やガードレールOB4があった場合、それらは車線を検出する際の外乱要因となり、それらは、いかなる部分にも発生する可能性がある。
図4には、撮影画像を複数のブロックに区分した場合の一例を示す。図4は撮影画像を5×5のブロックに区分した例を示しており図に向かって最上段左上のブロックBKをブロックA1と採番し、以後右方向にA2、A3、A4、A5と採番し、次の段では左端からA6、A7・・と採番している。
図4において、ブロックA21〜A25には路面のみが表示されているが、画像の上方、すなわち自車両から遠くなるに従って、車両、防音壁、ガードレールが表示されるようになり、画像の複雑度が高くなることが判る。換言すれば車線が表示される領域は比較的複雑度が低いと言える。
そして、画像の複雑度が高くなると、車線を検出する際の外乱要因となり、車線検出の精度が低下するので、画像の複雑度を定量的に算出できる特徴量があれば、算出された画像の複雑度に基づいて、画像の複雑度の高い領域を車線検出の対象から外すことで、外乱要因を除去して車線検出の精度を高めることができる。
例えば、ブロックA16〜A25には路面が表示され、白線WL1〜WL3が表示されているが、そのうち、ブロックA17〜A19には車両OB1およびOB2も表示されており、複雑度が高い領域と考えられる。
ここで、画像の複雑度を定量的に算出できる特徴量として空間周波数が挙げられ、空間周波数が高い領域ほど画像の複雑度が高い領域であると定義できる。従って、空間周波数を用いて画像の複雑度を規定し、複雑度の高い領域を車線検出の対象から除外すれば外乱を抑制することが可能であるが、除去したい外乱要因は、例えば先行車両であったり、防音壁であったりして比較的大きな領域を占めるため、ブロック単位で外乱を除去するには、32×32もしくは64×64の比較的大きなブロックサイズとなる。一方、空間周波数を算出するには画像データを周波数領域へと変換する周波数変換が必要となるが、ブロック単位で周波数変換を行う場合、上記のように大きなブロックサイズでは、演算量が極端に大きくなってしまう。
ここで、周波数変換の例として、一般的なDCT(離散コサイン変換)を以下の数式(1)に示す。
Figure 2014142866
上記数式(1)によるDCTを行うには小数成分を含む乗算が必要となり、演算量が比較的大きくなる。
そこで、本発明においては、画像の複雑度を定量的に算出する特徴量として輝度値の分散を使用する。また、色の多様性を定量的に算出する特徴量として色差の分散を使用する。
ここで、輝度と色差の算出式を以下の数式(2)に示す。
Figure 2014142866
上記数式(2)において、Rは赤、Gは緑、Bは青を表し、Yは輝度、Cbは青色色差成分、Crは赤色色差成分を表し、画像データから、各画素ごとのR、GおよびBの色データを取得することで、画素ごとに輝度および色差を算出することができる。
このようにして得られた輝度の単位ブロック内での分散は以下の数式(3)により算出することができる。
Figure 2014142866
上記数式(3)は、一般的な標本分散を表す式であり、pは輝度値を、Pmeanは輝度値の平均値を表す。
数式(3)より算出された輝度値の分散が高いブロックでは輝度値のばらつきが大きく、画像の複雑度が高いと言うことができ、輝度値の分散が低いブロックでは輝度値のばらつきが小さく、画像の複雑度が低いと言うことができる。これにより画像の複雑度を簡単に定量的に算出することができる。また、輝度値の分散で複雑度を定量的に算出するので、空間周波数を用いて画像の複雑度を算出する際の周波数変換に比べて、演算量を削減できるという効果もある。
また、色差の単位ブロック内での分散も上記数式(3)と同様に一般的な標本分散を用いて表すことができるが、この場合、pは色差値を、Pmeanは色差値の平均値を表す。
数式(3)より算出された色差値の分散が高いブロックでは色に多様性があり、複雑な画像と言えるので、画像の複雑度が高いと言うことができ、色差値の分散が低いブロックでは色の種類が少なく画像の複雑度が低いと言うことができる。これにより色の多様性による画像の複雑度を簡単に定量的に算出することができる。
なお、色差成分にはCb、Crの2種類があるが、CbとCrをそれぞれ使用しても良いし、(Cb−Cr)または(Cb+Cr)を使用しても良い。
次に、図1を参照しつつ、図5に示すフローチャートを用いて、車線識別装置10における車線識別動作を説明する。車線識別動作が始まると、図5に示されるように、ステップS1において、まず、カメラ11によって、車両の進行方向の道路を被写体とした画像データが取得される。取得された画像データには、画像処理部12によって所定の画像処理が施される。
画像処理済みの画像データは、一旦、フレームメモリ12に保存された後、図4を用いて説明したような単位ブロックごとに読み出され、情報処理部14の分散算出部141に与えられる(ステップS2)。
分散算出部141では、数式(2)を用いて画像データから、各画素ごとのR、GおよびBの色データを取得した後、数式(3)を用いて、画素ごとに輝度を算出し、単位ブロック内での輝度の分散を算出する(ステップS3)。
そして、算出した輝度の分散の値が、予め定めた閾値(例えば画素平均値など、フレームごとに固有で有意な値)以上であるか否かを判断し(ステップS4)、閾値以上である場合は、その単位ブロックは画像の複雑度が高く、外乱要因が含まれるブロックであると判断し、ステップS5に進む。
ステップS5では、マスク処理部142において、画像の複雑度が高く、外乱要因が含まれるブロックに対して以後の処理で使用しないようにマスク処理を行う。
一方、ステップS4で、算出した輝度の分散の値が閾値未満であると判断された場合はステップS11に進み、数式(3)を用いて、画素ごとに色差を算出し、単位ブロック内での色差の分散を算出する。
そして、算出した色差の分散の値が、予め定めた閾値(フレームに関わらず一定の値)以上であるか否かを判断し(ステップS12)、閾値以上である場合は、その単位ブロックは多様な色を有し画像の複雑度が高く、外乱要因が含まれるブロックであると判断し、ステップS5に進む。すなわち、車線および路面は色彩に乏しいものであるのに対し、多様な色を有するブロックは車線や路面ではなく外乱要因を含むものと判断する。
例えば、図4においてブロックA20は白線WL1の他には防音壁OB3を含むだけであるので、画像の複雑度は低いと言えるが、防音壁OB3に色彩が施されていたり、広告の看板が設けられている場合には多様な色を有するブロックとなり、画像の複雑度が高く、外乱要因を含むこととなる。
なお、上述したように、分散算出部141は、輝度の分散や色差の分散を算出することで、単位ブロックの画像が複雑であるか否かを検出するので、複雑度検出部として機能する部位であると言うことができる。
また、図4においてブロックA1〜A5、A6〜A10は、空や背景を表示する領域であるが、これらの領域には、車線を含まないことは明らかであるので、例えばブロックA6〜A10以上のブロックについては分散の算出処理や、直線検出処理を行わない領域として予めデフォルト設定しておくことで、無用の処理を省いて、車線識別動作を迅速化することができる。
ステップS5では、マスク処理部142において、画像の複雑度が高いブロックに対して以後の処理で使用しないようにマスク処理を行う。
一方、ステップS12で、算出した色差の分散の値が閾値未満であると判断された場合はステップS13に進み直線検出を行う。
ステップS13では、直線検出部143において、単位ブロック内の画像についてエッジ検出処理を施し、検出されたエッジに対して直線検出処理を施す。直線検出処理としてはハフ変換を使用することができる。
図6は、ハフ変換の概念を説明する図である。図6に示すように、検出されたエッジを構成する特徴点P0、P1、P2、P3およびP4がある場合、ハフ変換では、特徴点P0〜P4のそれぞれを中心として0゜から180゜まで所定角度で変化するように直線を決定する。図6では特徴点P0を通る複数の直線を示している。このように、平面上の複数の特徴点のそれぞれに対して複数の直線を発生させ、共通する直線を決定することで、エッジ、すなわち、車線の端縁を規定する。
ハフ変換などの投票によって直線を決定する方式の場合、特徴点の取得順番が検出性能に影響を与えないことから、ブロック単位で処理を進めても問題がなく、画像を複数のブロックに区分し、外乱要因が含まれるブロックについては直線検出処理の対象としないことで検出精度を高めるという本発明に適した方式であると言える。
以上説明したステップS2〜S5、S11〜S13の処理は、1フレーム内の全ての単位ブロックに対して実行されるまで繰り返され(ステップS6)、全ての単位ブロック対する処理を終了した後はステップS7に進む。
ステップS7では、統合処理部144において、マスク処理の対象とならないブロックで検出された直線のうち実際に存在する可能性の高い直線を統合し、最終的に車線として表示できるように処理する。
この処理には、例えば、図4においてブロックA16、A20、A21、A22およびA25などから白線WL1、WL2およびWL3に対応する直線が検出された場合、白線WL3については車線として表示できるが、白線WL1およびWL2についてはブロックA12およびA19がマスク処理の対象となっているので表示できない。そこで、ブロックA12およびA19に該当する領域の白線WL1およびWL2については、ブロックA16、A20およびA25で得られた白線WL1およびWL2に対して外挿するなどの方法により白線データを作成する処理を含んでいる。
直線の統合処理が終了した後は、カメラ11からの次のフレームデータの入力を受けて(ステップS8)、ステップS1以下の処理を繰り返す。
なお、以上の説明では、直線検出部143において直線検出処理を行うものと説明したが、道路のカーブにおける車線も直線で近似することで検出可能である。
以上説明した実施の形態の車線識別装置10によれば、車線を検出する際の外乱要因となる画像の複雑度を、輝度および色差の分散により複雑度を算出し、算出された画像の複雑度に基づいて、画像の複雑度の高い領域を車線検出の対象から外すことで、外乱要因を除去して車線検出の精度を高めることができる。また、輝度だけでなく色差についても分散により画像の複雑度を算出することで、色の多様性の点からも画像の複雑度を判断することができ、演算量を増大させずに検出精度を上げることができる。また、車線の検出に際しては、画像を俯瞰画像に変換する必要もないので、回路規模などハードウエア構成が大きくなることもない。
<変形例>
以上説明した実施の形態においては、単位ブロック中での輝度および色差の分散を算出することで、画像の複雑度が高く、外乱要因が含まれるブロックを特定する構成を示したが、色差の分散は算出せずに輝度の分散だけで外乱要因が含まれるブロックを特定する構成としても良い。これにより、色差の分散も算出する場合に比べて、演算量を低減することができる。
以下、図7に示すフローチャートを用いて、画像の複雑度が高く、外乱要因が含まれるブロックを輝度の分散だけで特定する場合の車線識別動作を説明する。なお、図7において、ステップS1〜S4の動作は、図5に示したステップS1〜S4の動作と同じであるので説明は省略する。
ステップS4では、算出した輝度の分散の値が、予め定めた閾値(例えば画素平均値など、フレームごとに固有で有意な値)以上であるか否かを判断し、閾値以上である場合は、その単位ブロックは画像の複雑度が高く、外乱要因が含まれるブロックであると判断し、ステップS5に進む。
ステップS5では、マスク処理部142において、画像の複雑度が高く、外乱要因が含まれるブロックに対して以後の処理で使用しないようにマスク処理を行う。
一方、ステップS4で、算出した輝度の分散の値が閾値未満であると判断された場合はステップS9に進み直線検出を行う。
ステップS9では、直線検出部143において、単位ブロック内の画像についてエッジ検出処理を施し、検出されたエッジに対して直線検出処理を施す。直線検出処理としてはハフ変換を使用することができる。
以上説明したステップS2〜S5、S9の処理は、1フレーム内の全ての単位ブロックに対して実行されるまで繰り返され(ステップS6)、全ての単位ブロック対する処理を終了した後はステップS7に進む。
ステップS7では、統合処理部144において、マスク処理の対象とならないブロックで検出された直線のうち実際に存在する可能性の高い直線を統合し、最終的に車線として表示できるように処理する。
直線の統合処理が終了した後は、カメラ11からの次のフレームデータの入力を受けて(ステップS8)、ステップS1以下の処理を繰り返す。
また、上記変形例では、単位ブロック中での輝度の分散を算出することで、画像の複雑度が高く、外乱要因が含まれるブロックを特定する構成を示したが、色差の分散だけで、画像の複雑度が高く、外乱要因が含まれるブロックを特定する構成としても良い。その場合は、図7に示すフローチャートにおいて、ステップS3において色差の分散を算出し、ステップS4において色差の分散値が閾値以上であるか否かを判断することとなる。
なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。
10 車線識別装置
141 分散算出部
142 マスク処理部
143 直線検出部
144 統合処理部

Claims (5)

  1. 車載カメラで撮像した画像に基づいて道路の車線を識別する車線識別装置であって、
    前記画像の1フレーム分の画像データを複数の単位ブロックに区分し、単位ブロックごとに前記画像から前記車線の識別を行う際の外乱要因となる画像の複雑度が所定以上であるかどうかを検出する複雑度検出部と、
    前記複数の単位ブロックのうち前記画像の複雑度が前記所定以上である単位ブロックについてマスク処理を行うマスク処理部と、
    前記複数の単位ブロックのうち、前記マスク処理の対象となっていない前記単位ブロックについて前記車線を規定する直線を近似的に検出する直線検出部と、
    前記単位ブロックごとに検出された直線を、フレーム全体で統合して前記車線とする統合処理部と、を備える車線識別装置。
  2. 前記複雑度検出部は、
    前記画像の複雑度を、前記単位ブロック内での輝度の分散値と閾値との比較により判定する、請求項1記載の車線識別装置。
  3. 前記複雑度検出部は、
    前記画像の複雑度を、前記単位ブロック内での色差の分散値と閾値との比較により判定する、請求項1または請求項2記載の車線識別装置。
  4. 前記直線検出部は、
    前記マスク処理の対象となっていない前記単位ブロックについてエッジ検出処理を施し、検出されたエッジを構成する複数の特徴点に対してハフ変換を施すことで、前記車線を規定する直線を近似的に検出する、請求項1記載の車線識別装置。
  5. 車載カメラで撮像した画像に基づいて道路の車線を識別する車線識別方法であって、
    (a)前記画像の1フレーム分の画像データを複数の単位ブロックに区分し、単位ブロックごとに前記画像から前記車線の識別を行う際の外乱要因となる画像の複雑度が所定以上であるかどうかを検出する複雑度検出を行うステップと、
    (b)前記複数の単位ブロックのうち前記画像の複雑度が前記所定以上である単位ブロックについてマスク処理を行うステップと、
    (c)前記複数の単位ブロックのうち、前記マスク処理の対象となっていない前記単位ブロックについて前記車線を規定する直線を近似的に検出する直線検出処理を行うステップと、
    (d)前記単位ブロックごとに検出された直線を、フレーム全体で統合して前記車線とする統合処理を行うステップと、を備える車線識別方法。
JP2013011898A 2013-01-25 2013-01-25 車線識別装置および車線識別方法 Active JP6126849B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013011898A JP6126849B2 (ja) 2013-01-25 2013-01-25 車線識別装置および車線識別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013011898A JP6126849B2 (ja) 2013-01-25 2013-01-25 車線識別装置および車線識別方法

Publications (2)

Publication Number Publication Date
JP2014142866A true JP2014142866A (ja) 2014-08-07
JP6126849B2 JP6126849B2 (ja) 2017-05-10

Family

ID=51424083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013011898A Active JP6126849B2 (ja) 2013-01-25 2013-01-25 車線識別装置および車線識別方法

Country Status (1)

Country Link
JP (1) JP6126849B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018017101A (ja) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 情報処理装置、情報処理方法、及びプログラム
KR20200019283A (ko) * 2018-08-08 2020-02-24 주식회사 넥스트칩 차선 검출 방법 및 그 방법을 수행하는 전자 장치
CN115588131A (zh) * 2022-09-30 2023-01-10 北京瑞莱智慧科技有限公司 模型鲁棒性检测方法、相关装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04137014A (ja) * 1990-09-28 1992-05-12 Mazda Motor Corp 移動車の走行路端検出装置
JP2000074645A (ja) * 1998-08-27 2000-03-14 Yazaki Corp 周辺監視装置及び方法
JP2009271908A (ja) * 2008-04-09 2009-11-19 Honda Motor Co Ltd 車両走行支援装置、車両、車両走行支援プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04137014A (ja) * 1990-09-28 1992-05-12 Mazda Motor Corp 移動車の走行路端検出装置
JP2000074645A (ja) * 1998-08-27 2000-03-14 Yazaki Corp 周辺監視装置及び方法
JP2009271908A (ja) * 2008-04-09 2009-11-19 Honda Motor Co Ltd 車両走行支援装置、車両、車両走行支援プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018017101A (ja) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 情報処理装置、情報処理方法、及びプログラム
KR20200019283A (ko) * 2018-08-08 2020-02-24 주식회사 넥스트칩 차선 검출 방법 및 그 방법을 수행하는 전자 장치
KR102119678B1 (ko) * 2018-08-08 2020-06-08 주식회사 넥스트칩 차선 검출 방법 및 그 방법을 수행하는 전자 장치
CN115588131A (zh) * 2022-09-30 2023-01-10 北京瑞莱智慧科技有限公司 模型鲁棒性检测方法、相关装置及存储介质
CN115588131B (zh) * 2022-09-30 2024-02-06 北京瑞莱智慧科技有限公司 模型鲁棒性检测方法、相关装置及存储介质

Also Published As

Publication number Publication date
JP6126849B2 (ja) 2017-05-10

Similar Documents

Publication Publication Date Title
US10429193B2 (en) Method and apparatus for generating high precision map
CN110473242B (zh) 一种纹理特征提取方法、纹理特征提取装置及终端设备
Wu et al. Lane-mark extraction for automobiles under complex conditions
CN107392139B (zh) 一种基于霍夫变换的车道线检测方法及终端设备
CN111144337B (zh) 火灾检测方法、装置及终端设备
US20160343143A1 (en) Edge detection apparatus, edge detection method, and computer readable medium
CN113988112B (zh) 车道线的检测方法、装置、设备及存储介质
CN112052782A (zh) 基于环视的停车位识别方法、装置、设备及存储介质
US20130286207A1 (en) Imaging apparatus, imaging processing method, image processing device and imaging processing system
JP6126849B2 (ja) 車線識別装置および車線識別方法
JP7236857B2 (ja) 画像処理装置および画像処理方法
CN110035281B (zh) 一种坏点检测方法、装置及电子设备
JP6375911B2 (ja) カーブミラー検出装置
JP5091897B2 (ja) 停止線検出装置
CN111222446A (zh) 人脸识别方法、人脸识别装置及移动终端
JP2017174380A (ja) 認識装置、物体の認識方法、プログラム、及び、記憶媒体
CN111126248A (zh) 一种遮挡下的车辆识别方法及装置
US11842544B2 (en) Automatic perspective transformation
CN113744200B (zh) 一种摄像头脏污检测方法、装置及设备
JP6492603B2 (ja) 画像処理装置、システム、画像処理方法、およびプログラム
JP2018072884A (ja) 情報処理装置、情報処理方法およびプログラム
CN112364693A (zh) 基于双目视觉的障碍识别方法、装置、设备及存储介质
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
CN113115012B (zh) 图像处理方法及相关装置
JP5867207B2 (ja) 画像処理装置、画像処理システム及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170410

R150 Certificate of patent or registration of utility model

Ref document number: 6126849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150