JP2004310522A - Vehicular image processor - Google Patents

Vehicular image processor Download PDF

Info

Publication number
JP2004310522A
JP2004310522A JP2003104206A JP2003104206A JP2004310522A JP 2004310522 A JP2004310522 A JP 2004310522A JP 2003104206 A JP2003104206 A JP 2003104206A JP 2003104206 A JP2003104206 A JP 2003104206A JP 2004310522 A JP2004310522 A JP 2004310522A
Authority
JP
Japan
Prior art keywords
line
vehicle
lane
edge
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003104206A
Other languages
Japanese (ja)
Inventor
Mitsuhiko Morita
光彦 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2003104206A priority Critical patent/JP2004310522A/en
Publication of JP2004310522A publication Critical patent/JP2004310522A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicular image processor that increases recognition accuracy for a road with a plurality of white lines drawn, in a vehicular image processor for recognizing a traffic lane on which one's own vehicle is traveling by image recognition. <P>SOLUTION: Road division lines of a traffic lane on which one's own vehicle is traveling is detected by edge extraction from an image acquired by an imaging means mounted on the vehicle. In this case, if by the edge extraction a plurality of road division line candidates are detected on one side of the traffic lane, edge periods of the respective candidates are compared and the candidate that gives a closest continuous line is determined as a road division line. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、自車両の走行する車線を認識するための車両用画像処理装置に関する。
【0002】
【従来の技術】
設定された車線上を自動的に走行する自動走行装置や、車両の車線からの不用意な逸脱を警告したり、逸脱後の衝突を予想して乗員を保護するシステムを作動させる技術等の開発が進められている。こうした技術においては、自車両の走行すべき車線を正確に認識する必要があり、そのための技術として、車両進行方向の映像を取得して、画像認識によって車線を区画する境界線(白線)を検出する装置が知られている(例えば、特許文献1参照)。
【0003】
この技術は、路面画像中の明から暗に変化するエッジ点と、暗から明に変化するエッジ点をそれぞれ検出し、これらをハフ変換してハフ空間中からこれらのエッジ点それぞれに対応するピークをペアとして探索することにより白線を検出するものである。これによって、複雑な形状、例えば、道路上に二重白線が存在する場合であっても、白線位置を正確に検出することができる、と記載されている。
【0004】
【特許文献1】
特開平11−85999号公報(段落0056〜0059、図3)
【0005】
【発明が解決しようとする課題】
しかしながら、この特許文献1の技術では、道路上の白線検出精度は向上するが、複数の白線を検出した場合に、それらをどのように区別すべきか、どの白線を道路区画線として認識すべきかについては記載されていない。
【0006】
そこで本発明は、自車が走行する車線を画像認識によって認識する車両用画像処理装置において、道路に複数の白線が描かれている場合の認識精度を向上させた車両用画像処理装置を提供することを課題とする。
【0007】
【課題を解決するための手段】
上記課題を解決するため、本発明に係る車両用画像処理装置は、車両に搭載された撮像手段によって取得した画像中からエッジ抽出によって自車の走行する車線の道路区画線を検出する車両用画像処理装置において、エッジ抽出によって車線の片側に複数の候補が検出された場合には、エッジ周期を比較して最も連続線に近い候補を道路区画線と判定することを特徴とする車両用画像処理装置。
【0008】
自車両が走行している車線の区画線が二重白線だった場合、一方が本来の区画線であって、他方は視線誘導線等の補助線である。そして、補助線と本来の区画線とを視覚上区別可能とするため、補助線側は破線等の不連続線とされている。したがって、エッジ検出で検出された複数の線(候補)のうち最も連続線に近い線を選択することで、本来の区画線を選別することができる。
【0009】
所定周期中で最もエッジ間隔の短い候補を最も連続線に近いと判定することが好ましい。あるいは、破線周期を比較して破線周期の最も長い候補を最も連続線に近いと判定することが好ましい。連続線に近い線ほどエッジ間隔は短く、破線周期は長くなる。したがって、エッジ間隔あるいは破線周期を比較することで複数の線の中から最も連続線に近い線を選択することができる。
【0010】
【発明の実施の形態】
以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。
【0011】
図1は、本発明に係る車両用画像処理装置を含む車両制御装置のブロック構成図であり、図2は、それを搭載した車両を示す斜視図である。この車両制御装置100は、車両前方の画像を取得する前方カメラ11と、この前方カメラ11で取得した画像から画像処理により車両の前方進路上の白線を認識する白線認識ECU1(本発明に係る車両用画像処理装置を含む。)と、を備える。白線認識ECU1には、ヨーレートセンサ12、舵角センサ13、車速センサ14の出力信号が入力されており、白線認識ECU1の認識結果は、車内LAN2を介してPCS(Pre−Crash Safety)システム3、逸脱警報システム4、レーンキープシステム5等に送られる。これらPCSシステム3、逸脱警報システム4、レーンキープシステム5の詳細については、後述する。車内LAN2を介することなく、同一のECU内に機能をまとめてもよい。
【0012】
前方カメラ11は、図2に示されるように車両200のフロントウィンドウ上部(例えば、バックミラーの裏側)に配置されており、車両200前方の画像、つまり、車両前方の走行レーン300の画像(区画線301を含む。)を取得するものである。なお、前方カメラ11は、前方画像が取り込める場所であれば、車体のどの位置に設けても問題ない。
【0013】
図3(a)(b)は、この前方カメラ11で取得した画像の例を示す図である。図3(a)に示される走行レーン300は、両側を区画線301R、301Lにより区画され、運転者が区画線301R、301Lを容易に視認できるよう、その内側に視線誘導線302R、302Lが各区画線301R、301Lに並行して設けられている。また、図3(b)に示される走行レーン300も、両側を区画線301R、301Lにより区画されているが、区画線301Rの内側に、右側から車両が合流してくることを示す合流線303が並行して設けられている。いずれの場合でも、本来の区画線301R、301Lは連続線であり、視線誘導線302R、302Lや合流線303は、不連続線とされる。これらは、通常白色に塗装されているため、以下、塗装部分を白線と称するが、白色以外に黄色に塗装されている場合や鋲、ブロック等により区画されている場合もこの白線に含まれる。なお、区画線301R、301Lは不連続線である場合もあるが、その場合も視線誘導線302R、302Lや合流線303(以下、これらをまとめて称するときは、他の道路上の白線と称する。)と容易に区別できるよう、区画線301R、301L側の白線部分の長さは、他の道路上の白線より長く、その白線部分の間隔も他の道路上の白線より短く設定されている。言い換えると、本来の区画線のほうが他の白線より連続線に近い形状を有している。
【0014】
以下、取得画像から画像処理によって区画線301R、301L位置を認識する処理について具体的に説明する。図4は、この画像処理の処理フローであり、図5〜図8はその処理内容を説明する図である。以下に説明する処理は、特に記載のない限り、白線認識ECU1によって行われる。
【0015】
まず、前方カメラ11によって図5に示されるような画像が取得される(ステップS1)。この画像中には、左右の区画線301L、301Rとその内側に設けられた視線誘導線302L、302Rが含まれる。
【0016】
取得した画像は、AD変換により、所定の画素数(例えば、図5の横方向をx方向、縦方向をy方向として、x×yが320×240画素とする。)のモノクロ階調(例えば8階調)のデジタル画像データに変換されて白線認識ECU1に送られる(ステップS2)。もちろん、所定の画素数、階調を有するデジタルデータを直接出力可能なデジタルカメラを前方カメラ11に用いてもよく、前方カメラ11のアナログ出力を白線認識ECU1内部でAD変換してもよい。変換されたデジタル画像は、図5に示されるアナログ画像と実質的には同一である。
【0017】
次に、白線認識ECU1は、受信したデジタル画像をエッジ抽出処理することによって画像内の白線候補を抽出する(ステップS3)。例えば、画像内の平均輝度をしきい値とし、左側の画素の輝度がしきい値未満で右側の画素の輝度がしきい値以上の画素をエッジとして抽出する。これにより、白線(区画線301L、301Rと視線誘導線302L、302Rの両方を含む。)の左側境界線に対応する位置の画素位置が抽出される。エッジ抽出はこれに限られるものではなく、例えば、左側の画素との輝度の差がしきい値以上となる画素をエッジとして抽出してもよい。これらは暗から明に変化するエッジを抽出することで白線の左側境界線に対応する位置の画素位置を抽出するものであったが、逆に明から暗に変化するエッジを抽出することで白線の右側境界線に対応する位置の画素位置を抽出してもよい。
【0018】
図6は、この抽出されたエッジ位置を元画像に重ね合わせて示している。黒丸が抽出されたエッジ位置であり、破線は、Y方向の画素位置を示している。以下、ハッチングのついた丸で囲まれた領域のエッジ、すなわち、区画線301Lと視線誘導線302Lに対応する抽出エッジ画素を対象に説明する。
【0019】
取得された走行レーン300の画像は、走行レーン300を前方カメラ11の画像面に投影したものである。これに対して、実際に求めたい区画線301L、301Rの位置は、走行レーン300上の車両に対する位置である。そこで、幾何変換によって、車両を原点(0,0)として、X軸方向に横方向(車両から見て右方向がプラスとなる。)を、Y軸方向に車両からの距離(数値が大きいほど前方、つまり車両から離れていることを示す。)を採って表した走行平面上のエッジ画素位置に対応する位置を求める(ステップS4)。この幾何変換は、前方カメラ11の取り付け位置、撮像方向、撮像領域を基にして行うことができる。なお、車体の傾き等を複数の車高センサで検出することにより、撮像方向等の補正を行ってもよい。また、前方カメラ11の撮像系の光学的な収差等に起因する画像の歪曲についても補正を行うことが好ましい。図7は、こうして幾何変換によって得られた区画線301Lと視線誘導線302Lに対応する抽出エッジ画素の車両に対する位置を示している。
【0020】
次に、幾何変換した結果をハフ変換することで、直線抽出を行う(ステップS5)。具体的には、抽出したエッジ点の走行平面上の位置を(x,y)で表すとき、各エッジ点に対して、傾きθを0度から180度まで所定の角度Δθごとに変更し、それぞれのθに対応するρ=xcosθ+ysinθとなるρを求める。そして、このようにして求めた(ρ,θ)が、ハフ空間を所定間隔ごとに区切った領域のどの領域内に位置するかを探索し、探索した領域に投票する。つまり、各領域の投票数とは、この領域にエッジ点のハフ変換結果が存在する個数を示していることになる。この投票は、走行レーン300の左側と右側とで分けて行うことが好ましい。走行レーン300の左右の分割を行うのに必要とされる走行レーン300の中心線の把握は、これまでのレーン認識結果や車両の進行方向、ヨーレート、舵角等を参照することで行うことができる。図8は、こうして得られた走行レーン300の左側のハフ変換領域内の投票結果を示している。
【0021】
投票数が複数ある(ρ,θ)領域がエッジ点から抽出された直線(途中断続している場合にも1本の線として抽出される。)を示している。この直線は(x,y)平面上では、y=ρ/sinθ−x×cosθ/sinθに対応する。ここで、投票結果が多い(ρ,θ)ほど多くのエッジ点が近接している直線を示すことになる。ノイズの影響等を考えて閾値(3、好ましくは )以上の投票数を有する直線を抽出結果(白線候補)とする(ステップS6)。そして、走行レーン300の片側に存在する白線候補の数を調べる(ステップS7)。白線候補が一つだけの場合には、その候補を区画線として位置情報を出力する(ステップS11)。走行レーン300の片側に白線候補が複数存在する場合には、白線候補内の区画線選別処理に移る。
【0022】
ここで、区画線301L(301R)とその内側に設けられた視線誘導線302L(302R)とは並行に設けられているから、両者のエッジから抽出される直線の傾きθは同一となる。さらに、連続線に近いほどエッジ点が多く検出されることから、これは、ハフ変換の対象領域中においてエッジ周期が短いことを意味する。その投票数は多くなる。そのため、同一の傾きで投票数が最大の白線候補が、並行して走る白線候補のうちでは最も連続線に近いと判定し得る。そこで、白線候補が複数存在する場合には、抽出された白線候補同士の投票数、傾きを比較して、傾きの差が閾値以内に属するグループのうちでは、投票数が最大のものを白線候補として残し、他を白線候補から除外する(ステップS8)。そして、再び、残った白線候補の数を調べる(ステップS9)。グループが1つで、残った白線候補が1つの場合には、その候補を区画線として位置情報を出力する(ステップS11)。
【0023】
グループが複数存在する場合には、区画線と交差し得る線を認識した場合と考えられる。こうした交差し得る線からの白線候補の選択は、それまでの認識結果との比較や車両の進行方向や走行レーン300の反対側の区画線情報との比較(通常、走行レーン300の両側の区画線301R、301Lも並行に配置される。)により行う(ステップS10)。こうして白線候補が一つに絞られたらステップS11へと移行して、その候補を区画線として位置情報を出力する。
【0024】
本発明によれば、本来の区画線に他の白線が並行して設けられている場合でも、区画線を自動的に選別して認識することができるため、区画線の認識精度が向上する。このため、車線情報を利用した各種の車両制御も精度良く行うことが可能となる。また、区画線が連続線でない場合や、エッジ抽出時に連続している区画線を不連続線と認識した場合であっても、区画線の選別精度を維持しうる利点がある。
【0025】
上述の説明では、幾何変換した領域の全てを対象としてハフ変換を実施したが、ハフ変換を行う領域を車両前方の所定の領域に限定してもよい(図9参照)。ここでは、ハフ変換を行う対象領域を制御周期と称している。そして、各エッジ間の間隔がエッジ周期に該当する。この制御周期は、例えば、車速センサ14の出力を基にしてt1〜t2秒後に車両が到達しうる領域とすればよい。このようにしてハフ変換の対象となる領域を限定することにより、エッジ周期の比較が確実に行えることになり、白線候補が車両に近い位置のみに複数存在するような場合でも正確な検出を行うことができる。
【0026】
以上の説明では、並行する白線候補の中から最も投票数の多い白線候補を区画線として選択する例を説明したが、白線候補の選択方法はこれに限られるものではない。
【0027】
図10は、この選別処理の別の形態を示す処理フローであり、図11はその処理の説明図である。この処理では、図4に示される処理のステップS8の処理を置き換えたものである。まず、ステップS21では、ハフ変換結果を(x,y)平面上に投影し、さらにこれを前方カメラ11の画像面への投影へと幾何変換する(ステップS4の幾何変換の逆になることから、以下、逆幾何変換と称する。)ことで、図11に示されるような画像を得る。これは、図6に示されるエッジ抽出画像中に白線候補線を描いた画像に相当する。
【0028】
次に、同一白線候補線上の各エッジ点(所定の範囲内に近接するエッジ点も含む。)について、エッジ周期(隣接するエッジ点との間隔)を求める。具体的には、Y座標方向の距離、つまりY座標の隣接エッジ点間での差分を求める(ステップS22)。連続線からエッジ抽出した場合には、エッジ点間のY座標方向の距離は1画素になる。これに対して、不連続線である場合には、線が途切れている部分にはエッジ点が存在しないため、同じ白線候補上の隣接エッジ点間のY座標方向の距離、つまり、差分が大きくなる場所が存在する。この差分は、塗装部間の間隔が広いほど大きくなり、塗装部分の長さが短いほど、この差分が大きくなる場所が高い頻度で現れる。したがって、白線候補間で変化の大きい差分(例えば、隣接エッジ間のY座標方向の距離が3画素以上)の個数(差分発生頻度)、差分の大きさ(隣接エッジ間のY座標方向の最大値または平均値)を比較し、差分発生頻度が低く、発生頻度が同程度の場合にはより差分の小さい白線候補が連続線に近いと判定し、それ以外を白線候補から除外する(ステップS23)。こうして白線候補が一つに絞られたらステップS8へと移行して、その候補を区画線として位置情報を出力する。
【0029】
この場合も、上述の場合と同様に、差分を比較する領域を所定の範囲に限定してもよい。また、隣接エッジとの差分が大きな領域にはさまれた領域を塗装部とみて、この塗装部に含まれるエッジ点の数(塗装部の長さに相当する)を比較することにより、連続線に近い線を白線候補中から絞り込んでもよい。この場合、白線候補の所定範囲内に差分が大きくなる領域が存在しない場合(連続線である場合)には、この白線候補においては所定範囲中に含まれる全てのエッジの数が塗装部に含まれるエッジの数として算出される。
【0030】
次に、こうして得られた白線情報を利用した本発明に係る車両制御装置における車両制御について説明する。図12〜図14は、図1に示されるPCSシステム3、逸脱警報システム4、レーンキープシステム5それぞれのブロック構成図である。
【0031】
まず、図12に示されるPCSシステム3から説明する。このPCSシステムは、制動力を制御する制動系32、運転者の操舵力にアシスト力を付与するステアリングアシストモータ33、シートベルトの巻き上げを行うシートベルトプリテンショナー34、乗員保護用のエアバッグ35と、これらの制御を行うPCS・ECU31を備えており、PCS・ECU31には先行車両や障害物を検出するレーザレーダ16のほか、ヨーレートセンサ12、舵角センサ13、車速センサ14と、ブレーキペダルの操作、非操作状態を検出するためのブレーキペダルスイッチ15の出力が入力されている。
【0032】
PCS・ECU31は、車線認識ECU1から送られた車線情報(白線情報)と、各センサ12〜15およびレーザレーダ16の出力を基にして、自車両の進路上の先行車両、障害物を検知し、衝突可能性を予測する。そして、衝突不可避と判定したら、制動系32に指示してブレーキ操作時に付与されるアシスト力を予め増大する設定に切り替えることで、運転者が危険を察知してブレーキペダルを操作した際に、大きな制動力が得られるようにする。
【0033】
また、ステアリングアシストモータ33によるアシスト操舵力を増大させて、運転者がより弱い力で操舵を行えるようにする。必要ならば、自動的に操舵を行い、衝突を回避する。
【0034】
さらに、シートベルトプリテンショナー34によってシートベルトの余分長を衝突前に予め巻き取っておくことで、乗員を座席により強く拘束し、衝突時のダメージを軽減する。また、エアバッグを衝突を検知してからではなく、衝突前後の最適なタイミングで作動させることで、衝突時の乗員へのダメージを軽減する。これらの制御により、衝突が避けられない場合でも、車両、乗員への深刻なダメージを抑制し、衝突のショックを軽減することが可能となる。
【0035】
次に、図13に示される逸脱警報システム4について、説明する。この逸脱警報システム4は、逸脱警報ECU41と、表示用のモニタ装置42と、音声出力用のスピーカー43から構成されており、逸脱警報ECU41には、車線情報(白線情報)と、車速情報、ヨーレート情報が入力されている。
【0036】
逸脱警報ECU41は、車速・ヨーレート情報から自車両の進路を予測し、これと車線情報とを比較する。そして、車線逸脱が予想される場合には、モニタ装置42に車線から逸脱が予想される旨を表示するとともに、スピーカー43により、アラーム音、または音声出力によって警報を発することで、運転者にその旨報知する。
【0037】
続いて、図14に示されるレーンキープシステム5について説明する。このレーンキープシステム5は、レーンキープECU51と、制動力を制御する制動系32と、運転者の操舵力にアシスト力を付与するステアリングアシストモータ33と、トランスミッションの変速状態を変更する変速手段52と、電子制御スロットル53と、を備えており、レーンキープECU51には、先行車両や障害物を検出するレーザレーダ16のほか、ヨーレートセンサ12、舵角センサ13、車速センサ14と、ブレーキペダルの操作、非操作状態を検出するためのブレーキペダルスイッチ15、アクセルペダルの操作量を検出するためのアクセル開度センサ17の各出力が入力されている。
【0038】
このレーンキープシステム5は、現在走行中の走行レーン300内での車両の位置を維持して走行するものである。具体的には、ヨーレートセンサ12、舵角センサ13、車速センサ14の出力から自車両の進路を予測し、これと車線情報を比較することによって、走行レーン300内の走行が維持できているか否かを判定する。そして、前方車線情報を基に、自車と白線位置から自車が白線内を走行するようにステアリングアシストモータ33を制御することで、走行レーン300内の走行を維持する。
【0039】
このように本発明に係る車両用画像処理装置を用いて自車両の走行車線の道路区画線を検出することで、区画線、ひいては走行車線の認識精度が向上し、それを用いた各種の車両の挙動制御を精度良く行うことが可能となる。
【0040】
以上の説明では、ハフ変換で直線を検出する場合のみを例示して説明したが、公知のハフ変換を利用した曲線検出技術を利用すれば、カーブを含む走行レーンの検出が可能である。この場合も複数の白線は並行して描かれているため、上述の手法と同様の手法で区画線の選別が可能となる。
【0041】
【発明の効果】
以上説明したように本発明によれば、エッジ抽出値によって区画線として複数の候補が検出された場合には、エッジの周期を比較して最も連続線に近いと判断される候補を区画線と判定するので、本来の区画線に並行して他の白線が描かれているような場合でも本来の区画線を精度良く認識することが可能となる。
【図面の簡単な説明】
【図1】本発明に係る車両用画像処理装置を含む車両制御装置のブロック構成図である。
【図2】図1の車両制御装置を搭載した車両を示す斜視図である。
【図3】図1、図2の前方カメラ11で取得した画像の例を示す図であり、(a)が視線誘導線付きの車線を、(b)が合流線付きの車線を示している。
【図4】本発明に係る画像処理装置における画像処理の処理フローである。
【図5】前方カメラによって取得した画像の一例である。
【図6】画像処理によって抽出されたエッジ位置を示す図である。
【図7】幾何変換によって得られた抽出エッジ画素の車両に対する位置を示す図である。
【図8】図7のハフ変換領域内の投票結果を示す説明図である。
【図9】ハフ変換の対象領域を限定した場合の対象領域の説明図である。
【図10】図4の処理における選別処理の別の形態を示す処理フローである。
【図11】図10の処理における逆幾何変換を説明する図である。
【図12】図1に示されるPCSシステムのブロック構成図である。
【図13】図1に示される逸脱警報システムのブロック構成図である。
【図14】図1に示されるレーンキープシステムのブロック構成図である。
【符号の説明】
1…白線認識ECU、2…車内LAN、3…PCS(Pre−Crash Safety)システム、4…逸脱警報システム、5…レーンキープシステム、11…前方カメラ、12…ヨーレートセンサ、13…舵角センサ、14…車速センサ、15…ブレーキペダルスイッチ、16…レーザレーダ、17…アクセル開度センサ、31…PCS・ECU、32…制動系、33…ステアリングアシストモータ、34…シートベルトプリテンショナー、35…エアバッグ、41…逸脱警報ECU、42…モニタ装置、43…スピーカー、51…レーンキープECU、52…変速手段、53…電子制御スロットル、100…車両制御装置、200…車両、300…走行レーン、301…区画線、302…視線誘導線、303…合流線。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicular image processing device for recognizing a lane in which a vehicle travels.
[0002]
[Prior art]
Development of automatic driving equipment that automatically runs on the set lane, technology to warn of inadvertent departure from the lane of the vehicle, and to activate a system that protects occupants by predicting collision after departure Is being promoted. In such a technique, it is necessary to accurately recognize the lane in which the host vehicle should travel. As a technique for this, an image in the traveling direction of the vehicle is acquired, and a boundary line (white line) that separates the lane is detected by image recognition. There is known an apparatus for performing such processing (for example, see Patent Document 1).
[0003]
This technology detects an edge point that changes from light to dark and an edge point that changes from dark to light in a road surface image, and performs a Hough transform on them to obtain peaks corresponding to each of these edge points from the Hough space. Are detected as a pair to detect a white line. This describes that the position of a white line can be accurately detected even if the road has a complicated shape, for example, a double white line on a road.
[0004]
[Patent Document 1]
JP-A-11-85999 (paragraphs 0056 to 0059, FIG. 3)
[0005]
[Problems to be solved by the invention]
However, in the technique of Patent Document 1, although the accuracy of detecting white lines on a road is improved, when a plurality of white lines are detected, how to distinguish them, and which white line should be recognized as a road division line. Is not listed.
[0006]
Accordingly, the present invention provides a vehicular image processing device that recognizes a lane in which a vehicle is traveling by image recognition and that has improved recognition accuracy when a plurality of white lines are drawn on a road. That is the task.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problems, a vehicular image processing apparatus according to the present invention provides a vehicular image processing device that detects a road lane marking of a lane in which a vehicle travels by extracting edges from an image acquired by an imaging unit mounted on the vehicle. In the processing apparatus, when a plurality of candidates are detected on one side of a lane by edge extraction, the edge cycle is compared, and a candidate closest to a continuous line is determined as a road division line. apparatus.
[0008]
If the lane in which the vehicle is traveling is a double white line, one of the lanes is the original lane line, and the other is an auxiliary line such as a gaze guidance line. The auxiliary line is a discontinuous line such as a broken line so that the auxiliary line and the original division line can be visually distinguished. Therefore, by selecting the line closest to the continuous line from the plurality of lines (candidates) detected by the edge detection, the original division line can be selected.
[0009]
It is preferable to determine that the candidate having the shortest edge interval in the predetermined cycle is closest to the continuous line. Alternatively, it is preferable to compare the dashed line periods and determine that the candidate with the longest dashed line period is closest to the continuous line. The closer the line is to the continuous line, the shorter the edge interval and the longer the broken line period. Therefore, the line closest to the continuous line can be selected from the plurality of lines by comparing the edge interval or the broken line period.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate understanding of the description, the same components are denoted by the same reference numerals as much as possible in each drawing, and redundant description is omitted.
[0011]
FIG. 1 is a block diagram of a vehicle control device including a vehicle image processing device according to the present invention, and FIG. 2 is a perspective view showing a vehicle equipped with the same. The vehicle control device 100 includes a front camera 11 that acquires an image in front of the vehicle, and a white line recognition ECU 1 that recognizes a white line on the front course of the vehicle by image processing from the image acquired by the front camera 11 (the vehicle according to the present invention). Image processing device). Output signals of the yaw rate sensor 12, the steering angle sensor 13, and the vehicle speed sensor 14 are input to the white line recognition ECU 1, and the recognition result of the white line recognition ECU 1 is transmitted to the PCS (Pre-Crash Safety) system 3, via the in-vehicle LAN 2, It is sent to the departure warning system 4, the lane keeping system 5, and the like. Details of the PCS system 3, the departure warning system 4, and the lane keeping system 5 will be described later. The functions may be integrated in the same ECU without using the in-vehicle LAN 2.
[0012]
The front camera 11 is disposed above a front window of the vehicle 200 (for example, behind a rearview mirror) as shown in FIG. 2, and an image in front of the vehicle 200, that is, an image of a traveling lane 300 in front of the vehicle (section). (Including the line 301). The front camera 11 may be provided at any position on the vehicle body as long as the front image can be captured.
[0013]
FIGS. 3A and 3B are diagrams illustrating examples of images acquired by the front camera 11. The traveling lane 300 shown in FIG. 3A is divided on both sides by demarcation lines 301R and 301L, and gaze guidance lines 302R and 302L are provided inside the lane so that the driver can easily recognize the lane markings 301R and 301L. It is provided in parallel with the dividing lines 301R and 301L. The traveling lane 300 shown in FIG. 3B is also divided on both sides by the dividing lines 301R and 301L, but the merging line 303 indicating that the vehicle joins from the right side inside the dividing line 301R. Are provided in parallel. In any case, the original division lines 301R and 301L are continuous lines, and the line-of-sight guidance lines 302R and 302L and the merging line 303 are discontinuous lines. Since these are usually painted white, hereinafter, the painted portion is referred to as a white line, but the white line also includes a case where the color is painted yellow other than white and a case where it is partitioned by tacks, blocks, or the like. Note that the division lines 301R and 301L may be discontinuous lines, but also in this case, the line-of-sight guidance lines 302R and 302L and the merging line 303 (hereinafter, collectively referred to as white lines on other roads). ), The length of the white line portions on the division lines 301R and 301L is longer than the white lines on other roads, and the interval between the white line portions is set shorter than the white lines on other roads. . In other words, the original division line has a shape closer to a continuous line than other white lines.
[0014]
Hereinafter, the process of recognizing the positions of the division lines 301R and 301L from the acquired image by image processing will be specifically described. FIG. 4 is a processing flow of this image processing, and FIGS. 5 to 8 are diagrams for explaining the processing contents. The processing described below is performed by the white line recognition ECU 1 unless otherwise specified.
[0015]
First, an image as shown in FIG. 5 is obtained by the front camera 11 (step S1). This image includes left and right division lines 301L and 301R and gaze guidance lines 302L and 302R provided inside the division lines.
[0016]
The acquired image is subjected to AD conversion to obtain a predetermined number of pixels (for example, the horizontal direction in FIG. 5 is the x direction, the vertical direction is the y direction, and x × y is 320 × 240 pixels) (for example, monochrome gray scale). The image data is converted into digital image data (8 gradations) and sent to the white line recognition ECU 1 (step S2). Of course, a digital camera capable of directly outputting digital data having a predetermined number of pixels and gradation may be used for the front camera 11, and the analog output of the front camera 11 may be AD-converted inside the white line recognition ECU 1. The converted digital image is substantially identical to the analog image shown in FIG.
[0017]
Next, the white line recognition ECU 1 extracts a white line candidate from the received digital image by performing edge extraction processing on the image (step S3). For example, a pixel whose luminance on the left side is lower than the threshold value and whose luminance on the right side pixel is equal to or higher than the threshold value is extracted as an edge, using the average luminance in the image as a threshold value. As a result, a pixel position corresponding to the left boundary of the white line (including both the division lines 301L and 301R and the line-of-sight guidance lines 302L and 302R) is extracted. The edge extraction is not limited to this. For example, a pixel whose luminance difference from the left pixel is equal to or larger than a threshold may be extracted as an edge. These were to extract the pixel position at the position corresponding to the left boundary line of the white line by extracting the edge that changes from dark to light. Conversely, by extracting the edge that changes from light to dark, the white line was extracted. May be extracted as the pixel position corresponding to the right boundary line of.
[0018]
FIG. 6 shows the extracted edge position superimposed on the original image. Black circles indicate the extracted edge positions, and broken lines indicate pixel positions in the Y direction. Hereinafter, an explanation will be given of the edge of the area surrounded by the hatched circle, that is, the extracted edge pixels corresponding to the division line 301L and the visual line 302L.
[0019]
The acquired image of the traveling lane 300 is obtained by projecting the traveling lane 300 on the image plane of the front camera 11. On the other hand, the positions of the lane markings 301L and 301R that are actually desired are positions with respect to the vehicle on the traveling lane 300. Therefore, by means of geometric transformation, with the vehicle as the origin (0, 0), the horizontal direction in the X-axis direction (the right direction as viewed from the vehicle is positive) is changed to the distance from the vehicle in the Y-axis direction (the larger the numerical value, the larger the value). A position corresponding to the edge pixel position on the traveling plane, which is expressed by taking forward (that is, being away from the vehicle), is obtained (step S4). This geometric transformation can be performed based on the mounting position of the front camera 11, the imaging direction, and the imaging area. Note that the image pickup direction and the like may be corrected by detecting the inclination of the vehicle body and the like with a plurality of vehicle height sensors. In addition, it is preferable that the image distortion caused by the optical aberration of the imaging system of the front camera 11 is also corrected. FIG. 7 shows the positions of the extracted edge pixels corresponding to the division line 301L and the line-of-sight guidance line 302L obtained by the geometric transformation in this way with respect to the vehicle.
[0020]
Next, straight line extraction is performed by performing Hough transformation on the result of the geometric transformation (step S5). Specifically, when the position of the extracted edge point on the traveling plane is represented by (x, y), the inclination θ is changed from 0 degree to 180 degrees for each edge point at a predetermined angle Δθ, Ρ corresponding to each θ is obtained as ρ = xcos θ + ysin θ. Then, the (ρ, θ) obtained in this manner is searched for in which of the areas divided at predetermined intervals in the Huff space, and a vote is made on the searched area. In other words, the number of votes in each area indicates the number of Hough transform results of edge points in this area. This voting is preferably performed separately for the left side and the right side of the traveling lane 300. The center line of the driving lane 300 required to perform the left and right division of the driving lane 300 can be grasped by referring to the lane recognition results, the traveling direction of the vehicle, the yaw rate, the steering angle, and the like. it can. FIG. 8 shows a voting result in the Hough transform area on the left side of the traveling lane 300 obtained in this manner.
[0021]
A (ρ, θ) region having a plurality of votes is shown as a straight line extracted from an edge point (even if the region is intermittent, it is also extracted as one line). This straight line corresponds to y = ρ / sin θ−x × cos θ / sin θ on the (x, y) plane. Here, the larger the voting result (ρ, θ), the closer the edge point is to a straight line. Considering the influence of noise and the like, a straight line having the number of votes equal to or more than a threshold value (3, preferably) is set as an extraction result (white line candidate) (step S6). Then, the number of white line candidates existing on one side of the traveling lane 300 is checked (step S7). If there is only one white line candidate, position information is output using that candidate as a dividing line (step S11). If there are a plurality of white line candidates on one side of the traveling lane 300, the process proceeds to the lane line selection processing within the white line candidates.
[0022]
Here, since the division line 301L (301R) and the line-of-sight guidance line 302L (302R) provided inside are provided in parallel, the inclination θ of the straight line extracted from both edges is the same. Furthermore, since more edge points are detected closer to the continuous line, this means that the edge period is shorter in the Hough transform target area. The number of votes increases. Therefore, it can be determined that the white line candidate with the same inclination and the largest number of votes is closest to the continuous line among the white line candidates running in parallel. Therefore, when there are a plurality of white line candidates, the number of votes and the inclination of the extracted white line candidates are compared, and among the groups whose difference in inclination falls within the threshold value, the group with the largest number of votes is determined as the white line candidate. , And the others are excluded from white line candidates (step S8). Then, the number of remaining white line candidates is checked again (step S9). When there is one group and one remaining white line candidate, position information is output using the candidate as a dividing line (step S11).
[0023]
When there are a plurality of groups, it is considered that a line that can intersect with the division line is recognized. Selection of a white line candidate from such intersecting lines is performed by comparing with a recognition result up to that time, and comparing with a traveling direction of a vehicle or lane line information on the opposite side of the traveling lane 300 (usually, a section on both sides of the traveling lane 300). The lines 301R and 301L are also arranged in parallel.) (Step S10). When the number of white line candidates is reduced to one in this manner, the process proceeds to step S11, and position information is output using the candidates as demarcation lines.
[0024]
According to the present invention, even when another white line is provided in parallel with the original marking line, the marking line can be automatically selected and recognized, so that the recognition accuracy of the marking line is improved. For this reason, various vehicle controls using the lane information can be performed with high accuracy. Further, even when the lane markings are not continuous lines, or when the lane markings that are continuous during edge extraction are recognized as discontinuous lines, there is an advantage that the lane marking selection accuracy can be maintained.
[0025]
In the above description, the Hough transform is performed on all the geometrically transformed areas, but the area where the Hough transform is performed may be limited to a predetermined area in front of the vehicle (see FIG. 9). Here, the target area where the Hough transform is performed is called a control cycle. The interval between the edges corresponds to the edge period. This control cycle may be, for example, an area where the vehicle can reach after t1 to t2 seconds based on the output of the vehicle speed sensor 14. By limiting the region to be subjected to the Hough transform in this manner, the edge cycle can be reliably compared, and accurate detection can be performed even when a plurality of white line candidates exist only at positions close to the vehicle. be able to.
[0026]
In the above description, an example in which the white line candidate with the largest number of votes is selected as the division line from the parallel white line candidates has been described, but the method of selecting the white line candidate is not limited to this.
[0027]
FIG. 10 is a processing flow showing another form of the selection processing, and FIG. 11 is an explanatory diagram of the processing. In this process, the process of step S8 of the process shown in FIG. 4 is replaced. First, in step S21, the result of the Hough transform is projected on the (x, y) plane, and this is geometrically transformed into the projection on the image plane of the front camera 11 (since the geometric transformation is the reverse of the geometric transformation in step S4). , Hereinafter referred to as an inverse geometric transformation) to obtain an image as shown in FIG. This corresponds to an image in which a white line candidate line is drawn in the edge extraction image shown in FIG.
[0028]
Next, for each edge point on the same white line candidate line (including an edge point that is close to a predetermined range), an edge cycle (interval between adjacent edge points) is determined. Specifically, a distance in the Y coordinate direction, that is, a difference between adjacent edge points of the Y coordinate is obtained (step S22). When edges are extracted from a continuous line, the distance between edge points in the Y coordinate direction is one pixel. On the other hand, in the case of a discontinuous line, since there is no edge point in a portion where the line is interrupted, the distance in the Y coordinate direction between adjacent edge points on the same white line candidate, that is, the difference is large. There exists a place. This difference increases as the distance between the coating portions increases, and the frequency at which the difference increases increases as the length of the coating portion decreases. Therefore, the number of differences (for example, the distance in the Y coordinate direction between adjacent edges is 3 pixels or more) between the white line candidates (the difference occurrence frequency) and the magnitude of the difference (the maximum value in the Y coordinate direction between adjacent edges) Or the average value), and when the frequency of occurrence of the difference is low and the frequency of occurrence is almost the same, it is determined that the white line candidate having a smaller difference is close to a continuous line, and the other is excluded from the white line candidates (step S23). . When the number of white line candidates is reduced to one in this way, the process proceeds to step S8, and position information is output using the candidates as partition lines.
[0029]
Also in this case, as in the case described above, the area for comparing the differences may be limited to a predetermined range. In addition, a region sandwiched between regions having a large difference from an adjacent edge is regarded as a painted portion, and the number of edge points (corresponding to the length of the painted portion) included in the painted portion is compared to form a continuous line. May be narrowed down from the white line candidates. In this case, when there is no region where the difference is large within the predetermined range of the white line candidate (when the region is a continuous line), the number of all the edges included in the predetermined range is included in the painted portion in the white line candidate. Calculated as the number of edges to be processed.
[0030]
Next, vehicle control in the vehicle control device according to the present invention using the white line information thus obtained will be described. 12 to 14 are block diagrams of the PCS system 3, the departure warning system 4, and the lane keeping system 5 shown in FIG.
[0031]
First, the PCS system 3 shown in FIG. 12 will be described. The PCS system includes a braking system 32 for controlling a braking force, a steering assist motor 33 for applying an assisting force to a driver's steering force, a seat belt pretensioner 34 for winding up a seat belt, and an airbag 35 for occupant protection. And a PCS / ECU 31 for performing these controls. The PCS / ECU 31 has a laser radar 16 for detecting a preceding vehicle and an obstacle, a yaw rate sensor 12, a steering angle sensor 13, a vehicle speed sensor 14, and a brake pedal. The output of the brake pedal switch 15 for detecting the operation or non-operation state is input.
[0032]
The PCS / ECU 31 detects a preceding vehicle and an obstacle on the course of the own vehicle based on lane information (white line information) sent from the lane recognition ECU 1 and outputs of the sensors 12 to 15 and the laser radar 16. Predict the likelihood of a collision. When it is determined that a collision is inevitable, the braking system 32 is instructed to switch to a setting in which the assist force applied during the brake operation is increased in advance, so that when the driver senses a danger and operates the brake pedal, a large force is applied. Make sure that braking force is obtained.
[0033]
Further, the assist steering force by the steering assist motor 33 is increased so that the driver can perform steering with a weaker force. If necessary, steer automatically to avoid collision.
[0034]
Further, by winding the extra length of the seat belt in advance by the seat belt pretensioner 34 before the collision, the occupant is more strongly restrained by the seat and the damage at the time of the collision is reduced. In addition, by operating the airbag at an optimal timing before and after the collision, not after detecting the collision, damage to the occupant at the time of the collision is reduced. With these controls, even when a collision cannot be avoided, it is possible to suppress serious damage to the vehicle and the occupant and reduce the shock of the collision.
[0035]
Next, the departure warning system 4 shown in FIG. 13 will be described. The departure warning system 4 includes a departure warning ECU 41, a monitor device 42 for display, and a speaker 43 for sound output. The departure warning ECU 41 has lane information (white line information), vehicle speed information, yaw rate, and the like. Information has been entered.
[0036]
The departure warning ECU 41 predicts the course of the host vehicle from the vehicle speed / yaw rate information and compares this with the lane information. When the vehicle is expected to depart from the lane, a message indicating that the vehicle is expected to deviate from the lane is displayed on the monitor device 42, and an alarm is generated by the speaker 43 to generate an alarm sound or sound output. Notify to the effect.
[0037]
Subsequently, the lane keeping system 5 shown in FIG. 14 will be described. The lane keeping system 5 includes a lane keeping ECU 51, a braking system 32 for controlling a braking force, a steering assist motor 33 for applying an assisting force to a driver's steering force, and a speed changing means 52 for changing a transmission shift state. The lane keeping ECU 51 includes a laser radar 16 for detecting a preceding vehicle and an obstacle, a yaw rate sensor 12, a steering angle sensor 13, a vehicle speed sensor 14, and operation of a brake pedal. The outputs of a brake pedal switch 15 for detecting a non-operation state and an accelerator opening sensor 17 for detecting an operation amount of an accelerator pedal are input.
[0038]
The lane keeping system 5 travels while maintaining the position of the vehicle in the traveling lane 300 currently traveling. Specifically, by predicting the course of the host vehicle from the outputs of the yaw rate sensor 12, the steering angle sensor 13, and the vehicle speed sensor 14, and comparing this with the lane information, it is determined whether traveling in the traveling lane 300 has been maintained. Is determined. Then, based on the front lane information, the steering assist motor 33 is controlled so that the own vehicle travels within the white line from the position of the own vehicle and the white line, so that the traveling in the traveling lane 300 is maintained.
[0039]
As described above, by detecting the lane marking of the traveling lane of the vehicle using the image processing apparatus for a vehicle according to the present invention, the recognition accuracy of the lane marking, and thus the traveling lane, is improved, and various types of vehicles using the lane marking are improved. Can be controlled accurately.
[0040]
In the above description, only the case where a straight line is detected by Hough transform has been described as an example. However, if a known curve detection technique using Hough transform is used, a traveling lane including a curve can be detected. Also in this case, since the plurality of white lines are drawn in parallel, the division lines can be selected by the same method as described above.
[0041]
【The invention's effect】
As described above, according to the present invention, when a plurality of candidates are detected as demarcation lines based on an edge extraction value, a candidate determined to be closest to a continuous line by comparing the cycle of edges is determined as a demarcation line. Since the determination is made, even when another white line is drawn in parallel with the original division line, the original division line can be accurately recognized.
[Brief description of the drawings]
FIG. 1 is a block diagram of a vehicle control device including a vehicle image processing device according to the present invention.
FIG. 2 is a perspective view showing a vehicle equipped with the vehicle control device of FIG. 1;
FIGS. 3A and 3B are diagrams showing examples of images acquired by the front camera 11 of FIGS. 1 and 2, wherein FIG. 3A shows a lane with a line-of-sight guidance line, and FIG. 3B shows a lane with a merging line; .
FIG. 4 is a processing flow of image processing in the image processing apparatus according to the present invention.
FIG. 5 is an example of an image acquired by a front camera.
FIG. 6 is a diagram showing edge positions extracted by image processing.
FIG. 7 is a diagram showing positions of extracted edge pixels obtained by geometric transformation with respect to a vehicle.
FIG. 8 is an explanatory diagram showing a voting result in the Hough transform area of FIG. 7;
FIG. 9 is an explanatory diagram of a target area when the target area of the Hough transform is limited.
FIG. 10 is a processing flow showing another form of the selection processing in the processing of FIG. 4;
11 is a diagram illustrating the inverse geometric transformation in the process of FIG.
FIG. 12 is a block diagram of the PCS system shown in FIG. 1;
FIG. 13 is a block diagram of the departure warning system shown in FIG. 1;
FIG. 14 is a block diagram of the lane keeping system shown in FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... White line recognition ECU, 2 ... In-vehicle LAN, 3 ... PCS (Pre-Crash Safety) system, 4 ... Departure warning system, 5 ... Lane keep system, 11 ... Front camera, 12 ... Yaw rate sensor, 13 ... Steering angle sensor, 14: vehicle speed sensor, 15: brake pedal switch, 16: laser radar, 17: accelerator opening sensor, 31: PCS / ECU, 32: braking system, 33: steering assist motor, 34: seat belt pretensioner, 35: air Bag, 41: departure warning ECU, 42: monitoring device, 43: speaker, 51: lane keeping ECU, 52: transmission means, 53: electronic control throttle, 100: vehicle control device, 200: vehicle, 300: traveling lane, 301 … Compartment line, 302… gaze guidance line, 303… merge line.

Claims (3)

車両に搭載された撮像手段によって取得した画像中からエッジ抽出によって自車の走行する車線の道路区画線を検出する車両用画像処理装置において、
エッジ抽出によって車線の片側に複数の道路区画線候補が検出された場合には、エッジ周期を比較して最も連続線に近い候補を道路区画線と判定することを特徴とする車両用画像処理装置。
An image processing device for a vehicle that detects a road lane marking of a lane in which the vehicle travels by extracting an edge from an image acquired by an imaging unit mounted on the vehicle,
When a plurality of road lane marking candidates are detected on one side of a lane by edge extraction, an edge cycle is compared, and a candidate closest to a continuous line is determined as a road lane marking. .
所定周期中で最もエッジ間隔の短い候補を最も連続線に近いと判定することを特徴とする請求項1記載の車両用画像処理装置。2. The vehicular image processing apparatus according to claim 1, wherein a candidate having the shortest edge interval in a predetermined cycle is determined to be closest to a continuous line. 破線周期を比較して破線周期の最も長い候補を最も連続線に近いと判定することを特徴とする請求項1記載の車両用画像処理装置。2. The image processing device for a vehicle according to claim 1, wherein the dashed line cycle is compared to determine that the candidate having the longest dashed line cycle is closest to the continuous line.
JP2003104206A 2003-04-08 2003-04-08 Vehicular image processor Pending JP2004310522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003104206A JP2004310522A (en) 2003-04-08 2003-04-08 Vehicular image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003104206A JP2004310522A (en) 2003-04-08 2003-04-08 Vehicular image processor

Publications (1)

Publication Number Publication Date
JP2004310522A true JP2004310522A (en) 2004-11-04

Family

ID=33467099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003104206A Pending JP2004310522A (en) 2003-04-08 2003-04-08 Vehicular image processor

Country Status (1)

Country Link
JP (1) JP2004310522A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260358A (en) * 2005-03-18 2006-09-28 Honda Elesys Co Ltd Traffic lane recognition system
WO2007033627A1 (en) 2005-09-20 2007-03-29 Adc Automotive Distance Control System Gmbh Method for detecting lane markings
JP2009237901A (en) * 2008-03-27 2009-10-15 Zenrin Co Ltd Method of creating road marker map
US7860652B2 (en) 2006-11-14 2010-12-28 Toyota Jidosha Kabushiki Kaisha Lane detecting apparatus
JP2011053809A (en) * 2009-08-31 2011-03-17 Fuji Heavy Ind Ltd White line recognition device for vehicle
JP2011053808A (en) * 2009-08-31 2011-03-17 Fuji Heavy Ind Ltd White line recognition device for vehicle
JP2011186722A (en) * 2010-03-08 2011-09-22 Nippon Soken Inc In-vehicle white line recognition apparatus
JP2011258131A (en) * 2010-06-11 2011-12-22 Fuji Heavy Ind Ltd White line recognition apparatus for vehicle
US8224031B2 (en) 2005-04-26 2012-07-17 Fuji Jukogyo Kabushiki Kaisha Road line recognition apparatus
JP2013012044A (en) * 2011-06-29 2013-01-17 Nippon Soken Inc On-vehicle white line recognition apparatus
JP2013120458A (en) * 2011-12-06 2013-06-17 Fujitsu Ltd Road shape estimating device and program
US8600112B2 (en) 2010-03-15 2013-12-03 Aisin Seiki Kabushiki Kaisha Crosswalk detection device, crosswalk detection method and recording medium
US8687063B2 (en) 2007-08-30 2014-04-01 Industrial Technology Research Institute Method for predicting lane line and lane departure warning system using the same
JP2014075145A (en) * 2013-12-02 2014-04-24 Honda Motor Co Ltd Vehicle traveling support device
KR20140068475A (en) * 2012-11-28 2014-06-09 현대모비스 주식회사 System by detection of lane marking
US20150310283A1 (en) * 2014-04-25 2015-10-29 Honda Motor Co., Ltd. Lane recognition device
JP7461720B2 (en) 2018-10-16 2024-04-04 三星電子株式会社 Vehicle position determination method and vehicle position determination device

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889887B2 (en) 2005-03-18 2011-02-15 Honda Elesys Co., Ltd. Lane recognition apparatus
JP4637618B2 (en) * 2005-03-18 2011-02-23 株式会社ホンダエレシス Lane recognition device
JP2006260358A (en) * 2005-03-18 2006-09-28 Honda Elesys Co Ltd Traffic lane recognition system
US8224031B2 (en) 2005-04-26 2012-07-17 Fuji Jukogyo Kabushiki Kaisha Road line recognition apparatus
WO2007033627A1 (en) 2005-09-20 2007-03-29 Adc Automotive Distance Control System Gmbh Method for detecting lane markings
US8239085B2 (en) 2005-09-20 2012-08-07 Adc Automotive Distance Control Systems Gmbh Method for detecting road lane markings
US7860652B2 (en) 2006-11-14 2010-12-28 Toyota Jidosha Kabushiki Kaisha Lane detecting apparatus
US8687063B2 (en) 2007-08-30 2014-04-01 Industrial Technology Research Institute Method for predicting lane line and lane departure warning system using the same
JP2009237901A (en) * 2008-03-27 2009-10-15 Zenrin Co Ltd Method of creating road marker map
JP2011053809A (en) * 2009-08-31 2011-03-17 Fuji Heavy Ind Ltd White line recognition device for vehicle
JP2011053808A (en) * 2009-08-31 2011-03-17 Fuji Heavy Ind Ltd White line recognition device for vehicle
JP2011186722A (en) * 2010-03-08 2011-09-22 Nippon Soken Inc In-vehicle white line recognition apparatus
US8600112B2 (en) 2010-03-15 2013-12-03 Aisin Seiki Kabushiki Kaisha Crosswalk detection device, crosswalk detection method and recording medium
JP2011258131A (en) * 2010-06-11 2011-12-22 Fuji Heavy Ind Ltd White line recognition apparatus for vehicle
JP2013012044A (en) * 2011-06-29 2013-01-17 Nippon Soken Inc On-vehicle white line recognition apparatus
JP2013120458A (en) * 2011-12-06 2013-06-17 Fujitsu Ltd Road shape estimating device and program
KR20140068475A (en) * 2012-11-28 2014-06-09 현대모비스 주식회사 System by detection of lane marking
KR101976392B1 (en) 2012-11-28 2019-05-09 현대모비스 주식회사 System by detection of lane marking
JP2014075145A (en) * 2013-12-02 2014-04-24 Honda Motor Co Ltd Vehicle traveling support device
US20150310283A1 (en) * 2014-04-25 2015-10-29 Honda Motor Co., Ltd. Lane recognition device
CN105022985A (en) * 2014-04-25 2015-11-04 本田技研工业株式会社 Lane recognition device
JP2015210618A (en) * 2014-04-25 2015-11-24 本田技研工業株式会社 Lane recognition device
US9690994B2 (en) * 2014-04-25 2017-06-27 Honda Motor Co., Ltd. Lane recognition device
CN105022985B (en) * 2014-04-25 2018-09-28 本田技研工业株式会社 Lane recognition device
JP7461720B2 (en) 2018-10-16 2024-04-04 三星電子株式会社 Vehicle position determination method and vehicle position determination device

Similar Documents

Publication Publication Date Title
JP4420011B2 (en) Object detection device
US8311283B2 (en) Method for detecting lane departure and apparatus thereof
EP1564703B1 (en) Vehicle driving assist system
US8340866B2 (en) Vehicle and steering control device for vehicle
JP5172314B2 (en) Stereo camera device
US6734787B2 (en) Apparatus and method of recognizing vehicle travelling behind
JP4788778B2 (en) Deviation warning device and deviation warning program
US20050125121A1 (en) Vehicle driving assisting apparatus
US20190370609A1 (en) Image processing apparatus and external environment recognition apparatus
EP2960131A2 (en) Warning device and travel control device
US10810877B2 (en) Vehicle control device
KR20200016958A (en) Parking Assistance Method and Parking Assistance Device
JP2004310522A (en) Vehicular image processor
US11052910B2 (en) Vehicle control apparatus
US10410514B2 (en) Display device for vehicle and display method for vehicle
JP5363920B2 (en) Vehicle white line recognition device
US20150191120A1 (en) Warning device for vehicle and outside mirror device for vehicle
JP2008222153A (en) Merging support device
US10565869B2 (en) Vehicle driving assistance apparatus and vehicle driving assistance method
JP2006318093A (en) Vehicular moving object detection device
JP4951481B2 (en) Road marking recognition device
US11701967B2 (en) Display control device, display control method, and storage medium
JP2020177292A (en) Vehicle remote indication system
JP6885022B2 (en) Driving support device
JP2005202787A (en) Display device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070703

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080205