JP3855102B2 - Lane boundary detection device - Google Patents
Lane boundary detection device Download PDFInfo
- Publication number
- JP3855102B2 JP3855102B2 JP2002145701A JP2002145701A JP3855102B2 JP 3855102 B2 JP3855102 B2 JP 3855102B2 JP 2002145701 A JP2002145701 A JP 2002145701A JP 2002145701 A JP2002145701 A JP 2002145701A JP 3855102 B2 JP3855102 B2 JP 3855102B2
- Authority
- JP
- Japan
- Prior art keywords
- threshold value
- control microcomputer
- image
- white line
- lane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、車線境界検出装置に関するものである。
【0002】
【従来の技術】
従来、路面上に描かれた車線境界位置(白線など)を検出する車線境界検出装置としては、例えば特開昭63−40913号公報に記載されたものが知られている。同公報に記載されている装置は、CCDカメラを用いて走路を撮像し、この画像に基づき画素位置に対応させて画像データとしての輝度データを取得する。このとき、アスファルトの黒い部分に描かれた車線境界位置に相当する画素位置の輝度データがその周辺のアスファルトの位置に相当する画素位置の輝度データよりも大きくなる。従って、この装置は、取得された輝度データと所定のしきい値との大小比較によって車線境界位置を検出する。
【0003】
【発明が解決しようとする課題】
ところが、実際の走路においては、時間帯や日陰・日向の存在など各種状況の変化があるため、上記輝度データに著しい変動が生じる。従って、このように一定のしきい値を設けて一律に車線境界位置を検出する装置では、状況の変化に対応することができず、車線境界位置を誤検出する場合がある。
【0004】
本発明は、上記問題点を解決するためになされたものであって、その目的は、状況の変化に応じて車線境界位置の検出精度を向上することができる車線境界検出装置を提供することにある。
【0005】
【課題を解決するための手段】
請求項1に記載の発明は、車両に搭載された画像取得手段により画素位置に対応させて走路の画像データを取得し、該画像データとしきい値との大小比較に基づき路面上に描かれた一対の車線境界位置を検出する車線境界検出装置において、前記しきい値を第1しきい値及び該第1しきい値よりも大きい第2しきい値のいずれか一方に設定するしきい値設定手段を備え、前記しきい値設定手段は、前記画像データと第1しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方のみが検出できなくなったとき、前記しきい値を第2しきい値に設定するようにした。
【0006】
請求項2に記載の発明は、請求項1に記載の発明において、前記しきい値設定手段は、前記画像データと第1しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方のみが検出できなくなった状態が所定時間継続したとき、前記しきい値を第2しきい値に設定するようにした。
【0008】
(作用)
請求項1に記載の発明によれば、車線境界位置のいずれか一方のみが検出できなくなった場合には、車線境界位置の検出に係るしきい値が大きい、すなわち検出条件の厳しい第2しきい値に設定される。従って、車線境界位置が対で検出できないような不安定な路面状況下においては、上記しきい値を大きくすることによりノイズなどを車線境界位置として誤検出することが抑制され、より信頼性の高い車線境界位置の検出が行われる。
【0009】
請求項2に記載の発明によれば、車線境界位置のいずれか一方のみが検出できなくなった状態が所定時間継続したとき、しきい値を第2しきい値に設定するようにした。従って、車線境界位置のいずれか一方のみが一時的に検出できなくなることでむやみにしきい値が変更されることが回避される。
【0011】
【発明の実施の形態】
(第1の実施の形態)
以下、本発明を具体化した第1の実施の形態を図1〜図10により説明する。
【0012】
図2は、本実施の形態が適用される車両1を示す斜視図である。同図に示されるように、この車両1の後部ドア1aの略中央部にはナンバープレート2の取付枠3が配置されており、その上部には画像取得手段としての撮像用のCCDカメラ11が設置されている。
【0013】
CCDカメラ11は、図3に示す態様で車両1後方の路面の画像(映像)を取得するもので、その撮像範囲内に走行する走路としての車線4の境界線(車線標示で規定される車線の境界位置)としての左白線5L及び右白線5Rの画像を含むように搭載されている。
【0014】
図1は、本実施の形態が適用される車線逸脱判定装置10を示す概略構成図である。同図に示されるように、この車線逸脱判定装置10は、前記CCDカメラ11と、メインスイッチ12と、インジケータ14と、ブザー15としきい値設定手段を構成するコントローラ16とを備えている。
【0015】
上記CCDカメラ11は、取得した画像をアナログの映像信号として前記コントローラ16に出力する。
上記メインスイッチ12は利用者(運転者など)により操作されるシステム作動・停止用の操作スイッチであり、その操作状態に応じた信号を上記コントローラ16に出力する。
【0016】
上記インジケータ14は、例えば車室内のインストルメントパネルに設けられており、コントローラ16により点灯駆動されることで利用者によるシステムの作動確認に供される。例えば、車両1の両側に白線が検出されているとき、コントローラ16はインジケータ14を点灯駆動する。
【0017】
上記ブザー15は、後述の処理で車線逸脱の可能性有りと判定されることでコントローラ16により発声駆動される。
上記コントローラ16は、制御マイコン(マイクロコンピュータ)21と、輝度信号抽出回路22と、入力回路23と、インジケータ信号出力回路25と、ブザー信号出力回路26と、RAM(ランダムアクセスメモリ)27とを備えている。
【0018】
上記輝度信号抽出回路22は、CCDカメラ11からの映像信号を入力して輝度信号を抽出し、この輝度信号を制御マイコン21に出力する。
上記入力回路23は、メインスイッチ12からの操作状態に応じた信号を入力してこれを制御マイコン21に出力する。
【0019】
制御マイコン21は、これら輝度信号抽出回路22及び入力回路23を介して入力した各信号に基づき後述の車線逸脱判定等の処理を行うとともに当該処理に係る各種データをRAM27に一時記憶する。また、制御マイコン21は、車線逸脱の判定結果に応じて駆動信号を前記ブザー信号出力回路26に出力し、これを介してブザー15を発声駆動する。
【0020】
図4は、本実施の形態での車線逸脱判定の処理態様を示すフローチャートである。この処理は、前記メインスイッチ12がオン操作されていることを前提に所定時間ごとの定時割り込みにて繰り返し実行される。
【0021】
処理がこのルーチンに移行すると、制御マイコン21は、ステップ101において各種データの入力処理を実行する。
次に、制御マイコン21は、ステップ200のサブルーチンに移行し、図5のしきい値の変更処理を実行する。
【0022】
ステップ200のサブルーチンに移行した制御マイコン21は、まずステップ201においてRAM27に記憶された1本追跡終了フラグend_flagの値が「0」であるかどうかを判断する。1本追跡終了フラグend_flagは後述するステップ500の車線認識処理の過程で値「1」または値「0」に設定され、RAM27に一時記憶される。
【0023】
ステップ201において1本追跡終了フラグend_flagが値「0」と判断されると制御マイコン21は、ステップ202に移行し、しきい値(th)を第1しきい値に設定する。一方、ステップ201において1本追跡終了フラグend_flagが値「0」でない(値「1」である)と判断されると制御マイコン21は、ステップ203に移行し、しきい値(th)を第2しきい値に設定する。第1しきい値及び第2しきい値は、それぞれ第1しきい値の絶対値の方が第2しきい値の絶対値よりも小さくなるように設定されている。
【0024】
上記しきい値(th)は、後述するステップ300の白線候補点検出処理において参照されるもので、その値が大きいほど白線候補点として抽出されにくくなるようにその検出感度が調整される。
【0025】
ステップ202またはステップ203でしきい値(th)を設定すると、制御マイコン21は図4のルーチンに戻ってステップ102に移行する。
制御マイコン21は、ステップ102においてカメラ映像入力処理を行う。具体的には、制御マイコン21は、CCDカメラ11の映像信号から抽出された輝度信号を読み込みこれを各画素ごとにA/D(アナログ/デジタル)変換し、画素位置に関連づけた輝度データとしてRAM27に一時記憶する。この画素位置は、CCDカメラ11の撮像範囲(図3参照)に準じて定義される。なお、上記輝度データは、対応する輝度が明るい(白い)ほど大きく、暗い(黒い)ほど小さい値になる。例えば、この輝度データは8ビット(0〜255)で表されており、輝度が明るいほど値「255」に近づき、暗いほど値「0」に近づく。
【0026】
カメラ画像入力処理が終わると制御マイコン21はステップ300のサブルーチンに移行して図8の白線候補点検出処理を行う。
ステップ300のサブルーチンに移行した制御マイコン21は、ステップ301においてn番目に位置する画像水平方向のラインについて、RAM27に一時記憶した各画素の輝度データを読み込む。
【0027】
図6は、水平方向に並ぶ各画素の位置と対応する輝度データの一例を示すグラフである。同図に示した例において、当該ラインの輝度データは、車線4の左白線5L、右白線5Rに対応する位置で明るくなるようにピークを示している。
【0028】
尚、輝度データが読み込まれるラインは、画像の上下方向において白線の候補点を検出するのに好適な範囲内に設定されており、制御マイコン21はその範囲内においてラインの番号順にその輝度データを読み込む。
【0029】
次に、制御マイコン21はステップ302に移行して、当該ラインの各画素(i番目の画素)について輝度の微分値(dBi)を算出する。i番目の画素の輝度の微分値(dBi)は、i番目の画素の輝度データ(Bi)と隣接するi+1番目の画素の輝度データ(Bi+1)との差によって求められている。尚、図7は、図6に示された輝度データを元に、水平方向に並んだ各画素の位置と対応する輝度の微分値(dBi)を示すグラフである。
【0030】
次に、制御マイコン21はステップ303に移行してi番目の画素の輝度の微分値(dBi)がステップ200のサブルーチンで設定されたしきい値(th)よりも大きいかどうかを判断する。i番目の画素の輝度の微分値(dBi)がしきい値(th)よりも大きいと判断されると、制御マイコン21は、ステップ304に移行して該当する画素の位置を白線候補点としてRAM27に一時記憶し、ステップ305に移行する。一方、i番目の画素の輝度の微分値(dBi)がしきい値(th)よりも小さいと判断されると、制御マイコン21はそのままステップ305に移行する。
【0031】
尚、当該ラインの画素(i番目の画素)の位置は白線候補点を検出するのに適当と考えられる範囲で設定されており、設定された範囲内すべての画素について順番にその微分値(dBi)の算出と白線候補点としての抽出(ステップ302〜304)が行われている。
【0032】
ここで、上記白線候補点の抽出について、図7に基づき更に説明する。例えば図7において、しきい値(th)が第1しきい値であるとすると、4つの位置40〜43において、輝度微分値(dBi)が第1しきい値よりも大きくなる。制御マイコン21は、それら検出された位置40〜43のうち自車両1の前後方向の中心軸に対しその両側でそれぞれ初めてしきい値(th)を超えた位置(41,42)を白線候補点として抽出する。すなわち左側で検出された位置40,41については右側の位置41が、右側で検出された位置42,43については左側の位置42が白線候補点として抽出される。
【0033】
次に、制御マイコン21はステップ305において、ステップ301で輝度データの読み込みを行ったラインの番号(n)に1を加えた番号(n+1)が読み込みを行うように設定された最大水平ラインの番号より大きいかどうかの判断を行う。
【0034】
番号(n+1)が最大水平ラインの番号以下であれば、制御マイコン21はまだ輝度データを読み込む水平ラインがあると判断してステップ306に移行する。ステップ306において制御マイコン21は番号nに「1」を加算した番号を新たな番号とし、ステップ301に戻る。
【0035】
一方、番号(n+1)が最大水平ラインの番号より大きければ輝度データの読み込みを行うように設定された全てのラインについてステップ301〜304の処理が終了したこととなり、制御マイコン21は図4のルーチンに戻る。
【0036】
以上により、制御マイコン21は水平方向に1ライン分ずつその輝度データを読み込み、白線候補点の抽出を行う。
図4のルーチンに戻った制御マイコン21は、ステップ400のサブルーチンに移行して図9の白線候補直線検出処理を実行する。
【0037】
ステップ400のサブルーチンに移行した制御マイコン21は、ステップ401においてRAM27に一時記憶した白線の候補点群を画像の中央(各ラインの中心)を境にして左右に分離する。
【0038】
次に、ステップ410において制御マイコン21は左右に分離された候補点群のうち、左側に分離された候補点群から候補線を検出する左候補線検出処理を行う。以下、ステップ410において制御マイコン21が行う左候補線検出処理について詳述する。
【0039】
処理がステップ410における左候補線検出処理に至ると、制御マイコン21はステップ402において画像の左側に分離された白線の候補点群を構成している候補点の個数(点数)が予め設定されたしきい値点数より多いかどうかを判断する。尚、このしきい値点数は、画像に白線(候補線)が存在すると判定をするのに好適な値に予め設定されている。
【0040】
ステップ402において画像左側に分離された候補点の点数がしきい値点数よりも多い場合、制御マイコン21はステップ403において左直線存在カウンタi_lを「0」にリセットし、ステップ404に移行する。
【0041】
ステップ404において、制御マイコン21は画像左側に白線が存在すると判定し、画像左側の白線の状態を表すフラグleft_existを「1」に設定記憶する。すなわち、フラグleft_existは値が「1」である場合に画像左側に白線が存在することを表している。なお、このフラグleft_existは、後述の態様で画像左側に白線が存在しないと判定されたときに「0」に設定記憶されるものである。
【0042】
ステップ404において画像左側に白線が存在すると判定されると、次にステップ405において制御マイコン21は、RAM27に一時記憶した白線候補点を読み込んでこの点群を直線にあてはめる。
【0043】
この直線にあてはめる手法として、例えばHough(ハフ)変換が文献等(「松山隆司他:コンピュータビジョン、149/165、新技術コミュニケーションズ:1999」、「P.V.C.Hough:Methods and means for recognizing complex patterns,U.S.Patent No.3069654(1962)」)で知られている。また、この点群を最小2乗法で直線にあてはめてもよい。あるいは、特徴量抽出等のその他各種の手法を採用してもよい。尚、本実施の形態においては最小2乗法を用いて直線への近似を行っている。
【0044】
直線が検出されると制御マイコン21は処理をステップ420に移行する。
一方、ステップ402において画像左側に分離された候補点の点数がしきい値点数以下であった場合、制御マイコン21はステップ406において左直線存在カウンタi_lを「1」加算してRAM27に一時記憶し、ステップ407に移行する。
【0045】
ステップ407において制御マイコン21は、左直線存在カウンタi_lが破線間距離相当回数よりも多いかどうかを判断する。破線間距離相当回数は、本来車線が存在しているにも関わらず、白線が一部かすれていたり、白線が破線で描かれていたりする場合でも正しく白線を検出できるように設定されている。従って、制御マイコン21は走路状況により白線が一時的に検出されなくても、しばらくは白線が存在するものとしてその判定状態を継続する。
【0046】
ステップ407において左直線存在カウンタi_lが破線間距離相当回数以下である場合、制御マイコン21は白線の途切れが一時的なものであると判定し、ステップ404に移行する。そして、同様にステップ404,405の処理を行う。
【0047】
一方、ステップ407において左直線存在カウンタi_lが破線間距離相当回数より多い場合、制御マイコン21は画像左側の白線が継続的に検出されていないと判断し、フラグleft_existを「0」に設定記憶する。フラグleft_existを「0」に設定記憶すると、制御マイコン21はステップ420に移行する。
【0048】
ステップ420において、制御マイコン21は右候補車線の検出処理を実行し、画像右側の白線の存在状態を表すフラグright_existの値の設定記憶及び直線が存在する場合にはその検出を行う。尚、これらステップ420における右候補車線の検出処理は、前述したステップ410の左候補車線の検出処理と同様の態様で行われているためその詳細な説明は省略する。
【0049】
このようにして画像両側についてそれぞれ候補直線の検出処理を行うと、制御マイコン21は該検出処理の結果をRAM27に一時記憶し、図4のルーチンに戻る。
【0050】
図4のルーチンに戻った制御マイコン21はステップ500のサブルーチンに移行して図10の車線認識処理を行う。
処理がステップ500に移行した制御マイコン21は、ステップ501においてRAM27に一時記憶された画像左側及び右側の白線(候補線)の存在状態を表すフラグleft_exist及びright_existの値がともに「1」であるかどうかを判断する。
【0051】
フラグleft_exist及びright_existの値がともに「1」である場合、すなわち画像の左側及び右側に白線が存在すると判断されている場合、制御マイコン21は処理をステップ502に移行する。
【0052】
ステップ502において制御マイコン21は1本追跡回数count_one_lineを「0」にリセットしステップ503に移行する。1本追跡回数count_one_lineとは、画像の左側及び右側のどちらか一方の白線のみが検出されない状態が連続して検出された演算回数(図10のルーチンの演算回数)を表し、画像の左側及び右側のどちらか一方の白線のみが検出されていない状態の継続時間に相当する。
【0053】
ステップ503において、制御マイコン21は前述した1本追跡終了フラグend_flagを「0」としてRAM27に一時記憶し、ステップ504に処理を移行する。
【0054】
ステップ504において、制御マイコン21はインジケータ14を点灯させ図4のルーチンに戻る。
一方、ステップ501において、フラグleft_exist及びright_existの少なくとも一方の値が「1」でない場合、すなわち画像の左側及び右側の少なくとも一方に白線が存在しないと判断されている場合、制御マイコン21はステップ505に移行する。
【0055】
次に、ステップ505において制御マイコン21は上記フラグleft_exist及びright_existの値がともに「0」であるかどうかを判断する。
【0056】
フラグleft_exist及びright_existの値がともに「0」である場合、すなわち画像の左側及び右側のどちらにも白線が存在しないと判断されている場合、制御マイコン21はステップ506に移行する。
【0057】
ステップ506において、制御マイコン21は1本追跡回数count_one_lineを「0」にするとともに、1本追跡終了フラグend_flagを「0」としてRAM27に一時記憶し、ステップ507に移行する。
【0058】
ステップ507において、制御マイコン21はインジケータ14を消灯させ図4のルーチンに戻る。
ステップ505においてフラグleft_exist及びright_existの値がともに「0」でないと判断された場合、すなわち画像の左側及び右側のどちらか一方の白線のみが検出されないと判断された場合、制御マイコン21は処理をステップ508に移行する。
【0059】
ステップ508において制御マイコン21は1本追跡回数count_one_lineが1本追跡回数上限count_one_maxより多いかどうかの判断を行う。
【0060】
ステップ508において1本追跡回数count_one_lineが1本追跡回数上限count_one_maxより多い、すなわち画像の左側及び右側のどちらか一方の白線のみが検出されてない状態が設定された期間よりも長く継続すると、制御マイコン21はステップ509に移行する。
【0061】
ステップ509において、制御マイコン21は1本追跡回数count_one_lineを「0」にリセットするとともに1本追跡終了フラグend_flagを「1」としてRAM27に一時記憶し、ステップ507に移行する。
【0062】
ステップ507において、制御マイコン21は前述したのと同様にインジケータ14を消灯させ図4のルーチンに戻る。
ステップ508において1本追跡回数count_one_lineが1本追跡回数上限count_one_max以下である、すなわち画像の左側及び右側のどちらか一方の白線のみが検出されていない状態が設定された期間に達していないと判断されると、制御マイコン21はステップ510に移行する。
【0063】
ステップ510において制御マイコン21は、1本追跡回数count_one_lineに「1」を加算してRAM27に一時記憶し、ステップ503に移行する。
【0064】
以上の態様でステップ504または507の処理を終了した制御マイコン21は、図4のルーチンに戻ってステップ107に移行する。
ステップ107において制御マイコン21は、車両1の車線4からの逸脱判定を行う。具体的には、制御マイコン21は予めそのROM(リードオンリーメモリ)領域に記憶している車両1の幅などの情報及びRAM27に記憶された車線4(白線5L,5R)の状態を元に車両1が車線4から左方向もしくは右方向に逸脱する可能性があるかどうかを判定する。ステップ107の処理を終了すると、制御マイコン21はその後の処理を一旦終了する。
【0065】
以上詳述したように、第1の実施の形態によれば、以下に示す効果を得る。
(1)白線5L,5Rの検出状況に応じて1本追跡終了フラグend_flagを変更することにより、白線候補点の検出を実行する際に用いられるしきい値(th)を第1しきい値と第2しきい値との間で変更可能とした。従って、白線5L,5Rが対で検出できないような不安定は路面状況下においては、制御マイコン21は、1本追跡終了フラグend_flagを「1」とすることによってしきい値を第2しきい値に変更する。その結果、しきい値が第1しきい値よりも大きく設定され、ノイズなどを車線境界位置として誤検出することを抑制でき、車線境界位置の検出をより正確に行うことができる。
【0066】
(2)画像の左側及び右側のどちらか一方の白線のみが存在しないと判断されると1本追跡回数count_one_lineによりその状態が継続する時間(演算回数)を監視し、1本追跡回数上限count_one_maxを超えている場合にしきい値(th)の変更を実行した。従って、白線がどちらか一方のみ検出されていない状態が一定時間継続してからしきい値の変更が実行されるため、むやみにしきい値が変更されることを回避できる。そして、これに伴う検出精度の低下も抑制することができる。
【0067】
(3)画像の左側及び右側のどちらか一方の白線のみが存在しないと判断されたとき、制御マイコン21はしきい値を高く設定して白線候補点の検出が行われにくい状況にする。従って、より高いしきい値でも検出しうるより輝度の高い白線が現れるまで白線候補点は検出されないので、より信頼性の高い白線の検出を行うことができる。
【0068】
(第2の実施の形態)
以下、本発明を具体化した第2の実施の形態を図11〜図13に従って説明する。
【0069】
尚、第2の実施の形態は、上述した第1の実施の形態に記載の発明のステップ200におけるしきい値の変更処理の態様を変更したものであり、その他の構成は第1の実施の形態に記載のものとほぼ同様である。従って、第1の実施の形態と同様の構成のものは同一符号を付しその詳細な説明を省略する。
【0070】
図11は、第2の実施の形態が適用される車線逸脱判定装置28を示す概略構成図である。同図に示されるように、この車線逸脱判定装置28は、前記CCDカメラ11と、メインスイッチ12と、インジケータ14と、ブザー15と、ヘッドライト点灯スイッチ30と、判断手段及びしきい値設定手段を構成するコントローラ29とを備えている。
【0071】
ヘッドライト点灯スイッチ30は利用者(運転者など)により操作される図示しないヘッドライトの点灯・消灯用の操作スイッチであり、その操作状態に応じた信号をコントローラ29に出力する。ヘッドライト点灯スイッチ30から出力される信号は、上記ヘッドライトを点灯駆動するオン・オフ信号である。
【0072】
上記コントローラ29は、上記ヘッドライト点灯スイッチ30からの信号を入力する入力回路31を備えている。入力回路31はヘッドライト点灯スイッチ30から信号を入力してこれを制御マイコン21に出力する。制御マイコン21は、該信号によって走行環境の明暗を判断している。すなわち、制御マイコン21は、オン信号が入力されているとき走行環境は暗い(例えば夜間)と判断し、オフ信号が入力されているとき走行環境は明るい(例えば昼間)と判断する。
【0073】
図12は、第2の実施の形態における車線逸脱判定の処理態様を示すフローチャートである。この処理も、前記メインスイッチ12がオン操作されていることを前提に所定時間毎の定時割り込みにて繰り返し実行される。
【0074】
処理がこのルーチンに移行すると、制御マイコン21は、ステップ101において各種データの入力処理を実行する。例えば、制御マイコン21は、前記ヘッドライト点灯スイッチ30の操作状況に応じた信号を入力回路31を介して入力する。
【0075】
次に、制御マイコン21は、ステップ600のサブルーチンに移行し、図13のしきい値の変更処理を実行する。
ステップ600のサブルーチンに移行した制御マイコン21は、まずステップ601において、ヘッドライト点灯スイッチ30がオンされているかどうかを判断する。
【0076】
ステップ601においてヘッドライト点灯スイッチ30がオンされていると判断されると制御マイコン21は、ステップ602に移行し、しきい値(th)を第1しきい値に設定する。一方、ステップ601においてヘッドライト点灯スイッチ30がオンされていないと判断されると制御マイコン21は、ステップ603に移行し、しきい値(th)を第2しきい値に設定する。
【0077】
第1しきい値は、ヘッドライト点灯スイッチ30がオンされている状態(例えば夜間)において好適に白線の状態を検出できる値に設定されている。例えば、ヘッドライトが点灯されることで車両1のテールライトが併せて点灯される。第1しきい値は、このテールライトの点灯がカメラ11の画像に及ぼす影響を考慮して設定されている。また、第2しきい値は、ヘッドライト点灯スイッチ30がオフされている状態(例えば昼間)において好適に白線の状態を検出できる値に設定されている。
【0078】
ステップ602またはステップ603でしきい値(th)を設定すると、制御マイコン21は、図12のルーチンに戻ってステップ102に移行する。
制御マイコン21は、ステップ102及びステップ300において第1の実施の形態と同様にカメラ映像入力処理及び白線候補点の検出処理を行いステップ110に移行する。
【0079】
制御マイコン21はステップ110において白線候補直線処理を行い、更にステップ111に移行して車線認識処理を行う。尚、ステップ110及びステップ111において行われる白線候補直線の検出処理および車線の認識処理については従来知られる方法によって行われておりここではその詳細な説明を省略する。
【0080】
ステップ111において車線の認識処理が行われると、制御マイコン21はステップ107において第1実施の形態と同様に車線の逸脱による判定処理を行いその後の処理を一旦終了する。
【0081】
以上詳述したように、第2の実施の形態によれば、以下に示す効果を得る。
(1)制御マイコン21は、ヘッドライト点灯スイッチ30がオン、またはオフされることによって走行環境の明暗を判断し、しきい値を第1若しくは第2しきい値に変更する。従って、しきい値を走行環境の明暗に応じて好適なものに変更することができ、走行環境の明暗に関わらず常に信頼性の高い車線境界位置の検出を行うことができる。
【0082】
尚、本発明の実施の形態は上記実施の形態に限定されるものではなく、次のように変更してもよい。
・上記第1の実施の形態において、画像の左側及び右側のどちらか一方に白線が検出されない状態の継続時間は、所定ルーチンの演算回数に基づき計測されていた。これに対して例えばタイマにより画像の左側及び右側のどちらか一方に白線が検出されない状態の継続時間を直接計測してもよい。
【0083】
・上記第1の実施の形態においては、白線が検出されていない状態から左側及び右側のどちらか一方の白線が検出された場合、一時インジケータ14が点灯する。しかし、白線が検出されていない状態から白線を検出する場合は、画像両側の白線が検出された時に初めてインジケータ14が点灯するように制御してもよい。
【0084】
・上記第2の実施の形態において、第1及び第2しきい値の変更はヘッドライト点灯スイッチ30のオン信号及びオフ信号に基づき行われていた。しかし、第1及び第2しきい値の変更は他の信号に基づいて行われるようにしてもよく、例えば、車両のスモールライト(車幅灯)、フォグランプ、リアフォグランプ及びテールライトの少なくとも1つのオン・オフ信号若しくはその点灯状態によって制御されていてもよい。
【0085】
また、この場合それぞれのライト及びランプの点灯状態に応じてそれぞれしきい値を設定するようにしてもよい。
・上記各実施の形態において、白線候補点の検出は水平方向の各画素について当該位置に隣接する画素との輝度データの偏差を輝度微分値として演算し、その値の大きさとしきい値とを比較することによって行われた。これに対して、例えば図14に示すように輝度データと同様の第1及び第2しきい値を直接比較することによって白線候補点50〜53を検出するようにしてもよい。
【0086】
・上記各実施の形態において、白線を判断する時に用いる白線候補点は、自車両1の前後方向中心軸に対してその両側でそれぞれ初めてしきい値(th)を超えた位置41,42を選出することによって行われていた。しかし、検出された全ての白線候補点の位置40〜43を白線の決定に用いてもよい。
【0087】
また、例えば上記中心軸に対してその両側でそれぞれ最後にしきい値(th)を超えた位置40,43を用いてもよい。
また、例えば上記中心軸に対してそれぞれの側で初めてしきい値(th)を超えた位置と最後にしきい値(th)を超えた位置との中間位置(または重心位置)を用いてもよい。
【0088】
・上記各実施の形態において、しきい値は第1及び第2しきい値の2種類用いられていたが路面状況などに応じて第3及び第4のしきい値を設定してもよい。
・上記各実施の形態においては、白線候補点の検出にあたってCCDカメラ11の映像信号から抽出された輝度信号をデジタル化した輝度データに基づき演算された輝度微分値としきい値とを比較した。これに対して、CCDカメラ11の映像信号から抽出された輝度信号をアナログのまましきい値相当のアナログ値と比較してもよい。同様に上記輝度信号をアナログのまま微分し、この微分信号の大きさ(絶対値)と上記に準じたしきい値相当のアナログ値と比較してもよい。
【0089】
・上記各実施の形態においては、CCDカメラ11からの映像信号から輝度信号を抽出し、その輝度データに基づいて白線検出を行った。これに対して、例えばカラータイプのカメラでは、映像信号から色相(色合い)のデータを抽出し、これに基づき白線検出を行ってもよい。
【0090】
・前記実施の形態においては、CCDカメラ11により車両1の後方画像を取得し、これに基づく画像認識にて白線5L,5Rを検出した。これに対して、例えばCCDカメラ11を車両1の側部若しくは前部に設置する。そして、CCDカメラ11により車両1の側方画像若しくは前方画像を取得し、これに基づく画像認識にて白線5L,5Rを検出してもよい。このように変更をしても、前記実施の形態と同様の効果が得られる。
【0091】
・前記実施の形態においては、車両1に搭載したCCDカメラ11により車両1の後方画像を取得し、これに基づく画像認識にて白線5L,5Rを検出した。これに対して、例えば道路に配設されたカメラの映像を受信・取得し、これに基づく画像認識にて白線5L,5Rを検出してもよい。このように変更をしても、前記実施の形態と同様の効果が得られる。
【0092】
・前記実施の形態においては、撮像用にCCDカメラ11を採用したが、例えば赤外線カメラやCMOSカメラなどでもよい。
・前記実施の形態においては、車線4の境界線として白線5L,5Rを検出したが、例えば白線に限らず路端を検出してもよい。
【0093】
・例えば、無人搬送車やロボット、路線バスや自動倉庫などに適用しうる自動走行可能な車両システムに本発明を適用してもよい。
次に、以上の実施の形態から把握することができる技術的思想をその効果と共に以下に記載する。
【0094】
(イ)車両に搭載されて走路を撮像する撮像手段からの画像に基づき画素位置に対応させて画像データを取得し、該画像データとしきい値との大小比較に基づき路面上に描かれた一対の車線境界位置を検出する車線境界検出装置において、前記しきい値設定手段は、前記画像データと第2しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方が検出できなくなったとき、前記しきい値を第1しきい値に設定することを特徴とする車線境界検出装置。このように車線境界検出装置を構成しても請求項1に記載の発明と同様の効果が得られる。
【0095】
(ロ)車両に搭載されて走路を撮像する撮像手段からの画像に基づき画素位置に対応させて画像データを取得し、該画像データとしきい値との大小比較に基づき路面上に描かれた車線境界位置を検出する車線境界検出装置において、走行環境の明暗を判断する判断手段と、前記判断手段による走行環境の明暗の判断に応じて前記しきい値を異なる設定にするしきい値設定手段を備えたことを特徴とする車線境界検出装置。このように車線境界検出装置を構成しても請求項3に記載の発明と同様の効果が得られる。
【0096】
(ハ)請求項4に記載の車線境界検出装置において、
前記車両ライトは、ヘッドライト、スモールライト、フォグランプ、リアフォグランプ、テールライト及び制動灯のうちの少なくとも1つであることを特徴とする車線境界検出装置。このように車線境界検出装置を構成しても請求項4に記載の発明と同様の効果が得られる。
【0097】
【発明の効果】
以上詳述したように、本発明によれば、状況の変化に応じて車線境界位置の検出精度を向上することができる車線境界検出装置を提供することができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態を示す概略構成図。
【図2】 第1の実施の形態が適用される車両を示す斜視図。
【図3】 CCDカメラの画像を示す模式図。
【図4】 車線逸脱判定の処理態様を示すフローチャート。
【図5】 しきい値の変更処理態様を示すフローチャート。
【図6】 輝度データの説明図。
【図7】 輝度微分値の説明図。
【図8】 白線候補点検出処理の態様を示すフローチャート。
【図9】 白線候補直線検出処理の態様を示すフローチャート。
【図10】 車線認識処理の態様を示すフローチャート。
【図11】 第2の実施の形態を示す概略構成図。
【図12】 第2の実施の形態の車線逸脱判定の処理態様を示すフローチャート。
【図13】 しきい値の変更処理態様を示すフローチャート。
【図14】 別例の白線候補点検出処理の説明図。
【符号の説明】
1…車両、4…走路としての車線、5L,5R…車線境界位置としての左白線及び右白線、11…画像取得手段としてのCCDカメラ、16…しきい値設定手段としてのコントローラ、29…判断手段及びしきい値設定手段としてのコントローラ。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a lane boundary detection device.
[0002]
[Prior art]
Conventionally, as a lane boundary detection device for detecting a lane boundary position (white line or the like) drawn on a road surface, for example, a device described in Japanese Patent Application Laid-Open No. 63-40913 is known. The apparatus described in the publication takes a runway image using a CCD camera, and acquires luminance data as image data in association with a pixel position based on this image. At this time, the luminance data of the pixel position corresponding to the lane boundary position drawn in the black part of the asphalt becomes larger than the luminance data of the pixel position corresponding to the position of the surrounding asphalt. Therefore, this apparatus detects the lane boundary position by comparing the acquired luminance data with a predetermined threshold value.
[0003]
[Problems to be solved by the invention]
However, on the actual road, there are changes in various situations such as the time zone, the presence of shade and the sun, and thus the luminance data changes significantly. Therefore, an apparatus that uniformly detects the lane boundary position by providing a certain threshold value as described above cannot cope with a change in the situation and may erroneously detect the lane boundary position.
[0004]
The present invention has been made to solve the above problems, and an object of the present invention is to provide a lane boundary detection device capable of improving the detection accuracy of the lane boundary position according to a change in the situation. is there.
[0005]
[Means for Solving the Problems]
According to the first aspect of the present invention, the image data of the road is acquired in correspondence with the pixel position by the image acquisition means mounted on the vehicle, and the image data is drawn on the road surface based on the size comparison between the image data and the threshold value. In the lane boundary detection device for detecting a pair of lane boundary positions, the threshold value is set to one of a first threshold value and a second threshold value larger than the first threshold value. And the threshold value setting means is one of the pair of lane boundary positions based on a magnitude comparison between the image data and a threshold value set as the first threshold value. only When the value cannot be detected, the threshold value is set to the second threshold value.
[0006]
According to a second aspect of the present invention, in the first aspect of the invention, the threshold value setting unit is configured to compare the pair of the image data with a threshold value set as a first threshold value. One of the lane boundary positions only The threshold value is set to the second threshold value when the state in which the detection of the error cannot be detected continues for a predetermined time.
[0008]
( Action)
According to the invention described in
[0009]
According to invention of
[0011]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
A first embodiment of the present invention will be described below with reference to FIGS.
[0012]
FIG. 2 is a perspective view showing a
[0013]
The
[0014]
FIG. 1 is a schematic configuration diagram illustrating a lane
[0015]
The
The
[0016]
The
[0017]
The
The
[0018]
The luminance
The
[0019]
The
[0020]
FIG. 4 is a flowchart showing a processing mode of lane departure determination in the present embodiment. This process is repeatedly executed by a scheduled interruption every predetermined time on the assumption that the
[0021]
When the processing shifts to this routine, the
Next, the
[0022]
The
[0023]
When it is determined in
[0024]
The threshold value (th) is referred to in white line candidate point detection processing in
[0025]
When the threshold value (th) is set in step 202 or step 203, the
In
[0026]
When the camera image input process is completed, the
The
[0027]
FIG. 6 is a graph showing an example of luminance data corresponding to the position of each pixel arranged in the horizontal direction. In the example shown in the figure, the luminance data of the line shows a peak so as to become brighter at positions corresponding to the left
[0028]
The line into which the luminance data is read is set in a range suitable for detecting white line candidate points in the vertical direction of the image, and the
[0029]
Next, the
[0030]
Next, the
[0031]
Note that the position of the pixel (i-th pixel) in the line is set in a range that is considered appropriate for detecting the white line candidate point, and the differential value (dBi) is sequentially applied to all the pixels in the set range. ) And extraction as white line candidate points (
[0032]
Here, the extraction of the white line candidate points will be further described with reference to FIG. For example, in FIG. 7, assuming that the threshold value (th) is the first threshold value, the luminance differential value (dBi) is larger than the first threshold value at the four
[0033]
Next, in
[0034]
If the number (n + 1) is equal to or smaller than the number of the maximum horizontal line, the
[0035]
On the other hand, if the number (n + 1) is larger than the number of the maximum horizontal line, the processing of
[0036]
As described above, the
The
[0037]
The
[0038]
Next, in
[0039]
When the process reaches the left candidate line detection process in
[0040]
If the number of candidate points separated on the left side of the image in
[0041]
In
[0042]
If it is determined in
[0043]
As a method of fitting to this straight line, for example, Hough transformation is based on literature (“Takashi Matsuyama et al .: Computer Vision, 149/165, New Technology Communications: 1999”, “PVC Hough: Methods and means for recognizing. complex patterns, U.S. Patent No. 3069654 (1962) "). Further, this point group may be applied to a straight line by the method of least squares. Alternatively, various other methods such as feature amount extraction may be employed. In this embodiment, approximation to a straight line is performed using the least square method.
[0044]
When the straight line is detected, the
On the other hand, if the number of candidate points separated on the left side of the image in
[0045]
In
[0046]
When the left straight line presence counter i_l is equal to or less than the number of times corresponding to the distance between the broken lines in
[0047]
On the other hand, if the left straight line presence counter i_l is larger than the number corresponding to the distance between the broken lines in
[0048]
In
[0049]
When candidate straight line detection processing is performed for both sides of the image in this way, the
[0050]
The
The
[0051]
If the values of the flags left_exist and right_exist are both “1”, that is, if it is determined that white lines exist on the left and right sides of the image, the
[0052]
In step 502, the
[0053]
In
[0054]
In
On the other hand, if it is determined in
[0055]
Next, in
[0056]
If the values of the flags left_exist and right_exist are both “0”, that is, if it is determined that there is no white line on either the left or right side of the image, the
[0057]
In
[0058]
In
If it is determined in
[0059]
In
[0060]
In
[0061]
In
[0062]
In
In
[0063]
In
[0064]
The
In
[0065]
As described above in detail, according to the first embodiment, the following effects are obtained.
(1) By changing the one tracking end flag end_flag according to the detection status of the
[0066]
(2) White line on either the left or right side of the image only If it is determined that there is not, the time (number of operations) that the state continues is monitored by one tracking number count_one_line, and the threshold (th) is changed when the one tracking number upper limit count_one_max is exceeded . Therefore, one of the white lines only Since the threshold value is changed after an undetected state continues for a certain period of time, it is possible to prevent the threshold value from being changed unnecessarily. And the fall of the detection accuracy accompanying this can also be suppressed.
[0067]
(3) White line on either the left or right side of the image only When it is determined that there is not, the
[0068]
(Second Embodiment)
A second embodiment embodying the present invention will be described below with reference to FIGS.
[0069]
In the second embodiment, the aspect of the threshold value changing process in
[0070]
FIG. 11 is a schematic configuration diagram illustrating a lane
[0071]
The
[0072]
The
[0073]
FIG. 12 is a flowchart showing a processing mode of lane departure determination in the second embodiment. This process is also repeatedly executed by a scheduled interruption every predetermined time on the assumption that the
[0074]
When the processing shifts to this routine, the
[0075]
Next, the
The
[0076]
If it is determined in
[0077]
The first threshold value is set to a value that can suitably detect the white line state in a state where the
[0078]
When the threshold value (th) is set in
The
[0079]
The
[0080]
When the lane recognition process is performed in step 111, the
[0081]
As described in detail above, according to the second embodiment, the following effects are obtained.
(1) The
[0082]
In addition, embodiment of this invention is not limited to the said embodiment, You may change as follows.
In the first embodiment, the duration in which no white line is detected on either the left side or the right side of the image is measured based on the number of computations of a predetermined routine. On the other hand, for example, the duration of a state in which no white line is detected on either the left side or the right side of the image may be directly measured by a timer.
[0083]
In the first embodiment, when either the left or right white line is detected from the state where no white line is detected, the
[0084]
In the second embodiment, the first and second threshold values are changed based on the on signal and the off signal of the
[0085]
In this case, the threshold value may be set according to the lighting state of each light and lamp.
In each of the above embodiments, the white line candidate point is detected by calculating the deviation of the luminance data of each pixel in the horizontal direction from the pixel adjacent to the position as a luminance differential value, and comparing the magnitude of the value with a threshold value. Was done by On the other hand, for example, as shown in FIG. 14, the white line candidate points 50 to 53 may be detected by directly comparing the first and second threshold values similar to the luminance data.
[0086]
In each of the above embodiments, the white line candidate points used when determining the white line are selected as
[0087]
Further, for example, positions 40 and 43 that finally exceed the threshold value (th) on both sides of the central axis may be used.
Further, for example, an intermediate position (or center of gravity position) between a position where the threshold value (th) is exceeded for the first time and a position where the threshold value (th) is finally exceeded on each side of the central axis may be used. .
[0088]
In the above embodiments, two types of threshold values, the first and second threshold values, are used. However, the third and fourth threshold values may be set according to the road surface condition.
In each of the above embodiments, the brightness differential value calculated based on the brightness data obtained by digitizing the brightness signal extracted from the video signal of the
[0089]
In each of the above embodiments, the luminance signal is extracted from the video signal from the
[0090]
In the above embodiment, the rear image of the
[0091]
In the above embodiment, the rear image of the
[0092]
In the above embodiment, the
In the above-described embodiment, the
[0093]
For example, the present invention may be applied to a vehicle system capable of automatic traveling that can be applied to an automatic guided vehicle, a robot, a route bus, an automatic warehouse, and the like.
Next, technical ideas that can be grasped from the above embodiments will be described below together with their effects.
[0094]
(A) A pair of images drawn on the road surface based on a size comparison between the image data and a threshold value based on an image from an imaging unit mounted on a vehicle and capturing an image of a running road in correspondence with a pixel position. In the lane boundary detection device for detecting the lane boundary position of the pair of lane boundary positions, the threshold value setting means is configured to detect the pair of lane boundary positions based on a magnitude comparison between the image data and a threshold value set as a second threshold value. A lane boundary detection device characterized in that when either one of them cannot be detected, the threshold value is set to a first threshold value. Thus, even if it comprises a lane boundary detection apparatus, the effect similar to the invention of
[0095]
(B) A lane drawn on the road surface based on a comparison between the image data and a threshold value based on an image from an image pickup means that is mounted on the vehicle and picks up an image of the road and corresponding to the pixel position. In the lane boundary detection device for detecting the boundary position, a determination unit that determines the brightness of the driving environment and a threshold setting unit that sets the threshold value differently according to the determination of the lightness and darkness of the driving environment by the determination unit A lane boundary detection device comprising: Thus, even if it comprises a lane boundary detection apparatus, the effect similar to the invention of
[0096]
(C) In the lane boundary detection device according to
The lane boundary detection device according to
[0097]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide a lane boundary detection device capable of improving the detection accuracy of the lane boundary position according to a change in the situation.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram showing a first embodiment of the present invention.
FIG. 2 is a perspective view showing a vehicle to which the first embodiment is applied.
FIG. 3 is a schematic diagram showing an image of a CCD camera.
FIG. 4 is a flowchart showing a processing mode of lane departure determination.
FIG. 5 is a flowchart showing a threshold value changing process.
FIG. 6 is an explanatory diagram of luminance data.
FIG. 7 is an explanatory diagram of a luminance differential value.
FIG. 8 is a flowchart showing an aspect of white line candidate point detection processing;
FIG. 9 is a flowchart showing a mode of white line candidate straight line detection processing;
FIG. 10 is a flowchart showing an aspect of lane recognition processing.
FIG. 11 is a schematic configuration diagram showing a second embodiment.
FIG. 12 is a flowchart illustrating a lane departure determination process according to the second embodiment.
FIG. 13 is a flowchart showing a threshold changing process.
FIG. 14 is an explanatory diagram of another example of white line candidate point detection processing.
[Explanation of symbols]
DESCRIPTION OF
Claims (2)
前記しきい値を第1しきい値及び該第1しきい値よりも大きい第2しきい値のいずれか一方に設定するしきい値設定手段を備え、
前記しきい値設定手段は、前記画像データと第1しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方のみが検出できなくなったとき、前記しきい値を第2しきい値に設定することを特徴とする車線境界検出装置。A lane for acquiring a pair of lane boundary positions drawn on the road surface by acquiring image data of the road corresponding to the pixel position by an image acquisition means mounted on the vehicle and comparing the size of the image data with a threshold In the boundary detection device,
Threshold setting means for setting the threshold to one of a first threshold and a second threshold greater than the first threshold;
The threshold value setting means detects when only one of the pair of lane boundary positions cannot be detected based on a magnitude comparison between the image data and the threshold value set as the first threshold value. A lane boundary detection device characterized in that a threshold value is set to a second threshold value.
前記しきい値設定手段は、前記画像データと第1しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方のみが検出できなくなった状態が所定時間継続したとき、前記しきい値を第2しきい値に設定することを特徴とする車線境界検出装置。The lane boundary detection device according to claim 1,
The threshold value setting means is in a state in which only one of the pair of lane boundary positions cannot be detected based on a magnitude comparison between the image data and the threshold value set as the first threshold value for a predetermined time. A lane boundary detection device, characterized in that the threshold value is set to a second threshold value when continued.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002145701A JP3855102B2 (en) | 2002-05-21 | 2002-05-21 | Lane boundary detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002145701A JP3855102B2 (en) | 2002-05-21 | 2002-05-21 | Lane boundary detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003337997A JP2003337997A (en) | 2003-11-28 |
JP3855102B2 true JP3855102B2 (en) | 2006-12-06 |
Family
ID=29704905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002145701A Expired - Fee Related JP3855102B2 (en) | 2002-05-21 | 2002-05-21 | Lane boundary detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3855102B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4248558B2 (en) | 2006-03-24 | 2009-04-02 | トヨタ自動車株式会社 | Road marking line detection device |
JP5151814B2 (en) * | 2008-08-28 | 2013-02-27 | 株式会社デンソー | Traveling zone detection device and program for traveling zone detection device |
DE102011087797A1 (en) * | 2011-12-06 | 2013-06-06 | Robert Bosch Gmbh | Method and device for localizing a predefined parking position |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07129900A (en) * | 1993-11-05 | 1995-05-19 | Fujitsu Ten Ltd | Obstacle detecting device for vehicle |
JPH09288737A (en) * | 1996-04-22 | 1997-11-04 | Mitsubishi Electric Corp | Onboard picture processor |
JP3330285B2 (en) * | 1996-06-20 | 2002-09-30 | 本田技研工業株式会社 | Vehicle white line detection device |
JP3872638B2 (en) * | 2000-08-29 | 2007-01-24 | 株式会社日立製作所 | Cruise control system and vehicle equipped with it |
-
2002
- 2002-05-21 JP JP2002145701A patent/JP3855102B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003337997A (en) | 2003-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220245953A1 (en) | Vehicular imaging system | |
US7307545B2 (en) | Vehicle lane detector | |
EP2150437B1 (en) | Rear obstruction detection | |
CN108357418B (en) | Preceding vehicle driving intention analysis method based on tail lamp identification | |
JP3909691B2 (en) | In-vehicle image processing device | |
US20070211482A1 (en) | Method for controlling the automatic switching of the projector of a vehicle | |
US20140226349A1 (en) | Apparatus for detecting other vehicle lights and light control apparatus for vehicles | |
JP2009043068A (en) | Traffic light recognition system | |
JP6420650B2 (en) | Outside environment recognition device | |
CN113313935B (en) | Image processing apparatus and image processing method | |
JP2006298362A (en) | Method for early detection of arrival at dark area | |
CN113246846A (en) | Vehicle light control method and device and vehicle | |
JP3855102B2 (en) | Lane boundary detection device | |
JP3914447B2 (en) | Image-type vehicle detection system and image-type vehicle detection method | |
JP2007124676A (en) | On-vehicle image processor | |
US10977500B2 (en) | Street marking color recognition | |
JP3986363B2 (en) | Lane boundary detection device | |
JP3857612B2 (en) | Lane boundary detection device | |
JP3844750B2 (en) | Infrared image recognition device and alarm device using infrared image recognition device | |
JP2003044863A (en) | Device for recognizing partition line | |
JP2022060118A (en) | Section line recognition device | |
JPH05282592A (en) | Image processing-type vehicle sensor and method for processing traffic information | |
JP4263660B2 (en) | Vehicle runway determination device | |
JP4703706B2 (en) | Vehicle runway determination device | |
JPH07121794A (en) | Vehicle registered number recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050428 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050530 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060509 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060828 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100922 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110922 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120922 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130922 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |