JP3855102B2 - Lane boundary detection device - Google Patents

Lane boundary detection device Download PDF

Info

Publication number
JP3855102B2
JP3855102B2 JP2002145701A JP2002145701A JP3855102B2 JP 3855102 B2 JP3855102 B2 JP 3855102B2 JP 2002145701 A JP2002145701 A JP 2002145701A JP 2002145701 A JP2002145701 A JP 2002145701A JP 3855102 B2 JP3855102 B2 JP 3855102B2
Authority
JP
Japan
Prior art keywords
threshold value
control microcomputer
image
white line
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002145701A
Other languages
Japanese (ja)
Other versions
JP2003337997A (en
Inventor
典成 吉川
崇 平槇
宗広 高山
修司 山本
久志 里中
誠 西田
新 高橋
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2002145701A priority Critical patent/JP3855102B2/en
Publication of JP2003337997A publication Critical patent/JP2003337997A/en
Application granted granted Critical
Publication of JP3855102B2 publication Critical patent/JP3855102B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、車線境界検出装置に関するものである。
【0002】
【従来の技術】
従来、路面上に描かれた車線境界位置(白線など)を検出する車線境界検出装置としては、例えば特開昭63−40913号公報に記載されたものが知られている。同公報に記載されている装置は、CCDカメラを用いて走路を撮像し、この画像に基づき画素位置に対応させて画像データとしての輝度データを取得する。このとき、アスファルトの黒い部分に描かれた車線境界位置に相当する画素位置の輝度データがその周辺のアスファルトの位置に相当する画素位置の輝度データよりも大きくなる。従って、この装置は、取得された輝度データと所定のしきい値との大小比較によって車線境界位置を検出する。
【0003】
【発明が解決しようとする課題】
ところが、実際の走路においては、時間帯や日陰・日向の存在など各種状況の変化があるため、上記輝度データに著しい変動が生じる。従って、このように一定のしきい値を設けて一律に車線境界位置を検出する装置では、状況の変化に対応することができず、車線境界位置を誤検出する場合がある。
【0004】
本発明は、上記問題点を解決するためになされたものであって、その目的は、状況の変化に応じて車線境界位置の検出精度を向上することができる車線境界検出装置を提供することにある。
【0005】
【課題を解決するための手段】
請求項1に記載の発明は、車両に搭載された画像取得手段により画素位置に対応させて走路の画像データを取得し、該画像データとしきい値との大小比較に基づき路面上に描かれた一対の車線境界位置を検出する車線境界検出装置において、前記しきい値を第1しきい値及び該第1しきい値よりも大きい第2しきい値のいずれか一方に設定するしきい値設定手段を備え、前記しきい値設定手段は、前記画像データと第1しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方のみが検出できなくなったとき、前記しきい値を第2しきい値に設定するようにした。
【0006】
請求項2に記載の発明は、請求項1に記載の発明において、前記しきい値設定手段は、前記画像データと第1しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方のみが検出できなくなった状態が所定時間継続したとき、前記しきい値を第2しきい値に設定するようにした。
【0008】
作用)
請求項1に記載の発明によれば、車線境界位置のいずれか一方のみが検出できなくなった場合には、車線境界位置の検出に係るしきい値が大きい、すなわち検出条件の厳しい第2しきい値に設定される。従って、車線境界位置が対で検出できないような不安定な路面状況下においては、上記しきい値を大きくすることによりノイズなどを車線境界位置として誤検出することが抑制され、より信頼性の高い車線境界位置の検出が行われる。
【0009】
請求項2に記載の発明によれば、車線境界位置のいずれか一方のみが検出できなくなった状態が所定時間継続したとき、しきい値を第2しきい値に設定するようにした。従って、車線境界位置のいずれか一方のみが一時的に検出できなくなることでむやみにしきい値が変更されることが回避される。
【0011】
【発明の実施の形態】
(第1の実施の形態)
以下、本発明を具体化した第1の実施の形態を図1〜図10により説明する。
【0012】
図2は、本実施の形態が適用される車両1を示す斜視図である。同図に示されるように、この車両1の後部ドア1aの略中央部にはナンバープレート2の取付枠3が配置されており、その上部には画像取得手段としての撮像用のCCDカメラ11が設置されている。
【0013】
CCDカメラ11は、図3に示す態様で車両1後方の路面の画像(映像)を取得するもので、その撮像範囲内に走行する走路としての車線4の境界線(車線標示で規定される車線の境界位置)としての左白線5L及び右白線5Rの画像を含むように搭載されている。
【0014】
図1は、本実施の形態が適用される車線逸脱判定装置10を示す概略構成図である。同図に示されるように、この車線逸脱判定装置10は、前記CCDカメラ11と、メインスイッチ12と、インジケータ14と、ブザー15としきい値設定手段を構成するコントローラ16とを備えている。
【0015】
上記CCDカメラ11は、取得した画像をアナログの映像信号として前記コントローラ16に出力する。
上記メインスイッチ12は利用者(運転者など)により操作されるシステム作動・停止用の操作スイッチであり、その操作状態に応じた信号を上記コントローラ16に出力する。
【0016】
上記インジケータ14は、例えば車室内のインストルメントパネルに設けられており、コントローラ16により点灯駆動されることで利用者によるシステムの作動確認に供される。例えば、車両1の両側に白線が検出されているとき、コントローラ16はインジケータ14を点灯駆動する。
【0017】
上記ブザー15は、後述の処理で車線逸脱の可能性有りと判定されることでコントローラ16により発声駆動される。
上記コントローラ16は、制御マイコン(マイクロコンピュータ)21と、輝度信号抽出回路22と、入力回路23と、インジケータ信号出力回路25と、ブザー信号出力回路26と、RAM(ランダムアクセスメモリ)27とを備えている。
【0018】
上記輝度信号抽出回路22は、CCDカメラ11からの映像信号を入力して輝度信号を抽出し、この輝度信号を制御マイコン21に出力する。
上記入力回路23は、メインスイッチ12からの操作状態に応じた信号を入力してこれを制御マイコン21に出力する。
【0019】
制御マイコン21は、これら輝度信号抽出回路22及び入力回路23を介して入力した各信号に基づき後述の車線逸脱判定等の処理を行うとともに当該処理に係る各種データをRAM27に一時記憶する。また、制御マイコン21は、車線逸脱の判定結果に応じて駆動信号を前記ブザー信号出力回路26に出力し、これを介してブザー15を発声駆動する。
【0020】
図4は、本実施の形態での車線逸脱判定の処理態様を示すフローチャートである。この処理は、前記メインスイッチ12がオン操作されていることを前提に所定時間ごとの定時割り込みにて繰り返し実行される。
【0021】
処理がこのルーチンに移行すると、制御マイコン21は、ステップ101において各種データの入力処理を実行する。
次に、制御マイコン21は、ステップ200のサブルーチンに移行し、図5のしきい値の変更処理を実行する。
【0022】
ステップ200のサブルーチンに移行した制御マイコン21は、まずステップ201においてRAM27に記憶された1本追跡終了フラグend_flagの値が「0」であるかどうかを判断する。1本追跡終了フラグend_flagは後述するステップ500の車線認識処理の過程で値「1」または値「0」に設定され、RAM27に一時記憶される。
【0023】
ステップ201において1本追跡終了フラグend_flagが値「0」と判断されると制御マイコン21は、ステップ202に移行し、しきい値(th)を第1しきい値に設定する。一方、ステップ201において1本追跡終了フラグend_flagが値「0」でない(値「1」である)と判断されると制御マイコン21は、ステップ203に移行し、しきい値(th)を第2しきい値に設定する。第1しきい値及び第2しきい値は、それぞれ第1しきい値の絶対値の方が第2しきい値の絶対値よりも小さくなるように設定されている。
【0024】
上記しきい値(th)は、後述するステップ300の白線候補点検出処理において参照されるもので、その値が大きいほど白線候補点として抽出されにくくなるようにその検出感度が調整される。
【0025】
ステップ202またはステップ203でしきい値(th)を設定すると、制御マイコン21は図4のルーチンに戻ってステップ102に移行する。
制御マイコン21は、ステップ102においてカメラ映像入力処理を行う。具体的には、制御マイコン21は、CCDカメラ11の映像信号から抽出された輝度信号を読み込みこれを各画素ごとにA/D(アナログ/デジタル)変換し、画素位置に関連づけた輝度データとしてRAM27に一時記憶する。この画素位置は、CCDカメラ11の撮像範囲(図3参照)に準じて定義される。なお、上記輝度データは、対応する輝度が明るい(白い)ほど大きく、暗い(黒い)ほど小さい値になる。例えば、この輝度データは8ビット(0〜255)で表されており、輝度が明るいほど値「255」に近づき、暗いほど値「0」に近づく。
【0026】
カメラ画像入力処理が終わると制御マイコン21はステップ300のサブルーチンに移行して図8の白線候補点検出処理を行う。
ステップ300のサブルーチンに移行した制御マイコン21は、ステップ301においてn番目に位置する画像水平方向のラインについて、RAM27に一時記憶した各画素の輝度データを読み込む。
【0027】
図6は、水平方向に並ぶ各画素の位置と対応する輝度データの一例を示すグラフである。同図に示した例において、当該ラインの輝度データは、車線4の左白線5L、右白線5Rに対応する位置で明るくなるようにピークを示している。
【0028】
尚、輝度データが読み込まれるラインは、画像の上下方向において白線の候補点を検出するのに好適な範囲内に設定されており、制御マイコン21はその範囲内においてラインの番号順にその輝度データを読み込む。
【0029】
次に、制御マイコン21はステップ302に移行して、当該ラインの各画素(i番目の画素)について輝度の微分値(dBi)を算出する。i番目の画素の輝度の微分値(dBi)は、i番目の画素の輝度データ(Bi)と隣接するi+1番目の画素の輝度データ(Bi+1)との差によって求められている。尚、図7は、図6に示された輝度データを元に、水平方向に並んだ各画素の位置と対応する輝度の微分値(dBi)を示すグラフである。
【0030】
次に、制御マイコン21はステップ303に移行してi番目の画素の輝度の微分値(dBi)がステップ200のサブルーチンで設定されたしきい値(th)よりも大きいかどうかを判断する。i番目の画素の輝度の微分値(dBi)がしきい値(th)よりも大きいと判断されると、制御マイコン21は、ステップ304に移行して該当する画素の位置を白線候補点としてRAM27に一時記憶し、ステップ305に移行する。一方、i番目の画素の輝度の微分値(dBi)がしきい値(th)よりも小さいと判断されると、制御マイコン21はそのままステップ305に移行する。
【0031】
尚、当該ラインの画素(i番目の画素)の位置は白線候補点を検出するのに適当と考えられる範囲で設定されており、設定された範囲内すべての画素について順番にその微分値(dBi)の算出と白線候補点としての抽出(ステップ302〜304)が行われている。
【0032】
ここで、上記白線候補点の抽出について、図7に基づき更に説明する。例えば図7において、しきい値(th)が第1しきい値であるとすると、4つの位置40〜43において、輝度微分値(dBi)が第1しきい値よりも大きくなる。制御マイコン21は、それら検出された位置40〜43のうち自車両1の前後方向の中心軸に対しその両側でそれぞれ初めてしきい値(th)を超えた位置(41,42)を白線候補点として抽出する。すなわち左側で検出された位置40,41については右側の位置41が、右側で検出された位置42,43については左側の位置42が白線候補点として抽出される。
【0033】
次に、制御マイコン21はステップ305において、ステップ301で輝度データの読み込みを行ったラインの番号(n)に1を加えた番号(n+1)が読み込みを行うように設定された最大水平ラインの番号より大きいかどうかの判断を行う。
【0034】
番号(n+1)が最大水平ラインの番号以下であれば、制御マイコン21はまだ輝度データを読み込む水平ラインがあると判断してステップ306に移行する。ステップ306において制御マイコン21は番号nに「1」を加算した番号を新たな番号とし、ステップ301に戻る。
【0035】
一方、番号(n+1)が最大水平ラインの番号より大きければ輝度データの読み込みを行うように設定された全てのラインについてステップ301〜304の処理が終了したこととなり、制御マイコン21は図4のルーチンに戻る。
【0036】
以上により、制御マイコン21は水平方向に1ライン分ずつその輝度データを読み込み、白線候補点の抽出を行う。
図4のルーチンに戻った制御マイコン21は、ステップ400のサブルーチンに移行して図9の白線候補直線検出処理を実行する。
【0037】
ステップ400のサブルーチンに移行した制御マイコン21は、ステップ401においてRAM27に一時記憶した白線の候補点群を画像の中央(各ラインの中心)を境にして左右に分離する。
【0038】
次に、ステップ410において制御マイコン21は左右に分離された候補点群のうち、左側に分離された候補点群から候補線を検出する左候補線検出処理を行う。以下、ステップ410において制御マイコン21が行う左候補線検出処理について詳述する。
【0039】
処理がステップ410における左候補線検出処理に至ると、制御マイコン21はステップ402において画像の左側に分離された白線の候補点群を構成している候補点の個数(点数)が予め設定されたしきい値点数より多いかどうかを判断する。尚、このしきい値点数は、画像に白線(候補線)が存在すると判定をするのに好適な値に予め設定されている。
【0040】
ステップ402において画像左側に分離された候補点の点数がしきい値点数よりも多い場合、制御マイコン21はステップ403において左直線存在カウンタi_lを「0」にリセットし、ステップ404に移行する。
【0041】
ステップ404において、制御マイコン21は画像左側に白線が存在すると判定し、画像左側の白線の状態を表すフラグleft_existを「1」に設定記憶する。すなわち、フラグleft_existは値が「1」である場合に画像左側に白線が存在することを表している。なお、このフラグleft_existは、後述の態様で画像左側に白線が存在しないと判定されたときに「0」に設定記憶されるものである。
【0042】
ステップ404において画像左側に白線が存在すると判定されると、次にステップ405において制御マイコン21は、RAM27に一時記憶した白線候補点を読み込んでこの点群を直線にあてはめる。
【0043】
この直線にあてはめる手法として、例えばHough(ハフ)変換が文献等(「松山隆司他:コンピュータビジョン、149/165、新技術コミュニケーションズ:1999」、「P.V.C.Hough:Methods and means for recognizing complex patterns,U.S.Patent No.3069654(1962)」)で知られている。また、この点群を最小2乗法で直線にあてはめてもよい。あるいは、特徴量抽出等のその他各種の手法を採用してもよい。尚、本実施の形態においては最小2乗法を用いて直線への近似を行っている。
【0044】
直線が検出されると制御マイコン21は処理をステップ420に移行する。
一方、ステップ402において画像左側に分離された候補点の点数がしきい値点数以下であった場合、制御マイコン21はステップ406において左直線存在カウンタi_lを「1」加算してRAM27に一時記憶し、ステップ407に移行する。
【0045】
ステップ407において制御マイコン21は、左直線存在カウンタi_lが破線間距離相当回数よりも多いかどうかを判断する。破線間距離相当回数は、本来車線が存在しているにも関わらず、白線が一部かすれていたり、白線が破線で描かれていたりする場合でも正しく白線を検出できるように設定されている。従って、制御マイコン21は走路状況により白線が一時的に検出されなくても、しばらくは白線が存在するものとしてその判定状態を継続する。
【0046】
ステップ407において左直線存在カウンタi_lが破線間距離相当回数以下である場合、制御マイコン21は白線の途切れが一時的なものであると判定し、ステップ404に移行する。そして、同様にステップ404,405の処理を行う。
【0047】
一方、ステップ407において左直線存在カウンタi_lが破線間距離相当回数より多い場合、制御マイコン21は画像左側の白線が継続的に検出されていないと判断し、フラグleft_existを「0」に設定記憶する。フラグleft_existを「0」に設定記憶すると、制御マイコン21はステップ420に移行する。
【0048】
ステップ420において、制御マイコン21は右候補車線の検出処理を実行し、画像右側の白線の存在状態を表すフラグright_existの値の設定記憶及び直線が存在する場合にはその検出を行う。尚、これらステップ420における右候補車線の検出処理は、前述したステップ410の左候補車線の検出処理と同様の態様で行われているためその詳細な説明は省略する。
【0049】
このようにして画像両側についてそれぞれ候補直線の検出処理を行うと、制御マイコン21は該検出処理の結果をRAM27に一時記憶し、図4のルーチンに戻る。
【0050】
図4のルーチンに戻った制御マイコン21はステップ500のサブルーチンに移行して図10の車線認識処理を行う。
処理がステップ500に移行した制御マイコン21は、ステップ501においてRAM27に一時記憶された画像左側及び右側の白線(候補線)の存在状態を表すフラグleft_exist及びright_existの値がともに「1」であるかどうかを判断する。
【0051】
フラグleft_exist及びright_existの値がともに「1」である場合、すなわち画像の左側及び右側に白線が存在すると判断されている場合、制御マイコン21は処理をステップ502に移行する。
【0052】
ステップ502において制御マイコン21は1本追跡回数count_one_lineを「0」にリセットしステップ503に移行する。1本追跡回数count_one_lineとは、画像の左側及び右側のどちらか一方白線のみが検出されない状態が連続して検出された演算回数(図10のルーチンの演算回数)を表し、画像の左側及び右側のどちらか一方白線のみが検出されていない状態の継続時間に相当する。
【0053】
ステップ503において、制御マイコン21は前述した1本追跡終了フラグend_flagを「0」としてRAM27に一時記憶し、ステップ504に処理を移行する。
【0054】
ステップ504において、制御マイコン21はインジケータ14を点灯させ図4のルーチンに戻る。
一方、ステップ501において、フラグleft_exist及びright_existの少なくとも一方の値が「1」でない場合、すなわち画像の左側及び右側の少なくとも一方に白線が存在しないと判断されている場合、制御マイコン21はステップ505に移行する。
【0055】
次に、ステップ505において制御マイコン21は上記フラグleft_exist及びright_existの値がともに「0」であるかどうかを判断する。
【0056】
フラグleft_exist及びright_existの値がともに「0」である場合、すなわち画像の左側及び右側のどちらにも白線が存在しないと判断されている場合、制御マイコン21はステップ506に移行する。
【0057】
ステップ506において、制御マイコン21は1本追跡回数count_one_lineを「0」にするとともに、1本追跡終了フラグend_flagを「0」としてRAM27に一時記憶し、ステップ507に移行する。
【0058】
ステップ507において、制御マイコン21はインジケータ14を消灯させ図4のルーチンに戻る。
ステップ505においてフラグleft_exist及びright_existの値がともに「0」でないと判断された場合、すなわち画像の左側及び右側のどちらか一方白線のみが検出されないと判断された場合、制御マイコン21は処理をステップ508に移行する。
【0059】
ステップ508において制御マイコン21は1本追跡回数count_one_lineが1本追跡回数上限count_one_maxより多いかどうかの判断を行う。
【0060】
ステップ508において1本追跡回数count_one_lineが1本追跡回数上限count_one_maxより多い、すなわち画像の左側及び右側のどちらか一方白線のみが検出されてない状態が設定された期間よりも長く継続すると、制御マイコン21はステップ509に移行する。
【0061】
ステップ509において、制御マイコン21は1本追跡回数count_one_lineを「0」にリセットするとともに1本追跡終了フラグend_flagを「1」としてRAM27に一時記憶し、ステップ507に移行する。
【0062】
ステップ507において、制御マイコン21は前述したのと同様にインジケータ14を消灯させ図4のルーチンに戻る。
ステップ508において1本追跡回数count_one_lineが1本追跡回数上限count_one_max以下である、すなわち画像の左側及び右側のどちらか一方白線のみが検出されていない状態が設定された期間に達していないと判断されると、制御マイコン21はステップ510に移行する。
【0063】
ステップ510において制御マイコン21は、1本追跡回数count_one_lineに「1」を加算してRAM27に一時記憶し、ステップ503に移行する。
【0064】
以上の態様でステップ504または507の処理を終了した制御マイコン21は、図4のルーチンに戻ってステップ107に移行する。
ステップ107において制御マイコン21は、車両1の車線4からの逸脱判定を行う。具体的には、制御マイコン21は予めそのROM(リードオンリーメモリ)領域に記憶している車両1の幅などの情報及びRAM27に記憶された車線4(白線5L,5R)の状態を元に車両1が車線4から左方向もしくは右方向に逸脱する可能性があるかどうかを判定する。ステップ107の処理を終了すると、制御マイコン21はその後の処理を一旦終了する。
【0065】
以上詳述したように、第1の実施の形態によれば、以下に示す効果を得る。
(1)白線5L,5Rの検出状況に応じて1本追跡終了フラグend_flagを変更することにより、白線候補点の検出を実行する際に用いられるしきい値(th)を第1しきい値と第2しきい値との間で変更可能とした。従って、白線5L,5Rが対で検出できないような不安定は路面状況下においては、制御マイコン21は、1本追跡終了フラグend_flagを「1」とすることによってしきい値を第2しきい値に変更する。その結果、しきい値が第1しきい値よりも大きく設定され、ノイズなどを車線境界位置として誤検出することを抑制でき、車線境界位置の検出をより正確に行うことができる。
【0066】
(2)画像の左側及び右側のどちらか一方の白線のみが存在しないと判断されると1本追跡回数count_one_lineによりその状態が継続する時間(演算回数)を監視し、1本追跡回数上限count_one_maxを超えている場合にしきい値(th)の変更を実行した。従って、白線がどちらか一方のみ検出されていない状態が一定時間継続してからしきい値の変更が実行されるため、むやみにしきい値が変更されることを回避できる。そして、これに伴う検出精度の低下も抑制することができる。
【0067】
(3)画像の左側及び右側のどちらか一方の白線のみが存在しないと判断されたとき、制御マイコン21はしきい値を高く設定して白線候補点の検出が行われにくい状況にする。従って、より高いしきい値でも検出しうるより輝度の高い白線が現れるまで白線候補点は検出されないので、より信頼性の高い白線の検出を行うことができる。
【0068】
(第2の実施の形態)
以下、本発明を具体化した第2の実施の形態を図11〜図13に従って説明する。
【0069】
尚、第2の実施の形態は、上述した第1の実施の形態に記載の発明のステップ200におけるしきい値の変更処理の態様を変更したものであり、その他の構成は第1の実施の形態に記載のものとほぼ同様である。従って、第1の実施の形態と同様の構成のものは同一符号を付しその詳細な説明を省略する。
【0070】
図11は、第2の実施の形態が適用される車線逸脱判定装置28を示す概略構成図である。同図に示されるように、この車線逸脱判定装置28は、前記CCDカメラ11と、メインスイッチ12と、インジケータ14と、ブザー15と、ヘッドライト点灯スイッチ30と、判断手段及びしきい値設定手段を構成するコントローラ29とを備えている。
【0071】
ヘッドライト点灯スイッチ30は利用者(運転者など)により操作される図示しないヘッドライトの点灯・消灯用の操作スイッチであり、その操作状態に応じた信号をコントローラ29に出力する。ヘッドライト点灯スイッチ30から出力される信号は、上記ヘッドライトを点灯駆動するオン・オフ信号である。
【0072】
上記コントローラ29は、上記ヘッドライト点灯スイッチ30からの信号を入力する入力回路31を備えている。入力回路31はヘッドライト点灯スイッチ30から信号を入力してこれを制御マイコン21に出力する。制御マイコン21は、該信号によって走行環境の明暗を判断している。すなわち、制御マイコン21は、オン信号が入力されているとき走行環境は暗い(例えば夜間)と判断し、オフ信号が入力されているとき走行環境は明るい(例えば昼間)と判断する。
【0073】
図12は、第2の実施の形態における車線逸脱判定の処理態様を示すフローチャートである。この処理も、前記メインスイッチ12がオン操作されていることを前提に所定時間毎の定時割り込みにて繰り返し実行される。
【0074】
処理がこのルーチンに移行すると、制御マイコン21は、ステップ101において各種データの入力処理を実行する。例えば、制御マイコン21は、前記ヘッドライト点灯スイッチ30の操作状況に応じた信号を入力回路31を介して入力する。
【0075】
次に、制御マイコン21は、ステップ600のサブルーチンに移行し、図13のしきい値の変更処理を実行する。
ステップ600のサブルーチンに移行した制御マイコン21は、まずステップ601において、ヘッドライト点灯スイッチ30がオンされているかどうかを判断する。
【0076】
ステップ601においてヘッドライト点灯スイッチ30がオンされていると判断されると制御マイコン21は、ステップ602に移行し、しきい値(th)を第1しきい値に設定する。一方、ステップ601においてヘッドライト点灯スイッチ30がオンされていないと判断されると制御マイコン21は、ステップ603に移行し、しきい値(th)を第2しきい値に設定する。
【0077】
第1しきい値は、ヘッドライト点灯スイッチ30がオンされている状態(例えば夜間)において好適に白線の状態を検出できる値に設定されている。例えば、ヘッドライトが点灯されることで車両1のテールライトが併せて点灯される。第1しきい値は、このテールライトの点灯がカメラ11の画像に及ぼす影響を考慮して設定されている。また、第2しきい値は、ヘッドライト点灯スイッチ30がオフされている状態(例えば昼間)において好適に白線の状態を検出できる値に設定されている。
【0078】
ステップ602またはステップ603でしきい値(th)を設定すると、制御マイコン21は、図12のルーチンに戻ってステップ102に移行する。
制御マイコン21は、ステップ102及びステップ300において第1の実施の形態と同様にカメラ映像入力処理及び白線候補点の検出処理を行いステップ110に移行する。
【0079】
制御マイコン21はステップ110において白線候補直線処理を行い、更にステップ111に移行して車線認識処理を行う。尚、ステップ110及びステップ111において行われる白線候補直線の検出処理および車線の認識処理については従来知られる方法によって行われておりここではその詳細な説明を省略する。
【0080】
ステップ111において車線の認識処理が行われると、制御マイコン21はステップ107において第1実施の形態と同様に車線の逸脱による判定処理を行いその後の処理を一旦終了する。
【0081】
以上詳述したように、第2の実施の形態によれば、以下に示す効果を得る。
(1)制御マイコン21は、ヘッドライト点灯スイッチ30がオン、またはオフされることによって走行環境の明暗を判断し、しきい値を第1若しくは第2しきい値に変更する。従って、しきい値を走行環境の明暗に応じて好適なものに変更することができ、走行環境の明暗に関わらず常に信頼性の高い車線境界位置の検出を行うことができる。
【0082】
尚、本発明の実施の形態は上記実施の形態に限定されるものではなく、次のように変更してもよい。
・上記第1の実施の形態において、画像の左側及び右側のどちらか一方に白線が検出されない状態の継続時間は、所定ルーチンの演算回数に基づき計測されていた。これに対して例えばタイマにより画像の左側及び右側のどちらか一方に白線が検出されない状態の継続時間を直接計測してもよい。
【0083】
・上記第1の実施の形態においては、白線が検出されていない状態から左側及び右側のどちらか一方の白線が検出された場合、一時インジケータ14が点灯する。しかし、白線が検出されていない状態から白線を検出する場合は、画像両側の白線が検出された時に初めてインジケータ14が点灯するように制御してもよい。
【0084】
・上記第2の実施の形態において、第1及び第2しきい値の変更はヘッドライト点灯スイッチ30のオン信号及びオフ信号に基づき行われていた。しかし、第1及び第2しきい値の変更は他の信号に基づいて行われるようにしてもよく、例えば、車両のスモールライト(車幅灯)、フォグランプ、リアフォグランプ及びテールライトの少なくとも1つのオン・オフ信号若しくはその点灯状態によって制御されていてもよい。
【0085】
また、この場合それぞれのライト及びランプの点灯状態に応じてそれぞれしきい値を設定するようにしてもよい。
・上記各実施の形態において、白線候補点の検出は水平方向の各画素について当該位置に隣接する画素との輝度データの偏差を輝度微分値として演算し、その値の大きさとしきい値とを比較することによって行われた。これに対して、例えば図14に示すように輝度データと同様の第1及び第2しきい値を直接比較することによって白線候補点50〜53を検出するようにしてもよい。
【0086】
・上記各実施の形態において、白線を判断する時に用いる白線候補点は、自車両1の前後方向中心軸に対してその両側でそれぞれ初めてしきい値(th)を超えた位置41,42を選出することによって行われていた。しかし、検出された全ての白線候補点の位置40〜43を白線の決定に用いてもよい。
【0087】
また、例えば上記中心軸に対してその両側でそれぞれ最後にしきい値(th)を超えた位置40,43を用いてもよい。
また、例えば上記中心軸に対してそれぞれの側で初めてしきい値(th)を超えた位置と最後にしきい値(th)を超えた位置との中間位置(または重心位置)を用いてもよい。
【0088】
・上記各実施の形態において、しきい値は第1及び第2しきい値の2種類用いられていたが路面状況などに応じて第3及び第4のしきい値を設定してもよい。
・上記各実施の形態においては、白線候補点の検出にあたってCCDカメラ11の映像信号から抽出された輝度信号をデジタル化した輝度データに基づき演算された輝度微分値としきい値とを比較した。これに対して、CCDカメラ11の映像信号から抽出された輝度信号をアナログのまましきい値相当のアナログ値と比較してもよい。同様に上記輝度信号をアナログのまま微分し、この微分信号の大きさ(絶対値)と上記に準じたしきい値相当のアナログ値と比較してもよい。
【0089】
・上記各実施の形態においては、CCDカメラ11からの映像信号から輝度信号を抽出し、その輝度データに基づいて白線検出を行った。これに対して、例えばカラータイプのカメラでは、映像信号から色相(色合い)のデータを抽出し、これに基づき白線検出を行ってもよい。
【0090】
・前記実施の形態においては、CCDカメラ11により車両1の後方画像を取得し、これに基づく画像認識にて白線5L,5Rを検出した。これに対して、例えばCCDカメラ11を車両1の側部若しくは前部に設置する。そして、CCDカメラ11により車両1の側方画像若しくは前方画像を取得し、これに基づく画像認識にて白線5L,5Rを検出してもよい。このように変更をしても、前記実施の形態と同様の効果が得られる。
【0091】
・前記実施の形態においては、車両1に搭載したCCDカメラ11により車両1の後方画像を取得し、これに基づく画像認識にて白線5L,5Rを検出した。これに対して、例えば道路に配設されたカメラの映像を受信・取得し、これに基づく画像認識にて白線5L,5Rを検出してもよい。このように変更をしても、前記実施の形態と同様の効果が得られる。
【0092】
・前記実施の形態においては、撮像用にCCDカメラ11を採用したが、例えば赤外線カメラやCMOSカメラなどでもよい。
・前記実施の形態においては、車線4の境界線として白線5L,5Rを検出したが、例えば白線に限らず路端を検出してもよい。
【0093】
・例えば、無人搬送車やロボット、路線バスや自動倉庫などに適用しうる自動走行可能な車両システムに本発明を適用してもよい。
次に、以上の実施の形態から把握することができる技術的思想をその効果と共に以下に記載する。
【0094】
(イ)車両に搭載されて走路を撮像する撮像手段からの画像に基づき画素位置に対応させて画像データを取得し、該画像データとしきい値との大小比較に基づき路面上に描かれた一対の車線境界位置を検出する車線境界検出装置において、前記しきい値設定手段は、前記画像データと第2しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方が検出できなくなったとき、前記しきい値を第1しきい値に設定することを特徴とする車線境界検出装置。このように車線境界検出装置を構成しても請求項1に記載の発明と同様の効果が得られる。
【0095】
(ロ)車両に搭載されて走路を撮像する撮像手段からの画像に基づき画素位置に対応させて画像データを取得し、該画像データとしきい値との大小比較に基づき路面上に描かれた車線境界位置を検出する車線境界検出装置において、走行環境の明暗を判断する判断手段と、前記判断手段による走行環境の明暗の判断に応じて前記しきい値を異なる設定にするしきい値設定手段を備えたことを特徴とする車線境界検出装置。このように車線境界検出装置を構成しても請求項3に記載の発明と同様の効果が得られる。
【0096】
(ハ)請求項4に記載の車線境界検出装置において、
前記車両ライトは、ヘッドライト、スモールライト、フォグランプ、リアフォグランプ、テールライト及び制動灯のうちの少なくとも1つであることを特徴とする車線境界検出装置。このように車線境界検出装置を構成しても請求項4に記載の発明と同様の効果が得られる。
【0097】
【発明の効果】
以上詳述したように、本発明によれば、状況の変化に応じて車線境界位置の検出精度を向上することができる車線境界検出装置を提供することができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態を示す概略構成図。
【図2】 第1の実施の形態が適用される車両を示す斜視図。
【図3】 CCDカメラの画像を示す模式図。
【図4】 車線逸脱判定の処理態様を示すフローチャート。
【図5】 しきい値の変更処理態様を示すフローチャート。
【図6】 輝度データの説明図。
【図7】 輝度微分値の説明図。
【図8】 白線候補点検出処理の態様を示すフローチャート。
【図9】 白線候補直線検出処理の態様を示すフローチャート。
【図10】 車線認識処理の態様を示すフローチャート。
【図11】 第2の実施の形態を示す概略構成図。
【図12】 第2の実施の形態の車線逸脱判定の処理態様を示すフローチャート。
【図13】 しきい値の変更処理態様を示すフローチャート。
【図14】 別例の白線候補点検出処理の説明図。
【符号の説明】
1…車両、4…走路としての車線、5L,5R…車線境界位置としての左白線及び右白線、11…画像取得手段としてのCCDカメラ、16…しきい値設定手段としてのコントローラ、29…判断手段及びしきい値設定手段としてのコントローラ。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a lane boundary detection device.
[0002]
[Prior art]
Conventionally, as a lane boundary detection device for detecting a lane boundary position (white line or the like) drawn on a road surface, for example, a device described in Japanese Patent Application Laid-Open No. 63-40913 is known. The apparatus described in the publication takes a runway image using a CCD camera, and acquires luminance data as image data in association with a pixel position based on this image. At this time, the luminance data of the pixel position corresponding to the lane boundary position drawn in the black part of the asphalt becomes larger than the luminance data of the pixel position corresponding to the position of the surrounding asphalt. Therefore, this apparatus detects the lane boundary position by comparing the acquired luminance data with a predetermined threshold value.
[0003]
[Problems to be solved by the invention]
However, on the actual road, there are changes in various situations such as the time zone, the presence of shade and the sun, and thus the luminance data changes significantly. Therefore, an apparatus that uniformly detects the lane boundary position by providing a certain threshold value as described above cannot cope with a change in the situation and may erroneously detect the lane boundary position.
[0004]
The present invention has been made to solve the above problems, and an object of the present invention is to provide a lane boundary detection device capable of improving the detection accuracy of the lane boundary position according to a change in the situation. is there.
[0005]
[Means for Solving the Problems]
According to the first aspect of the present invention, the image data of the road is acquired in correspondence with the pixel position by the image acquisition means mounted on the vehicle, and the image data is drawn on the road surface based on the size comparison between the image data and the threshold value. In the lane boundary detection device for detecting a pair of lane boundary positions, the threshold value is set to one of a first threshold value and a second threshold value larger than the first threshold value. And the threshold value setting means is one of the pair of lane boundary positions based on a magnitude comparison between the image data and a threshold value set as the first threshold value. only When the value cannot be detected, the threshold value is set to the second threshold value.
[0006]
According to a second aspect of the present invention, in the first aspect of the invention, the threshold value setting unit is configured to compare the pair of the image data with a threshold value set as a first threshold value. One of the lane boundary positions only The threshold value is set to the second threshold value when the state in which the detection of the error cannot be detected continues for a predetermined time.
[0008]
( Action)
According to the invention described in claim 1, one of the lane boundary positions only Is no longer detected, the threshold value for detecting the lane boundary position is large, that is, the second threshold value is set to be strict. Therefore, under unstable road conditions where the lane boundary position cannot be detected in pairs, increasing the threshold value suppresses erroneous detection of noise or the like as the lane boundary position, resulting in higher reliability. A lane boundary position is detected.
[0009]
According to invention of Claim 2, either one of lane boundary positions only The threshold value is set to the second threshold value when the state in which no detection is possible continues for a predetermined time. Therefore, one of the lane boundary positions only It is avoided that the threshold value is changed unnecessarily due to the temporary loss of detection.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
A first embodiment of the present invention will be described below with reference to FIGS.
[0012]
FIG. 2 is a perspective view showing a vehicle 1 to which the present embodiment is applied. As shown in the figure, a mounting frame 3 of a license plate 2 is disposed at a substantially central portion of the rear door 1a of the vehicle 1, and an imaging CCD camera 11 as an image acquisition means is disposed above the mounting frame 3. is set up.
[0013]
The CCD camera 11 acquires an image (video) of the road surface behind the vehicle 1 in the manner shown in FIG. 3, and the boundary line of the lane 4 (the lane defined by the lane marking) as a running road that runs within the imaging range. Are mounted so as to include images of the left white line 5L and the right white line 5R.
[0014]
FIG. 1 is a schematic configuration diagram illustrating a lane departure determination apparatus 10 to which the exemplary embodiment is applied. As shown in the figure, the lane departure determination apparatus 10 includes the CCD camera 11, a main switch 12, an indicator 14, a buzzer 15, and a controller 16 constituting threshold value setting means.
[0015]
The CCD camera 11 outputs the acquired image to the controller 16 as an analog video signal.
The main switch 12 is an operation switch for system operation / stop operated by a user (driver or the like), and outputs a signal corresponding to the operation state to the controller 16.
[0016]
The indicator 14 is provided, for example, on an instrument panel in the passenger compartment, and is lit and driven by the controller 16 so that the user can confirm the operation of the system. For example, when white lines are detected on both sides of the vehicle 1, the controller 16 drives the indicator 14 to light.
[0017]
The buzzer 15 is uttered and driven by the controller 16 when it is determined that there is a possibility of lane departure in the process described later.
The controller 16 includes a control microcomputer 21, a luminance signal extraction circuit 22, an input circuit 23, an indicator signal output circuit 25, a buzzer signal output circuit 26, and a RAM (Random Access Memory) 27. ing.
[0018]
The luminance signal extraction circuit 22 receives the video signal from the CCD camera 11 and extracts the luminance signal, and outputs this luminance signal to the control microcomputer 21.
The input circuit 23 inputs a signal corresponding to the operation state from the main switch 12 and outputs it to the control microcomputer 21.
[0019]
The control microcomputer 21 performs processing such as lane departure determination described later based on the signals input via the luminance signal extraction circuit 22 and the input circuit 23, and temporarily stores various data relating to the processing in the RAM 27. Further, the control microcomputer 21 outputs a drive signal to the buzzer signal output circuit 26 in accordance with the determination result of the lane departure, and drives the buzzer 15 through the buzzer signal.
[0020]
FIG. 4 is a flowchart showing a processing mode of lane departure determination in the present embodiment. This process is repeatedly executed by a scheduled interruption every predetermined time on the assumption that the main switch 12 is turned on.
[0021]
When the processing shifts to this routine, the control microcomputer 21 executes various data input processing in step 101.
Next, the control microcomputer 21 proceeds to a subroutine of step 200 and executes the threshold value changing process of FIG.
[0022]
The control microcomputer 21 that has shifted to the subroutine of Step 200 first determines whether or not the value of the single tracking end flag end_flag stored in the RAM 27 in Step 201 is “0”. The one-tracking end flag end_flag is set to a value “1” or a value “0” in the course of lane recognition processing in step 500 described later, and is temporarily stored in the RAM 27.
[0023]
When it is determined in step 201 that the single tracking end flag end_flag is “0”, the control microcomputer 21 proceeds to step 202 and sets the threshold value (th) to the first threshold value. On the other hand, if it is determined in step 201 that the single tracking end flag end_flag is not “0” (value “1”), the control microcomputer 21 proceeds to step 203 and sets the threshold (th) to the second value. Set to threshold. The first threshold value and the second threshold value are set such that the absolute value of the first threshold value is smaller than the absolute value of the second threshold value.
[0024]
The threshold value (th) is referred to in white line candidate point detection processing in step 300 described later, and the detection sensitivity is adjusted so that the larger the value, the harder it is to be extracted as a white line candidate point.
[0025]
When the threshold value (th) is set in step 202 or step 203, the control microcomputer 21 returns to the routine of FIG.
In step 102, the control microcomputer 21 performs camera video input processing. Specifically, the control microcomputer 21 reads the luminance signal extracted from the video signal of the CCD camera 11 and performs A / D (analog / digital) conversion for each pixel, and the RAM 27 as luminance data associated with the pixel position. Temporarily store. This pixel position is defined according to the imaging range of the CCD camera 11 (see FIG. 3). Note that the luminance data is larger as the corresponding luminance is brighter (white) and smaller as it is darker (black). For example, the luminance data is represented by 8 bits (0 to 255). The luminance is closer to the value “255”, and the luminance is closer to the value “0”.
[0026]
When the camera image input process is completed, the control microcomputer 21 proceeds to a subroutine of step 300 and performs the white line candidate point detection process of FIG.
The control microcomputer 21 that has shifted to the subroutine of Step 300 reads the luminance data of each pixel temporarily stored in the RAM 27 for the n-th line in the image horizontal direction in Step 301.
[0027]
FIG. 6 is a graph showing an example of luminance data corresponding to the position of each pixel arranged in the horizontal direction. In the example shown in the figure, the luminance data of the line shows a peak so as to become brighter at positions corresponding to the left white line 5L and the right white line 5R of the lane 4.
[0028]
The line into which the luminance data is read is set in a range suitable for detecting white line candidate points in the vertical direction of the image, and the control microcomputer 21 stores the luminance data in the range in the order of the line numbers. Read.
[0029]
Next, the control microcomputer 21 proceeds to step 302 and calculates a differential value (dBi) of luminance for each pixel (i-th pixel) of the line. The luminance differential value (dBi) of the i-th pixel is obtained by the difference between the luminance data (Bi) of the i-th pixel and the luminance data (Bi + 1) of the adjacent i + 1-th pixel. FIG. 7 is a graph showing a luminance differential value (dBi) corresponding to the position of each pixel arranged in the horizontal direction based on the luminance data shown in FIG.
[0030]
Next, the control microcomputer 21 proceeds to step 303 and determines whether the luminance differential value (dBi) of the i-th pixel is larger than the threshold value (th) set in the subroutine of step 200. When it is determined that the luminance differential value (dBi) of the i-th pixel is larger than the threshold value (th), the control microcomputer 21 proceeds to step 304 and sets the corresponding pixel position as the white line candidate point in the RAM 27. Is temporarily stored, and the process proceeds to step 305. On the other hand, if it is determined that the luminance differential value (dBi) of the i-th pixel is smaller than the threshold value (th), the control microcomputer 21 proceeds to step 305 as it is.
[0031]
Note that the position of the pixel (i-th pixel) in the line is set in a range that is considered appropriate for detecting the white line candidate point, and the differential value (dBi) is sequentially applied to all the pixels in the set range. ) And extraction as white line candidate points (steps 302 to 304).
[0032]
Here, the extraction of the white line candidate points will be further described with reference to FIG. For example, in FIG. 7, assuming that the threshold value (th) is the first threshold value, the luminance differential value (dBi) is larger than the first threshold value at the four positions 40 to 43. The control microcomputer 21 selects a position (41, 42) that exceeds the threshold (th) for the first time on both sides of the center axis in the front-rear direction of the host vehicle 1 among the detected positions 40 to 43 as white line candidate points. Extract as That is, for the positions 40 and 41 detected on the left side, the right position 41 is extracted, and for the positions 42 and 43 detected on the right side, the left position 42 is extracted as a white line candidate point.
[0033]
Next, in step 305, the control microcomputer 21 adds the number (n + 1) obtained by adding 1 to the number (n) of the line from which the luminance data was read in step 301, and is the maximum horizontal line number that is set to read. Judge whether it is larger.
[0034]
If the number (n + 1) is equal to or smaller than the number of the maximum horizontal line, the control microcomputer 21 determines that there is still a horizontal line from which luminance data is read, and proceeds to step 306. In step 306, the control microcomputer 21 sets a number obtained by adding “1” to the number n as a new number, and returns to step 301.
[0035]
On the other hand, if the number (n + 1) is larger than the number of the maximum horizontal line, the processing of steps 301 to 304 has been completed for all the lines set to read the luminance data, and the control microcomputer 21 performs the routine of FIG. Return to.
[0036]
As described above, the control microcomputer 21 reads the luminance data for each line in the horizontal direction and extracts white line candidate points.
The control microcomputer 21 that has returned to the routine of FIG. 4 moves to the subroutine of step 400 and executes the white line candidate straight line detection process of FIG.
[0037]
The control microcomputer 21 that has shifted to the subroutine of step 400 separates the white line candidate point group temporarily stored in the RAM 27 in step 401 into right and left with the center of the image (the center of each line) as a boundary.
[0038]
Next, in step 410, the control microcomputer 21 performs a left candidate line detection process of detecting candidate lines from the candidate point group separated on the left side among the candidate point groups separated on the left and right. Hereinafter, the left candidate line detection process performed by the control microcomputer 21 in step 410 will be described in detail.
[0039]
When the process reaches the left candidate line detection process in step 410, the control microcomputer 21 presets the number (points) of candidate points constituting the white line candidate point group separated on the left side of the image in step 402. Judge whether it is more than the threshold score. This threshold score is set in advance to a value suitable for determining that a white line (candidate line) exists in the image.
[0040]
If the number of candidate points separated on the left side of the image in step 402 is larger than the threshold score, the control microcomputer 21 resets the left straight line presence counter i_l to “0” in step 403, and proceeds to step 404.
[0041]
In step 404, the control microcomputer 21 determines that there is a white line on the left side of the image, and sets and stores a flag left_exist indicating the state of the white line on the left side of the image at “1”. That is, the flag left_exist indicates that a white line exists on the left side of the image when the value is “1”. The flag left_exist is set and stored to “0” when it is determined that there is no white line on the left side of the image in the manner described later.
[0042]
If it is determined in step 404 that a white line exists on the left side of the image, then in step 405, the control microcomputer 21 reads the white line candidate points temporarily stored in the RAM 27 and applies this point group to a straight line.
[0043]
As a method of fitting to this straight line, for example, Hough transformation is based on literature (“Takashi Matsuyama et al .: Computer Vision, 149/165, New Technology Communications: 1999”, “PVC Hough: Methods and means for recognizing. complex patterns, U.S. Patent No. 3069654 (1962) "). Further, this point group may be applied to a straight line by the method of least squares. Alternatively, various other methods such as feature amount extraction may be employed. In this embodiment, approximation to a straight line is performed using the least square method.
[0044]
When the straight line is detected, the control microcomputer 21 proceeds to step 420.
On the other hand, if the number of candidate points separated on the left side of the image in step 402 is equal to or less than the threshold score, the control microcomputer 21 adds “1” to the left straight line presence counter i_l in step 406 and temporarily stores it in the RAM 27. The process proceeds to step 407.
[0045]
In step 407, the control microcomputer 21 determines whether or not the left straight line presence counter i_l is greater than the number of times corresponding to the distance between the broken lines. The number of times corresponding to the distance between the broken lines is set so that the white line can be detected correctly even when the white line is partially blurred or the white line is drawn with a broken line even though the lane originally exists. Therefore, even if the white line is not temporarily detected due to the running road condition, the control microcomputer 21 continues the determination state assuming that the white line exists for a while.
[0046]
When the left straight line presence counter i_l is equal to or less than the number of times corresponding to the distance between the broken lines in step 407, the control microcomputer 21 determines that the white line is temporarily interrupted, and proceeds to step 404. Similarly, the processing of steps 404 and 405 is performed.
[0047]
On the other hand, if the left straight line presence counter i_l is larger than the number corresponding to the distance between the broken lines in step 407, the control microcomputer 21 determines that the white line on the left side of the image is not continuously detected, and sets and stores the flag left_exist to “0”. . When the flag left_exist is set to “0” and stored, the control microcomputer 21 proceeds to step 420.
[0048]
In step 420, the control microcomputer 21 executes the right candidate lane detection process, and performs setting storage of the value of the flag right_exist indicating the presence state of the white line on the right side of the image, and detection of a straight line if it exists. The right candidate lane detection process in step 420 is performed in the same manner as the left candidate lane detection process in step 410 described above, and thus detailed description thereof is omitted.
[0049]
When candidate straight line detection processing is performed for both sides of the image in this way, the control microcomputer 21 temporarily stores the result of the detection processing in the RAM 27 and returns to the routine of FIG.
[0050]
The control microcomputer 21 that has returned to the routine of FIG. 4 proceeds to the subroutine of step 500 and performs the lane recognition process of FIG.
The control microcomputer 21 whose processing has shifted to step 500 determines whether both the values of the flags left_exist and right_exist indicating the presence state of the left and right white lines (candidate lines) of the image temporarily stored in the RAM 27 in step 501 are “1”. Judge whether.
[0051]
If the values of the flags left_exist and right_exist are both “1”, that is, if it is determined that white lines exist on the left and right sides of the image, the control microcomputer 21 proceeds to step 502.
[0052]
In step 502, the control microcomputer 21 resets the single tracking count count_one_line to “0”, and proceeds to step 503. One tracking count count_one_line is either the left or right side of the image of white line only Represents the number of computations in which the state in which no is detected is continuously detected (the number of computations in the routine of FIG. 10), and either the left side or the right side of the image of white line only This corresponds to the duration of the state where is not detected.
[0053]
In step 503, the control microcomputer 21 temporarily stores the single tracking end flag end_flag described above as “0” in the RAM 27, and proceeds to step 504.
[0054]
In step 504, the control microcomputer 21 turns on the indicator 14 and returns to the routine of FIG.
On the other hand, if it is determined in step 501 that at least one of the flags left_exist and right_exist is not “1”, that is, it is determined that there is no white line on at least one of the left side and the right side of the image, the control microcomputer 21 proceeds to step 505. Transition.
[0055]
Next, in step 505, the control microcomputer 21 determines whether or not the values of the flags left_exist and right_exist are both “0”.
[0056]
If the values of the flags left_exist and right_exist are both “0”, that is, if it is determined that there is no white line on either the left or right side of the image, the control microcomputer 21 proceeds to step 506.
[0057]
In step 506, the control microcomputer 21 sets the single tracking count count_one_line to “0”, sets the single tracking end flag end_flag to “0”, temporarily stores it in the RAM 27, and proceeds to step 507.
[0058]
In step 507, the control microcomputer 21 turns off the indicator 14 and returns to the routine of FIG.
If it is determined in step 505 that the values of the flags left_exist and right_exist are not “0”, that is, one of the left side and the right side of the image of white line only If it is determined that is not detected, the control microcomputer 21 proceeds to step 508.
[0059]
In step 508, the control microcomputer 21 determines whether or not the single tracking number count_one_line is larger than the single tracking number upper limit count_one_max.
[0060]
In step 508, the single tracking number count_one_line is larger than the single tracking number upper limit count_one_max, that is, either the left side or the right side of the image. of white line only If the state in which no is detected is continued longer than the set period, the control microcomputer 21 proceeds to step 509.
[0061]
In step 509, the control microcomputer 21 resets the single tracking number count_one_line to “0” and temporarily stores the single tracking end flag end_flag in the RAM 27 as “1”, and proceeds to step 507.
[0062]
In step 507, the control microcomputer 21 turns off the indicator 14 as described above, and returns to the routine of FIG.
In step 508, the single tracking number count_one_line is less than or equal to the single tracking number upper limit count_one_max, that is, either the left side or the right side of the image. of white line only If it is determined that the state in which no is detected has not reached the set period, the control microcomputer 21 proceeds to step 510.
[0063]
In step 510, the control microcomputer 21 adds “1” to the one tracking count count_one_line, temporarily stores it in the RAM 27, and proceeds to step 503.
[0064]
The control microcomputer 21 that has completed the processing of step 504 or 507 in the above manner returns to the routine of FIG.
In step 107, the control microcomputer 21 determines whether the vehicle 1 has deviated from the lane 4. Specifically, the control microcomputer 21 is a vehicle based on information such as the width of the vehicle 1 stored in advance in its ROM (read only memory) area and the state of the lane 4 (white lines 5L and 5R) stored in the RAM 27. It is determined whether 1 may deviate from the lane 4 in the left direction or the right direction. When the process of step 107 is finished, the control microcomputer 21 once finishes the subsequent process.
[0065]
As described above in detail, according to the first embodiment, the following effects are obtained.
(1) By changing the one tracking end flag end_flag according to the detection status of the white lines 5L and 5R, the threshold value (th) used when detecting the white line candidate point is set as the first threshold value. It was possible to change between the second threshold value. Accordingly, instability such that the white lines 5L and 5R cannot be detected in pairs under the road surface condition, the control microcomputer 21 sets the threshold value to the second threshold value by setting the one tracking end flag end_flag to “1”. Change to As a result, the threshold value is set to be larger than the first threshold value, it is possible to suppress erroneous detection of noise or the like as the lane boundary position, and the lane boundary position can be detected more accurately.
[0066]
(2) White line on either the left or right side of the image only If it is determined that there is not, the time (number of operations) that the state continues is monitored by one tracking number count_one_line, and the threshold (th) is changed when the one tracking number upper limit count_one_max is exceeded . Therefore, one of the white lines only Since the threshold value is changed after an undetected state continues for a certain period of time, it is possible to prevent the threshold value from being changed unnecessarily. And the fall of the detection accuracy accompanying this can also be suppressed.
[0067]
(3) White line on either the left or right side of the image only When it is determined that there is not, the control microcomputer 21 sets the threshold value high to make it difficult to detect the white line candidate point. Therefore, since a white line candidate point is not detected until a white line with higher luminance that can be detected even at a higher threshold appears, a more reliable white line can be detected.
[0068]
(Second Embodiment)
A second embodiment embodying the present invention will be described below with reference to FIGS.
[0069]
In the second embodiment, the aspect of the threshold value changing process in step 200 of the invention described in the first embodiment is changed, and other configurations are the same as those in the first embodiment. It is almost the same as that described in the embodiment. Accordingly, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.
[0070]
FIG. 11 is a schematic configuration diagram illustrating a lane departure determination device 28 to which the second exemplary embodiment is applied. As shown in the figure, the lane departure determination device 28 includes a CCD camera 11, a main switch 12, an indicator 14, a buzzer 15, a headlight lighting switch 30, a determination unit and a threshold setting unit. And a controller 29 constituting the above.
[0071]
The headlight lighting switch 30 is an operation switch for turning on / off a headlight (not shown) operated by a user (driver or the like), and outputs a signal corresponding to the operation state to the controller 29. A signal output from the headlight lighting switch 30 is an on / off signal for lighting the headlight.
[0072]
The controller 29 includes an input circuit 31 for inputting a signal from the headlight lighting switch 30. The input circuit 31 receives a signal from the headlight lighting switch 30 and outputs it to the control microcomputer 21. The control microcomputer 21 determines the brightness of the driving environment based on the signal. That is, the control microcomputer 21 determines that the driving environment is dark (for example, nighttime) when the on signal is input, and determines that the driving environment is bright (for example, daytime) when the off signal is input.
[0073]
FIG. 12 is a flowchart showing a processing mode of lane departure determination in the second embodiment. This process is also repeatedly executed by a scheduled interruption every predetermined time on the assumption that the main switch 12 is turned on.
[0074]
When the processing shifts to this routine, the control microcomputer 21 executes various data input processing in step 101. For example, the control microcomputer 21 inputs a signal corresponding to the operation state of the headlight lighting switch 30 via the input circuit 31.
[0075]
Next, the control microcomputer 21 proceeds to a subroutine of step 600 and executes the threshold value changing process of FIG.
The control microcomputer 21 that has shifted to the subroutine of step 600 first determines in step 601 whether or not the headlight lighting switch 30 is turned on.
[0076]
If it is determined in step 601 that the headlight lighting switch 30 is turned on, the control microcomputer 21 proceeds to step 602 and sets the threshold value (th) to the first threshold value. On the other hand, if it is determined in step 601 that the headlight lighting switch 30 is not turned on, the control microcomputer 21 proceeds to step 603 and sets the threshold value (th) to the second threshold value.
[0077]
The first threshold value is set to a value that can suitably detect the white line state in a state where the headlight lighting switch 30 is turned on (for example, at night). For example, when the headlight is turned on, the taillight of the vehicle 1 is also turned on. The first threshold value is set in consideration of the influence of lighting of the taillight on the image of the camera 11. The second threshold value is set to a value that can preferably detect the white line state in a state where the headlight lighting switch 30 is turned off (for example, daytime).
[0078]
When the threshold value (th) is set in step 602 or step 603, the control microcomputer 21 returns to the routine of FIG.
The control microcomputer 21 performs camera image input processing and white line candidate point detection processing in step 102 and step 300 as in the first embodiment, and proceeds to step 110.
[0079]
The control microcomputer 21 performs white line candidate straight line processing in step 110, and further proceeds to step 111 to perform lane recognition processing. The white line candidate straight line detection process and the lane recognition process performed in step 110 and step 111 are performed by a conventionally known method, and detailed description thereof is omitted here.
[0080]
When the lane recognition process is performed in step 111, the control microcomputer 21 performs the determination process based on the lane departure in step 107 as in the first embodiment, and then terminates the subsequent processes.
[0081]
As described in detail above, according to the second embodiment, the following effects are obtained.
(1) The control microcomputer 21 determines whether the driving environment is bright or dark when the headlight lighting switch 30 is turned on or off, and changes the threshold value to the first or second threshold value. Therefore, the threshold value can be changed to a suitable value according to the light and darkness of the driving environment, and the lane boundary position with high reliability can always be detected regardless of the lightness and darkness of the driving environment.
[0082]
In addition, embodiment of this invention is not limited to the said embodiment, You may change as follows.
In the first embodiment, the duration in which no white line is detected on either the left side or the right side of the image is measured based on the number of computations of a predetermined routine. On the other hand, for example, the duration of a state in which no white line is detected on either the left side or the right side of the image may be directly measured by a timer.
[0083]
In the first embodiment, when either the left or right white line is detected from the state where no white line is detected, the temporary indicator 14 is turned on. However, when detecting a white line from a state in which no white line is detected, control may be performed so that the indicator 14 is lit only when white lines on both sides of the image are detected.
[0084]
In the second embodiment, the first and second threshold values are changed based on the on signal and the off signal of the headlight lighting switch 30. However, the change of the first and second threshold values may be performed based on other signals, for example, at least one of a vehicle small light, a fog lamp, a rear fog lamp, and a taillight. It may be controlled by an on / off signal or its lighting state.
[0085]
In this case, the threshold value may be set according to the lighting state of each light and lamp.
In each of the above embodiments, the white line candidate point is detected by calculating the deviation of the luminance data of each pixel in the horizontal direction from the pixel adjacent to the position as a luminance differential value, and comparing the magnitude of the value with a threshold value. Was done by On the other hand, for example, as shown in FIG. 14, the white line candidate points 50 to 53 may be detected by directly comparing the first and second threshold values similar to the luminance data.
[0086]
In each of the above embodiments, the white line candidate points used when determining the white line are selected as positions 41 and 42 that first exceed the threshold (th) on both sides of the center axis of the vehicle 1 in the front-rear direction. Was done by doing. However, the positions 40 to 43 of all detected white line candidate points may be used for determining the white line.
[0087]
Further, for example, positions 40 and 43 that finally exceed the threshold value (th) on both sides of the central axis may be used.
Further, for example, an intermediate position (or center of gravity position) between a position where the threshold value (th) is exceeded for the first time and a position where the threshold value (th) is finally exceeded on each side of the central axis may be used. .
[0088]
In the above embodiments, two types of threshold values, the first and second threshold values, are used. However, the third and fourth threshold values may be set according to the road surface condition.
In each of the above embodiments, the brightness differential value calculated based on the brightness data obtained by digitizing the brightness signal extracted from the video signal of the CCD camera 11 and the threshold value are compared when detecting the white line candidate point. On the other hand, the luminance signal extracted from the video signal of the CCD camera 11 may be compared with an analog value corresponding to the threshold value as it is. Similarly, the luminance signal may be differentiated while being analog, and the magnitude (absolute value) of the differentiated signal may be compared with an analog value corresponding to the threshold value according to the above.
[0089]
In each of the above embodiments, the luminance signal is extracted from the video signal from the CCD camera 11, and the white line is detected based on the luminance data. In contrast, for example, in a color type camera, hue (hue) data may be extracted from a video signal, and white line detection may be performed based on the extracted data.
[0090]
In the above embodiment, the rear image of the vehicle 1 is acquired by the CCD camera 11, and the white lines 5L and 5R are detected by image recognition based on the acquired image. On the other hand, for example, the CCD camera 11 is installed on the side or front of the vehicle 1. Then, a side image or a front image of the vehicle 1 may be acquired by the CCD camera 11, and the white lines 5L and 5R may be detected by image recognition based on the acquired image. Even if such a change is made, the same effect as in the above embodiment can be obtained.
[0091]
In the above embodiment, the rear image of the vehicle 1 is acquired by the CCD camera 11 mounted on the vehicle 1, and the white lines 5L and 5R are detected by image recognition based on this. On the other hand, the white lines 5L and 5R may be detected by receiving and acquiring video from a camera disposed on a road and performing image recognition based on the video. Even if such a change is made, the same effect as in the above embodiment can be obtained.
[0092]
In the above embodiment, the CCD camera 11 is used for imaging, but an infrared camera, a CMOS camera, or the like may be used.
In the above-described embodiment, the white lines 5L and 5R are detected as the boundary lines of the lane 4;
[0093]
For example, the present invention may be applied to a vehicle system capable of automatic traveling that can be applied to an automatic guided vehicle, a robot, a route bus, an automatic warehouse, and the like.
Next, technical ideas that can be grasped from the above embodiments will be described below together with their effects.
[0094]
(A) A pair of images drawn on the road surface based on a size comparison between the image data and a threshold value based on an image from an imaging unit mounted on a vehicle and capturing an image of a running road in correspondence with a pixel position. In the lane boundary detection device for detecting the lane boundary position of the pair of lane boundary positions, the threshold value setting means is configured to detect the pair of lane boundary positions based on a magnitude comparison between the image data and a threshold value set as a second threshold value. A lane boundary detection device characterized in that when either one of them cannot be detected, the threshold value is set to a first threshold value. Thus, even if it comprises a lane boundary detection apparatus, the effect similar to the invention of Claim 1 is acquired.
[0095]
(B) A lane drawn on the road surface based on a comparison between the image data and a threshold value based on an image from an image pickup means that is mounted on the vehicle and picks up an image of the road and corresponding to the pixel position. In the lane boundary detection device for detecting the boundary position, a determination unit that determines the brightness of the driving environment and a threshold setting unit that sets the threshold value differently according to the determination of the lightness and darkness of the driving environment by the determination unit A lane boundary detection device comprising: Thus, even if it comprises a lane boundary detection apparatus, the effect similar to the invention of Claim 3 is acquired.
[0096]
(C) In the lane boundary detection device according to claim 4,
The lane boundary detection device according to claim 1, wherein the vehicle light is at least one of a headlight, a small light, a fog lamp, a rear fog lamp, a taillight, and a brake light. Thus, even if it comprises a lane boundary detection apparatus, the effect similar to the invention of Claim 4 is acquired.
[0097]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide a lane boundary detection device capable of improving the detection accuracy of the lane boundary position according to a change in the situation.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram showing a first embodiment of the present invention.
FIG. 2 is a perspective view showing a vehicle to which the first embodiment is applied.
FIG. 3 is a schematic diagram showing an image of a CCD camera.
FIG. 4 is a flowchart showing a processing mode of lane departure determination.
FIG. 5 is a flowchart showing a threshold value changing process.
FIG. 6 is an explanatory diagram of luminance data.
FIG. 7 is an explanatory diagram of a luminance differential value.
FIG. 8 is a flowchart showing an aspect of white line candidate point detection processing;
FIG. 9 is a flowchart showing a mode of white line candidate straight line detection processing;
FIG. 10 is a flowchart showing an aspect of lane recognition processing.
FIG. 11 is a schematic configuration diagram showing a second embodiment.
FIG. 12 is a flowchart illustrating a lane departure determination process according to the second embodiment.
FIG. 13 is a flowchart showing a threshold changing process.
FIG. 14 is an explanatory diagram of another example of white line candidate point detection processing.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Vehicle, 4 ... Lane as lane, 5L, 5R ... Left white line and right white line as lane boundary position, 11 ... CCD camera as image acquisition means, 16 ... Controller as threshold value setting means, 29 ... Determination And controller as threshold setting means.

Claims (2)

車両に搭載された画像取得手段により画素位置に対応させて走路の画像データを取得し、該画像データとしきい値との大小比較に基づき路面上に描かれた一対の車線境界位置を検出する車線境界検出装置において、
前記しきい値を第1しきい値及び該第1しきい値よりも大きい第2しきい値のいずれか一方に設定するしきい値設定手段を備え、
前記しきい値設定手段は、前記画像データと第1しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方のみが検出できなくなったとき、前記しきい値を第2しきい値に設定することを特徴とする車線境界検出装置。
A lane for acquiring a pair of lane boundary positions drawn on the road surface by acquiring image data of the road corresponding to the pixel position by an image acquisition means mounted on the vehicle and comparing the size of the image data with a threshold In the boundary detection device,
Threshold setting means for setting the threshold to one of a first threshold and a second threshold greater than the first threshold;
The threshold value setting means detects when only one of the pair of lane boundary positions cannot be detected based on a magnitude comparison between the image data and the threshold value set as the first threshold value. A lane boundary detection device characterized in that a threshold value is set to a second threshold value.
請求項1に記載の車線境界検出装置において、
前記しきい値設定手段は、前記画像データと第1しきい値に設定されたしきい値との大小比較に基づき前記一対の車線境界位置のいずれか一方のみが検出できなくなった状態が所定時間継続したとき、前記しきい値を第2しきい値に設定することを特徴とする車線境界検出装置。
The lane boundary detection device according to claim 1,
The threshold value setting means is in a state in which only one of the pair of lane boundary positions cannot be detected based on a magnitude comparison between the image data and the threshold value set as the first threshold value for a predetermined time. A lane boundary detection device, characterized in that the threshold value is set to a second threshold value when continued.
JP2002145701A 2002-05-21 2002-05-21 Lane boundary detection device Expired - Fee Related JP3855102B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002145701A JP3855102B2 (en) 2002-05-21 2002-05-21 Lane boundary detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002145701A JP3855102B2 (en) 2002-05-21 2002-05-21 Lane boundary detection device

Publications (2)

Publication Number Publication Date
JP2003337997A JP2003337997A (en) 2003-11-28
JP3855102B2 true JP3855102B2 (en) 2006-12-06

Family

ID=29704905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002145701A Expired - Fee Related JP3855102B2 (en) 2002-05-21 2002-05-21 Lane boundary detection device

Country Status (1)

Country Link
JP (1) JP3855102B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4248558B2 (en) 2006-03-24 2009-04-02 トヨタ自動車株式会社 Road marking line detection device
JP5151814B2 (en) * 2008-08-28 2013-02-27 株式会社デンソー Traveling zone detection device and program for traveling zone detection device
DE102011087797A1 (en) * 2011-12-06 2013-06-06 Robert Bosch Gmbh Method and device for localizing a predefined parking position

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129900A (en) * 1993-11-05 1995-05-19 Fujitsu Ten Ltd Obstacle detecting device for vehicle
JPH09288737A (en) * 1996-04-22 1997-11-04 Mitsubishi Electric Corp Onboard picture processor
JP3330285B2 (en) * 1996-06-20 2002-09-30 本田技研工業株式会社 Vehicle white line detection device
JP3872638B2 (en) * 2000-08-29 2007-01-24 株式会社日立製作所 Cruise control system and vehicle equipped with it

Also Published As

Publication number Publication date
JP2003337997A (en) 2003-11-28

Similar Documents

Publication Publication Date Title
US20220245953A1 (en) Vehicular imaging system
US7307545B2 (en) Vehicle lane detector
EP2150437B1 (en) Rear obstruction detection
CN108357418B (en) Preceding vehicle driving intention analysis method based on tail lamp identification
JP3909691B2 (en) In-vehicle image processing device
US20070211482A1 (en) Method for controlling the automatic switching of the projector of a vehicle
US20140226349A1 (en) Apparatus for detecting other vehicle lights and light control apparatus for vehicles
JP2009043068A (en) Traffic light recognition system
JP6420650B2 (en) Outside environment recognition device
CN113313935B (en) Image processing apparatus and image processing method
JP2006298362A (en) Method for early detection of arrival at dark area
CN113246846A (en) Vehicle light control method and device and vehicle
JP3855102B2 (en) Lane boundary detection device
JP3914447B2 (en) Image-type vehicle detection system and image-type vehicle detection method
JP2007124676A (en) On-vehicle image processor
US10977500B2 (en) Street marking color recognition
JP3986363B2 (en) Lane boundary detection device
JP3857612B2 (en) Lane boundary detection device
JP3844750B2 (en) Infrared image recognition device and alarm device using infrared image recognition device
JP2003044863A (en) Device for recognizing partition line
JP2022060118A (en) Section line recognition device
JPH05282592A (en) Image processing-type vehicle sensor and method for processing traffic information
JP4263660B2 (en) Vehicle runway determination device
JP4703706B2 (en) Vehicle runway determination device
JPH07121794A (en) Vehicle registered number recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050428

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060509

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060828

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110922

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120922

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130922

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees