JP5908946B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP5908946B2
JP5908946B2 JP2014125142A JP2014125142A JP5908946B2 JP 5908946 B2 JP5908946 B2 JP 5908946B2 JP 2014125142 A JP2014125142 A JP 2014125142A JP 2014125142 A JP2014125142 A JP 2014125142A JP 5908946 B2 JP5908946 B2 JP 5908946B2
Authority
JP
Japan
Prior art keywords
lane
mode
image
color difference
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014125142A
Other languages
English (en)
Other versions
JP2016004459A (ja
Inventor
悠一郎 田村
悠一郎 田村
健作 夏目
健作 夏目
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2014125142A priority Critical patent/JP5908946B2/ja
Priority to CN201510319970.2A priority patent/CN105282498B/zh
Priority to DE102015109564.5A priority patent/DE102015109564B9/de
Priority to US14/742,418 priority patent/US9690995B2/en
Publication of JP2016004459A publication Critical patent/JP2016004459A/ja
Application granted granted Critical
Publication of JP5908946B2 publication Critical patent/JP5908946B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、自車両の進行方向を撮像して得られた撮像画像に基づき被写体として写し出された車線を検出する画像処理装置についての技術分野に関する。
特許第4365350号公報
例えば、車外環境を認識する車両システムにおいては、自車両の進行方向を一対のカメラでステレオ撮像して得られた撮像画像に基づいて被写体を認識するものがある。また、このように自車両の進行方向に存在する被写体を認識するシステムでは、被写体までの距離の情報も含めた被写体の三次元位置情報(実空間上における位置の情報)を生成するシステムがある。具体的には、上記のステレオ撮像により視点の異なる撮像画像を得、それら撮像画像に基づいて被写体の視差を算出し、該視差に基づいて被写体の三次元位置情報を生成するものである。
また、車外環境の認識としては、路面に形成された白線等の車線を検出し、車線の三次元モデルから進行方向に存在するカーブの検出や路面の勾配の検出等を行うものがある。
車線検出は、路面と白線との輝度差が比較的大きいことを利用して、輝度画像に基づいて行うことが一般的とされている。
なお、ここでの「車線」とは、路面に対し塗装等により形成されて走行レーンの境界を表す線のことを意味する。
しかしながら、車線としては白色の車線以外に例えばオレンジ色車線(黄色車線)等の有色の車線も存在する。有色の車線は白色の車線に対して輝度が小さいため、例えば比較的輝度の大きいコンクリート地の道路上を走行中である場合等、走行状況によっては路面と車線との輝度差が十分に得られない、或いは車線の輝度が路面輝度よりも小さくなり、車線検出ができないケースが生じ得る。
有色車線を安定的に検出するためには、色差画像に基づく検出を行うことが有効である。例えば、オレンジ色車線については、V画像(R−G)やU画像(B−G)に基づく検出を行うことが有効である。
但し、色差画像に基づく検出は、有色車線についての検出精度は向上できるものの、白色車線の検出精度については輝度画像に基づく検出を行う場合よりも低下してしまうため、白色車線と有色車線の双方を適切に検出するためには、共通の画像部分に対して輝度画像に基づく検出と色差画像に基づく検出の双方を実行することが考えられる。
しかしながら、共通の画像部分に対して二種の車線検出を行うことは処理負担の増大化を招き好ましくない。
また、通常、有色車線の出現率は白色車線に対して少ないため、色差画像に基づく車線検出を輝度画像に基づく車線検出と共に常時行うことは同様に処理負担の増大化の面で望ましくない。
そこで、本発明は上記した問題点を克服し、処理負担の軽減を図りつつ、白色車線と有色車線の双方を適切に検出できるようにすることを目的とする。
第1に、本発明に係る画像処理装置は、自車両の進行方向を撮像してカラー画像としての撮像画像を得る撮像部と、前記撮像部により得られた撮像画像に基づき被写体として写し出された車線を検出する車線検出部とを備え、前記車線検出部は、前記撮像画像に対して設定された車線探索範囲を対象とした車線検出処理として、前記車線探索範囲内における過半数以上の行について輝度画像に基づいた車線部分の検出を行い且つその他の行について色差画像に基づいた車線部分の検出を行う第1モードによる車線検出処理と、前記色差画像に基づく車線部分の検出を前記第1モード時よりも多くの行で行う第2モードによる車線検出処理とを実行可能とされると共に、前記色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出された行の数に基づいて、前記第1モードと前記第2モードとの間のモード移行判定、及び判定結果に基づくモード移行制御を行うモード移行制御処理を実行するものである。
第1モードでは、主として輝度画像に基づく検出を行っていることで白色車線の車線部分の検出が可能とされると共に、色差画像に基づく検出も併せて行っていることで、有色車線の車線部分の有無を確認することが可能とされる。有色車線が出現した場合には、モード移行制御処理により第1モードから第2モードへのモード移行が行われて色差画像に基づく検出が行われる行が増やされることで、有色車線を適切に検出可能とされる。
これにより、白色車線と有色車線の双方を適切に検出可能とするにあたり、同一の行について輝度画像に基づく検出と色差画像に基づく検出の双方を行う必要がなくなる。
第2に、上記した本発明に係る画像処理装置においては、前記車線探索範囲は、前記撮像画像内の左右に離間して二つ設定されており、前記車線検出部は、前記モード移行制御処理を前記車線探索範囲ごとに実行することが望ましい。
これにより、有色車線が進行方向の右側に存在する場合、及び左側に存在する場合の双方に対応可能となる。
第3に、上記した本発明に係る画像処理装置においては、前記第1モード時における前記色差画像に基づく車線部分の検出を行う行の間隔が、実空間上の一定距離間隔に相当する間隔に設定されていることが望ましい。
これにより、例えば画像空間上での一定間隔とする場合と比較して有色車線のサンプリング間隔が適切となる。
第4に、上記した本発明に係る画像処理装置においては、前記第2モード時においては、前記輝度画像に基づいた車線部分の検出を行う行と前記色差画像に基づいた車線部分の検出を行う行とが1行おきに交互に配置されていることが望ましい。
これにより、同一車線探索範囲内に白色車線と有色車線の双方が存在する場合に、双方の車線を適切に検出可能とされる。
第5に、上記した本発明に係る画像処理装置においては、前記撮像部は、自車両の進行方向をステレオ撮像して一対の撮像画像を得、前記撮像部により得られた前記一対の撮像画像に基づいて被写体の視差を算出する視差算出部をさらに備え、前記車線検出部は、前記モード移行制御処理における前記モード移行判定を、前記色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出され且つ検出された車線部分の視差の値が所定範囲内である行の数に基づいて行うことが望ましい。
検出された車線部分の視差の値が所定範囲内にあるということは、該車線部分はステレオ撮像された他方の撮像画像(車線部分の検出に用いられていない側の画像)においても写し出されていると推測される。このため、上記のようにモード移行判定の条件として視差の値が所定範囲内であるとの条件を課すようにすれば、例えば片側のカメラにのみ付着したゴミ等による車線部分の誤検出に反応してモード移行判定で肯定結果が得られてしまうことの防止が図られる。
第6に、上記した本発明に係る画像処理装置においては、前記車線検出部は、前記モード移行制御処理として、前記モード移行判定をフレームごとに行い、前記第1モードから前記第2モードへの移行制御は、前記モード移行判定により移行を肯定する判定結果が得られたことに応じて行い、前記第2モードから前記第1モードへの移行制御は、前記モード移行判定により移行を肯定する判定結果が得られた回数が所定回数に達したことに応じて行うことが望ましい。
これにより、第2モードへの移行後、即座に第1モードに戻されてしまうことがない。
第7に、上記した本発明に係る画像処理装置においては、前記車線検出部は、前記モード移行制御処理における前記モード移行判定を、前記色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出され且つ検出された車線部分の所定の色成分の含有率が所定の率以上である行の数に基づいて行うことが望ましい。
これにより、有色車線の色の特徴も加味したモード移行判定が実現される。
本発明によれば、処理負担の軽減を図りつつ、白色車線と有色車線の双方を適切に検出することができる。
実施の形態の車両制御システムの構成を示した図である。 実施の形態で実行される画像処理について説明するための図である。 車線探索範囲についての説明図である。 路面上の左側に白色車線、右側に有色車線が形成されている場合の撮像画像を例示した図である。 輝度重視モード、色差・輝度モードの説明図である。 白色車線と有色車線とが近接して配置された二重ラインの説明図である。 輝度重視モード対応処理のフローチャートである。 色差・輝度モード対応処理のフローチャートである。
<1.システム全体構成>
図1は、本発明に係る実施の形態としての画像処理装置を備えた車両制御システム1の構成を示している。なお、図1では、車両制御システム1の構成のうち主に本発明に係る要部の構成のみを抽出して示している。
車両制御システム1は、自車両に対して設けられた撮像部2、画像処理部3、メモリ4、運転支援制御部5、表示制御部6、エンジン制御部7、トランスミッション制御部8、ブレーキ制御部9、センサ・操作子類10、表示部11、エンジン関連アクチュエータ12、トランスミッション関連アクチュエータ13、ブレーキ関連アクチュエータ14、及びバス15を備えて構成されている。
画像処理部3は、撮像部2が自車両の進行方向(本例では前方)を撮像して得られた撮像画像データに基づき、車外環境の認識に係る所定の画像処理を実行する。画像処理部3による画像処理は、例えば不揮発性メモリ等とされたメモリ4を用いて行われる。なお、撮像部2の内部構成や画像処理部3が実行する具体的な処理の詳細については後述する。
運転支援制御部5は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータで構成され、画像処理部3による画像処理の結果やセンサ・操作子類10で得られる検出情報や操作入力情報等に基づき、運転支援のための各種の制御処理(以下「運転支援制御処理」と表記)を実行する。
運転支援制御部5は、同じくマイクロコンピュータで構成された表示制御部6、エンジン制御部7、トランスミッション制御部8、ブレーキ制御部9の各制御部とバス15を介して接続されており、これら各制御部との間で相互にデータ通信を行うことが可能とされる。運転支援制御部5は、上記の各制御部のうち必要な制御部に対して指示を行って運転支援に係る動作を実行させる。
センサ・操作子類10は、自車両に設けられた各種のセンサや操作子を包括的に表している。センサ・操作子類10が有するセンサとしては、自車両の速度を検出する速度センサ10A、ブレーキペダルの操作/非操作に応じてON/OFFされるブレーキスイッチ10B、アクセルペダルの踏込み量からアクセル開度を検出するアクセル開度センサ10C、操舵角を検出する舵角センサ10D、ヨーレート(Yaw Rate)を検出するヨーレートセンサ10E、及び加速度を検出するGセンサ10Fがある。また、図示は省略したが、他のセンサとして、例えばエンジン回転数センサ、吸入空気量を検出する吸入空気量センサ、吸気通路に介装されてエンジンの各気筒に供給する吸入空気量を調整するスロットル弁の開度を検出するスロットル開度センサ、エンジン温度を示す冷却水温を検出する水温センサ、車外の気温を検出する外気温センサ等も有する。
また、操作子としては、エンジンの始動/停止を指示するためのイグニッションスイッチや、AT(オートマティックトランスミッション)車における自動変速モード/手動変速モードの選択や手動変速モード時におけるシフトアップ/ダウンの指示を行うためのセレクトレバーや、後述する表示部11に設けられたMFD(Multi Function Display)における表示情報の切り換えを行うための表示切換スイッチなどがある。
表示部11は、運転者の前方に設置されたメータパネル内に設けられるスピードメータやタコメータ等の各種メータやMFD、及びその他運転者に情報提示を行うための表示デバイスを包括的に表している。MFDには、自車両の総走行距離や外気温、瞬間燃費等といった各種の情報を同時又は切り換えて表示可能とされる。
表示制御部6は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、表示部11による表示動作を制御する。例えば、運転支援制御部5からの指示に基づき、運転支援の一環として表示部11(例えばMFDの所定領域)に所定の注意喚起メッセージを表示させることが可能とされている。
エンジン制御部7は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、エンジン関連アクチュエータ12として設けられた各種アクチュエータを制御する。エンジン関連アクチュエータ12としては、例えばスロットル弁を駆動するスロットルアクチュエータや燃料噴射を行うインジェクタ等のエンジン駆動に係る各種のアクチュエータが設けられる。
例えばエンジン制御部7は、前述したイグニッションスイッチの操作に応じてエンジンの始動/停止制御を行う。また、エンジン制御部7は、エンジン回転数センサやアクセル開度センサ10C等の所定のセンサからの検出信号に基づき、燃料噴射タイミング、燃料噴射パルス幅、スロットル開度等の制御も行う。
トランスミッション制御部8は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、トランスミッション関連アクチュエータ13として設けられた各種のアクチュエータを制御する。トランスミッション関連アクチュエータ13としては、例えば自動変速機の変速制御を行うコントロールバルブや、ロックアップクラッチをロックアップ動作させるロックアップアクチュエータ等のトランスミッション関連の各種アクチュエータが設けられる。
例えばトランスミッション制御部8は、前述したセレクトレバーによって自動変速モードが選択されている際には、所定の変速パターンに従い変速信号をコントロールバルブに出力して変速制御を行う。
また、トランスミッション制御部8は、手動変速モードの設定時には、セレクトレバーによるシフトアップ/ダウン指示に従った変速信号をコントロールバルブに出力して変速制御を行う。
ブレーキ制御部9は、センサ・操作子類10における所定のセンサからの検出信号や操作子による操作入力情報等に基づき、ブレーキ関連アクチュエータ14として設けられた各種のアクチュエータを制御する。ブレーキ関連アクチュエータ14としては、例えばブレーキブースターからマスターシリンダへの出力液圧やブレーキ液配管内の液圧をコントロールするための液圧制御アクチュエータ等、ブレーキ関連の各種のアクチュエータが設けられる。例えばブレーキ制御部9は、運転支援制御部5よりブレーキをONする指示が為された場合に上記の液圧制御アクチュエータを制御して自車両を制動させる。またブレーキ制御部9は、所定のセンサ(例えば車軸の回転速度センサや車速センサ10A)の検出情報から車輪のスリップ率を計算し、スリップ率に応じて上記の液圧制御アクチュエータにより液圧を加減圧させることで、所謂ABS(Antilock Brake System)制御を実現する。
<2.本実施の形態で実行される画像処理>
図2により、本実施の形態で実行される画像処理について説明する。
なお、図2では画像処理について説明するため、画像処理部3の構成と共に図1に示した撮像部2の内部構成及びメモリ4も併せて示している。先ず、画像処理に用いる撮像画像データを得るための撮像部2について簡単に説明しておく。
撮像部2には、第1カメラ部20−1、第2カメラ部20−2、A/D変換器21−1、A/D変換器21−2、及び画像補正部22が設けられている。
第1カメラ部20−1、第2カメラ部20−2は、それぞれカメラ光学系とCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えて構成され、前記カメラ光学系により前記撮像素子の撮像面に被写体像が結像され、該撮像素子にて受光光量に応じた電気信号が画素単位で得られる。
第1カメラ部20−1、第2カメラ部20−2は、いわゆるステレオ撮像法による測距が可能となるように設置される。すなわち、視点の異なる複数の撮像画像が得られるように配置されている。本例における第1カメラ部20−1、第2カメラ部20−2は、自車両のフロントガラス上部近傍において、車幅方向に所定間隔を空けて配置されている。第1カメラ部20−1、第2カメラ部20−2の光軸は平行とされ、焦点距離はそれぞれ同値とされる。また、フレーム周期は同期し、フレームレートも一致している。
第1カメラ部20−1の撮像素子で得られた電気信号はA/D変換器21−1に、第2カメラ部20−2の撮像素子で得られた電気信号はA/D変換器21−2に供給され、それぞれA/D変換が行われる。これにより、画素単位で所定階調による輝度値を表すデジタル画像信号(画像データ)が得られる。本実施の形態において、第1カメラ部20−1及び第2カメラ部20−2はR(赤),G(緑),B(青)によるカラー撮像画像を得ることが可能とされており、上記の輝度値としてはR,G,Bのそれぞれに対応した値が得られる。また、本例の場合、第1カメラ部20−1、第2カメラ部20−2が有する撮像素子の有効画素数は、例えば水平方向1280画素程度×垂直方向960画素程度とされている。
画像補正部22には、A/D変換器21−1を介して得られる第1カメラ部20−1による撮像画像に基づく画像データ(以下「第1撮像画像データ」と表記)と、A/D変換器21−2を介して得られる第2カメラ部20−2による撮像画像に基づく画像データ(以下「第2撮像画像データ」と表記)とが入力される。画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対し、第1カメラ部20−1、第2カメラ部20−2の取り付け位置の誤差に起因するずれの補正を例えばアフィン変換等を用いて行う。また画像補正部22は、第1撮像画像データ、第2撮像画像データのそれぞれに対しノイズの除去等を含む輝度値の補正も行う。
撮像部2で得られた第1撮像画像データ、第2撮像画像データは、画像処理部3によってメモリ4に記録・保持される。
画像処理部3は、例えばマイクロコンピュータで構成され、起動されたプログラムに従って第1撮像画像データ、第2撮像画像データに基づく各種の画像処理を実行する。
図2においては、画像処理部3が実行する各種の画像処理を機能ごとに分けてブロック化して示している。図のように画像処理部3は、機能ごとに大別すると、三次元位置情報生成処理部3A、車線検出処理部3B、車線モデル形成処理部3C、及び先行車両検出処理部3Dを有している。
三次元位置情報生成処理部3Aが実行する三次元位置情報生成処理は、メモリ4に保持された第1撮像画像データ、第2撮像画像データに基づき三次元位置情報を生成する処理となる。具体的に、三次元位置情報生成処理は、第1撮像画像データと第2撮像画像データ(つまりステレオ撮像された一対の画像データ)の間の対応点をパターンマッチングにより検出し、検出された対応点間の座標のずれを視差dpとして算出し、視差dpを用いて三角測量の原理により実空間上における対応点の位置の情報を三次元位置情報として生成する処理である。
上記のような視差dpとしての座標のずれを算出するにあたっては、予め第1撮像画像データ、第2撮像画像データのうちの一方が「基準画像」、他方が「比較画像」として定められている。比較画像は、基準画像上の水平方向端部に位置する物体についての視差dpの算出を可能とするため、基準画像よりも水平方向画素数が多い画像として生成されている。
ここで、三次元位置情報は、一対のカメラ(第1カメラ部20−1と第2カメラ部20−2)の中央真下の点を原点とし、一対のカメラを結ぶ方向にX軸、上下方向にY軸、前後方向にZ軸ととった場合の空間上の点(X,Y,Z)として表される情報である。
三次元位置情報としてのX,Y,Zの各値は、基準画像における水平方向に平行な軸をi軸、垂直方向に平行な軸をj軸としたときの画素の座標を(i,j)で表し、一対のカメラの間隔をCD、1画素当たりの視野角をPW、一対のカメラの取り付け高さをCH、カメラ正面の無限遠点の基準画像上でのi座標、j座標をそれぞれIV、JVとしたときに、下記[式1]〜[式3]で表される座標変換により求まる。
X=CD/2+Z×PW×(i−IV) …[式1]
Y=CH+Z×PW×(j−JV) …[式2]
Z=CD/{PW×(dp−DP)} …[式3]
上記[式3]における「DP」は、消失点視差や無限遠対応点などとも称されるが、要するに基準画像と比較画像の間の対応点間の視差dpと、対応点までの実空間上での距離Zとが上記[式3]を満たすようにして決定される値である。以下、この「DP」については「視差オフセット値DP」と表記する。
車線検出処理部3Bが実行する車線検出処理は、基準画像(つまり第1撮像画像データ又は第2撮像画像データのうち予め設定された方の画像データ)と、上記の三次元位置情報生成処理で生成された三次元位置情報(対応点としての画素ごとの距離Zを含む)とに基づき、自車両が走行する路面上に形成された車線(被写体として写し出された車線)を検出する処理となる。
なお、本実施の形態における車線検出処理の詳細については後に改めて説明する。
車線モデル形成処理部3Cが実行する車線モデル形成処理は、上記の車線検出処理で検出された車線の情報(車線候補点)に基づき、X,Y,Zの各軸で定義される三次元空間上における車線モデルを形成する処理である。具体的には、後述するように車線検出処理で行ごと(水平ラインごと)に検出される車線の開始位置dsと終了位置de(それぞれ(X,Y,Z)による三次元位置情報で検出される)のうち少なくとも開始位置dsを例えば最小二乗法等で直線近似して、三次元空間上における車線モデルを形成する。このように形成された車線モデルにより、自車両が走行する路面の高さ情報も得られたことになる。
先行車両検出処理部3Dが実行する先行車両検出処理は、基準画像と三次元位置情報とに基づき自車両の前方に存在する先行車両を検出する処理である。この先行車両検出処理では、先ず、三次元位置情報に基づき物体検出処理を行い、画像内に存在する物体を該物体までの距離Zの情報も含めて検出する。例えばこの物体検出処理では、先の視差dpの算出過程で検出された各対応点をその距離Zの値を対応づけて画像上に表した距離画像を生成し、該距離画像を縦方向に仕切る複数の縦領域に分割し、縦領域ごとに画像縦方向(j方向)の距離分布を表す距離ヒストグラムを作成し、度数が最大となる位置(対応点)の距離Zをその縦領域内に存在する物体の代表距離とする。そして、代表距離が得られた度数最大となる各対応点について、近接する各対応点までの距離Zや方向などの関係性から、同一物体とみなされる画素範囲をグループ化し、画像内に存在する各物体の範囲を特定する。これにより、画像内に存在する物体が該物体までの距離Zの情報も含めて検出される。
ここで、上記の距離画像はフレームごとに順次得られるものである。先行車両検出処理では、複数フレームにわたって検出物体の距離Zの情報をモニタすることで、自車両の走行路上に存在する物体であって、自車両と略同じ方向に所定の速度で移動するものを先行車両として抽出する。このとき、車両以外の物体の誤検出を抑制するために、基準画像を用いたパターンマッチング(例えばブレーキランプ部分等の車両の特徴点に基づくパターンマッチング)も併せて行う。
先行車両を検出した場合は、先行車両検出情報として先行車距離(=自車両との車間距離)、先行車速度(=車間距離の変化割合+自車速)、先行車加速度(=先行車速の微分値)を算出・保持する。
なお、上記の先行車両検出処理の手法は特開2012−66759号公報に開示された手法と同様であり、詳しくは該文献を参照されたい。
また、先行車両検出処理部3Dは、先行車両の入れ替わりを検出可能とされている。先行車両の入れ替わりとは、検出中であった先行車両が自車両の前方から離脱したことに伴いその前方にある車両が新たに先行車両として検出された場合や、検出中であった先行車両と自車両との間に他の車両が割り込んで当該他の車両が新たに先行車両として検出されるなど、検出中であった先行車両に変わって他の車両が新たに先行車両として検出された場合を意味する。
<3.実施の形態の車線検出処理>
車線検出処理部3Bが実行する車線検出処理の詳細について説明する。
図2に示されるように、車線検出処理部3Bは、機能ごとに大別して、探索範囲設定処理部30、輝度重視モード処理部31、色差・輝度モード処理部32、及びモード移行制御処理部33を有しているものと表すことができる。
探索範囲設定処理部30が実行する探索範囲設定処理は、基準画像内で車線の探索を行う範囲としての車線探索範囲saを設定する処理である。本例の場合、車線探索範囲saとしては画像内の右側に配される右側車線探索範囲saRと左側に配される左側車線探索範囲saLの二つを設定する。
探索範囲設定処理では、車線が未検出の場合には、図3Aに示されるような右側車線探索範囲saR及び左側車線探索範囲saLを設定する。車線が未検出の場合における右側車線探索範囲saR、左側車線探索範囲saLとしては、それぞれ基準画像内において右側の車線が写し出されることが予想される範囲、左側の車線が写し出されることが予想される範囲を含むように比較的広範囲に設定される。具体的に、右側車線探索範囲saRとしては、探索開始位置isRから探索終了位置ieRまでの幅が比較的広く設定され、左側車線探索範囲saLとしては探索開始位置isLから探索終了位置ieLまでの幅が比較的広く設定される。
なお、右側車線探索範囲saRについて、左辺側が探索開始位置isR、右辺側が探索終了位置ieRとされているのは、右側車線探索範囲saRでは左側から右側にかけて車線の探索(後述するピーク値の探索)が行われることに由来している。一方、左側車線探索範囲saLについて右辺側が探索開始位置isL、左辺側が探索終了位置ieLと称されるのは、左側車線探索範囲saLでは逆に右側から左側にかけて車線の探索が行われることに由来している。なお、この点からも理解されるように、それぞれの車線探索範囲saにおける探索方向は、共に自車両の中心側から外側にかけての方向とされている。
また、探索範囲設定処理では、車線が検出された場合には、車線の開始位置dsと終了位置deとを基準とした車線探索範囲saを設定する。
図3Bは、右側と左側の双方の車線が検出された場合に対応して設定された右側車線探索範囲saR、左側車線探索範囲saLの例を示している。
この場合の右側車線探索範囲saRは、右側で検出された車線の開始位置dsRから左側に所定画素数分オフセットした位置を探索開始位置isRとし、該右側で検出された車線の終了位置deRから右側に所定画素数分オフセットした位置を探索終了位置ieRとした範囲として設定される。また、この場合の左側車線探索範囲saLは、左側で検出された車線の開始位置dsLから右側に所定画素数分オフセットした位置を探索開始位置isLとし、該左側で検出された車線の終了位置deLから左側に所定画素数分オフセットした位置を探索終了位置ieLとした範囲として設定される。
なお、車線探索範囲saの幅は実空間上での幅を略一定とするため、上記のように車線の開始位置dsや終了位置deに対して与えるオフセットは距離Zに応じて可変とする(遠いほど狭くする)。すなわち、jの値が大きい行(水平ライン)ほどオフセットが小さくなる傾向とする。
図2に戻り、輝度重視モード処理部31が実行する輝度重視モード処理は、車線探索範囲sa内における過半数以上の行について輝度画像に基づいた車線部分の検出を行い且つその他の行について色差画像に基づいた車線部分の検出を行う処理である。
ここで、前述もしたが、車線としては、白色車線のみでなく例えばオレンジ色車線(黄色車線)等の有色車線も存在する。図4A及び図4Bは、共に路面上の左側に白色車線、右側に例えばオレンジ色車線としての有色車線が形成されている場合の撮像画像を例示しているが、例えば図4Aに示す例では、白色車線については輝度が路面輝度よりも大きいが、有色車線については輝度が路面輝度と同程度とされている。また、図4Bの例では、同様に白色車線の輝度は路面輝度よりも大きいが、有色車線の輝度は路面輝度よりも小さくなっている。
このように有色車線については、その輝度が路面輝度に対して同程度か或いは小さく撮像される場合がある。これら図4Aや図4Bのケースは、例えばコンクリート地の道路を走行中であるなど路面輝度が比較的高くなっている場合や、有色車線の色味が比較的濃く(例えば塗装間もない場合など)有色車線の輝度が比較的低くなっている場合など、実走行環境下において十分に生じ得るものである。
例えば図4Aや図4Bのように有色車線の輝度が路面輝度に対して同等又は小さくなるような走行環境において、輝度画像に基づく車線検出を行った場合には、白色車線についての検出は可能とされるが有色車線についての検出を適切に行うことはできない。
前述のように、有色車線については、色差画像に基づく検出を行うことが有効であるが、白色車線と有色車線の双方を適切に検出するために共通の画像部分に対して輝度画像に基づく検出と色差画像に基づく検出の双方を実行することは処理負担の増大化を招くため望ましくない。
また、通常、有色車線の出現率は白色車線に対して少ないため、色差画像に基づく車線検出を輝度画像に基づく車線検出と共に常時行うことは同様に処理負担の増大化の面で望ましくない。
そこで、本実施の形態では、車線検出処理の初期モードとして、上述のような輝度重視モードによる車線検出処理を行う。
図5Aは、輝度重視モードの説明図である。
先ず、輝度重視モードでは、右側車線探索範囲saR、左側車線探索範囲saLのそれぞれにおいて、輝度画像に基づき車線部分の検出を行う行が輝度重視時輝度行Lbvb(図中太実線で表す)として設定されていると共に、色差画像に基づき車線部分の検出を行う行が輝度重視時色差行Lbvc(図中太破線で表す)として設定されている。
本例の場合、輝度重視時色差行Lbvcは、その間隔が実空間上での一定距離間隔(例えば2m間隔)に相当する間隔となるように配置されている。すなわち、輝度重視時色差行Lbvcの間隔は、画像内の上方となるに従って狭まる傾向とされている。
一方、輝度重視時輝度行Lbvbは、輝度重視時色差行Lbvcとして設定された行以外の行として設定されている。この場合、輝度重視時色差行Lbvcの間隔は、少なくとも輝度重視時輝度行Lbvbの数が輝度重視時色差行Lbvcの数よりも多くなるように設定されている。
ここで、本例の場合、輝度重視時輝度行Lbvbに対して行う輝度画像に基づく車線部分の検出では、R画像、G画像、又はB画像の何れかのエッジ画像を用いる。具体的に、本例ではG画像のエッジ画像を用いる。
輝度画像に基づく車線部分の検出では、G画像のエッジ画像内における対象行について、探索開始位置isから探索終了位置ieにかけてエッジ値のピーク検出を行う。すなわち、右側車線探索範囲saRを対象とする場合には対象行における探索開始位置isRから探索終了位置ieRにかけて、左側車線探索範囲saLを対象とする場合には対象行における探索開始位置isLから探索終了位置ieLにかけて、それぞれエッジ値のピーク位置の検出を行う。
このとき、対象行における探索開始位置isから探索終了位置ieまでの範囲内に白色車線の一部(車線部分)が写し出されていれば、当該ピーク位置の検出によって車線部分の開始位置dsと終了位置deが検出される。輝度画像に基づく車線部分の検出では、これらの開始位置dsと終了位置deの情報を三次元位置情報として算出する。
前述した車線モデル形成処理部3Cでは、このように算出された開始位置dsと終了位置deのうち少なくとも開始位置dsの情報を用いて車線モデルが形成される。
色差画像に基づく車線部分の検出では、U(B−G),V(R−G)の色差画像のうち何れかのエッジ画像を用いる。本例では、U画像(B−G)のエッジ画像を用いることとしている。
色差画像に基づく車線部分の検出手法は、上記で説明した輝度画像に基づく車線部分の検出手法と比較して、エッジ値のピーク位置の検出を行う対象が色差画像における輝度重視時色差行Lbvcとなる以外は同様となるため重複説明は避ける。
このような輝度重視モードによれば、主として輝度画像に基づく検出を行っていることで白色車線の車線部分の検出が可能とされる。またこれと共に、車線探索範囲内の一部で色差画像に基づく検出を併せて行っていることで、有色車線が出現した場合、その車線部分の有無を確認することが可能とされる。
なお、輝度重視モードにおいて、輝度重視時色差行Lbvcにおける検出で求まった車線の開始位置ds、終了位置deの情報は、後述するモード移行制御処理部33によるモード移行判定に用いられる。
色差・輝度モード処理部32が行う色差・輝度モード処理について説明する。
色差・輝度モード処理は、色差画像に基づく車線部分の検出を輝度重視モード時よりも多くの行で行う処理である。
図5Bは、色差・輝度モードについての説明図であり、右側車線探索範囲saR側で色差・輝度モードによる車線検出処理が行われた場合の様子を示している。
色差・輝度モードでは、右側車線探索範囲saR、左側車線探索範囲saLのそれぞれにおいて、輝度画像に基づき車線部分の検出を行う行が色差・輝度時輝度行Lcbb(図中太実線で表す)として設定されていると共に、色差画像に基づき車線部分の検出を行う行が色差・輝度時色差行Lcbc(図中太破線で表す)として設定されている。
本例の色差・輝度モードでは、図のように色差・輝度時輝度行Lcbbと色差・輝度時色差行Lcbcを1行おきに交互に配置することで、色差画像に基づく車線部分の検出を行う行を輝度重視モード時よりも増やしている。
色差・輝度モードにおいて、輝度画像に基づく車線部分の検出手法、色差画像に基づく車線部分の検出手法はそれぞれ輝度重視モードについて説明した手法と同様となるため重複説明は避ける。
上記のような色差・輝度モードによれば、色差画像に基づく車線部分の検出が行われる行が増やされることで、有色車線を適切に検出可能とされる。
本例では、上記のように色差・輝度時輝度行Lcbbと色差・輝度時色差行Lcbcを1行おきに交互に配置することで、有色車線と共に白色車線の検出も可能としている。これは、例えば図6に示されるように白色車線と有色車線とが近接して配置された二重ラインが出現した際に、双方の車線を検出可能(双方の車線モデルを形成可能)とするためである。
ここで、上記により説明した輝度重視モード処理、色差・輝度モード処理のそれぞれは、前述した基準画像を対象としてフレームごとに繰り返し実行されるものである。
続いて、モード移行制御処理部33が行うモード移行制御処理について説明する。
モード移行制御処理は、色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出された行の数に基づいて、輝度重視モードと色差・輝度モードとの間のモード移行判定、及び判定結果に基づくモード移行制御を行う処理である。
具体的に、モード移行制御処理では、現在のモードが輝度重視モードである場合には、モード移行判定として、輝度重視時色差行Lbvcのうち所定幅以上の車線部分が検出された行の数に基づいて、色差・輝度モードへの移行を行うか否かの判定を行う。
本例の場合、輝度重視モード時におけるモード移行判定では、輝度重視時色差行Lbvcのうち
(1)検出された開始位置dsから終了位置deの実空間上での幅が所定幅以上
(2)視差dpの値が所定範囲内
の両条件を満たす行の数が、対象とする車線探索範囲sa内の輝度重視時色差行Lbvcの総数のα割以上(例えば8割以上)であるか否かを判定する。なお、(1)の条件における「所定幅」としては、実空間上における車線の幅に対応した値として設定する。本例において、(1)の条件としては、幅の下限値のみを設けるのではなく上限値も設けて、「検出された開始位置dsから終了位置deの実空間上での幅が所定範囲内」との条件とする。
モード移行制御処理では、上記のような判定により肯定結果が得られたことに応じて、車線検出処理のモードが輝度重視モードから色差・輝度モードに切り換えられるように制御を行う。
本例では、モード移行判定はフレームごとに行っており、上記のように肯定結果が得られた場合は次のフレームから色差・輝度モードによる車線検出処理に切り換えられるものとなる。
また、モード移行制御処理では、現在のモードが色差・輝度モードである場合におけるモード移行判定として、輝度・視差時色差行Lcbcのうち所定幅以上の車線部分が検出された行の数に基づいて、輝度重視モードへの移行を行うか否かの判定を行う。具体的に本例では、輝度・視差時色差行Lcbcを対象として、上記の(1)及び(2)の両条件を満たす行の数が輝度・視差時色差行Lcbcの総数のα割未満(例えば8割未満)であるか否かを判定する。
このような色差・輝度モード時のモード移行判定としても、基準画像のフレームごとに繰り返し実行する。
ここで、本例では、モード移行のハンチング防止のため、色差・輝度モードから輝度重視モードへの移行に関しては、モード移行判定で移行を肯定する判定結果が得られたとしても、数フレームはモード移行の抑制を行う。具体的には、上記のような色差・輝度モード時のモード移行判定で肯定結果が得られた回数が所定回数に達したことに応じて、輝度重視モードへの移行制御を行う。
<4.処理手順>
上記した輝度重視モード処理、輝度・色差モード処理、及びモード移行制御処理による機能を実現するために画像処理部3が実行すべき具体的な処理の手順を図7及び図8のフローチャートを参照して説明する。図7は、輝度重視モード時に対応して実行されるべき輝度重視モード対応処理、図8は色差・輝度モード時に対応して実行されるべき色差・輝度モード対応処理を示している。
なお、図7に示す処理は、輝度重視モード時において基準画像のフレームごとに繰り返し実行されるものであり、図8に示す処理は色差・輝度モード時において基準画像のフレームごとに繰り返し実行されるものである。また、図7、図8に示す処理は、右側車線探索範囲saR、左側車線探索範囲saLのそれぞれについて実行されるものである。
先ず、図7において、画像処理部3はステップS101で、輝度重視時輝度行Lbvbについて輝度画像に基づく車線部分の検出を行う。すなわち、G画像のエッジ画像を対象として、右側車線探索範囲saR、左側車線探索範囲saLのうち対象とする側の車線探索範囲sa内の輝度重視時輝度行Lbvbについて、それぞれ探索開始位置isから探索終了位置ieまでの範囲内でエッジ値のピーク位置を検出する。前述のように白色車線の車線部分が存在する場合は、エッジ値のピーク位置が車線の開始位置ds、終了位置deとして検出される。
続くステップS102で画像処理部3は、輝度重視時色差行Lbvcについて色差画像に基づく車線部分の検出を行う。すなわち、U画像のエッジ画像を対象として、対象とする側の車線探索範囲sa内の輝度重視時色差行Lbvcについて、それぞれ探索開始位置isから探索終了位置ieまでの範囲内でエッジ値のピーク位置を検出する。有色車線の車線部分が存在する場合は、エッジ値のピーク位置が車線の開始位置ds、終了位置deとして検出される。
なお、ステップS101とS102の処理の実行順序は逆であってもよい。
さらに、続くステップS103で画像処理部3は、輝度重視時色差行Lbvcについて、車線の開始位置dsから終了位置deまでの幅(実空間上での幅)が所定範囲内(前述した(1)に相当する条件)、視差dpが所定範囲内(前述した(2)の条件)の両条件を満たす行の数が輝度重視時色差行Lbvcの総数のα割(例えば8割)以上あるか否かを判定する。
ステップS103において、上記の両条件を満たす行の数が輝度重視時色差行Lbvcの総数のα割以上あった場合、画像処理部3はステップS104に進み、色差・輝度モード移行処理として、次フレームから色差・輝度モード処理を実行するように設定する処理を行う。
続くステップS105で画像処理部3は、モード戻しカウント値として「N」を設定し、この図に示す処理を終了する。なお、モード戻しカウント値は、前述したハンチング防止のためのカウント値であり、「N」の値としては2以上の自然数を設定する。
また、ステップS103において、上記の両条件を満たす行の数が輝度重視時色差行Lbvcの総数のα割以上ではなかった場合、画像処理部3はステップS104及びS105をパスしてこの図に示す処理を終了する。すなわち、この場合は輝度重視モードが継続される。
続いて、図8の色差・輝度モード対応処理について説明する。
図8において、先ず、画像処理部3はステップS201で、色差・輝度時輝度行Lcbbについて輝度画像に基づく車線部分の検出を行い、続くステップS202で色差・輝度時色差行Lcbcについて色差画像に基づく車線部分の検出を行う。
なお、ステップS201の処理は、対象が色差・輝度時輝度行Lcbbとされる以外は先のステップS101の処理と同様であり、またステップS202の処理は対象が色差・輝度時色差行Lcbcとされる以外は先のステップS102の処理と同様である。従って、重複説明は避ける。
これらステップS201とS202の処理についても実行順序は逆であってもよい。
次に、画像処理部3はステップS203で、色差・輝度時色差行Lcbcについて、車線の開始位置dsから終了位置deまでの幅(実空間上での幅)が所定範囲内(前述した(1)に相当する条件)、視差dpが所定範囲内(前述した(2)の条件)の両条件を満たす行の数が色差・輝度時色差行Lcbcの総数のα割(例えば8割)以上あるか否かを判定する。
ステップS203において、上記の両条件を満たす行の数が色差・輝度時色差行Lcbcの総数のα割以上であった場合、画像処理部3はこの図に示す処理を終了する。すなわち、この場合は色差・輝度モードが継続される。
一方、ステップS203において、上記の両条件を満たす行の数が色差・輝度時色差行Lcbcの総数のα割以上ではなかった場合、画像処理部3はステップS204に進み、モード戻しカウント値を−1した上で、ステップS205でモード戻しカウント値が0であるか否かを判定する。
モード戻しカウント値が0ではなかった場合、画像処理部3はこの図に示す処理を終了する。一方、モード戻しカウント値が0であった場合、画像処理部3はステップS206に進み、輝度重視モード移行処理として次フレームから輝度重視モード処理を実行するように設定する処理を行い、この図に示す処理を終了する。
すなわち、ステップS203のモード移行判定によりモード移行を肯定する判定結果がN回(本例ではNフレーム)得られるまでは、輝度重視モードへの移行は行われず、モード移行が抑制される。
なお、モード移行のハンチング防止を図るにあたっては、ステップS203のモード移行判定によりモード移行を肯定する判定結果が所定回数連続して得られるまでモード移行が抑制されるようにすることもできる。
<4.実施の形態のまとめ>
上記のように本実施の形態の画像処理装置(画像処理部3)は、自車両の進行方向を撮像してカラー画像としての撮像画像を得る撮像部(撮像部2)と、撮像部により得られた撮像画像に基づき被写体として写し出された車線を検出する車線検出部(車線検出処理部3B)とを備えている。
そして、車線検出部は、撮像画像に対して設定された車線探索範囲(sa)を対象とした車線検出処理として、車線探索範囲内における過半数以上の行について輝度画像に基づいた車線部分の検出を行い且つその他の行について色差画像に基づいた車線部分の検出を行う第1モード(輝度重視モード)による車線検出処理と、色差画像に基づく車線部分の検出を第1モード時よりも多くの行で行う第2モード(色差・輝度モード)による車線検出処理とを実行可能とされると共に、色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出された行の数に基づいて、第1モードと第2モードとの間のモード移行判定、及び判定結果に基づくモード移行制御を行うモード移行制御処理を実行している。
第1モードでは、主として輝度画像に基づく検出を行っていることで白色車線の車線部分の検出が可能とされると共に、色差画像に基づく検出も併せて行っていることで、有色車線の車線部分の有無を確認することが可能とされる。有色車線が出現した場合には、モード移行制御処理により第1モードから第2モードへのモード移行が行われて色差画像に基づく検出が行われる行が増やされることで、有色車線を適切に検出可能とされる。
これにより、白色車線と有色車線の双方を適切に検出可能とするにあたり、同一の行について輝度画像に基づく検出と色差画像に基づく検出の双方を行う必要がなくなる。
従って、処理負担の軽減を図りつつ、白色車線と有色車線の双方を適切に検出できる。
また、本実施の形態の画像処理装置においては、車線探索範囲は、撮像画像内の左右に離間して二つ設定されており、車線検出部は、モード移行制御処理を車線探索範囲ごとに実行している。
これにより、有色車線が進行方向の右側に存在する場合、及び左側に存在する場合の双方に対応可能となる。
さらに、本実施の形態の画像処理装置においては、第1モード時における色差画像に基づく車線部分の検出を行う行(Lbvc)の間隔が、実空間上の一定距離間隔に相当する間隔に設定されている。
これにより、例えば画像空間上での一定間隔とする場合と比較して有色車線のサンプリング間隔が適切となる。
従って、適切なサンプリング結果に基づいてモード移行を適切に行うことができる。
さらにまた、本実施の形態の画像処理装置においては、第2モード時においては、輝度画像に基づいた車線部分の検出を行う行(Lcbb)と色差画像に基づいた車線部分の検出を行う行(Lcbc)とが1行おきに交互に配置されている。
これにより、同一車線探索範囲内に白色車線と有色車線の双方が存在する場合に、双方の車線を適切に検出可能となる。
従って、例えば図6に示したような二重ラインが出現した場合に、白色車線と有色車線の双方を適切に検出可能とできる。
加えて、本実施の形態の画像処理装置においては、撮像部は、自車両の進行方向をステレオ撮像して一対の撮像画像を得、撮像部により得られた一対の撮像画像に基づいて被写体の視差を算出する視差算出部(三次元位置情報算出処理部3A)をさらに備え、車線検出部は、モード移行制御処理におけるモード移行判定を、色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出され且つ検出された車線部分の視差dpの値が所定範囲内である行の数に基づいて行っている。
検出された車線部分の視差dpの値が所定範囲内にあるということは、該車線部分はステレオ撮像された他方の撮像画像(基準画像でない方の撮像画像)においても写し出されていると推測される。このため、上記のようにモード移行判定の条件として視差dpの値が所定範囲内であるとの条件を課すようにすれば、例えば片側(基準画像側)のカメラにのみ付着したゴミ等による車線部分の誤検出に反応してモード移行判定で肯定結果が得られてしまうことの防止が図られる。
すなわち、車線部分の誤検出に伴う不適切なモード移行が行われてしまうことの防止を図ることができる。
また、本実施の形態の画像処理装置においては、車線検出部は、モード移行制御処理として、モード移行判定をフレームごとに行い、第1モードから第2モードへの移行制御は、モード移行判定により移行を肯定する判定結果が得られたことに応じて行い、第2モードから第1モードへの移行制御は、モード移行判定により移行を肯定する判定結果が得られた回数が所定回数に達したことに応じて行っている。
これにより、第2モードへの移行後、即座に第1モードに戻されてしまうことがない。
従って、モード移行についてのハンチングを防止できる。
<5.変形例>
以上、本発明の実施の形態について説明したが、本発明は上記で説明した具体例に限定されず、多様な変形例が考えられるものである。
例えば、上記では、第2モード時(色差・輝度モード時)において、輝度画像に基づく車線部分の検出を行う行(Lcbb)と色差画像に基づく車線部分の検出を行う行(Lcbc)とを1行おきに交互配置する例を挙げたが、例えば先の図6のような二重ラインについて有色車線側のみを検出すればよいとされる場合等には、色差画像に基づく車線部分の検出を行う行を車線探索範囲sa内の全行に配置してもよい。第2モード時において色差画像に基づく車線部分の検出を行う行としては、輝度画像に基づく車線部分の検出を行う行と同数以上で、且つ有色車線の検出が可能(車線モデルの形成が可能)となるように配置されればよい。
また、モード移行判定においては、上記で例示した車線部分の幅や視差dpを基準とする以外にも、例えば車線部分の色成分を基準とすることも考えられる。具体的に、モード移行判定としては、色差画像に基づく車線部分の検出が行われた行のうち、所定幅以上の車線部分が検出され、且つ検出された車線部分の所定の色成分の含有率が所定の率以上である行の数に基づいて行うこともできる。このとき、「所定の色成分の含有率」としては、例えば、オレンジ色車線であればR成分の含有率とするなど、対象とする有色車線に特徴的な色成分の含有率とすればよい。なお、「車線部分の所定の色成分の含有率が所定の率以上」か否かの判別としては、例えば、車線部分を構成する画素のうちR値、G値、又はB値の何れかの値が所定値以上の画素の数が所定値以上か否かの判別とすればよい。
上記のようにモード移行判定において車線部分の所定の色成分の含有率が所定の率以上であるとの条件を課すことで、有色車線の色の特徴も加味したモード移行判定が実現される。
従って、モード移行判定の精度をより向上できる。
1…車両制御システム、2…撮像部、3…画像処理部、3A…三次元位置情報生成処理部、3B…車線検出処理部、30…探索範囲設定処理部、31…輝度重視モード処理部、32…色差・輝度モード処理部、33…モード移行制御処理部

Claims (7)

  1. 自車両の進行方向を撮像してカラー画像としての撮像画像を得る撮像部と、
    前記撮像部により得られた撮像画像に基づき被写体として写し出された車線を検出する車線検出部とを備え、
    前記車線検出部は、
    前記撮像画像に対して設定された車線探索範囲を対象とした車線検出処理として、前記車線探索範囲内における過半数以上の行について輝度画像に基づいた車線部分の検出を行い且つその他の行について色差画像に基づいた車線部分の検出を行う第1モードによる車線検出処理と、前記色差画像に基づく車線部分の検出を前記第1モード時よりも多くの行で行う第2モードによる車線検出処理とを実行可能とされると共に、
    前記色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出された行の数に基づいて、前記第1モードと前記第2モードとの間のモード移行判定、及び判定結果に基づくモード移行制御を行うモード移行制御処理を実行する
    画像処理装置。
  2. 前記車線探索範囲は、前記撮像画像内の左右に離間して二つ設定されており、
    前記車線検出部は、
    前記モード移行制御処理を前記車線探索範囲ごとに実行する
    請求項1に記載の画像処理装置。
  3. 前記第1モード時における前記色差画像に基づく車線部分の検出を行う行の間隔が、実空間上の一定距離間隔に相当する間隔に設定されている
    請求項1又は請求項2に記載の画像処理装置。
  4. 前記第2モード時においては、前記輝度画像に基づいた車線部分の検出を行う行と前記色差画像に基づいた車線部分の検出を行う行とが1行おきに交互に配置されている
    請求項1乃至請求項3の何れかに記載の画像処理装置。
  5. 前記撮像部は、自車両の進行方向をステレオ撮像して一対の撮像画像を得、
    前記撮像部により得られた前記一対の撮像画像に基づいて被写体の視差を算出する視差算出部をさらに備え、
    前記車線検出部は、
    前記モード移行制御処理における前記モード移行判定を、前記色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出され且つ検出された車線部分の視差の値が所定範囲内である行の数に基づいて行う
    請求項1乃至請求項4の何れかに記載の画像処理装置。
  6. 前記車線検出部は、前記モード移行制御処理として、
    前記モード移行判定をフレームごとに行い、
    前記第1モードから前記第2モードへの移行制御は、前記モード移行判定により移行を肯定する判定結果が得られたことに応じて行い、
    前記第2モードから前記第1モードへの移行制御は、前記モード移行判定により移行を肯定する判定結果が得られた回数が所定回数に達したことに応じて行う
    請求項1乃至請求項5の何れかに記載の画像処理装置。
  7. 前記車線検出部は、
    前記モード移行制御処理における前記モード移行判定を、前記色差画像に基づく車線部分の検出が行われた行のうち所定幅以上の車線部分が検出され且つ検出された車線部分の所定の色成分の含有率が所定の率以上である行の数に基づいて行う
    請求項1乃至請求項6の何れかに記載の画像処理装置。
JP2014125142A 2014-06-18 2014-06-18 画像処理装置 Active JP5908946B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014125142A JP5908946B2 (ja) 2014-06-18 2014-06-18 画像処理装置
CN201510319970.2A CN105282498B (zh) 2014-06-18 2015-06-11 图像处理装置
DE102015109564.5A DE102015109564B9 (de) 2014-06-18 2015-06-16 Bildverarbeitungsvorrichtung
US14/742,418 US9690995B2 (en) 2014-06-18 2015-06-17 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014125142A JP5908946B2 (ja) 2014-06-18 2014-06-18 画像処理装置

Publications (2)

Publication Number Publication Date
JP2016004459A JP2016004459A (ja) 2016-01-12
JP5908946B2 true JP5908946B2 (ja) 2016-04-26

Family

ID=54768077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014125142A Active JP5908946B2 (ja) 2014-06-18 2014-06-18 画像処理装置

Country Status (4)

Country Link
US (1) US9690995B2 (ja)
JP (1) JP5908946B2 (ja)
CN (1) CN105282498B (ja)
DE (1) DE102015109564B9 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6566737B2 (ja) * 2015-06-18 2019-08-28 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9811743B2 (en) * 2015-06-29 2017-11-07 Sharp Laboratories Of America, Inc. Tracking road boundaries
WO2017099199A1 (ja) * 2015-12-10 2017-06-15 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US11703326B2 (en) * 2016-02-25 2023-07-18 Kyocera Corporation Stereo camera apparatus, vehicle, and parallax calculation method
JP6256508B2 (ja) * 2016-03-30 2018-01-10 マツダ株式会社 電子ミラー制御装置
JP2019159529A (ja) * 2018-03-09 2019-09-19 パイオニア株式会社 線検出装置、線検出方法、プログラム、及び記憶媒体
CN108460776B (zh) * 2018-04-12 2022-03-25 广东工业大学 一种基于机器视觉的刹车片尺寸检测方法及装置
CN110781816A (zh) * 2019-10-25 2020-02-11 北京行易道科技有限公司 车辆在车道中的横向定位方法、装置、设备及存储介质
US10867190B1 (en) * 2019-11-27 2020-12-15 Aimotive Kft. Method and system for lane detection
US11505213B2 (en) * 2020-07-24 2022-11-22 Tusimple, Inc. Visibility condition determinations for autonomous driving operations
KR20220143323A (ko) * 2021-04-16 2022-10-25 주식회사 에이치엘클레무브 차선 분류 딥러닝 모델의 학습데이터 생성 방법 및 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365350A (ja) 1991-06-13 1992-12-17 Hitachi Ltd 論理素子配置方法および装置
CN1707224A (zh) * 2004-06-07 2005-12-14 日产自动车株式会社 车载导航装置、岔道导向方法及行车道确定装置和方法
JP4365350B2 (ja) 2005-06-27 2009-11-18 本田技研工業株式会社 車両及び車線認識装置
JP4365352B2 (ja) 2005-07-06 2009-11-18 本田技研工業株式会社 車両及びレーンマーク認識装置
JP4185077B2 (ja) 2005-07-15 2008-11-19 本田技研工業株式会社 車両、画像処理システム、画像処理方法、及び画像処理プログラム
EP1968014B1 (en) * 2005-12-28 2012-12-19 Honda Motor Co., Ltd. Vehicle and lane mark detection device
EP2168079B1 (en) * 2007-01-23 2015-01-14 Valeo Schalter und Sensoren GmbH Method and system for universal lane boundary detection
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム
US8681221B2 (en) 2008-03-26 2014-03-25 Honda Motor Co., Ltd. Vehicular image processing device and vehicular image processing program
JP5083658B2 (ja) * 2008-03-26 2012-11-28 本田技研工業株式会社 車両用車線認識装置、車両、及び車両用車線認識プログラム
CN102201167B (zh) * 2010-04-07 2013-03-06 宫宁生 基于视频的汽车车道自动识别方法
JP5508205B2 (ja) 2010-09-27 2014-05-28 富士重工業株式会社 車両の運転支援装置
KR101472615B1 (ko) * 2010-12-21 2014-12-16 삼성전기주식회사 차선이탈 경보 시스템 및 방법
JP2012155612A (ja) * 2011-01-27 2012-08-16 Denso Corp 車線検出装置
JP5921983B2 (ja) * 2012-08-03 2016-05-24 クラリオン株式会社 車載撮像装置
JP2014164492A (ja) * 2013-02-25 2014-09-08 Denso Corp 区画線認識装置

Also Published As

Publication number Publication date
DE102015109564A1 (de) 2015-12-24
CN105282498A (zh) 2016-01-27
US9690995B2 (en) 2017-06-27
CN105282498B (zh) 2017-11-14
DE102015109564B4 (de) 2019-06-13
DE102015109564B9 (de) 2019-09-19
JP2016004459A (ja) 2016-01-12
US20150371093A1 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
JP5908946B2 (ja) 画像処理装置
JP5893601B2 (ja) 車両制御システム
JP5863536B2 (ja) 車外監視装置
US9336447B2 (en) Ambient environment determination apparatus
JP6156400B2 (ja) 走行路面検出装置及び走行路面検出方法
JP4714104B2 (ja) 物体傾き検出装置
JP4937933B2 (ja) 車外監視装置
JP6169949B2 (ja) 画像処理装置
JP6085522B2 (ja) 画像処理装置
JP5591730B2 (ja) 環境認識装置
US8477997B2 (en) White road line recognition device for vehicle
JP6227898B2 (ja) 画像処理装置
JP2016068684A (ja) 運転支援制御装置
JP6185367B2 (ja) 運転支援装置
JP6683245B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム
JP6178632B2 (ja) エンジンのサージ制御装置
JP6151569B2 (ja) 周囲環境判定装置
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
JP5452518B2 (ja) 車両用白線認識装置
JP6082293B2 (ja) 車両用白線認識装置
JP2015088049A (ja) 車両制御システム
JP6099090B2 (ja) 運転支援制御装置
CN110871808B (zh) 车外环境识别装置及车外环境识别方法
JP6121244B6 (ja) 画像処理装置
JP6121244B2 (ja) 画像処理装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160324

R150 Certificate of patent or registration of utility model

Ref document number: 5908946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250