JP2015179482A - 車載用画像処理装置およびそれを用いた車両システム - Google Patents

車載用画像処理装置およびそれを用いた車両システム Download PDF

Info

Publication number
JP2015179482A
JP2015179482A JP2014057391A JP2014057391A JP2015179482A JP 2015179482 A JP2015179482 A JP 2015179482A JP 2014057391 A JP2014057391 A JP 2014057391A JP 2014057391 A JP2014057391 A JP 2014057391A JP 2015179482 A JP2015179482 A JP 2015179482A
Authority
JP
Japan
Prior art keywords
road surface
vehicle
state
white line
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014057391A
Other languages
English (en)
Other versions
JP6313081B2 (ja
JP2015179482A5 (ja
Inventor
健人 緒方
Taketo Ogata
健人 緒方
將裕 清原
Masahiro Kiyohara
將裕 清原
智史 鈴木
Tomohito Suzuki
智史 鈴木
尊史 萩
Takashi Hagi
尊史 萩
吉孝 内田
Yoshitaka Uchida
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014057391A priority Critical patent/JP6313081B2/ja
Priority to PCT/JP2015/050507 priority patent/WO2015141247A1/ja
Publication of JP2015179482A publication Critical patent/JP2015179482A/ja
Publication of JP2015179482A5 publication Critical patent/JP2015179482A5/ja
Application granted granted Critical
Publication of JP6313081B2 publication Critical patent/JP6313081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】白線等の対象物を検出する際に、影等の誤検出を防止することができる車載用画像処理装置を得ること。【解決手段】検出した対象物が路面パターンによる誤検出か否かを正しく判定する。車載用画像処理装置1000は、画像を取得し、自車近傍領域の画像から路面状態を推定し、路面状態に応じた判定方法を設定し、該判定方法を用いて前記対象物候補が前記対象物であるか否かを判定する。【選択図】図1

Description

本発明は、カメラ等の画像センサからの情報に基づいて対象物を検出し、検出結果に応じて警報や車両の挙動制御を実施する自動車のための車載用画像処理装置およびそれを用いた車両システムに関する。
近年、カメラ、ソナーといったセンサを用いて車両を制御し、運転者をサポートするシステムの開発が進められている。たとえば、レーンを検出し、自車が逸脱する可能性が生じたときには警報によって運転者に注意を促し、さらに逸脱が避けられない状況になったときはブレーキやステアリングの制御により逸脱を防止するシステムや、駐車枠を検出し、運転者の駐車操作の一部あるいはすべてを自動で実施する自律駐車システム等が実用化されている。
カメラを用いて駐車枠やレーンを構成する白線を検出する場合、ガードレールの影や電線の影が路面上に写り、白線と同程度の幅として見えるため白線と誤検知することがある。このような誤検知への対策として、たとえば、特許文献1には、車両に搭載されたカメラでレーンを検出する際に、基準領域を設定して路面輝度のヒストグラムを作成し、路面クラスタの輝度分布から外れているものを白線として検出する技術が記載されている。
特開2006−268199号公報
しかしながら、例えば自車の後方から太陽光が射している場合は、基準領域の大半が自車の影がかかった路面となり、影による誤検知を除去することができない。また、雨天時は路面が濡れて遠方の情景が写りこむため、路面の輝度を正確にとらえることができない。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、白線等の対象物を検出する際に、路面の状態に応じた最適な基準に基づいて対象物の検出を実施する車載用画像処理装置およびそれを用いた車両システムを提供することである。
上記課題を解決する本発明の車載用画像処理装置は、路面上の対象物を検出する車載用画像認識装置であって、自車周囲を撮像した画像を取得する画像取得部と、該画像の自車近傍領域の輝度分布に基づいて自車周囲の路面状態を推定する路面状態推定部と、該路面状態に応じて対象物の判定方法を設定する判定方法設定部と、前記画像から前記対象物と推定される対象物候補を検出する対象物候補検出部と、前記判定方法を用いて前記対象物候補が前記対象物であるか否かを判定する対象物判定部とを有することを特徴としている。
本発明によれば、路面の状態を推定し、その推定した路面状態に応じて設定された判定方法を用いて対象物の判定を行うので、路面の一部を対象物と誤って検出することを防ぐことができ、これに基づいて信頼度の高い制御を実施する車両システムを提供することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
第1実施の形態における車載用画像処理装置のブロック図。 第1実施の形態における画像取得部の処理の説明図。 第1実施の形態における自車近傍領域の説明図。 均一状態とその輝度ヒストグラムの一例を模式的に示す図。 日陰日向状態とその輝度ヒストグラムの一例を模式的に示す図。 その他の明暗分離状態とその輝度ヒストグラムの一例を模式的に示す図。 反射状態とその輝度ヒストグラムの一例を模式的に示す図。 複雑状態とその輝度ヒストグラムの一例を模式的に示す図。 第1実施の形態における路面状態推定部の処理を表すフローチャート。 均一状態の輝度ヒストグラムと単一ガウス分布と両者の誤差を示す図。 日陰日向状態の輝度ヒストグラムと単一ガウス分布と両者の誤差を示す図。 反射状態の輝度ヒストグラムと単一ガウス分布と両者の誤差を示す図。 複雑状態の輝度ヒストグラムと単一ガウス分布と両者の誤差を示す図。 均一状態の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。 日陰日向状態の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。 反射状態の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。 複雑状態の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。 第1実施の形態における路面状態推定部の処理の説明図。 第1実施の形態における白線候補検出部の処理を表すフローチャート。 第1実施の形態における白線判定部の処理の一部を表すフローチャート。 白線の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。 日陰中の日向の輝度ヒストグラムと混合ガウス分布と両者の誤差を示す図。 第1実施の形態における白線判定部の処理の一部を表すフローチャート。 俯瞰画像において白線候補が放射線状か否かを説明する図。 第1実施の形態における白線判定部の処理の一部を表すフローチャート。 第1実施の形態における駐車枠認識部の処理を表すフローチャート。 第1実施の形態における駐車枠認識部の処理の説明図。 第1実施の形態の別形態のブロック図。 第1実施の形態における駐車補助制御部の処理を表すフローチャート。 第2実施の形態における車載用画像処理装置のブロック図。 第2実施の形態における汚れ検出部の処理を表すフローチャート。 第2実施の形態における白線判定部の処理の一部を表すフローチャート。 第2実施の形態における白線判定部の処理の一部を表すフローチャート。 第2実施の形態における白線判定部の処理の一部を表すフローチャート。 第2実施の形態における駐車枠認識部の処理を表すフローチャート。 第2実施の形態における駐車補助制御部の処理を表すフローチャート。 第3実施の形態における車載用画像処理装置のブロック図。 第3実施の形態における障害物判定部の処理の一部を表すフローチャート。 第3実施の形態における障害物判定部の処理の一部を表すフローチャート。 第3実施の形態における障害物判定部の処理の説明図。 第3実施の形態における車両制御部の処理を表すフローチャート。
<第一実施の形態>
以下、本発明の第一実施の形態について図面を用いて詳細に説明する。
図1は、第一実施の形態における車載用画像処理装置1000のブロック図である。
車載用画像処理装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1001〜1004で撮影した画像内から対象物を検出するためのものであり、本実施の形態では、自車周囲の路面に白線によって描かれた駐車枠を検出するように構成されている。複数のカメラ1001〜1004は、少なくとも路面を含むように自車周囲を全周に亘って撮像可能な位置に取り付けられており、本実施の形態では、車両の前部、左側部、右側部、後部にそれぞれ取り付けられている。なお、カメラの個数および取付位置は、自車周囲の日陰日向を検出可能とする必要があるので、最少で2個のカメラを互いに離反する方向に向かって撮像するように取り付けられていればよい。
車載用画像処理装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期Tで繰り返し処理を実行する。車載用画像処理装置1000は、図1に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、白線候補検出部(対象物候補検出部)1051と、白線判定部(対象物判定部)1061と、駐車枠認識部1071と、を有する。
画像取得部1021は、図2に示すように、複数のカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。なお、俯瞰画像1015は2次元配列であり、IMGSRC[x][y]で表すものとする。x、yはそれぞれ画像の座標を示す。
路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、自車周囲の路面状態が予め設定された複数の路面状態のいずれに属するのかを推定する。自車近傍領域1032は、俯瞰画像1015内で自車周囲の近傍に設定される領域であり、自車近傍領域1032には必ず自車周囲の路面が撮像されているとみなすことができる。輝度ヒストグラムHST[b]は1次元配列であり、bはヒストグラムのビンを表す。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類のうちのいずれに属するのかを推定する。
判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、路面状態が[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いた判定方法を設定し、路面状態が[複雑状態]の場合は画像のパターンを用いた判定方法を設定する。
白線候補検出部1051は、俯瞰画像1015から、白線候補LC[n]を検出する。白線候補LC[n]は、白線候補の座標等の情報を持つテーブルを要素とする1次元配列であり、nは複数検出した場合のIDを表す。
白線判定部1061は、白線候補LC[n]に対して、判定方法設定部1041で設定した判定方法に基づき、白線又は路面のいずれであるかを判定し、白線LN[m]を決定する。白線LN[m]は、白線の座標等の情報を持つテーブルを要素とする1次元配列であり、mは複数検出した場合のIDを表す。
駐車枠認識部1071は、白線LN[m]に基づいて、駐車枠PS[k]を検出する。駐車枠PS[k]は、駐車枠の座標等の情報を持つテーブルを要素とする1次元配列であり、kは複数検出した場合のIDを表す。
[路面状態推定部]
つぎに、図3−1から図3−6、図4−1から図4−9、図5を用いて、路面状態推定部1031における処理の内容について説明する。
図4−1は路面状態推定部1031の処理の流れを示したフローチャートであり、以下、処理の詳細について説明する。まず、ステップS401にて、自車近傍領域から輝度ヒストグラムを作成する。
図3−1は、自車近傍領域1032の説明図であり、図3−1(a)〜図3−1(c)では、図面の上側が車両前方を示す。ここでは、図3−1(a)に示すように自車近傍領域1032を固定とする場合、および、図3−1(b)、(c)に示すように、自車挙動に応じて自車近傍領域1032を可変にする場合の両方について説明する。
図3−1(a)に示すように、自車近傍領域1032を固定とする場合は、俯瞰画像1015内の中心付近に設定する。自車近傍領域1032の内方に示される黒い部分は、カメラ1001〜1004で撮像できない部分であるため、この領域は自車近傍領域1032の対象外とする。図3−1(b)、(c)に示すように、自車挙動に応じて自車近傍領域1032を可変にする場合は、車両の変速機のシフトポジション情報を取得し、その情報に基づいて、自車が前進している場合は図3(b)のように自車後方を大きく、自車が後進している場合は図3−1(c)のように自車前方を大きく設定する。同様に、中心部分は対象外とする。
図3−1(d)は、自車近傍領域1032から取得した輝度ヒストグラムHST[b]の例である。輝度ヒストグラムHST[b]は、画像の輝度の頻度を表し、横軸に輝度、縦軸に頻度を取った1次元グラフで表現される。
図3−2から図3−6は、各路面状態とその輝度ヒストグラムの例を模式的に示す図である。図3−2は、均一状態とその輝度ヒストグラムの例を模式的に示す図、図3−3は、日陰日向状態とその輝度ヒストグラムの例を模式的に示す図、図3−4は、その他の明暗分離状態とその輝度ヒストグラムの例を模式的に示す図、図3−5は、反射状態とその輝度ヒストグラムの例を模式的に示す図、図3−6は、複雑状態とその輝度ヒストグラムの例を模式的に示す図である。
図3−2に示す俯瞰画像1015の路面は、日陰日向や影がなく、ほぼ単一の輝度を有するとみなすことが可能な均一状態である。このように、路面状態が均一状態であるときの輝度ヒストグラムは、路面領域の分布が大勢を占めるものとなり、一つの大きなピークを有する単峰性となる。
図3−3(a)に示す俯瞰画像1015の路面は、日向に自車や建物の影が映り込んで路面の輝度が明暗に分かれている明暗分離状態の一種である日陰日向状態である。図3−4(a)に示す俯瞰画像1015の路面は、路面の輝度が道路工事等により明暗に分かれているその他の明暗分離状態である。図3−5(a)に示す俯瞰画像1015の路面は、雨等により濡れた路面に反射した構造物が映り込んでいる反射状態である。図3−6(a)に示す俯瞰画像1015の路面は、例えば複数の方向からの光や影が映り込み、輝度ヒストグラムを予め設定されている混合ガウス分布により近似することが困難な複雑状態である。
そのうち、図3−3(b)、図3−4(b)、図3−5(b)に示す、日陰日向状態、その他の明暗分離状態、反射状態の各輝度ヒストグラムは、それぞれ形状は異なるが概ね二つの大きなピークを有する二峰性となる。そして、図3−6(b)に示す複雑状態の輝度ヒストグラムには三つ以上の多くのピークが現れる。
つぎに、ステップS402にて、輝度ヒストグラムの分析を行う。分析は、輝度ヒストグラムHST[b]に対して1つのピークを有する単一ガウス分布もしくは2つのピークを有する混合ガウス分布による近似を行い、その誤差を求める。以下、分布数Gで表現される混合ガウス分布のパラメータである重みα_{1、2、・・・、G}、平均μ_{1、2、・・・、G}、分散σ_{1、2、・・・、G}をテーブルGPTBL(G)として表現する。ある分布を混合ガウス分布GPTBL(G)により近似する方法は、一般的にEMアルゴリズムが用いられる。この方法は公知であるため、ここでは説明を割愛する。
EMアルゴリズムにより近似する場合、ガウス分布の数Gを指定する必要があるため、本実施例ではG=1、2を用いることとし、G=1の近似誤差をErr(1)、G=2の近似誤差をErr(2)とする。輝度ヒストグラムHST[b]とガウス分布GPTBL(G)の誤差は,以下の式により演算を行う。
Err(G)=Σ(b=0〜255):MIN(HSTNML[b],HSTMLD(G)[b])/MAX(HSTNML[b],HSTMLD(G)[b])
ここで、HSTNML[b]は、輝度ヒストグラムHST[b]を、その合計値が1となるように正規化したものである。HSTMLD(G)[b]は、テーブルGPTBL(G)より得られる分布であり、同様にその合計値が1となるように正規化したものである。
図3−2〜図3−5の例に対してG=1で近似した場合の例を図4−2〜図4−5に示す。図4−2(a)〜(c)は、図3−2に示す均一状態の路面に対してG=1で近似した場合の例である。図4−2(a)の輝度ヒストグラムに対し、EMアルゴリズムにより取得したG=1のガウス分布の重みα_1、平均μ_1、分散σ_1により表される分布が図4−2(b)となる。図4−2(a)と(b)の誤差Err(1)は、図4−2(c)に黒く示された領域の面積となる。
同様に,図4−3(a)〜(c)は、図3−3に示す日陰日向状態の路面に対してG=1で近似した場合の例である。図4−3(a)の輝度ヒストグラムから算出したガウス分布が図4−3(b)となり、図4−3(a)と(b)の誤差Err(1)は、図4−3(c)に黒く示された領域の面積となる。以下、同様に図4−4(a)〜(c)は、図3−5に示す反射状態の路面に適用した例であり、図4−5(a)〜(c)は、図3−6に示す複雑状態の路面に適用した例である。
次に、図3−2〜図3−5の例に対してG=2で近似した場合の例を図4−6〜図4−9に示す。図4−6(a)〜(c)は、図3−2に示す均一状態の路面に対してG=2で近似した場合の例である。図4−6(a)の輝度ヒストグラムに対し、EMアルゴリズムにより取得したG=2のガウス分布の重みα_1、α_2、平均μ_1、μ_2、分散σ_1、σ_2により表される分布が図4−6(b)に太線で示されたものとなる。図4−6(a)と(b)の誤差Err(2)は、図4−6(c)にて黒く示された領域の面積となる。
同様に,図4−7(a)〜(c)は、図3−3に示す日陰日向状態の路面に対してG=2で近似した場合の例である。図4−7(a)の輝度ヒストグラムから算出したガウス分布が図4−7(b)となり、図4−7(a)と(b)の誤差Err(1)は、図4−7(c)に黒く示された領域の面積となる。以下、同様に図4−8(a)〜(c)は、図3−5に示す反射状態の路面に適用した例であり、図4−9(a)〜(c)は、図3−6に示す複雑状態の路面に適用した例である。
以上図示したように、均一状態の路面のように単峰性のヒストグラムは、G=1の分布に対する誤差が小さくなる。一方、日陰日向状態の路面のように、二峰性のヒストグラムは、G=2の分布に対する誤差が小さくなる。さらに,複雑状態の路面のように、そのどちらにも該当しないヒストグラムは、いずれの近似に対してもその誤差が大きくなる。
また、均一状態の路面のように単峰性のヒストグラムに対してG=2の分布を適用すると、G=1の誤差よりも小さくなる傾向がある。したがって、以下の判定では、先にG=1での近似の誤差を判定し、誤差が大きい場合のみ、G=2での近似の誤差を判定する構成としている。
なお、2つのヒストグラムを比較する方法は種々存在するため、誤差Err(G)の演算に別な方法を用いても良い、例えば、Bhattacharyya距離を適用する場合、以下の式にて算出する。
Err(G)=1−Σ(b=0〜255):SQRT(HSTNML[b]・HSTMLD(G)[b])
つぎに、ステップS403において、輝度ヒストグラムHST[b]が単一のガウス分布GP(1)で近似可能であるかを判定する。ここでは、GP(1)の誤差Err(1)が、閾値TH_Err1以下であれば近似可能と判定しステップS405へ、閾値より大きければ近似不可であったと判定しステップS404へ移動する。
つぎに、ステップS404において、輝度ヒストグラムHST[b]が混合ガウス分布GP(2)で近似可能であるかを判定する。ここでは、GP(2)の場合の誤差Err(2)が、閾値TH_Err2以下であれば近似可能と判定して、路面パターンを分析するべくステップS406へ移動し、閾値より大きければ近似不可であったと判定し、ステップS409へ移動する。
なお、ステップS402における近似において、G=2より大きい、G=3、G=4での近似を試みても良く、この場合、ステップS404ではG=2、3、4における近似誤差のうち最小の近似誤差を選択し、その値が閾値以下であるか否かによって、近似可否を判定する。
ステップS403で輝度ヒストグラムHST[b]が単一のガウス分布GP(1)で近似可能であると判定された場合(ステップS403でYES)、ステップS405で路面状態を[均一状態]と推定する。路面状態が[均一状態]であるとは、図3−2に示すように、路面に日陰日向や影がなく、ほぼ単一の輝度とみなすことができる状態をいう。なお、路面に駐車枠などの白線が存在する場合でも、画像内では白線の画素数よりも路面の画素数の方が圧倒的に多いので、単一のガウス分布に近似化できる。
ステップS404で輝度ヒストグラムHST[b]が混合ガウス分布GP(2)で近似可能であると判定された場合(ステップS404でYES)、路面が明暗に分離された[明暗分離状態]であると推定し、その状態をさらに詳細に分析すべく、ステップS406以降の処理を実行する。ステップS406で路面パターン分析を実施する。路面パターン分析では、路面の明暗の形状を認識する処理が行われる。そして、ステップS406において認識された、路面の明暗の形状に基づき、ステップS407で[明暗分離状態]が[反射状態]であるか否かが判断される。
ステップS407で[反射状態]ではない(NO)と判断された場合には、ステップS408に移行して、路面状態を[日陰日向状態]もしくは[その他の明暗分離状態]のいずれかであると推定する。一方、ステップS407で[反射状態]である(YES)と判断された場合には、ステップS409に移行して、路面状態を[複雑状態([反射状態]を含む]であると推定する。
図5は、路面状態の具体例を示す図であり、図5(a)は日陰日向状態を示し、図5(b)はその他の明暗分離状態を示し、図5(c)は反射状態を示している。路面状態が[日陰日向状態]であるとは、画像に自車の影が映り込んでいる状態をいう。そして、[その他の明暗分離状態]であるとは、例えば図5(b)に示すように、ビルや壁などの自車以外の物体の影が映り込んでいる状態や、道路工事等により路面の輝度が部分的に異なっている状態をいう。そして、[反射状態]であるとは、例えば図5(c)に示すように、雨等により濡れた路面に反射した構造物が映り込んでいる状態をいう。
路面パターン分析は、近似した混合ガウス分布パラメータGP(2)を用いて、俯瞰画像1015を分析することにより行われる。以下、GP(2)の2つのガウス分布のうち、平均輝度が大きい分布をGPH、平均輝度が小さい分布をGPLとする。
まず、俯瞰画像1015の各画素に対し、2つのガウス分布のうち、GPLに属している画素を抽出する。属しているか否かは、各画素の輝度をGPL、GPHに代入し、GPLの出力値がGPHの出力値より大きいか否かによって判定可能である。
つぎに、俯瞰画像1015内でGPLに属している画素のみを抽出した2値画像を生成し、形状を分析する。例えば図5(a)に示すように、平均輝度が小さいガウス分布に属している画素が、自車近傍領域内から一定方向に延びている場合は、路面状態が[日陰日向状態]であると判定する。路面状態が[日陰日向状態]と判定された場合、GPH画素領域Saが日向路面に相当し、GPL画素領域Sbが日陰路面に相当する。
例えば図5(b)に示すように、GPLに属している画素が画像の半分に存在する等、自車近傍領域内がGPL画素領域SbとGPH画素領域Saに二分に区画される場合には、路面状態が[その他の明暗分離状態]であると判定する。図5(c)に示すように雨等により濡れた路面に反射した構造物が映り込んでいる等により、GPL画素領域Sbが複雑な形状を有している場合は、[反射状態]であると判定する(ステップS407でYES)。上記判定は、GPLに属している画素を抽出した2値画像に対し、ラベリング処理を行い、各ラベルの形状を見ることで判定することができる。
ステップS407において,路面状態が[反射状態]でなければステップS408へ移動し、[反射状態]であればステップS409へ移動する。ステップS408は,輝度ヒストグラムを予め設定されているガウス分布により近似することが可能であると判定し,路面状態を[日陰日向状態]もしくは[その他の明暗分離状態]であると推定する。ステップS409は、輝度ヒストグラムを予め設定されているガウス分布により近似することが困難、もしくは、形状が複雑であると判定し、路面状態を[複雑状態]であると推定する。[反射状態]は、[複雑状態]の部分集合として扱う。
以上説明したように、路面状態推定部1031では自車近傍領域のヒストグラムが単峰性、二峰性、その他のどのモデルにもっとも当てはまるか、さらにあてはめたモデルにおけるパラメータを推定する。
[判定方法設定部]
つぎに、判定方法設定部1041の処理の内容について説明する。
本実施例においては、路面状態が[複雑状態]と推定された場合とそれ以外の場合で大きく2種類の判定方法を用いる。路面状態が[複雑状態]以外と判定された場合は、路面状態推定部1031にて用いた混合ガウス分布モデルGP(G)を用いた判定を行う。一方、路面状態が[複雑状態]と判定された場合は、輝度パターンを用いた判定を行う。輝度パターンについての詳細は、白線判定部1061にて説明する。
[白線候補検出部]
つぎに、図6を用いて、白線候補検出部1051における処理の内容について説明する。
図6は、白線候補検出部1051の処理の流れを示したフローチャートである。白線候補検出部1051は、俯瞰画像1015全体に対して実施しても良いし、処理領域を限定しても良い。本実施例では、シフトポジションに基づいて、自車が停車・前進している場合は俯瞰画像1015の上半分を、自車が後進している場合は下半分を処理領域として設定する。
まず、ステップS601にて、処理領域内の各ラインに対して画像の左側から右側に走査しながら、縦方向のエッジフィルタを適用する。以下、ステップS602、S603はライン毎に実施する。ステップS602にて、エッジフィルタの出力値がピークとなるエッジ点を検出する。ピークは、立ち上がりエッジ(輝度の暗から明への変化点)Eu[nu]立下りエッジ(輝度の明から暗への変化点)Ed[nd]を検出する。
路面上の白線は路面よりも輝度値が高いため、白線の左側には立ち上がりエッジが、右側には立下りエッジが存在する。その特徴を捉えるため、ステップS603にて、ステップS602で検出した立ち上がりエッジ点Eu[nu]、立下りエッジ点Ed[nd]のうち、立ち上がりエッジから画像右側の所定範囲(あらかじめ定義する、検出する白線の最大太さ)内に立下りエッジが存在するエッジペアEp[np]のみを残し、それ以外の単独エッジは消去する。上記S601〜S603を、処理領域内の各ラインに対して実行する。
つぎに、ステップS604にて、エッジペアEp[np]のうち、直線状に並んでいるものをグルーピングし、直線候補グループLg[ng]を生成する。ここで、直線状でないエッジペアを除去する。直線上に並ぶ白線のグルーピングは、公知のハフ変換を用いることで可能である。つぎに、ステップS605にて、直線候補グループLg[ng]の線のうち、所定長さ以下のものを除去する。そして、ステップS606にて、残ったグループの立ち上がり・立下りエッジの上端・下端の座標を、白線候補LC[n]の要素として格納する。
[白線判定部]
つぎに、図7−1〜図7−3、図8−1、図8−2、図9を用いて、白線判定部1061における処理の内容について説明する。図7−1は、白線判定部1061の処理の流れを示したフローチャートである。
まず、ステップS701にて、路面状態推定部1031にて判定された路面状態が[複雑状態]であったか否かを確認する。[複雑状態]ではなかった場合はステップS7011へ移動し、[複雑状態]であった場合はステップS706へと移動する。ステップS7011では、路面状態推定部1031にて判定された路面状態が[日陰日向状態]であったか否かを確認する。[日陰日向状態]ではなかった場合はステップS702に移動し、[日陰日向状態]であった場合はステップS707へと移動する。以下、ステップS702からステップS705までの処理は、白線候補LC[n]の数だけ処理を繰り返す。
まず、ステップS702にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]を作成する。つぎに、ステップS703にて、白線候補輝度(白線候補の内側輝度ヒストグラム)が路面輝度基準に含まれるか否かを判断する。ここでは、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_LNGPを算出し、閾値TH_LNGPと比較する。そして、誤差Err_LNGPが閾値TH_LNGPよりも大きければ、白線候補の輝度が路面輝度基準に含まれない(ステップS703でNO)と判定し、ステップS704へ移動し、誤差Err_LNGPが閾値TH_LNGP以下であれば路面輝度基準に含まれる(ステップS703でYES)と判定し、ステップS705へ移動する。
ステップS704では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。一方、ステップS705では、白線候補は白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。ステップS706では、次で説明する[複雑状態]であると判定された場合の処理に入る。
上記した白線判定処理の具体例について図7−2、図7−3を用いて説明する。図7−2(a)は、自車前方の駐車枠線を白線候補LCとして検知しているシーンである。ここでは左右の白線候補のうち、右側の白線候補LCに対する処理について説明する(左側の白線候補に対する処理も同様である)。
図7−2(b)は、白線候補LC[n]の内側領域(図7−2(a)右側の点線矩形内)の輝度ヒストグラムHSTLC[n]、図7−2(c)は、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)のヒストグラム、図7−2(d)は、図7−2(b)と(c)のヒストグラムの誤差を表示したものである。
白線候補LC[n]の内側領域の輝度ヒストグラムHSTLC[n]として図7−2(b)に示す輝度ヒストグラムが得られ、判定方法設定部1041にて設定した混合ガウス分布モデルGP(G)の輝度ヒストグラムが図7−2(c)に示すものであった場合に、図7−2(b)と(c)のヒストグラムを比較すると、図7−2(d)に示すように、互いに分布の位置が大きく異なっている。したがって、路面状態推定部1031にて述べた方法を用いて、これら2つのヒストグラムの誤差を求めると、閾値TH_LNGPを超える大きい値が得られ、白線として判定される.
一方、図7−3の例について説明する。図7−3(a)は、自車前方に影(GPL画素領域Sb)が存在し、その影の間の日向部分(GPH画素領域Sa)を白線候補LCとして検出しているシーンである。ここでは左右の白線候補のうち、右側の白線候補LCに対する処理について説明する(左側の白線候補に対する処理も同様である)。
図7−3(b)は、白線候補LC[n]の内側領域(図7−3(a)右側の点線矩形内)の輝度ヒストグラムHSTLC[n]、図7−3(c)は、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)のヒストグラム、図7−3(d)は、図7−3(b)と(c)のヒストグラムの誤差を表示したものである。
白線候補LC[n]の内側領域の輝度ヒストグラムHSTLC[n]として図7−3(b)に示す輝度ヒストグラムが得られ、判定方法設定部1041にて設定した混合ガウス分布モデルGP(G)の輝度ヒストグラムが図7−3(c)に示すものであった場合に、図7−3(b)と(c)のヒストグラムを比較すると、図7−3(d)に示すように、分布の位置がほぼ一致する。したがって、路面状態推定部1031にて述べた方法を用いて、これら2つのヒストグラムの誤差を求めると、小さい値が得られる。したがって、閾値TH_LNGP以下の値となり、白線ではないと判定され、消去される。
ステップS706では、図8−1に記載された処理が実行される。図8−1は、路面が[複雑状態]であると判定された場合の処理である。ステップS801からステップS804までの処理は、白線候補LC[n]の数だけ処理を繰り返す。まず、ステップS801にて、白線候補周辺の輝度パターン、つまり俯瞰画像1015に対して白線候補を含む領域を設定する。つぎに、ステップS802にて、白線候補の輝度パターンが放射状であるか、つまり俯瞰画像1015に対して白線候補を含むよう設定された領域の形状が放射状であるかを判定する。図2を用いて説明したように、俯瞰画像1015は上空からの仮想視点の画像である。
雨などで濡れた路面に構造物が反射して映り込む路面反射等が存在すると、路面上に図5(c)のようなパターンが現れる。このパターンは俯瞰画像1015上におけるカメラ設置位置から放射状に延びるため、白線候補を含むよう設定された領域内の画像がカメラ設置位置から放射状になっているか否かを判定することで、白線候補が路面反射によるものなのか、本当の白線なのかを見分けることができる。
本実施例では、放射状であるかを判定する方法として、以下の方法を用いる。まず、白線候補を含むよう設定された領域内の各画像からエッジ角度DE[x][y]を算出する。つぎに、各画素の位置とカメラ設置位置が成す角度DC[x][y]を算出する。そして、DE[x][y]とDC[x][y]の差を求め、その値が閾値TH_DEDC以内であるか否かを判定する。以上の処理を、白線候補を含むよう設定された領域内のすべての画素に実施し、閾値以内である画素数をカウントする。そして、カウントした画素数を領域の面積で割った値RRを求め、その値が閾値TH_RR以上であれば放射状であると判定し、そうでなければ放射状ではないと判定する。ここで,閾値TH_DEDC、TH_RRはあらかじめ設定しておく。
ステップS802にて、白線候補の輝度パターンが放射状ではない(ステップS802でNO)と判定されるとステップS803へ移動する。ステップS803では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。一方、ステップS802にて、白線候補の輝度パターンが放射状である(ステップS802でYES)と判定されるとステップS804へ移動する。ステップS804では、白線候補を白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。
上記処理における放射状である白線候補の例と、放射状ではない白線候補の例について、図8−2を用いて説明する。図8−2は、俯瞰画像において白線候補が放射線状か否かを説明する図である。図8−2(a)には、俯瞰画像1015上におけるカメラ1001〜1004の各設置位置が示されている。路面への映り込みは、このカメラ位置から放射状に延びる方向となる。
図8−2(b)は、放射状ではない白線候補LCの例である。この場合、白線候補LCのエッジの角度が放射状ではないため、カメラ1001の位置を通らない。すなわち、白線候補LCの延長線上にカメラ1001が位置していない。よって、各画素のエッジ角度DE[x][y]と各画素とカメラ設置位置が成す角度DC[x][y]の誤差は大きくなる。
図8−2(c)は、放射状である白線候補LCの例である。この場合、白線候補LCのエッジの角度が放射状であるため、カメラ1001の位置を通る。すなわち、白線候補LCの延長線上にカメラ1001が位置している。よって、各画素のエッジ角度DE[x][y]と各画素とカメラ設置位置が成す角度DC[x][y]の誤差は小さくなる。
さらに、図9にて、路面状態が[日陰日向状態]であると判定された場合の処理を説明する。ステップS7011で路面状態が[日陰日向状態]であると判定されると、ステップS707に移動し、図9に記載された処理が実行される。図9は、路面が[日陰日向状態]であると判定された場合の処理である。
以下、ステップS901からステップS906までの処理は、白線候補LC[n]の数だけ処理を繰り返す。
ステップS901にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]を取得する。つぎに、ステップS902にて、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[n]を取得する。つぎに、ステップS903にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、日向路面の分布モデルGPHとの誤差Err_LNGPHを算出し、閾値TH_LNGPHと比較する。誤差Err_LNGPHが閾値TH_LNGPHより大きければ日向路面輝度基準に含まれない(ステップS903でNO)と判定しステップS906へ移動し、誤差Err_LNGPHが閾値TH_LNGPH以下であれば日向路面輝度基準に含まれる(ステップS903でYES)と判定し、ステップS904へ移動する。
つぎに、ステップS904にて、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[n]と、日陰路面の分布モデルGPLとの誤差Err_LNGPLを算出し、閾値TH_LNGPLと比較する。誤差Err_LNGPLが閾値TH_LNGPLよりも大きければ日陰路面輝度基準に含まれない(ステップS904でNO)と判定し、ステップS906へ移動し、誤差Err_LNGPLが閾値TH_LNGPL閾値以下であれば日陰路面輝度基準に含まれる(ステップS904でYES)と判定し、ステップS905へ移動する。
ステップS906では、白線候補を白線と判定し、白線候補LC[n]の情報を白線LN[m]へコピーする。ステップS905では、白線候補を白線ではないと判定し、白線候補LC[n]の情報を白線LN[m]へコピーせず、消去する。
以上、白線判定部1061において、白線候補LC[n]の輝度と路面状態に応じた判定方法に基づいて、白線候補LC[n]を白線LN[n]に含めるか否かという処理を説明した。本実施例では、路面状態が[複雑状態]以外の状態であった場合には白線候補LC[n]の内側の輝度ヒストグラムHSTLC[b]と混合ガウス分布近似モデルGP(G)の誤差の大きさに基づいて判定する。また、路面状態が[複雑状態]であった場合には、白線候補LC[n]を含む領域の輝度パターンが放射状の特徴を持つ度合いに基づいて判定する。
さらに、路面状態が[日陰日向状態]であった場合には、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[b]と日向路面のガウス分布モデルGPHとの誤差の大きさ、および、白線候補LC[n]の外側の輝度ヒストグラムHSTLCEX[b]と日陰路面のガウス分布モデルGPLとの誤差の大きさに基づいて判定する。このような処理により、路面状態に応じた判定が可能となり、誤認識を防ぐことが可能となる。
[駐車枠認識部]
つぎに、図10を用いて、駐車枠認識部1071における処理の内容について説明する。
図10は駐車枠認識部1071の処理の流れを示したフローチャートである。
まず、ステップS101にて、白線LN[m]から2本の線LN[mL]、LN[mR]を選択する。つぎに、ステップS102において、ステップS101で選択した2本の白線LN[mL]、LN[mR]の延在方向の角度差θが所定値(Thθmax)以下であるか否かを判断する。すなわち、ステップS102では、2本の白線が略平行であるか否かを判断する。ステップS102が肯定判断されるとステップS103へ進み、2本の白線LN[mL]、LN[mR]の間隔Wが所定の範囲内(ThWmin以上かつThWmax以下)であるか否かを判断する。すなわち、ステップS103では、駐車枠を構成する2本の白線として考えられる間隔で2本の白線が並んでいるか否かを判断する。
ステップS103が肯定判断されるとステップS104へ進み、2本の白線の下端のずれΔBが所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断する。ここで、2本の白線の下端のずれについて、図11を参照して説明する。図11の左図(a)に示すように、駐車場の敷地における車両1の移動方向(図11の紙面における上下方向および左右方向)に対して車両1を平行または直角に駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合、紙面における2本の白線の下端のずれΔBは少ない。
しかし、図11の右図(b)に示すように、駐車場によっては、車両10の移動方向(図11の紙面における上下方向および左右方向)に対して車両10を平行または直角ではなく斜めに駐車するように駐車枠23が設けられ、この駐車枠23に対応するように駐車枠線23Lが描かれている場合がある。この場合、距離Bで示すように、駐車枠23を構成する駐車枠線23Lの下端位置がずれる。すなわち、2本の白線の下端のずれは大きい。これは、図示右側の駐車枠線23Lが紙面下方の車両1が走行する領域に対してはみ出さないようにするために、駐車枠線23Lの下端位置をずらしてあるからである。
たとえば、高速道路のサービスエリアやパーキングエリアでは、図11の右図(b)の左側の駐車枠線23Lの下端から駐車枠線23Lの延在方向に対して垂直な線分と、駐車枠線23Lの下端同士を結ぶ線分との交差角度ρが0度、30度、45度のいずれかとすることが定められている。また、駐車枠23の幅Wについても取り得る値の範囲が決まっている。そこで、本実施の形態では、上記交差角度θが、0度、30度、45度のいずれかの値であるときに取り得る距離Bの値があらかじめ不図示のメモリ等に記憶されている。
本実施の形態のステップS104では、選択したLN[mL]、LN[mR]から算出される距離Bとを比較して、その差が上述した所定の範囲内(ThBmin以上かつThBmax以下)であるか否かを判断することによって、2本の白線が1つの駐車枠23を構成する白線(駐車枠線23L)であるか否かを判断する。
ステップS104が肯定判断されるとステップS105へ進み、2本の白線LN[mL]、LN[mR]で構成される矩形の駐車枠23の4隅の座標を1つの駐車枠23についての位置の情報PS[k]として登録する。ステップS105を実行するとステップS106へ進み、白線判定部1061から出力された情報に基づくすべての白線(駐車枠線)に関して、任意の2本の白線についての上述した処理を行ったか否かを確認する。ステップS106が肯定判断されると、上述した処理によって得られた結果を出力して、駐車枠認識部1071の処理を終了する。ステップS106が否定判断されるとステップS101へ戻る。
以上説明したように、路面状態に応じて白線の判定方法を切り替えて誤認識を抑制することができ、駐車枠認識の精度を向上させることができる。
なお、本実施例ではモノクロカメラについて説明したが、色情報(カラー情報)を用いても良い。色情報を用いる場合は、R、G、Bの3チャネルすべてについて、上記処理を実施することで実現可能である。
さらに、図12は、本実施例にて検出した駐車枠認識結果PS[k]を、同一の車両に搭載された別の制御装置へ送信し、駐車支援制御を実施する場合のブロック図である。ここでは、駐車支援制御部1081は、駐車枠認識結果PS[k]の位置情報を取得し、駐車支援制御を実施する。
図13は駐車支援制御部1081の処理の流れを示したフローチャートである。
まず、ステップS1301にて、駐車枠認識結果PS[k]の位置情報を取得する。駐車枠認識結果PS[k]は、車載用画像処理装置1000の信号を制御装置へ直接入力することによって取得してもよいし、LAN(Local Area Network)を用いた通信を行うことによって取得してもよい。
つぎに、ステップS1302にて、駐車軌跡を算出する。駐車軌跡は、駐車枠認識結果PS[k]の位置に基づいて生成する。つぎに、ステップS1303にて、駐車可否を判断する。車両の切り返しを数回実施しても駐車不可能である場合は、ステップS1305へ移動し、駐車支援を中止する。一方、駐車可能である場合は、ステップS1304へ移動し、ステアリング、アクセル、ブレーキの少なくともいずれか一つの制御を実施して、目標の駐車枠へ駐車する支援を実施する。
<第二実施の形態>
つぎに、本発明の車載用画像処理装置の第二実施の形態について、以下に図面を用いて説明する。
図14は、第二実施の形態における車載用画像処理装置2000の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車載用画像処理装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
本実施の形態において特徴的なことは、汚れ検出部2091を有し、その情報を用いて白線判定部2061の処理を行うところである。
車載用画像処理装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から対象物を検知するためのものであり、本実施の形態では、自車の前方の障害物を検知するように構成されている。
車載用画像処理装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
車載用画像処理装置2000は、図14に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、白線候補検出部1051と、汚れ検出部2091と、白線判定部2061と、駐車枠認識部2071と、さらに、駐車支援制御部2081と、を有する。
画像取得部1021は、図2に示すように、自車の周囲を撮像可能な位置に取り付けられたカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。
路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、路面状態を推定する。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類を推定する。
判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いた判定を行い、[複雑状態]の場合は画像のパターンを用いた判定を行う。
白線候補検出部1051は、俯瞰画像1015から、白線候補LC[n]を検出する。汚れ検出部2091は、俯瞰画像1015から、カメラのレンズ汚れ位置を算出する。白線判定部2061は、白線候補LC[n]に対して、判定方法設定部1041で設定した判定基準、および、汚れ検出部2091により検出した汚れ情報に基づき、白線の信頼度LRLB[n]を算出する。駐車枠認識部2071は、白線候補LC[n]および白線の信頼度LRLB[n]に基づいて、駐車枠PS[k]を検出する。
さらに、駐車支援制御部2081は、車載用画像処理装置2000と同一の車両に搭載されている制御装置内に搭載され、車載用画像処理装置2000から受信した駐車枠認識結果PS[k]の位置情報および信頼度を用いて、自車との位置関係に応じて、最適な駐車軌跡を算出し、ステアリング、アクセル、ブレーキを制御して、目標の駐車枠へ駐車する。
[汚れ検出部]
図15を用いて、汚れ検出部2091の一例に関する処理の内容について説明する。
図15は本実施例における、汚れ検出部2091の処理の流れを示したフローチャートである。
ステップS1401では、俯瞰画像1015を複数の小領域に分割する。小領域の区切り方はあらかじめ設定されているものとする。ステップS1402では、各小領域でヒストグラムを作成する。ステップS1403では、ステップS1402で作成したヒストグラムを、図14の処理を前回実行したときに作成したヒストグラムと比較する。
ステップS1404では、ステップS1403で行った比較に基づいて、各小領域の評価を行う。すなわち、ヒストグラムに変化がない領域についてスコアを上昇させる演算を行う。ステップS1405では、車載用画像処理装置2000は、スコアが所定の閾値を超えた小領域を検出して、その小領域に関する情報(座標値)を異物認識部の認識結果SRD[d]として情報記憶部に記憶する。ここでSRDは汚れた小領域の座標情報であり、dは複数検出した場合のIDである。
[白線判定部]
つぎに、図16、図17、図18を用いて、白線判定部2061の一例に関する処理の内容について説明する。図16は本実施例における白線判定部2061の処理の流れを示したフローチャートである。まず、ステップS1501にて、路面輝度基準を用いて白線候補LC[n]の第一の信頼度LRLB1[n]を算出する。以下、第一の信頼度LRLB1[n]の算出方法について述べる。
図17、図18は第一の信頼度LRLB1[n]の算出の処理の流れを示したフローチャートである。各処理のうち、図7−1、図8−1に示した第一実施例における白線判定部1061と同様の箇所には同一の番号を付してその詳細な説明を省略する。
ステップS7032にて、白線候補LC[n]の内側の輝度ヒストグラムHSTLC[n]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_LNGPを算出する。
つぎに、ステップS7042にて、誤差Err_LNGPに基づいて白線の第一の信頼度LRLB1[n]を算出する。本実施例では、誤差Err_LNGPの閾値TH_LNGP1、TH_LNGP2を、TH_LNGP1<TH_LNGP2となるように設定し、誤差Err_LNGP<TH_LNGP1であれば第一の信頼度LRLB1[n]=0.0、誤差Err_LNGP≧TH_LNGP2であれば第一の信頼度LRLB1[n]=1.0、その間は0.0〜1.0を線形補間するように設定する。
図18は、路面が[複雑状態]であると判定された場合の本実施例における処理である。ステップS701で路面が複雑状態であると判断されると、ステップS7062に移動し、図18に示す処理が行われる。
まず、ステップS801で白線候補の内側の輝度パターンを取得する。そして、ステップS8022にて、白線候補の輝度パターン、つまり俯瞰画像1015に対して白線候補を含むよう設定された領域内の画像の放射状の度合いを算出する。本実施例では、白線候補を含むよう設定された領域内の画像からエッジ角度を算出し、各画素のエッジ角度DE[x][y]と、各画素の位置とカメラ設置位置が成す角度DC[x][y]の誤差が閾値TH_DEDC以内である画素をカウントし、カウントした画素が領域の面積に占める割合RRを算出する。
つぎに、ステップS8032にて、放射状エッジの割合RRに基づいて白線の第一の信頼度LRLB1[n]を算出する。本実施例では、放射状エッジの割合RRの閾値TH_RR1、TH_RR2を、TH_RR1<TH_RR2となるように設定し、放射状エッジの割合RR<TH_RR1であれば第一の信頼度LRLB1[n]=1.0、放射状エッジの割合RR>TH_RR2であれば第一の信頼度LRLB1[n]=0.0、その間は0.0〜1.0を線形補間するように設定する。以上の処理により、図16のステップS1501にて第一の信頼度LRLB1[n]が算出される。
つぎに、ステップS1502にて、汚れ検出部2091の結果を用いて、白線の第二の信頼度LRLB2[n]を算出する。第二の信頼度LRLB2[n]は、検出した白線候補LC[n]と、汚れた小領域SRD[d]の位置関係より算出する。本実施例では、白線候補LC[n]の位置に、汚れた小領域SRD[d]が存在すれば第二の信頼度LRLB2[n]=0とし、白線候補LC[n]に最も近い汚れた小領域SRD[d]までの距離D_LCDが閾値TH_LCDより大きければ第二の信頼度LRLB2[n]=1.0とし、閾値TH_LCD以下の場合は距離に応じて0.0〜1.0を線形補間するように設定する。
つぎに、ステップS1503にて、第一の信頼度LRLB1[n]、第二の信頼度LRLB2[n]を用いて、白線の信頼度LRLB[n]を算出する。本実施例においては、第一の信頼度LRLB1[n]と第二の信頼度LRLB2[n]の平均値を用いることとする。算出後、白線候補LC[n]に付随する情報として白線の信頼度LRLB[n]を出力し、白線判定部2061での処理を終了する。
[駐車枠認識部]
つぎに、図19を用いて、駐車枠認識部2071の一例に関する処理の内容について説明する。
図19は本実施例における駐車枠認識部2071の処理の流れを示したフローチャートである。各処理のうち、図10に示した第一実施例における駐車枠認識部1071と同様の箇所には同一の番号を付してその詳細な説明を省略する。なお、第一実施例における駐車枠認識部1071では白線LN[m]を対象としたが、本実施例では白線候補LC[n]を対象とする。
ステップS1901、ステップS1902が、第二実施の形態にて追加された処理である。ステップS1901では、選択した2本の線LC[nL]、LC[nR]の信頼度LRLB[nL]、LRLB[nR]がいずれも閾値ThRLB以上であるかを判定し、閾値以上であった場合はステップS102へ、閾値以下であった場合はステップS106へ移動する。
ステップS1902では、駐車枠PS[k]に、枠の四隅の座標情報のみならず、白線の信頼度のうち値が小さいものを駐車枠の信頼度PSRLB[k]として登録する。信頼度は、後述の駐車支援制御部2081にて用いる。
つぎに、駐車支援制御部2081の処理について説明する。図20は、駐車支援制御部2081の処理フローである。各処理のうち、図13に示した第一実施例における駐車支援制御部1081と同様の箇所には同一の番号を付してその詳細な説明を省略する。ステップS201、S202、S203が、第二実施の形態にて追加された処理である。
ステップS201にて、取得した駐車枠PS[k]の信頼度PSRLB[k]が閾値TH_PSRLB以上であるかを判定する。閾値TH_PSRLB以上である場合はステップS202へ移動し、閾値TH_PSRLBよりも小さい場合はステップS203へ移動する。
ステップS202では、信頼度が高い駐車場に対して、強い制御を実施する。本実施例では、ステアリング、アクセル、ブレーキすべての制御を実施して、目標の駐車枠へ駐車する支援を実施する。ステップS203では、信頼度が低い駐車場に対して、弱い制御を実施する。本実施例では、ステアリング、アクセル、ブレーキいずれか一つの制御を実施して、目標の駐車枠へ駐車する支援を実施する。
以上説明したように、本発明による判定結果から信頼度を算出し、同様に汚れ判定という別の判定結果からも信頼度を算出し、これらを統合することにより、信頼度に応じて駐車支援の度合いを変えることができる。
<第三実施の形態>
つぎに、本発明の車載用画像処理装置の第三実施の形態について、以下に図面を用いて説明する。
図21は、第三実施の形態における車載用画像処理装置3000の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車載用画像処理装置1000、第二実施の形態における車載用画像処理装置2000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
本実施の形態において特徴的なことは、障害物を検出対象としていることである。
車載用画像処理装置3000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から対象物を検知するためのものであり、本実施の形態では、自車の前方の障害物を検知するように構成されている。
車載用画像処理装置3000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
車載用画像処理装置3000は、図21に示すように、画像取得部1021と、路面状態推定部1031と、判定方法設定部1041と、障害物候補検出部3051と、障害物判定部3061と、さらに、車両制御部3081と、を有する。
画像取得部1021は、図2に示すように、自車の周囲を撮像可能な位置に取り付けられたカメラ1001〜1004から、自車周囲を撮影した画像1011〜1014を取得し、幾何変換・合成することにより、上空の仮想視点から見下ろした俯瞰画像1015を生成し、RAM上に記憶する。幾何変換・合成のパラメータは車両出荷時に行うキャリブレーションにより、あらかじめ設定されているものとする。
路面状態推定部1031は、俯瞰画像1015内の自車近傍領域1032から輝度ヒストグラムHST[b]を取得し、路面状態を推定する。本実施例では、路面状態として[均一状態]、[明暗分離状態]、[日陰日向状態]、[複雑状態]の4種類を推定する。
判定方法設定部1041は、路面状態推定部1031にて推定した路面状態に応じて、白線を判定するための判定方法を設定する。本実施例においては、[均一状態]、[明暗分離状態]、[日陰日向状態]の場合は輝度ヒストグラムから得られる輝度の範囲、もしくは輝度ヒストグラムのガウスモデルを用いて判定を行い、[複雑状態]の場合は画像のパターンを用いて判定を行う。
障害物候補検出部3051は、俯瞰画像1015から、障害物候補OBJC[i]を検出する。障害物判定部3061は、障害物候補OBJC[i]に対して、判定方法設定部1041で設定した判定基準に基づき、障害物OBJ[j]を決定する。さらに、車両制御部3081は、車載用画像処理装置3000と同一の車両に搭載されている制御装置内に搭載され、車載用画像処理装置3000から受信した障害物OBJ[j]の位置情報に基づいて、衝突を防止するための警報や、ブレーキ制御を実施する。
[障害物候補検出部]
障害物候補検出部3051の一例に関する処理の内容について説明する。
本実施例における障害物候補検出部3051は、画像以外のセンサを用いる場合と、俯瞰画像1015を用いる場合の2パターンが存在する。画像以外のセンサを用いる場合、例えばソナーセンサ等を用いて障害物を検出し、障害物の位置情報を取得する。つぎに、カメラ幾何情報を用いて、俯瞰画像1015上の位置を特定する。他に、例えば公知のパターンマッチ技術を用いて、画像から直接歩行者等の障害物を検出することもできる。この場合も、カメラ幾何情報を用いて、俯瞰画像1015上の位置を特定する。
[白線判定部]
つぎに、図22、23を用いて、障害物判定部3061における処理の内容について説明する。
図22は、障害物判定部3061の処理の流れを示したフローチャートである。
まず、ステップS2201にて、路面状態推定部1031にて判定された路面が[複雑状態]であったかを確認する。複雑状態でなかった場合はステップS2202へ、複雑状態であった場合はステップS2206へと処理を移す。以下、ステップS2202からステップS2205までの処理は、障害物候補LC[i]の数だけ処理を繰り返す。
まず、ステップS2202にて、障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[i]を作成する。つぎに、ステップS703にて、障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[i]と、判定方法設定部1041にて設定した、混合ガウス分布モデルGP(G)との誤差Err_OBJGPを算出し、閾値TH_BOJGPと比較する。誤差Err_OBJGPが閾値TH_BOJGPより大きければ路面輝度基準に含まれないと判定し、ステップS2204へ移動し、誤差Err_OBJGPが閾値TH_BOJGP以下であれば路面輝度基準に含まれると判定し、ステップS2205へ移動する。
ステップS2204では、障害物候補を障害物と判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーする。ステップS2205では、障害物候補は障害物ではないと判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーせず、消去する。ステップS2206では、次で説明する複雑状態であると判定された場合の処理に入る。
図23は、路面状態が[複雑状態]であると判定された場合の処理である。ステップS2301からステップS2304までの処理は、障害物候補OBJC[i]の数だけ処理を繰り返す。
まず、ステップS2301にて、障害物候補周辺の輝度パターン、つまり俯瞰画像1015に対して障害物候補のみを含む領域を設定する。つぎに、ステップS2302にて、俯瞰画像1015に対して障害物候補のみを含むよう設定された領域内の画像が放射状であるかを判定する。図2を用いて説明したように、俯瞰画像1015は上空からの仮想視点の画像である。よって、歩行者20が存在する場合、俯瞰変換前の画像では図24(a)のように写っている歩行者20が、図24(b)のように放射状に写りこむ。このパターンは俯瞰画像1015上におけるカメラ設置位置から放射状に延びるため、障害物候補のみを含むよう設定された領域内の画像がカメラ設置位置から放射状になっているか否かを判定することで、障害物候補が立体物か否かを見分けることができる。
本実施例では、放射状であるかを判定する方法として、障害物候補のみを含むよう設定された領域内の画像からエッジ角度を算出し、各画素のエッジ角度DE[x][y]と、各画素の位置とカメラ設置位置が成す角度DC[x][y]の誤差が閾値TH_DEDC以内である画素をカウントし、カウントした画素が領域の面積に占める割合RROBJが閾値TH_RROBJ以上か否かに応じて判定する。閾値TH_DEDC、TH_RROBJはあらかじめ設定しておく。
ステップS2302にてRROBJが閾値TH_RROBJ以上であれば放射状でないと判定し、ステップS2304へ、閾値よりも小さければ放射状であると判定し、ステップS2303へ移動する。
ステップS2303では、障害物候補を障害物と判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーする。ステップS2304では、障害物候補は障害物ではないと判定し、障害物候補OBJC[i]の情報を障害物OBJ[j]へコピーせず、消去する。
以上、障害物判定部3061において、障害物候補OBJC[i]の輝度と路面状態に応じた判定基準に基づいて、障害物候補OBJC[i]を障害物OBJ[j]に含めるか否かという処理を説明した。本実施例では、路面状態が[均一状態]、[多数色路面]であった場合には障害物候補OBJC[i]の内側の輝度ヒストグラムHSTOBJC[b]と混合ガウス分布近似モデルGP(G)の誤差の大きさに基づいて障害物候補が障害物であるか否かを判定する。また、路面が[複雑状態]であった場合には、障害物候補OBJ[i]のみを含む領域の輝度パターンが放射状の特徴を持つ度合いに基づいて判定する。このような処理により、路面状態に応じた判定が可能となり、障害物の誤認識を防ぐことが可能となる。
[車両制御部]
つぎに、図25を用いて、車両制御部3081における処理の内容について説明する。
まず、ステップS2501にて、車載用画像処理装置3000より障害物情報OBJ[j]から、自車からの相対距離PX[j]、PY[j]を取得する。障害物情報OBJ[j]は、車載用画像処理装置3000からの信号を制御装置へ直接入力することによって取得してもよいし、LANを用いた通信を行うことによって取得してもよい。
以下、ステップS2502からS2505は、障害物数分だけ繰り返し処理を実施する。ステップS2502にて、障害物の位置PX[j]、PY[j]と1周期前の障害物の位置PX_z1[j]、PY_z1[j]との差分近似により算出する障害物との相対速度VX[j]、VY[j]を算出する。
つぎに、ステップS2503にて、相対速度VX[j]、VY[j]が自車に向かってきているかを判定する。この判定は、例えば座標系として自車中心を原点とする座標系を考慮した場合に、障害物の位置PX[j]、PY[j]と自車の四隅を結ぶ直線の間に速度ベクトルの向きが入っているかを見ることで判定することができる。自車に向かってきている場合には、ステップS2504へ進み、向かってきていない場合は、ステップS2505へ進む。
ステップS2504では、衝突時間TTC[j]を算出する。TTC[j]は自車が障害物にあと何秒後に衝突するかを表すパラメータである。今回はステップS2503で自車方向へ向かってくる物体のみを扱うため、以下の式より求めることができる。
PL[j]=SQRT(PX[j]×PX[j]+PY[j]×PY[j])
VL[j]=SQRT(VX[j]×VX[j]+VY[j]×VY[j])
TTC[j]=PL[j]/VL[j]
ここで、SQRT()は平方根を算出する関数である。
ステップS2505では、衝突の危険がないため、衝突時間TTC[j]に十分大きな値を代入する。本実施例ではTTC[j]=10000とする。
つぎに、ステップS2506にて、TTC[j]のうち最小衝突時間TTCMINを抽出する。つぎに、ステップS2507にて、最小衝突時間TTCMINと閾値TH_TTCBRKを比較する。最小衝突時間TTCMINが閾値TH_TTCBRK以下の場合はステップS2508へ移動し、車両のブレーキ制御を実行する。一方、最小衝突時間TTCMINが閾値TH_TTCBRKより大きい場合はステップS2509へ移動する。
ステップS2509では、最小衝突時間TTCMINと閾値TH_TTCALMを比較する。最小衝突時間TTCMINが閾値TH_TTCALM以下の場合はステップS2510へ移動し、車両の警報装置を動作させ、運転者へ注意喚起を実施する。一方、最小衝突時間TTCMINが閾値TH_TTCALMより大きい場合は車両制御部3081の処理を終了する。以上説明したように、車載用画像処理装置3000にて検出した障害物情報に応じて、上記警報やブレーキ制御を発動させることができる。
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
1000 車載用画像処理装置
1001〜1004 カメラ
1021 画像取得部
1031 路面状態推定部
1041 判定方法設定部
1051 白線候補検出部
1061 白線判定部
1071 駐車枠認識部
1081 駐車補助制御部
2000 車載用画像処理装置
2091 汚れ検出部
2061 白線判定部
2071 駐車枠認識部
2081 駐車支援制御部
3000 車載用画像処理装置
3051 障害物候補検出部
3061 障害物判定部
3081 車両制御部

Claims (15)

  1. 路面上の対象物を検出する車載用画像認識装置であって、
    自車周囲を撮像した画像を取得する画像取得部と、
    該画像の自車近傍領域の輝度分布に基づいて自車周囲の路面状態が予め設定された複数の路面状態のいずれに属するのかを推定する路面状態推定部と、
    該推定された路面状態に応じて対象物の判定方法を設定する判定方法設定部と、
    前記画像から前記対象物と推定される対象物候補を検出する対象物候補検出部と、
    前記判定方法を用いて前記対象物候補が前記対象物であるか否かを判定する対象物判定部と、
    を有することを特徴とする車載用画像処理装置。
  2. 前記路面状態推定部は、前記輝度分布が1または2のガウス分布にて近似できるか否かに基づいて前記路面状態が前記複数の路面状態のうちの複雑状態であるか否かを推定し、
    前記判定方法設定部は、前記路面状態推定部により前記路面状態が前記複雑状態であると推定された場合に、前記対象物候補の輝度パターンが放射状か否かに基づいて判定する判定方法を設定することを特徴とする請求項1に記載の車載用画像処理装置。
  3. 前記路面状態推定部は、前記画像の輝度分布が1のピークを有する単一ガウス分布に近似可能な均一状態か否かを判定し、
    前記判定方法設定部は、前記路面状態が均一状態であると判定された場合に前記輝度分布から単一の輝度範囲を判定基準として前記対象物を判定する判定方法を設定することを特徴とする請求項2に記載の車載用画像処理装置。
  4. 前記路面状態推定部は、前記画像の輝度分布が2のピークを有する混合ガウス分布に近似できるか否かを判定し、前記混合ガウス分布に近似できないと判定した場合に、前記路面状態が前記複雑状態であると推定することを特徴とする請求項3に記載の車載用画像処理装置。
  5. 前記路面状態推定部は、前記画像の輝度分布が2のピークを有する混合ガウス分布に近似できる場合に、路面パターンに基づいて前記路面状態が反射状態と明暗分離状態のいずれであるかを判定し、
    前記判定方法設定部は、前記路面状態が前記反射状態であると判定された場合に前記対象物候補の輝度パターンが放射状か否かに基づいて判定する判定方法を設定することを特徴とする請求項4に記載の車載用画像処理装置。
  6. 前記路面状態推定部は、前記混合ガウス分布のうちの平均輝度の低いガウス分布に属している画素を抽出した2値画像に対してラベリング処理を行い、各ラベルの形状を見ることで前記路面状態が反射状態と明暗分離状態のいずれであるかを判定することを特徴とする請求項5に記載の車載用画像処理装置。
  7. 前記路面状態推定部は、前記路面状態が前記明暗分離状態であると判定した場合に、前記路面状態が前記画像に自車の影が映り込む日陰日向状態であるか否かを判定し、
    前記判定方法設定部は、前記日陰日向状態であると判定された場合に、予め設定された日向路面輝度基準と日陰路面輝度基準を判定基準として前記対象物を判定する判定方法を設定し、
    前記対象物判定部は、前記日陰日向状態であると判定された場合に、前記判定方法により、前記対象物候補の内側輝度分布が前記日向路面輝度基準に含まれており、かつ前記対象物候補の外側輝度分布が前記日陰路面輝度基準に含まれているときは前記対象物候補が前記対象物ではないと判定し、前記対象物候補の内側輝度分布が前記日向路面輝度基準に含まれていない、又は前記対象物候補の外側輝度分布が前記日陰路面輝度基準に含まれていないときは前記対象物候補が前記対象物であると判定することを特徴とする請求項6に記載の車載用画像処理装置。
  8. 前記対象物候補の内側輝度分布と前記判定基準に基づいて前記対象物の第一の信頼度を算出する第一の信頼度算出部と、
    前記判定基準とは別の基準に基づいて前記対象物の第二の信頼度を算出する第二の信頼度算出部を有し、
    前記対象物判定部は、前記第一の信頼度および第二の信頼度に基づいて前記対象物候補が前記対象物であるか否かを判定することを特徴とする請求項1に記載の車載用画像処理装置。
  9. カメラのレンズ汚れの位置を検出するレンズ汚れ検出部を有し、
    前記第二の信頼度算出部は、前記レンズ汚れ位置に基づいて前記第二の信頼度を算出することを特徴とする請求項8に記載の車載用画像処理装置。
  10. 自車挙動を取得する自車挙動取得部を有し、
    前記自車近傍領域を前記自車挙動に応じて変化させることを特徴とする請求項1に記載の車載用画像処理装置。
  11. 前記対象物は、白線、駐車枠、障害物のいずれかであることを特徴とする請求項1に記載の車載用画像処理装置。
  12. 前記輝度にはカラー情報も含まれることを特徴とする請求項1に記載の車載用画像処理装置。
  13. 請求項1に記載の車載用画像処理装置と、
    該車載用画像処理装置により検出した対象物の情報を取得し、前記対象物の位置に基づいて自車の挙動を変化させる制御を行う制御装置を有することを特徴とする車両システム。
  14. 前記制御装置は、運転者に対する警報、アクセル、ステアリング、ブレーキの制御の少なくとも1つを実施することを特徴とする請求項13に記載の車両システム。
  15. 前記車載用画像処理装置から対象物の信頼度を出力し、前記制御装置は前記信頼度に応じて前記制御を実施することを特徴とする請求項14に記載の車両システム。
JP2014057391A 2014-03-20 2014-03-20 車載用画像処理装置およびそれを用いた車両システム Active JP6313081B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014057391A JP6313081B2 (ja) 2014-03-20 2014-03-20 車載用画像処理装置およびそれを用いた車両システム
PCT/JP2015/050507 WO2015141247A1 (ja) 2014-03-20 2015-01-09 車載用画像処理装置およびそれを用いた車両システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014057391A JP6313081B2 (ja) 2014-03-20 2014-03-20 車載用画像処理装置およびそれを用いた車両システム

Publications (3)

Publication Number Publication Date
JP2015179482A true JP2015179482A (ja) 2015-10-08
JP2015179482A5 JP2015179482A5 (ja) 2016-08-18
JP6313081B2 JP6313081B2 (ja) 2018-04-18

Family

ID=54144227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014057391A Active JP6313081B2 (ja) 2014-03-20 2014-03-20 車載用画像処理装置およびそれを用いた車両システム

Country Status (2)

Country Link
JP (1) JP6313081B2 (ja)
WO (1) WO2015141247A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6091586B1 (ja) * 2015-11-12 2017-03-08 三菱電機株式会社 車両用画像処理装置および車両用画像処理システム
JP2018142756A (ja) * 2017-02-24 2018-09-13 京セラ株式会社 カメラ装置、検出装置、検出システムおよび移動体
JP2018142757A (ja) * 2017-02-24 2018-09-13 京セラ株式会社 カメラ装置、検出装置、検出システムおよび移動体
JP2018148345A (ja) * 2017-03-03 2018-09-20 株式会社デンソーアイティーラボラトリ 車載カメラシステム、付着物検出装置、付着物除去方法、及び付着物検出プログラム
JP2019526105A (ja) * 2016-06-23 2019-09-12 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 周辺モデルの写像を作成するための方法、並びに、車両制御システム、及び、対応する車両
WO2019202628A1 (ja) * 2018-04-16 2019-10-24 三菱電機株式会社 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JP2020177340A (ja) * 2019-04-16 2020-10-29 株式会社デンソー 画像処理装置
CN112541464A (zh) * 2020-12-21 2021-03-23 北京百度网讯科技有限公司 关联道路对象的确定方法、装置、路侧设备和云控平台
DE102023113198A1 (de) 2022-05-27 2023-11-30 Subaru Corporation Haltelinien-Erkennungseinrichtung

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6773540B2 (ja) * 2016-12-07 2020-10-21 クラリオン株式会社 車載用画像処理装置
CN111108503B (zh) * 2017-09-29 2023-08-08 日立安斯泰莫株式会社 驻车辅助装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189564A (ja) * 1992-01-08 1993-07-30 Fujitsu Ltd 画像処理装置及び方法
JP2002362396A (ja) * 2001-06-06 2002-12-18 Nissan Motor Co Ltd 車線追従走行制御装置
JP2009205559A (ja) * 2008-02-28 2009-09-10 Nec Corp 路面標示画像処理装置、路面標示画像処理方法並びに路面標示画像処理プログラム
JP2011002884A (ja) * 2009-06-16 2011-01-06 Nissan Motor Co Ltd 車両用画像表示装置及び俯瞰画像の表示方法
WO2014007175A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 車載環境認識装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5761601B2 (ja) * 2010-07-01 2015-08-12 株式会社リコー 物体識別装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189564A (ja) * 1992-01-08 1993-07-30 Fujitsu Ltd 画像処理装置及び方法
JP2002362396A (ja) * 2001-06-06 2002-12-18 Nissan Motor Co Ltd 車線追従走行制御装置
JP2009205559A (ja) * 2008-02-28 2009-09-10 Nec Corp 路面標示画像処理装置、路面標示画像処理方法並びに路面標示画像処理プログラム
JP2011002884A (ja) * 2009-06-16 2011-01-06 Nissan Motor Co Ltd 車両用画像表示装置及び俯瞰画像の表示方法
WO2014007175A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 車載環境認識装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091284A (ja) * 2015-11-12 2017-05-25 三菱電機株式会社 車両用画像処理装置および車両用画像処理システム
JP6091586B1 (ja) * 2015-11-12 2017-03-08 三菱電機株式会社 車両用画像処理装置および車両用画像処理システム
US10183621B2 (en) 2015-11-12 2019-01-22 Mitsubishi Electric Corporation Vehicular image processing apparatus and vehicular image processing system
US11145112B2 (en) 2016-06-23 2021-10-12 Conti Temic Microelectronic Gmbh Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle
JP2019526105A (ja) * 2016-06-23 2019-09-12 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH 周辺モデルの写像を作成するための方法、並びに、車両制御システム、及び、対応する車両
JP7008040B2 (ja) 2016-06-23 2022-01-25 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング 環境モデルの写像を作成するための方法、並びに、車両制御システム、及び、対応する車両
JP2018142756A (ja) * 2017-02-24 2018-09-13 京セラ株式会社 カメラ装置、検出装置、検出システムおよび移動体
JP2018142757A (ja) * 2017-02-24 2018-09-13 京セラ株式会社 カメラ装置、検出装置、検出システムおよび移動体
JP2018148345A (ja) * 2017-03-03 2018-09-20 株式会社デンソーアイティーラボラトリ 車載カメラシステム、付着物検出装置、付着物除去方法、及び付着物検出プログラム
JPWO2019202628A1 (ja) * 2018-04-16 2021-02-12 三菱電機株式会社 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
WO2019202628A1 (ja) * 2018-04-16 2019-10-24 三菱電機株式会社 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JP7072641B2 (ja) 2018-04-16 2022-05-20 三菱電機株式会社 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JP2020177340A (ja) * 2019-04-16 2020-10-29 株式会社デンソー 画像処理装置
JP7230658B2 (ja) 2019-04-16 2023-03-01 株式会社デンソー 画像処理装置
CN112541464A (zh) * 2020-12-21 2021-03-23 北京百度网讯科技有限公司 关联道路对象的确定方法、装置、路侧设备和云控平台
DE102023113198A1 (de) 2022-05-27 2023-11-30 Subaru Corporation Haltelinien-Erkennungseinrichtung

Also Published As

Publication number Publication date
WO2015141247A1 (ja) 2015-09-24
JP6313081B2 (ja) 2018-04-18

Similar Documents

Publication Publication Date Title
JP6313081B2 (ja) 車載用画像処理装置およびそれを用いた車両システム
CN109844762B (zh) 车载用图像处理装置
CN108960183B (zh) 一种基于多传感器融合的弯道目标识别系统及方法
JP4420011B2 (ja) 物体検知装置
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
JP5283967B2 (ja) 車載用物体検知装置
US10984557B2 (en) Camera calibration using traffic sign recognition
US6819779B1 (en) Lane detection system and apparatus
US10699567B2 (en) Method of controlling a traffic surveillance system
CN108596058A (zh) 基于计算机视觉的行车障碍物测距方法
TW201704067A (zh) 防撞方法、實現該防撞方法之電腦程式產品及防撞系統
JP6547785B2 (ja) 物標検出装置
US20150012172A1 (en) Method for Calibrating a Plurality of Environment Sensors in a Vehicle
US10752223B2 (en) Autonomous emergency braking system and method for vehicle at crossroad
CN109827516B (zh) 一种通过车轮来测量距离的方法
KR101448506B1 (ko) 선행차량의 거동을 이용한 주행 차로의 곡률 측정 방법 및 장치
Suzuki et al. Sensor fusion-based pedestrian collision warning system with crosswalk detection
JP2018048949A (ja) 物体識別装置
CN114415171A (zh) 一种基于4d毫米波雷达的汽车可行驶区域检测方法
JP2002334330A (ja) 車両認識装置
CN114537447A (zh) 安全通行方法、装置、电子设备和存储介质
KR101568745B1 (ko) 적외선 영상 기반의 차량 보조 장치 및 방법
CN113432615A (zh) 基于多传感器融合可驾驶区域的检测方法、系统和车辆
CN115151836A (zh) 用于探测车辆周围环境中的移动对象的方法和机动车辆
JP3586938B2 (ja) 車載用距離測定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180322

R150 Certificate of patent or registration of utility model

Ref document number: 6313081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150