JP6254084B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6254084B2
JP6254084B2 JP2014526910A JP2014526910A JP6254084B2 JP 6254084 B2 JP6254084 B2 JP 6254084B2 JP 2014526910 A JP2014526910 A JP 2014526910A JP 2014526910 A JP2014526910 A JP 2014526910A JP 6254084 B2 JP6254084 B2 JP 6254084B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
detection
image
sun
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014526910A
Other languages
English (en)
Other versions
JPWO2014017434A1 (ja
Inventor
將裕 清原
將裕 清原
克行 中村
克行 中村
雅幸 竹村
雅幸 竹村
耕太 入江
耕太 入江
早川 泰久
泰久 早川
修 深田
修 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Nissan Motor Co Ltd filed Critical Clarion Co Ltd
Publication of JPWO2014017434A1 publication Critical patent/JPWO2014017434A1/ja
Application granted granted Critical
Publication of JP6254084B2 publication Critical patent/JP6254084B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は,画像処理装置に関する。
従来,車載用の撮像装置により車両周辺を撮影し,撮影画像から太陽や他車ヘッドライトなどの光源位置を推定する技術が知られている。例えば,特許文献1には,輝度変化推定手段によって,太陽またはヘッドライトの輝度変化を推定できる車両用画像処理装置が開示されている。
日本国特開2010−086266号公報
従来技術では,白濁したレンズに太陽光が入射した場合に,周囲車両の検出等の画像認識処理の精度が低下するという問題があった。
本発明の第1の態様によると,画像処理装置は,カメラが車両外を撮影して出力した撮影画像を取得する画像取得部と,少なくとも太陽の高度を含む太陽の位置を演算して,太陽の高度が所定高度以下であることを判定する太陽判定部と,カメラのレンズ表面が白濁していることを検出する白濁検出部と,撮影画像の第1の画像領域の画像情報に基づいて,車両とは異なる他車両を検出する車両検出部と,少なくとも第1の画像領域が白濁していることが白濁検出部により検出された場合に,太陽の高度が所定高度以下であると太陽判定部が判定したとき,車両検出部による他車両の検出を抑制する制御部と,を備える。
本発明の第2の態様によると,第1の態様の?画像処理装置において,車両検出部は,他車両の検出感度に関わる所定の閾値を有し,制御部は,レンズ表面のうち太陽の位置を中心とした画像範囲に対応する範囲が白濁しているとき,レンズ表面の当該範囲が白濁していないときよりも他車両の検出感度を閾値の変更により抑制することが好ましい。
本発明の第3の態様によると,第1の態様の画像処理装置において,太陽判定部は,日時と,車両が位置する緯度および経度と,車両の方向とに基づいて,太陽の位置を演算することが好ましい。
本発明の第4の態様によると,第1の態様の画像処理装置において,太陽判定部は,撮影画像に対して画像処理を行うことにより太陽の位置を演算することが好ましい。
本発明の第5の態様によると,第4の態様の画像処理装置において,カメラは,少なくとも車両外の路面を撮影し,太陽判定部は,路面反射による高輝度領域を撮影画像から抽出して,高輝度領域の重心の位置に基づいて太陽の位置を演算することが好ましい。
本発明の第6の態様によると,制御部は,第2の態様の画像処理装置において,太陽の位置を中心とした画像範囲の輝度勾配に基づいて,レンズ表面のうち当該画像範囲に対応する範囲が白濁していることを検出することが好ましい。
本発明の第7の態様によると,第1の態様の画像処理装置において,撮影画像には白濁検出領域が設定され,白濁検出部は,白濁検出領域に対してエッジ強度のヒストグラムを演算して,ヒストグラムを用いて演算されるエッジ強度の平均値に基づいて,カメラレンズが白濁している領域を検出する。
本発明の第8の態様によると,第7の態様の画像処理装置において,カメラは,少なくとも車両外の路面を撮影し,白濁検出領域は,路面に設けられた白線の消失点の近傍に複数設定され、白濁検出部は,白濁検出領域の各々に対してエッジ強度のヒストグラムを演算して,ヒストグラムの各々を用いて演算されるエッジ強度の平均値に基づいて,カメラレンズが白濁している領域を検出する。
本発明の第9の態様によると,第7の態様の画像処理装置において,カメラは,少なくとも車両外の路面を撮影し,白濁検出領域には,路面に設けられた白線の消失点の近傍であって撮影画像の中央よりも上側の位置に設定される第1の白濁検出領域と,第1の白濁検出領域よりも下方に広がるように消失点の近傍に設定される第2の白濁検出領域とが含まれ,白濁検出部は,昼間は第1の白濁検出領域を用いてカメラレンズが白濁している領域を検出し,夜間は第2の白濁検出領域を用いてカメラレンズが白濁している領域を検出する。
本発明の第10の態様によると,第1から第9のいずれか一態様の画像処理装置において,車両検出部による他車両の検出を制御部が抑制したことを,所定の報知部に報知させる報知制御部をさらに備えることが好ましい
本発明によれば,撮影画像に太陽光が入射した場合にも,画像認識処理の精度が低下しない。
本発明の第1の実施の形態による車載用車両認識装置の構成を示すブロック図である。 カメラの撮影領域と遮光領域を示す図である。 カメラの取り付け位置の例を示す図である。 本発明の第1の実施の形態による車載用車両認識装置に備わる制御部がBSWを実現するために備える各機能部のブロック図である。 位置合わせ部の処理の概要を説明するための図であり。(a)は車両の移動状態を示す平面図,(b)は位置合わせの概要を示す画像である。 車両の走行状態を示す平面図である。 立体物検出部による差分波形の生成の様子を示す概略図である。 立体物検出部により分割される小領域を示す図である。 立体物検出部により生成されるヒストグラムの一例を示す図である。 立体物検出部による重み付けを示す図である。 車両検出部に関するフローチャートである。 車両検出部に関するフローチャートである。 白濁検出部により設定される白濁検出領域の一例を示す図である。 白濁検出部に関するフローチャートである。 太陽判定部により演算される太陽の位置と,太陽判定部により設定される太陽範囲を示す図である。 太陽判定部に関するフローチャートである。 BSW制御部が設定する第1閾値αの設定値に関するテーブルの一例である。 BSW制御部による路面反射の有無判定の概要を示す図である。 BSW制御部に関するフローチャートである。 報知制御部に関するフローチャートである。 本発明の第2の実施の形態による車載用車両認識装置の構成を示すブロック図である。 本発明の第2の実施の形態による車載用車両認識装置に備わる制御部がBSWを実現するために備える各機能部のブロック図である。 自車両の走行状態を示す図であり,(a)は検出領域等の位置関係を示す平面図,(b)は実空間における検出領域等の位置関係を示す図である。 輝度算出部の動作を説明するための図であり,(a)は鳥瞰視画像における注目線,参照線,注目点,および参照点の位置関係を示す図,(b)は実空間における注目線,参照線,注目点,および参照点の位置関係を示す図である。 輝度算出部の詳細な動作を説明するための図であり,(a)は鳥瞰視画像における検出領域を示す図,(b)は鳥瞰視画像における注目線,参照線,注目点,および参照点の位置関係を示す図である。 エッジ線とエッジ線上の輝度分布を示す図であり,(a)は検出領域に立体物(車両)が存在している場合の輝度分布を示す図,(b)は検出領域に立体物が存在しない場合の輝度分布を示す図である。 第2車両検出部に関するフローチャートである。 第2車両検出部に関するフローチャートである。 第2太陽判定部に関するフローチャートである。 第2太陽判定部による太陽位置の演算の概要を示す図である。 第2BSW制御部に関するフローチャートである。 第2BSW制御部が設定する閾値θの設定値に関するテーブルの一例である。 白濁度合いと閾値のレベルとの関係を示す図である。
(第1の実施の形態)
図1は,本発明の第1の実施形態による車載用車両認識装置100の構成を示すブロック図である。図1に示す車載用車両認識装置100は,車両に搭載されて使用されるものであり,遮光板1aが取り付けられたカメラ1と,制御部2と,警報出力部3と,動作状態報知部4と,外部装置制御部5と,記憶部6とを備える。
カメラ1は,車両の後方に向けて設置されており,車両後方の路面を含む撮影領域内の画像を所定の時間間隔ごとに撮影する。このカメラ1には,例えばCCDやCMOSなどの撮像素子が用いられる。カメラ1により取得された撮影画像は,カメラ1から制御部2へ出力される。
遮光板1aは,カメラ1の撮影レンズに向けて進む光の一部を遮光するためにカメラ1に取り付けられている。図2は,カメラ1の撮影領域と遮光領域を示す図であり,カメラ1を横方向から見た様子を示している。図2に示すように,カメラ1の撮影領域のうち上側の一部分が遮光板1aでマスクされることにより,遮光領域が形成されている。カメラ1は,この遮光領域以外の撮影領域において,車両後方の路面を含む画像を撮影する。ここで,カメラ1の撮影領域(画角)は,車両後方の路面を左右方向について十分に広い範囲で撮影できるように比較的広く設定されており,そのままでは路面以外,例えば空や背景等からの不要な光もカメラ1に入射されてしまう。そこで,こうしたカメラ1への不要な入射光を遮るため,遮光板1aにより遮光領域が設けられている。
図3は,カメラ1の取り付け位置の例を示す図である。自車両の後方部分において,車体20にはナンバープレート21が設置されている。このナンバープレート21の直上の位置に,斜め下に向けてカメラ1が取り付けられており,その上に遮光板1aが設置されている。なお,ここで示した取り付け位置はあくまで一例であるため,他の位置にカメラ1を取り付けてもよい。車両後方の路面を適切な範囲で撮影可能な限り,カメラ1の取り付け位置をどのように定めてもよい。
制御部2は,記憶部6に記憶されているプログラムを実行することにより,カメラ1からの撮影画像を用いて所定の画像処理を行い,その処理結果に応じた各種制御を行う。この制御部2が行う制御により,車載用車両認識装置100において,例えば,LDW(Lane Departure Warning),BSW(Blind Spot Warning),MOD(Moving Object Detection),PED(Pedestrian Detection),RSR(Road Sign Recognition),IMD(Image Diagnosis)と呼ばれる様々な機能が実現される。LDWは,撮影画像から路面の白線(車線境界線,車両外側線など)を検出することにより,自車両が走行中の車線から逸脱しそうなときに警報を出力する機能である。MODは,撮影画像から移動物を検出することにより,後退時等に自車両の周囲における移動物の存在を運転者に知らせる機能である。PEDは,撮影画像から人物形状を検出することにより,自車進路上にいる歩行者の存在を運転者に知らせる機能である。RSRは,撮影画像から道路上の交通標識を認識し,例えば速度制限標識の速度を超えている場合には,運転者に警告を行う機能である。IMDは,カメラ1により撮影画像が正しく撮影されているかを診断する機能である。BSWは,撮影画像から道路上を走行している他の車両を検出することにより,車線変更時等に自車両と衝突する可能性がある車両の存在を運転者に警告する機能である。
警報出力部3は,警報ランプや警報ブザー等による警報を車両の運転者に対して出力するための部分である。警報ランプは,例えば車両のフロントピラーの両側に設置されている。この警報出力部3の動作は,制御部2によって制御される。例えば,前述のLDWにおいて自車両が走行中の車線から逸脱しそうと判断された場合や,BSWにおいて自車両と衝突する可能性のある車両が検出された場合に,制御部2の制御に応じて警報出力部3から警報が出力される。
動作状態報知部4は,車載用車両認識装置100の動作状態を車両の運転者に報知するための部分である。例えば,所定の動作条件が満たされておらずに車載用車両認識装置100が非動作状態にある場合,制御部2の制御により,動作状態報知部4として車両の運転席付近に設置されたランプを点灯させる。これにより,車載用車両認識装置100が非動作状態であることを運転者に報知する。
外部装置制御部5は,制御部2からの制御に応じて,外部装置を制御する。
次に,車載用車両認識装置100において制御部2が行うBSW制御について説明する。カメラ1の撮影領域内に太陽のような強い光源が存在する場合,撮影画像中の当該光源の位置近傍ではコントラストが低下する。さらに,カメラ1の撮影レンズに汚れが付着して白濁している場合,撮影画像全体のコントラストがさらに低下する。撮影画像全体のコントラストが低下した状態では,BSWにおける他車両等の検出精度が悪化する。制御部2は,撮影領域に太陽が存在するとき,カメラ1の撮影レンズのレンズ表面における白濁の位置や度合いに基づいてBSWの動作を制御する。
図4は,BSWに関する制御部2の制御ブロック図である。図4に図示されるように,制御部2は,画像取得部31とBSW部32と白濁検出部33と太陽判定部34とBSW制御部35とを有する。
(画像取得部31)
画像取得部31は,所定時間ごとにカメラ1から撮影画像の画像情報を取得する。画像取得部31が取得した撮影画像の画像情報は,少なくともBSW部32と白濁検出部33とに出力される。図4では,画像取得部31は,BSW制御部35にも撮影画像の画像情報を出力している。
(BSW部32)
BSW部32は,車両検出部41と報知制御部42とを有する。車両検出部41は,視点変換部411と位置合わせ部412と立体物検出部413とを有する。
(視点変換部411)
視点変換部411は,画像取得部31が取得した撮影画像の画像情報を鳥瞰視される状態の鳥瞰画像データに視点変換する。鳥瞰視される状態とは,上空から例えば鉛直下向きに見下ろす仮想カメラの視点から見た状態である。この視点変換は,例えば特開2008−219063号公報に記載されるようにして実行することができる。撮像画像データを鳥瞰視画像データに視点変換するのは,立体物に特有の鉛直エッジは鳥瞰視画像データへの視点変換により特定の定点を通る直線群に変換されるという原理に基づき,これを利用すれば平面物と立体物とを識別できるからである。
(位置合わせ部412)
位置合わせ部412は,視点変換部411の視点変換により得られた鳥瞰画像データが順次入力され,入力された異なる時刻の鳥瞰画像データの位置を合わせる。図5は,位置合わせ部412の処理の概要を説明するための図であり,図5(a)は自車両Vの移動状態を示す平面図,図5(b)は位置合わせの概要を示す画像である。
図5(a)に示すように,現時刻の自車両VがV1に位置し,一時刻前の自車両VがV2に位置していたとする。また,自車両Vの後側方向に他車両VXが位置して自車両Vと並走状態にあり,現時刻の他車両VXがV3に位置し,一時刻前の他車両VXがV4に位置していたとする。さらに,自車両Vは,一時刻で距離d移動したものとする。なお,一時刻前とは,現時刻から予め定められた時間(例えば1制御周期)だけ過去の時刻であってもよいし,任意の時間だけ過去の時刻であってもよい。
このような状態において,現時刻における鳥瞰画像PBは図5(b)に示すようになる。この鳥瞰画像PBでは,路面上に描かれる白線については矩形状となり,比較的正確に平面視された状態となるが,位置V3にある他車両VXの位置については倒れ込みが発生する。また,一時刻前における鳥瞰画像PBt−1についても同様に,路面上に描かれる白線については矩形状となり,比較的正確に平面視された状態となるが,位置V4にある他車両VXについては倒れ込みが発生する。立体物の鉛直エッジ(厳密な意味の鉛直エッジ以外にも路面から三次元空間に立ち上がったエッジを含む)は,鳥瞰視画像データへの視点変換処理によって倒れ込み方向に沿った直線群として現れるのに対し,路面上の平面画像は鉛直エッジを含まないので,視点変換してもそのような倒れ込みが生じないからである。
位置合わせ部412は,上記のような鳥瞰画像PB,PBt−1の位置合わせをデータ上で実行する。この際,位置合わせ部412は,一時刻前における鳥瞰画像PBt−1をオフセットさせ,現時刻における鳥瞰画像PBと位置を一致させる。図5(b)の左側の画像と中央の画像は,移動距離d’だけオフセットした状態を示す。このオフセット量d’は,図5(a)に示した自車両Vの実際の移動距離dに対応する鳥瞰視画像データ上の移動量であり,車速センサからの信号と一時刻前から現時刻までの時間に基づいて決定される。
また,位置合わせ後において位置合わせ部412は,鳥瞰画像PB,PBt−1の差分をとり,差分画像PDのデータを生成する。ここで,差分画像PDの画素値は,鳥瞰画像PB,PBt−1の画素値の差を絶対値化したものでもよいし,照度環境の変化に対応するために当該絶対値が所定の閾値pを超えたときに「1」とし,超えないときに「0」としてもよい。図5(b)の右側の画像が,差分画像PDである。この閾値pは,予め設定することにしてもよい。
(立体物検出部413)
図4の立体物検出部413は,図5(b)に示す差分画像PDのデータに基づいて立体物を検出する。立体物検出部413が検出する立体物の中には,自車両Vが車線変更する際に接触の可能性がある他車両が含まれる。立体物検出部413は,実空間上における立体物の移動距離についても算出する。立体物検出部413は,立体物の時間あたりの移動距離を,立体物の移動速度の算出に用いる。そして,立体物検出部413は,その立体物の移動速度を立体物が車両であるか否かの判断に用いる。
立体物検出部413は,まず差分波形を生成する。差分波形の生成にあたって立体物検出部413は,差分画像PDにおいて検出領域を設定する。図6は,検出領域の一例を示す図である。図6には,自車両Vの後方の左側及び右側に矩形状の検出領域A1,A2が図示されている。図6の検出領域A1,A2において,他車両は,自車両Vが走行する車線の隣接車線を走行する立体物として検出される。
図6では,検出領域A1,A2は,自車両Vが走行する車線に隣接する左右の車線に設けられている。立体物検出部413は,自車両Vに対する相対位置からこのような検出領域A1,A2を設定してもよいし,既存の白線認識技術等を利用して白線の位置を基準に設定してもよい。
また,立体物検出部413は,設定した検出領域A1,A2の自車両V側における辺(走行方向に沿う辺)を接地線L1,L2として認識する。一般に接地線は立体物が地面に接触する線を意味するが,本実施形態では地面に接触する線でなく上記の如くに設定される。なお,この場合であっても,経験上,本実施形態に係る接地線と,本来の他車両VXの位置から求められる接地線との差は大きくなり過ぎず,実用上は問題が無い。
図7は,立体物検出部413による差分波形の生成の様子を示す概略図である。図7に示すように,立体物検出部413は,位置合わせ部412で算出した差分画像PDt(例えば,図5(b)の右図)のうち検出領域A1,A2に相当する部分から,差分波形DWtを生成する。この際,立体物検出部413は,視点変換により立体物が倒れ込む方向に沿って,差分波形DWtを生成する。なお,図7に示す例では,便宜上検出領域A1のみを用いて説明するが,検出領域A2についても同様の手順で差分波形DWtを生成する。
立体物検出部413は,差分画像DWtのデータ上において立体物が倒れ込む方向上の線Laを定義する。そして,立体物検出部413は,線La上において所定の差分を示す差分画素DPの数をカウントする。ここで,所定の差分を示す差分画素DPは,差分画像DWtの画素値が鳥瞰画像PB,PBt−1の画素値の差を絶対値化したものである場合は所定の閾値を超える画素であり,差分画像DWtの画素値が「0」「1」で表現されている場合は「1」を示す画素である。
立体物検出部413は,差分画素DPの数をカウントした後,線Laと接地線(例えば,接地線L1)との交点CPを求める。そして,立体物検出部413は,交点CPとカウント数とを対応付け,交点CPの位置に基づいて横軸位置,すなわち図7右図の上下方向軸における位置を決定するとともに,カウント数から縦軸位置,すなわち図7右図の左右方向軸における位置を決定し,交点CPにおけるカウント数としてプロットする。
以下同様に,立体物検出部413は,立体物が倒れ込む方向上の線Lb,Lc…を定義して,差分画素DPの数をカウントし,各交点CPの位置に基づいて横軸位置を決定し,カウント数(差分画素DPの数)から縦軸位置を決定しプロットする。立体物検出部413は,上記を順次繰り返して度数分布化することで,図7右図に示すように差分波形DWtを生成する。
なお,図7左図に示すように,立体物が倒れ込む方向上の線Laと線Lbとは検出領域A1と重複する距離が異なっている。このため,検出領域A1が差分画素DPで満たされているとすると,線Lb上よりも線La上の方が差分画素DPの数が多くなる。このため,立体物検出部413は,差分画素DPのカウント数から縦軸位置を決定する場合に,立体物が倒れ込む方向上の線La,Lbと検出領域A1とが重複する距離に基づいて正規化する。具体例を挙げると,図7左図において線La上の差分画素DPは6個あり,線Lb上の差分画素DPは5個である。このため,図7においてカウント数から縦軸位置を決定するにあたり,立体物検出部413は,カウント数を重複距離で除算するなどして正規化する。これにより,差分波形DWに示すように,立体物が倒れ込む方向上の線La,Lbに対応する差分波形DWの値はほぼ同じとなっている。
差分波形DWの生成後,立体物検出部413は一時刻前の差分波形DWt−1との対比により移動距離を算出する。すなわち,立体物検出部413は,差分波形DW,DWt−1の時間変化から移動距離を算出する。
詳細に説明すると,まず立体物検出部413は,差分波形DWを複数の小領域DWt1〜DWtn(nは2以上の任意の整数)に分割する。図8は,立体物検出部413によって分割される小領域DWt1〜DWtnを示す図である。小領域DWt1〜DWtnは,例えば図8に示すように,互いに重複するようにして分割される。図8では,小領域DWt1と小領域DWt2とが重複しており,小領域DWt2と小領域DWt3とが重複している。
次いで,立体物検出部413は,小領域DWt1〜DWtn毎にオフセット量を算出する。オフセット量とは,差分波形の横軸方向(図8の上下方向)の移動量であって,一時刻前における差分波形DWt−1と現時刻における差分波形DWとの差(横軸方向の距離)に基づいて算出される。具体的には,立体物検出部413は,小領域DWt1〜DWtn毎に,次のような処理でオフセット量を算出する。まず,立体物検出部413は,小領域DWt1〜DWtn毎に,一時刻前における差分波形DWt−1を横軸方向に移動させて,現時刻における差分波形DWとの誤差が最小となる位置(横軸方向の位置)を探索する。次に,立体物検出部413は,小領域DWt1〜DWtn毎に,その誤差が最小となる位置と,差分波形DWt−1の元の位置との横軸方向の移動量を算出し,その移動量をオフセット量とする。
次いで,立体物検出部413は,小領域DWt1〜DWtn毎に算出したオフセット量をヒストグラム化して,そのヒストグラムから立体物の移動距離を算出する。図9は,オフセット量のヒストグラムの一例を示す図である。図9に示すように,オフセット量には多少のバラつきが生じるため,立体物検出部413は,バラつきを含んだオフセット量をヒストグラム化してそのヒストグラムから立体物の移動距離を算出する。
立体物検出部413は,オフセット量のヒストグラムの極大値に基づいて,立体物の移動距離を算出する。例えば,図9の例では,ヒストグラムの極大値は移動距離τである。立体物検出部413は,この移動距離τと自車両Vに備わる車速センサからの信号とに基づいて,立体物の絶対移動距離を算出する。
なお,ヒストグラム化にあたり立体物検出部413は,複数の小領域DWt1〜DWtn毎に重み付けをし,小領域DWt1〜DWtn毎に求めたオフセット量を重みに応じてカウントしてヒストグラム化してもよい。図10は,立体物検出部413による重み付けを示す図である。
図10に示すように,小領域DW(mは1以上n−1以下の整数)は平坦となっている。立体物検出部413は,このような小領域DWについて重みを小さくする。平坦な小領域DWについては,特徴がなくオフセット量の算出にあたり誤差が大きくなる可能性が高いからである。一方,小領域DWm+k(kはn−m以下の整数)は起伏に富んでいる。立体物検出部413は,このような小領域DWについて重みを大きくする。起伏に富む小領域DWm+kについては,特徴的でありオフセット量の算出を正確に行える可能性が高いからである。このように重み付けすることにより,立体物の移動距離の算出精度を向上することができる。
(車両検出部41)
図11および図12は,制御部2が実行する車両検出部41の処理に関するフローチャートである。図11のステップS100では,画像取得部31が取得した撮影画像の画像情報に基づいて,視点変換部411が鳥瞰画像データを生成する。ステップS110では,鳥瞰画像PBと,一時刻前の鳥瞰画像PBt−1とを,位置合わせ部412が位置合わせする。ステップS120では,立体物検出部413が差分画像PDを生成する。ステップS130では,立体物検出部413が差分画像PDのデータと,一時刻前の差分画像PDt−1のデータとから,差分波形DWを生成する。
ステップS140では,立体物検出部413が差分波形DWのピークが第1閾値α以上であるか否かを判定する。この第1閾値αは,後述するBSW制御部35の制御により設定される。車両検出部41の処理は,ステップS140が肯定判定されている場合は図12のステップS150に進み,ステップS140が否定判定されている場合は図12のステップS230に進む。
図12のステップS150では,図7を用いて説明したように,立体物検出部413が差分波形DWを複数の小領域DWt1〜DWtnに分割する。ステップS160では,図9を用いて説明したように,立体物検出部413が小領域DWt1〜DWtn毎に重み付けを行う。ステップS170では,立体物検出部413が小領域DWt1〜DWtn毎のオフセット量を算出する。ステップS180では,立体物検出部413が小領域DWt1〜DWtn毎のオフセット量のヒストグラムを生成する。ステップS190では,立体物検出部413がステップS180で生成したヒストグラムに基づいて自車両Vに対する立体物の移動距離である相対移動距離を算出する。ステップS200では,立体物検出部413がステップS190で算出された相対移動距離から立体物の絶対移動速度を算出する。立体物検出部413は,相対移動距離を時間微分して相対移動速度を算出すると共に,自車両の車速センサ等で検出された自車速を加算して,絶対移動速度を算出する。
ステップS210では,立体物の絶対移動速度がγkm/h以上,且つ,立体物の自車両Vに対する相対移動速度がδ1km/h以上δ2km/h以下であるか否かを,立体物検出部413が判定する。たとえば,立体物検出部413は,立体物の絶対移動速度が20km/h以上,且つ,立体物の自車両Vに対する相対移動速度が−20km/h以上+40km/h以下であるか否かを判定する。車両検出部41の処理は,ステップS210が肯定判定されている場合はステップS220に進み,ステップS210が否定判定されている場合はステップS230に進む。
ステップS220では,立体物検出部413は,立体物が他車両VXであると判断する。ステップS230では,立体物検出部413は,他車両が存在しないと判断する。そして,制御部2は,図11および図12に示す処理を終了する。
(白濁検出部33)
図4の白濁検出部33は,カメラ1の撮影レンズの白濁を検出する。白濁検出部33は,カメラ1の撮影画像に対して白濁検出領域を設定して,その白濁検出領域ごとにエッジ強度のヒストグラムを生成する。そして,白濁検出部33は,そのヒストグラムの平均値が所定値以下のとき,カメラ1の撮影レンズが白濁しているものとして判定する。
図13は,白濁検出領域を例示した図である。図13には,白濁検出領域51,52,53が例示されている。白濁検出領域51,52,53は,撮影画像50中で白線54と白線55とが交わる消失点56の近傍に設定されている。
白濁検出領域52および53は,互いに左右対称の形状を有し,左右対称な位置に設定されている。白濁検出領域52および53は,それぞれ立体物検出部413が設定する検出領域A1およびA2に対応しており,検出領域A1およびA2に対応するレンズ表面が白濁していることを検出することに用いられる。白濁検出領域52および53は,白濁検出領域51を挟むような位置に設定されている。白濁検出領域52および53は,白濁検出領域51よりも下方に広がっており,自車両Vの近傍のエッジを検出することができるため,レンズ表面が白濁していることを夜間に検出することに適している。
白濁検出領域51は,左右対称の形状を有し,撮影画像のうち中央より上側であり遮光部57より下側に設定されている。白濁検出領域51は,白濁検出領域52と重なる領域と,白濁検出領域53と重なる領域とを有する。白濁検出領域51は,立体物検出部413が設定する検出領域A1に対応するレンズ表面または検出領域A2に対応するレンズ表面が白濁していることを検出することに用いられる。白濁検出領域51における画像は,自車両Vが走行しているときであっても比較的変化が少ないため,検出精度が安定している。なお,白濁検出領域51は,自車両Vから遠方のエッジを検出することができるため,レンズ表面が白濁していることを昼間に検出することに適している。
このように白濁検出領域を設定することにより,白濁検出部33は,少なくとも,立体物検出部413が設定する検出領域A1およびA2に対応する撮影レンズのレンズ表面が白濁していることを検出することができる。
図14は,白濁検出部33の処理に関するフローチャートである。白濁検出部33には,画像取得部31が取得した撮影画像の画像情報が入力されている。たとえば,図13の撮影画像50の画像情報が入力されている。図14のステップS300では,制御部2は,周知のエッジ検出処理を用いて,その撮影画像に対するエッジ検出画像を生成する。
ステップS301では,制御部2は,ステップS300で生成したエッジ検出画像のうち,白濁検出領域51に対応する領域について,その領域に含まれるエッジのエッジ強度に関するヒストグラムH1を生成する。ステップS302では,制御部2は,ステップS300で生成したエッジ検出画像のうち,白濁検出領域52に対応する領域について,その領域に含まれるエッジのエッジ強度に関するヒストグラムH2を生成する。ステップS303では,制御部2は,ステップS300で生成したエッジ検出画像のうち,白濁検出領域53に対応する領域について,その領域に含まれるエッジのエッジ強度に関するヒストグラムH3を生成する。なお,ステップS301,ステップS302,ステップS303の順番は,任意の順番で実行してよい。
ステップS304では,制御部2は,ヒストグラムH1の平均値E1と,ヒストグラムH2の平均値E2と,ヒストグラムH3の平均値E3とを算出する。ステップS305では,制御部2は,平均値E1が所定の閾値ε1以上であり,且つ,平均値E2が所定の閾値ε2以上であり,且つ,平均値E3が所定の閾値ε3以上であるか否かを判定する。制御部2は,ステップS305が肯定判定された場合は図11の処理をステップS307に進め,ステップS305が否定判定された場合は図11の処理をステップS306に進める。なお,ステップS304で行う判定は,昼間に白濁検出を行う場合と夜間に白濁検出を行う場合とで異なるものとしてもよい。たとえば,昼間に白濁検出を行う場合は,制御部2が平均値E1が所定の閾値ε1以上であるか否かを判定することにすればよい。また,夜間に白濁検出を行う場合は,平均値E2が所定の閾値ε2以上であり,且つ,平均値E3が所定の閾値ε3以上であるか否かを制御部2が判定することにしてもよい。すなわち,昼間は白濁検出領域51を用いて白濁検出を行い,夜間は白濁検出領域52,53を用いて白濁検出を行うことにしてもよい。
ステップS306では,制御部2は,カメラ1の撮影レンズが白濁していないと判断する。一方,ステップS307では,制御部2は,カメラ1の撮影レンズのレンズ表面のうち,少なくとも検出領域A1またはA2に対応するレンズ表面が白濁していると判断する。
(太陽判定部34)
図4の太陽判定部34は,太陽の位置を演算して,カメラ1の撮影領域に太陽光が入射するか否かを判定する。太陽判定部34が演算する太陽の位置は,少なくとも太陽の高度を含む。太陽判定部34は,太陽の高度を,例えば日時情報と,自車両Vが存在する自車位置の緯度とに基づいて算出する。また,太陽判定部34は,太陽の位置に関する情報として,さらに太陽の方位を算出する。太陽の方位は,例えば日時情報と,自車位置の緯度および経度と、自車両Vの方向とに基づいて算出することができる。
太陽判定部34は,算出した太陽の高度および方位を中心とした所定の範囲を太陽範囲として設定する。図15は,太陽範囲を図示した図である。図15は,撮影画像50の上に,太陽判定部34が算出した太陽の高度および方位に対応する位置60と,その位置60に対応する太陽範囲61の一例が例示されている。
太陽判定部34は,太陽範囲の一部が撮影領域に重なるか否かを判定する。すなわち,太陽の高度が所定高度以下であり,且つ,太陽の方位が所定範囲内であるか否かを判定する。所定高度および所定範囲は,たとえば自車両Vの車体の方向(カメラ1の光軸方向)やカメラ1のアングルなどに基づいて設定される。なお,太陽判定部34は,太陽の方位を算出しない場合は,太陽の高度が所定高度以下であるか否かを判定することにより,太陽範囲の一部が撮影領域に重なるか否かを判定する。
図16は,太陽判定部34の処理に関するフローチャートである。ステップS400では,制御部2は,太陽の位置を算出する。ステップS401では,制御部2は,ステップS400で算出された太陽の位置に基づいて,太陽範囲を設定する。
ステップS402では,制御部2は,太陽範囲の一部が撮影領域に重なるか否かを判定する。すなわち,太陽の高度が所定高度以下であり,且つ,太陽の方位が所定範囲内であるか否かを判定する。制御部2は,ステップS402が肯定判定された場合は図16の処理をステップS403に進め,ステップS402が否定判定された場合は図16の処理をステップS404に進める。
ステップS403では,太陽判定部34は,カメラ1の撮影領域に太陽光が入射すると判断する。ステップS404では,太陽判定部34は,カメラ1の撮影領域に太陽光が入射しないと判断する。ステップS403またはステップS404の処理が完了後,制御部2は,ステップS400の処理に進む。
(BSW制御部35)
図4のBSW制御部35は,白濁検出部33の検出結果と,太陽判定部34の判定結果と,画像取得部31から入力された撮影画像とに基づいて,第1閾値αを設定することによりBSW部32を制御する。図17は,BSW制御部35が設定する第1閾値αに関する設定値テーブルの一例である。図17の設定値テーブルは,ルックアップテーブルとして記憶部6に記憶しておいてもよい。その場合,BSW制御部35は,白濁検出部33の検出結果と,太陽判定部34の判定結果とに基づいて,記憶部6に記憶されたルックアップテーブルを参照して,第1閾値αを設定する。
図17には,第1閾値αを設定するためのパラメータとして,路面反射の有無が存在する。路面反射の有無は,BSW制御部35が画像取得部31から入力された撮影画像に基づいて判断する。
図18は,路面反射の有無の判断を説明するための図である。図18には,高輝度領域81を有する撮影画像80が図示されている。BSW制御部35は,高輝度領域の画素数が所定画素数以上であり,その高輝度領域の重心が図19に破線で表される上限線82と下限線83との間にあるとき,その高輝度領域が路面反射であると判定する。
路面反射による太陽光が撮影画像中に現れる位置は,太陽高度が高くなるにつれて図18下側の位置となる。そして,路面反射による太陽光は,太陽の高度が所定高度Q1以上となると,カメラ1の撮影レンズに入射しなくなる。また,路面反射による太陽光は,太陽の高度が所定高度Q2以下となると,輝度が低くなり撮影画像への影響が無視できる程度となる。上限線82は実験等により導出されたその所定高度Q2により設定され,下限線83は事件などにより導出されたその所定高度Q1により設定されている。以降,上限線82と下限線83とで挟まれた領域を反射日光領域と称する。
図17では,第1閾値αは,レベル表記されている。レベル表記でない実際の第1閾値αの設定値は,レベルが大きくなればなるほど大きな値が設定され,レベル10で最大となる。各レベルに相当する第1閾値αの設定値は,車載用車両認識装置100の設計段階において予め決定されている。なお,図17はあくまで一例であって,レベルの最大はレベル10でなくてもよい。
BSW制御部35により,第1閾値αが最大レベル(たとえば,図17のレベル10)に対応する設定値に設定された場合,図11のステップS140の判定は常に否定判定される。換言すると,第1閾値αが最大レベルに設定されている間,画像取得部31から入力される撮像画像によらず,他車両は存在しないという検出結果を車両検出部41が出力する。したがって,報知制御部42は,第1閾値αが最大レベルに設定されている間,警報出力部3に自車両と衝突する可能性がある車両の存在を運転者に報知しない。BSW制御部35は,このように第1閾値αを最大レベルに設定することにより,BSWの機能を抑制する。
BSW制御部35は,図17のNo.7およびNo.8の状況において,第1閾値αをレベル10(最大レベル)に設定する。カメラ1の撮影領域に太陽光が入射する場合,カメラ1の撮影画像全体のコントラストが低下する。また,カメラ1の撮影レンズが白濁しているとき,カメラ1の撮影画像全体のコントラストがさらに低下する。これにより,BSW部32における他車両等の検出精度が悪化しているおそれがある。BSW制御部35は,このような状況におけるBSW部32による報知を抑制することで,他車両の誤検出を抑制し,画像認識処理の精度を低下させない。
また,BSW制御部35は,No.3の状況において,No.1の状況よりも第1閾値αを低く設定する。また,BSW制御部35は,No.5の状況においても,No.1の状況よりも第1閾値αを低く設定する。さらに,BSW制御部35は,No.4の状況において,No.2の状況よりも第1閾値αを低く設定する。また,BSW制御部35は,No.6の状況においても,No.2の状況よりも第1閾値αを低く設定する。このようにカメラ1の撮影画像全体のコントラストが低下する要因が直射日光と撮影レンズの白濁のいずれか片方だけの場合,BSW制御部35は,第1閾値αを低く設定することで,他車両の検出感度を上げてコントラストの低下による差分波形のピークの低下に対応し,他車両の検出が高精度で行われるように設定する。
図19は,BSW制御部35の処理に関するフローチャートである。ステップS500では,制御部2は,太陽判定部34による判定結果を取得する。すなわち,図16のステップS403またはステップS404の判断に関する情報を取得する。
ステップS501では,制御部2は,白濁検出部33による検出結果を取得する。すなわち,白濁検出部33から図14のステップS306またはステップS307の判断に関する情報を取得する。
ステップS502では,制御部2は,画像取得部31から入力された撮影画像の中から高輝度(例えば,輝度が256階調中190以上)の画素を抽出する。ステップS503では,制御部2は,ステップS502で抽出した画素が連結した画素塊(画像領域)のうち所定画素数以上の画像領域を抽出する。
ステップS504では,制御部2は,ステップS503で抽出された画像領域の中に,重心が反射日光領域内にある画像領域が存在するか否かを判断する。制御部2は,ステップS502で抽出された画像領域の各々について重心を算出する,次に,それらの重心が反射日光領域の内側か否かを判定する。そして,ステップS502で抽出された画像領域の中に一つでも反射日光領域の内側に重心がある画像領域が存在するか否かを判断する。
ステップS505では,制御部2は,ステップS500およびステップS501で取得した情報と,ステップS504の判断結果とが所定時間以上連続して同じか否かを判定する。制御部2は,ステップS505が肯定判定された場合は図19の処理をステップS506に進め,ステップS505が否定判定された場合は図19の処理をステップS500に進める。
ステップS506では,制御部2は,図17のテーブルに基づいて,BSW部32の第1閾値αを設定して,その後ステップS500に図19の処理を進める。
(報知制御部42)
報知制御部42は,車線変更時等に,図12のステップS220において立体物が他車両VXであると立体物検出部413が判断したとき,警報出力部3を制御して,自車両と衝突する可能性がある車両の存在を運転者に報知する。一方,報知制御部42は,図12のステップS230において他車両が存在しないと立体物検出部413が判断したとき,運転者に対してそのような報知を行わない。
図20は,報知制御部42に関するフローチャートである。ステップS1000では,制御部2は,BSWが抑制されているか否かを判定する。たとえば,第1閾値αがレベル10に設定されているか否かを判定する。制御部2は,ステップS1000が肯定判定された場合ステップS1001に処理を進め,ステップS1000が否定判定された場合ステップS1002に処理を進める。
ステップS1001では,制御部2は,BSWが抑制されており警報ランプの点灯と
警報音の出力が抑制された状態であることを動作状態報知部4(例えば,自車両Vのメータ)を介して報知する。
ステップS1002では,制御部2は,立体物検出部413により,他車両VXが検出されているか否かを判定する。制御部2は,ステップS1002が肯定判定された場合ステップS1003に処理を進め,ステップS1002が否定判定された場合ステップS1000に処理を進める。
ステップS1003では,制御部2は,警報出力部3のうち,立体物検出部413により他車両が検出された方向のフロントピラーに設置された警報ランプを点灯させる。
ステップS1004では,制御部2は,自車両Vの方向指示器のうち,立体物検出部413により他車両VXが検出された方向に存在する自車両Vの方向指示器が点滅しているか否かを判定する。方向指示器の点滅状態は,図1に図示されたCAN通信を用いて取得すればよい。制御部2は,ステップS1004が肯定判定された場合ステップS1005に処理を進め,ステップS1004が否定判定された場合ステップS1000に処理を進める。
ステップS1005では,制御部2は,警報出力部3の警報ブザーから警報音を出力させる。
以上で説明した第1の実施の形態によれば,次の作用効果を奏する。
車載用車両認識装置100の制御部2は,画像取得部31と,太陽判定部34と,白濁検出部33と,車両検出部41と,BSW制御部35とを備える。
画像取得部31は,カメラ1が車両外を撮影して出力した撮影画像を取得する。
太陽判定部34は,少なくとも太陽の高度を含む太陽の位置を演算して(図16のステップS400),その太陽の高度が所定高度以下であるか否かを少なくとも判定する(図16のステップS402)。
白濁検出部33は,カメラ1の撮影レンズのレンズ表面のうち,少なくとも出領域A1およびA2に対応するレンズ表面が白濁していることを検出する(図14のステップS307)。
車両検出部41は,検出領域A1およびA2に対応する撮影画像の画像領域から,他車両を検出する(図12のステップS220)。
BSW制御部35は,白濁検出部33により少なくとも検出領域A1およびA2に対応するレンズ表面が白濁していることが検出された場合に,太陽の高度が所定高度以下であると太陽判定部34が判定した場合には少なくとも,第1閾値αを最大レベルに調整することで車両検出部41による他車両の検出を抑制する(図19のステップS506,図17のNo.7およびNo.8)。
このようにすることで,車載用車両認識装置100では,撮影画像に太陽光が入射した場合にも,画像認識処理の精度が低下しない。
(第2の実施の形態)
本発明の第2の実施の形態について説明する。図21は,本発明の第2の実施形態による車載用車両認識装置200の構成を示すブロック図である。図21に示す車載用車両認識装置200は,第1の実施の形態による車載用車両認識装置100と,制御部2が制御部7に変わっている点のみが異なる。図21に示す車載用車両認識装置200の構成において,車載用車両認識装置100と同一の構成については,その説明を省略する。
制御部7は,制御部2と同様に,記憶部6に記憶されているプログラムを実行することにより,カメラ1からの撮影画像を用いて所定の画像処理を行い,その処理結果に応じた各種制御を行う。この制御部7が行う制御により,車載用車両認識装置200において,例えば,LDW,BSW,MOD,PED,RSR,IMDと呼ばれる様々な機能が実現される。
図22は,BSWに関する制御部7の制御ブロック図である。図22に図示されるように,制御部7は,画像取得部31と第2BSW部62と白濁検出部33と第2太陽判定部64と第2BSW制御部65とを有する。図4に示す制御ブロック図と同様の構成については,同一の符号を付してその説明を省略する。
第2BSW部62は,第2車両検出部71と報知制御部42とを有する。第2車両検出部71は,視点変換部411と輝度差算出部712とエッジ線検出部713と第2立体物検出部714とを有する。
図23(a)および(b)は,第2BSW部62が立体物の検出を行う検出領域を図示した図である。図23(a)は平面図,図23(b)は,自車両Vから後側方における実空間上の斜視図を示す。図23(a)に示される検出領域A3,A4は,平面視(鳥瞰視された状態)において台形状とされ,これら検出領域A3,A4の位置,大きさ及び形状は,距離d1〜d4に基づいて決定される。これらの検出領域A3およびA4は,検出領域A1およびA2の代わりに第2立体物検出部714によって設定される。
距離d1は,自車両Vから接地線L1,L2までの距離である。距離d1は,自車両Vから白線Wまでの距離d11と,白線Wから他車両VXが走行すると予測される位置までの距離d12とに基づいて決定される。たとえば,距離d1は,距離d11と距離d12の和である。他車両VXが走行する道路上の位置及び自車両Vが走行する道路上の位置は大凡決まっていることから,距離d11および距離d12は略固定的に決定され,距離d1も略固定的に決定される。なお,制御部7は,公知の白線認識等の技術により自車両Vに対する白線Wの位置を認識し,認識した白線Wの位置に基づいて距離d11を決定することにしてもよい。
距離d2は,自車両Vの後端部から車両進行方向の逆方向に伸びる距離である。この距離d2は,検出領域A3,A4が少なくともカメラ1の画角a内に収まるように決定されている。特に図23(a)では,距離d2は,画角aに区分される範囲に接するよう設定されている。
距離d3は,検出領域A3,A4の車両進行方向における長さを示す距離である。この距離d3は,検出対象となる立体物の大きさに基づいて決定される。たとえば,距離d3は,他車両VXを含む長さに設定される。
距離d4は,図23(b)に示すように,実空間において他車両VX等のタイヤを含むように設定された高さを示す距離である。距離d4は,鳥瞰視画像においては図13(a)に示すような長さとされる。なお,距離d4は,鳥瞰視画像において左右の隣接車線よりも更に隣接する車線(すなわち車両Vが走行する車線から2車線隣りの車線)を含まない長さとすることもできる。自車両Vの車線から2車線隣の車線を含んでしまうと,自車両Vが走行している車線である自車線の左右の隣接車線に他車両VXが存在するのか,2車線隣りの車線に他車両VXが存在するのかについて,区別が付かなくなってしまうためである。
以上のように,距離d1〜距離d4が決定され,これにより検出領域A3,A4の位置,大きさ及び形状が決定される。具体的に説明すると,距離d1により,台形をなす検出領域A3,A4の上辺b1の位置が決定される。距離d2により,上辺b1の始点位置C1が決定される。距離d3により,上辺b1の終点位置C2が決定される。カメラ1から始点位置C1に向かって伸びる直線L3により,台形をなす検出領域A3,A4の側辺b2が決定される。同様に,カメラ1から終点位置C2に向かって伸びる直線L4により,台形をなす検出領域A3,A4の側辺b3が決定される。距離d4により,台形をなす検出領域A3,A4の下辺b4の位置が決定される。このように,各辺b1〜b4により囲まれる領域が検出領域A3,A4とされる。この検出領域A3,A4は,図23(b)に示すように,自車両Vから後側方における実空間上では真四角(長方形)となる。
(輝度差算出部712)
輝度差算出部712は,鳥瞰視画像に含まれる立体物のエッジを検出するために,視点変換部411により視点変換された鳥瞰視画像データに対して,輝度差の算出を行う。輝度差算出部712は,実空間における鉛直方向に伸びる鉛直仮想線に沿った複数の位置ごとに,当該各位置の近傍の2つの画素間の輝度差を算出する。輝度差算出部712は,実空間における鉛直方向に伸びる鉛直仮想線を1本だけ設定する手法と,鉛直仮想線を2本設定する手法との何れかによって輝度差を算出することができる。
鉛直仮想線を2本設定する具体的な手法について説明する。輝度差算出部712は,視点変換された鳥瞰視画像に対して,実空間で鉛直方向に伸びる線分に該当する第1鉛直仮想線と,第1鉛直仮想線と異なり実空間で鉛直方向に伸びる線分に該当する第2鉛直仮想線とを設定する。輝度差算出部712は,第1鉛直仮想線上の点と第2鉛直仮想線上の点との輝度差を,第1鉛直仮想線及び第2鉛直仮想線に沿って連続的に求める。以下,この輝度差算出部712の動作について詳細に説明する。
図24(a)および(b)は,第1鉛直仮想線および第2鉛直仮想線の一例を示す図である。図24(a)には,輝度差算出部712が設定した第1鉛直仮想線La(以下,注目線Laと称する)と,第2鉛直仮想線Lr(以下,参照線Lrと称する)とが図示されている。注目線Laおよび参照線Lrは,実空間で鉛直方向に伸びる線分であって,検出領域A3を通過する。参照線Lrは,実空間における所定距離だけ注目線Laから離間する位置に設定される。なお,実空間で鉛直方向に伸びる線分に該当する線とは,鳥瞰視画像においてはカメラ1の位置Psから放射状に広がる線となる。この放射状に広がる線は,鳥瞰視に変換した際に立体物が倒れ込む方向に沿う線である。
輝度差算出部712は,注目線La上に注目点Pa(第1鉛直仮想線上の点)を設定する。また輝度差算出部712は,参照線Lr上に参照点Pr(第2鉛直板想線上の点)を設定する。これら注目線La,注目点Pa,参照線Lr,参照点Prは,実空間上において図24(b)に示す関係となる。図24(b)から明らかなように,注目線La及び参照線Lrは,実空間上において鉛直方向に伸びた線であり,注目点Paと参照点Prとは,実空間上において略同じ高さに設定される点である。なお,注目点Paと参照点Prとは必ずしも厳密に同じ高さである必要はなく,注目点Paと参照点Prとが同じ高さとみなせる程度の誤差は許容される。
輝度差算出部712は,注目点Paと参照点Prとの輝度差を求める。仮に,注目点Paと参照点Prとの輝度差が大きいと,注目点Paと参照点Prとの間にエッジが存在すると考えられる。このため,図22に示したエッジ線検出部713は,注目点Paと参照点Prとの輝度差に基づいてエッジ線を検出する。
この点をより詳細に説明する。図25は,輝度差算出部712の詳細動作を示す図であり,図25(a)は鳥瞰視された状態の鳥瞰視画像を示し,図25(b)は,図25(a)に示した鳥瞰視画像の一部B1を拡大した図である。なお図25(a)および(b)では,検出領域A3のみを図示して説明するが,検出領域A4についても同様の手順で輝度差を算出する。
カメラ1が撮像した撮像画像内に他車両VXが映っていた場合に,図25(a)に示すように,鳥瞰視画像内の検出領域A3に他車両VXが現れる。図25(b)に図25(a)中の領域B1の拡大図を示すように,鳥瞰視画像上において,他車両VXのタイヤのゴム部分上に注目線Laが設定されていたとする。この状態において,輝度差算出部712は,先ず参照線Lrを設定する。参照線Lrは,注目線Laから実空間上において所定の距離だけ離れた位置に,鉛直方向に沿って設定される。具体的には,本実施形態に係るカメラ1において,参照線Lrは,注目線Laから実空間上において10cmだけ離れた位置に設定される。これにより,参照線Lrは,鳥瞰視画像上において,例えば他車両VXのタイヤのゴムから10cm相当だけ離れた他車両VXのタイヤのホイール上に設定される。
次に,輝度差算出部712は,注目線La上に複数の注目点Pa1〜PaNを設定する。図25(b)においては,説明の便宜上,6個の注目点Pa1〜Pa6(以下,任意の点を示す場合には単に注目点Paiという)を設定している。なお,注目線La上に設定する注目点Paの数は任意でよい。以下の説明では,N個の注目点Paが注目線La上に設定されたものとして説明する。
次に,輝度差算出部712は,実空間上において各注目点Pa1〜PaNと同じ高さとなるように各参照点Pr1〜PrNを設定する。そして,輝度差算出部712は,同じ高さ同士の注目点Paと参照点Prとの輝度差を算出する。これにより,輝度差算出部712は,実空間における鉛直方向に伸びる鉛直仮想線に沿った複数の位置(1〜N)ごとに,2個の画素の輝度差を算出する。輝度差算出部712は,例えば第1注目点Pa1とは,第1参照点Pr1との間で輝度差を算出し,第2注目点Pa2とは,第2参照点Pr2との間で輝度差を算出することとなる。これにより,輝度差算出部712は,注目線La及び参照線Lrに沿って,連続的に輝度差を求める。すなわち,輝度差算出部712は,第3〜第N注目点Pa3〜PaNと第3〜第N参照点Pr3〜PrNとの輝度差を順次求めていくこととなる。
輝度差算出部712は,検出領域A3内において注目線Laをずらしながら,上記の参照線Lrの設定,注目点Pa及び参照点Prの設定,輝度差の算出といった処理を繰り返し実行する。すなわち,輝度差算出部712は,注目線La及び参照線Lrのそれぞれを,実空間上において接地線L1の延在方向に同一距離だけ位置を変えながら上記の処理を繰り返し実行する。輝度差算出部712は,例えば,前回処理において参照線Lrとなっていた線を注目線Laに設定し,この注目線Laに対して参照線Lrを設定して,順次輝度差を求めていくことになる。
(エッジ線検出部713)
図22のエッジ線検出部713は,輝度差算出部712により算出された連続的な輝度差から,エッジ線を検出する。例えば,図25(b)に示す場合,第1注目点Pa1と第1参照点Pr1とは,同じタイヤ部分に位置するために,輝度差は,小さい。一方,第2〜第6注目点Pa2〜Pa6はタイヤのゴム部分に位置し,第2〜第6参照点Pr2〜Pr6はタイヤのホイール部分に位置する。したがって,第2〜第6注目点Pa2〜Pa6と第2〜第6参照点Pr2〜Pr6との輝度差は大きくなる。このため,エッジ線検出部713は,輝度差が大きい第2〜第6注目点Pa2〜Pa6と第2〜第6参照点Pr2〜Pr6との間にエッジ線が存在することを検出することができる。
具体的には,エッジ線検出部713は,エッジ線を検出するにあたり,先ず下記の数式1に従って,i番目の注目点Pai(座標(xi,yi))とi番目の参照点Pri(座標(xi’,yi’))との輝度差から,i番目の注目点Paiに属性付けを行う。
[数1]
I(xi,yi)>I(xi’,yi’)+tのとき
s(xi,yi)=1
I(xi,yi)<I(xi’,yi’)−tのとき
s(xi,yi)=−1
上記以外のとき
s(xi,yi)=0
上記数式1において,tは閾値を示し,I(xi,yi)はi番目の注目点Paiの輝度値を示し,I(xi’,yi’)はi番目の参照点Priの輝度値を示す。上記数式1によれば,注目点Paiの輝度値が,参照点Priに閾値tを加えた輝度値よりも高い場合には,当該注目点Paiの属性s(xi,yi)は‘1’となる。一方,注目点Paiの輝度値が,参照点Priから閾値tを減じた輝度値よりも低い場合には,当該注目点Paiの属性s(xi,yi)は‘−1’となる。注目点Paiの輝度値と参照点Priの輝度値とがそれ以外の関係である場合には,注目点Paiの属性s(xi,yi)は‘0’となる。この閾値tは,予め設定された所定の値としてもよいし,第2BSW制御部65が設定することにしてもよい。
次にエッジ線検出部713は,下記数式2に基づいて,注目線Laに沿った属性sの連続性c(xi,yi)から,注目線Laがエッジ線であるか否かを判定する。
[数2]
s(xi,yi)=s(xi+1,yi+1)のとき(且つ0=0を除く),
c(xi,yi)=1
上記以外のとき,
c(xi,yi)=0
注目点Paiの属性s(xi,yi)と隣接する注目点Pai+1の属性s(xi+1,yi+1)とが同じである場合には,連続性c(xi,yi)は‘1’となる。注目点Paiの属性s(xi,yi)と隣接する注目点Pai+1の属性s(xi+1,yi+1)とが同じではない場合には,連続性c(xi,yi)は‘0’となる。
次にエッジ線検出部713は,注目線La上の全ての注目点Paの連続性cについて総和を求める。エッジ線検出部713は,求めた連続性cの総和を注目点Paの数Nで割ることにより,連続性cを正規化する。エッジ線検出部713は,正規化した値が閾値θを超えた場合に,注目線Laをエッジ線と判断する。なお,閾値θは,予め実験等によって設定された値である。閾値θは第2BSW制御部65により設定される。
すなわち,エッジ線検出部713は,下記数式3に基づいて注目線Laがエッジ線であるか否かを判断する。そして,エッジ線検出部713は,検出領域A3上に描かれた注目線Laの全てについてエッジ線であるか否かを判断する。
[数3]
Σc(xi,yi)/N>θ
(第2立体物検出部714)
図22の第2立体物検出部714は,エッジ線検出部713により検出されたエッジ線の量に基づいて立体物を検出する。上述したように,制御部7は,実空間上において鉛直方向に伸びるエッジ線を検出する。鉛直方向に伸びるエッジ線が多く検出されるということは,検出領域A3,A4に立体物が存在する可能性が高いということである。このため,第2立体物検出部714は,エッジ線検出部713により検出されたエッジ線の量に基づいて立体物を検出する。さらに,第2立体物検出部714は,立体物を検出するに先立って,エッジ線検出部713により検出されたエッジ線が正しいものであるか否かを判定する。第2立体物検出部714は,エッジ線上の鳥瞰視画像のエッジ線に沿った輝度変化が所定の閾値よりも大きいか否かを判定する。エッジ線上の鳥瞰視画像の輝度変化が閾値よりも大きい場合には,当該エッジ線が誤判定により検出されたものと判断する。一方,エッジ線上の鳥瞰視画像の輝度変化が閾値よりも大きくない場合には,当該エッジ線が正しいものと判定する。なお,この閾値は,実験等により予め設定された値である。
図26は,エッジ線の輝度分布を示す図であり,図26(a)は検出領域A3に立体物としての他車両VXが存在した場合のエッジ線及び輝度分布を示し,図26(b)は検出領域A3に立体物が存在しない場合のエッジ線及び輝度分布を示す。
図26(a)に示すように,鳥瞰視画像において他車両VXのタイヤゴム部分に設定された注目線Laがエッジ線であると判断されていたとする。この場合,注目線La上の鳥瞰視画像の輝度変化はなだらかなものとなる。これは,カメラ1により撮像された画像が鳥瞰視画像に視点変換されたことにより,他車両VXのタイヤが鳥瞰視画像内で引き延ばされたことによる。一方,図26(b)に示すように,鳥瞰視画像において路面に描かれた「50」という白色文字部分に設定された注目線Laがエッジ線であると誤判定されていたとする。この場合,注目線La上の鳥瞰視画像の輝度変化は起伏の大きいものとなる。これは,エッジ線上に,白色文字における輝度が高い部分と,路面等の輝度が低い部分とが混在しているからである。
以上のような注目線La上の輝度分布の相違に基づいて,第2立体物検出部714は,エッジ線が誤判定により検出されたものか否かを判定する。第2立体物検出部714は,エッジ線に沿った輝度変化が所定の閾値よりも大きい場合には,当該エッジ線が誤判定により検出されたものであると判定する。そして,当該エッジ線は,立体物の検出には使用しない。これにより,路面上の「50」といった白色文字や路肩の雑草等がエッジ線として判定されてしまい,立体物の検出精度が低下することを抑制する。
具体的には,第2立体物検出部714は,下記数式4,5の何れかにより,エッジ線の輝度変化を算出する。このエッジ線の輝度変化は,実空間上における鉛直方向の評価値に相当する。下記数式4は,注目線La上のi番目の輝度値I(xi,yi)と,隣接するi+1番目の輝度値I(xi+1,yi+1)との差分の二乗の合計値によって輝度分布を評価する。下記数式5は,注目線La上のi番目の輝度値I(xi,yi)と,隣接するi+1番目の輝度値I(xi+1,yi+1)との差分の絶対値の合計値よって輝度分布を評価する。
[数4]
鉛直相当方向の評価値=Σ[{I(xi,yi)−I(xi+1,yi+1)}2]
[数5]
鉛直相当方向の評価値=Σ|I(xi,yi)−I(xi+1,yi+1)|
なお,数式5に限らず,下記数式6のように,閾値t2を用いて隣接する輝度値の属性bを二値化して,当該二値化した属性bを全ての注目点Paについて総和してもよい。
[数6]
鉛直相当方向の評価値=Σb(xi,yi)
但し,|I(xi,yi)−I(xi+1,yi+1)|>t2のとき,
b(xi,yi)=1
上記以外のとき,
b(xi,yi)=0
注目点Paiの輝度値と参照点Priの輝度値との輝度差の絶対値が閾値t2よりも大きい場合,当該注目点Pa(xi,yi)の属性b(xi,yi)は‘1’となる。それ以外の関係である場合には,注目点Paiの属性b(xi,yi)は‘0’となる。この閾値t2は,注目線Laが同じ立体物上にないことを判定するために実験等によって予め設定されている。そして,第2立体物検出部714は,注目線La上の全注目点Paについての属性bを総和して,鉛直相当方向の評価値を求めて,エッジ線が正しいものかを判定する。
(第2車両検出部71)
図27および図28は,制御部7が実行する第2車両検出部71に関するフローチャートである。なお,図27および図28においては,便宜上,検出領域A3を対象とする処理について説明するが,検出領域A4についても同様の処理が実行される。
ステップS600では,画像取得部31が取得した撮影画像の画像情報に基づいて,視点変換部411が鳥瞰画像データを生成する。
ステップS601では,輝度差算出部712が検出領域A3上に注目線Laを設定する。このとき,輝度差算出部712は,実空間上において鉛直方向に伸びる線に相当する線を注目線Laとして設定する。
ステップS602では,輝度差算出部712が検出領域A3上に参照線Lrを設定する。このとき,輝度差算出部712は,実空間上において鉛直方向に伸びる線分に該当し,且つ,注目線Laと実空間上において所定距離離れた線を参照線Lrとして設定する。
ステップS603では,輝度差算出部712が注目線La上に複数の注目点Paを設定する。この際に,輝度差算出部712は,エッジ線検出部713によるエッジ検出時に問題とならない程度の数の注目点Paを設定する。
ステップS604では,輝度差算出部712が実空間上において注目点Paと参照点Prとが略同じ高さとなるように,参照点Prを設定する。これにより,注目点Paと参照点Prとが略水平方向に並ぶこととなり,実空間上において鉛直方向に伸びるエッジ線を検出しやすくなる。
ステップS605では,輝度差算出部712が実空間上において同じ高さとなる注目点Paと参照点Prとの輝度差を算出する。
ステップS606では,エッジ線検出部713が上記の数式1に従って,各注目点Paの属性sを算出する。
ステップS607では,エッジ線検出部713が上記の数式2に従って,各注目点Paの属性sの連続性cを算出する。
ステップS608では,エッジ線検出部713が上記数式3に従って,連続性cの総和を正規化した値が閾値θより大きいか否かを判定する。エッジ線検出部713が正規化した値が閾値θよりも大きいと判断した場合(S608:YES),ステップS609の処理に進む。ステップS609では,エッジ線検出部713が当該注目線Laをエッジ線として検出して,処理をステップS610に進める。エッジ線検出部713は,正規化した値が閾値θより大きくないと判断した場合(S608:NO),当該注目線Laをエッジ線として検出せずに処理をステップS610に進める。この閾値θは第2BSW制御部65により設定することができる。
ステップS610において,第2車両検出部71が検出領域A3上に設定可能な注目線Laの全てについて上記のステップS601〜ステップS609の処理を実行したか否かを判断する。第2車両検出部71は,全ての注目線Laについて上記処理をしていないと判断した場合(S610:NO),ステップS601に処理を進めて,新たに注目線Laを設定して,ステップS610までの処理を繰り返す。一方,第2車両検出部71は,全ての注目線Laについて上記処理をしたと判断した場合(S610:YES),処理を図28のステップS611に進める。
図28のステップS611では,第2立体物検出部714が図27のステップS609において検出された各エッジ線について,上記数式4,5,6の何れかの式に従って,当該エッジ線に沿った輝度変化を算出する。
ステップS612では,第2立体物検出部714は,ステップS611で算出したエッジ線のうち,輝度変化が所定の閾値よりも大きいエッジ線を除外する。すなわち,輝度変化の大きいエッジ線は正しいエッジ線ではないと判定し,エッジ線を立体物の検出には使用しない。これは,上述したように,検出領域A3に含まれる路面上の文字や路肩の雑草等がエッジ線として検出されてしまうことを抑制するためである。したがって,所定の閾値とは,予め実験等によって求められた,路面上の文字や路肩の雑草等によって発生する輝度変化に基づいて設定された値となる。
ステップS613では,第2立体物検出部714は,エッジ線の量が第2閾値β以上であるか否かを判断する。なお,この第2閾値βは,予め実験等によって求めておいて設定することにしてもよいし,第2BSW制御部65が設定することにしてもよい。例えば,第2BSW制御部65は,検出対象の立体物として四輪車を設定した場合,予め実験等によって検出領域A3内において出現した四輪車のエッジ線の数に基づいて,当該第2閾値βを設定する。第2立体物検出部714は,エッジ線の量が第2閾値β以上であると判定した場合(S613:YES),ステップS614に処理を進める。一方,第2立体物検出部714は,エッジ線の量が第2閾値β以上ではないと判定した場合(S613:NO),検出領域A3内に立体物が存在しないと判断して,図28の処理を終了する。ステップS614では,第2立体物検出部714が検出領域A3内に立体物が存在すると検出して,図28の処理を終了する。検出された立体物は,自車両Vが走行する車線の隣の隣接車線を走行する他車両VXであると判断してもよいし,検出した立体物の自車両Vに対する相対速度を考慮して隣接車線を走行する他車両VXであるか否かを判断してもよい。
(第2太陽判定部64)
図22の第2太陽判定部64には,画像取得部31が取得した撮影画像の画像情報が入力される。第2太陽判定部64は,撮影画像の中から路面反射した太陽光による高輝度領域を検出して,その検出範囲に基づいて太陽の位置を推定し,太陽光が撮影領域内に入射するか否かを判定する。
図29は,第2太陽判定部64に関するフローチャートである。ステップS700では,制御部7は,画像取得部31から入力された撮影画像の中から高輝度(例えば,輝度が256階調中190以上)の画素を抽出する。ステップS701では,制御部7は,ステップS700で抽出した画素が連結した画素塊(画像領域)のうち所定画素数以上の画像領域を抽出する。
ステップS702では,制御部7は,ステップS701で抽出された画像領域の重心を算出する。ステップS703では,制御部7は,ステップS702で算出された重心のうち少なくとも一つが反射日光領域の範囲内に存在するか否かを判定する。制御部7は,ステップS703が肯定判定されたときは処理をステップS704に進め,ステップS703が否定判定されたときは処理をステップS705に進める。
ステップS704では,制御部7は,ステップS702で算出された重心が反射日光領域の範囲内であった高輝度領域の重心の位置に基づいて,太陽の位置を算出する。
図30を用いて,太陽の位置の算出方法を説明する。図30には,高輝度領域81を含む撮影画像80が図示されている。撮影画像80には,反射日光領域を規定する上限線82および下限線83が破線で図示されている。図30の高輝度領域81は,その重心84が反射日光領域の内側に存在する。制御部7は,その重心84と撮影画像80の下辺中央85とを結んだ線分86の方向に基づいて,太陽の方位を算出する。また,撮影画像80の上下方向における重心84の位置に基づいて,太陽の高度を算出する。
反射日光領域に重心84があるとき,太陽の位置87を中心にした太陽範囲88は,少なくともその一部が撮影画像80に重なる。すなわち,位置87の太陽からの太陽光はカメラ1の撮影領域に入射する。なお,重心84の撮影画像80の上下方向における位置が撮影画像80の上側にあるほど算出される太陽の高度は低くなる。
図29のステップS705では,制御部7は,カメラ1の撮影領域に太陽光が入射すると判断する。ステップS706では,制御部7は,カメラ1の撮影領域に太陽光が入射しないと判断する。すなわち,太陽範囲が撮影画像に重なっていないと判断する。
(第2BSW制御部65)
図22の第2BSW制御部65は,画像取得部31から入力される撮像画像,白濁検出部33の検出結果と,第2太陽判定部64の判定結果とに基づいて,閾値θを設定することにより第2BSW部62を制御する。
図31は,第2BSW制御部65のフローチャートである。ステップS800では,制御部7は,第2太陽判定部64による判定結果を取得する。すなわち,図29のステップS705またはステップS706の判断に関する情報を取得する。ステップS801では,制御部7は,白濁検出部33による検出結果を取得する。すなわち,白濁検出部33から図14のステップS306またはステップS307の判断に関する情報を取得する。
ステップS802では,制御部7は,ステップS800およびステップS801で取得した情報が所定時間以上連続して同じか否かを判定する。制御部7は,ステップS802が肯定判定された場合は図31の処理をステップS803に進め,ステップS802が否定判定された場合は図31の処理をステップS800に進める。
ステップS803では,制御部7は,図32のテーブルに基づいて,第2BSW部62の閾値θを設定して,その後ステップS800に図31の処理を進める。
図32は,第2BSW制御部65が設定する閾値θに関する設定値テーブルの一例である。図32の設定値テーブルは,ルックアップテーブルとして記憶部6に記憶しておいてもよい。その場合,BSW制御部35は,白濁検出部33の検出結果と,第2太陽判定部64の判定結果とに基づいて,記憶部6に記憶されたルックアップテーブルを参照して,閾値θを設定する。
第2太陽判定部64が路面反射による高輝度領域に基づいて太陽の位置を推定しているため,路面反射があることが前提となっている。そのため,図32では路面反射のパラメータが省略されている。また,図32では,閾値θは,レベル表記されている。レベル表記でない実際の閾値θの設定値は,レベルが大きくなればなるほど大きな値が設定され,レベル10で最大となる。各レベルに相当する閾値θの設定値は,車載用車両認識装置200の設計段階において予め決定されている。なお,図32はあくまで一例であって,レベルの最大はレベル10でなくてもよい。
第2BSW制御部65は,図32のNo.12の状況において,閾値θをレベル10(最大レベル)に設定する。カメラ1の撮影領域に太陽光が入射する場合,カメラ1の撮影画像全体のコントラストが低下する。また,カメラ1の撮影レンズが白濁しているとき,カメラ1の撮影画像全体のコントラストがさらに低下する。これにより,第2BSW部62における他車両等の検出精度が悪化しているおそれがある。第2BSW制御部65は,このような状況における第2BSW部62による報知を抑制することで,他車両の誤検出を抑制し,画像認識処理の精度を低下させない。
また,第2BSW制御部65は,No.10の状況において,No.9の状況よりも閾値θを低く設定する。同様に,No.11の状況においても,No.9の状況よりも閾値θを低く設定する。このようにカメラ1の撮影画像全体のコントラストが低下する要因が直射日光と撮影レンズの白濁のいずれか片方だけの場合,第2BSW制御部65は,閾値θを低く設定することで,他車両の検出感度を上げて,コントラストの低下による差分波形のピークの低下に対応し,他車両の検出が高精度で行われるように設定する。
(白濁検出部33の補足)
第2立体物検出部714が設定する検出領域A3およびA4は,第1の実施の形態における立体物検出部413が設定した検出領域A1およびA2と実質的に同一な位置に設定される。したがって,白濁検出部33が少なくとも検出領域A1またはA2に対応するレンズ表面が白濁していることを検出することと,少なくとも検出領域A3またはA4に対応するレンズ表面が白濁していることを検出することとは実質的に同じである。すなわち,白濁検出部33は,少なくとも検出領域A3またはA4に対応するレンズ表面が白濁していることを検出することを検出することができる。
(報知制御部42の補足)
報知制御部42は,第2の実施の形態においても図20にフローチャートを示す処理を行う。第2の実施の形態における報知制御部42は,図20のステップS1000の処理を行う場合,閾値θがレベル10(最大値)に設定されているか否かを判定することにより,第2BSW制御部65によりBSWが抑制されているかを判定する。
以上で説明した第2の実施の形態によれば,次の作用効果を奏する。
車載用車両認識装置200の制御部7は,画像取得部31と,第2太陽判定部64と,白濁検出部33と,第2車両検出部71と,第2BSW制御部65とを備える。
画像取得部31は,カメラ1が車両外を撮影して出力した撮影画像を取得する。
第2太陽判定部64は,高輝度領域81の重心の位置に基づいて,少なくとも太陽の高度を演算して(図29のステップS704),高輝度領域81の重心84の位置が反射日光領域に存在するか否かを判定する。反射日光領域は上限線82と下限線83により規定され,重心84が下限線83よりも上にあるとき,太陽の高度が所定高度以下であることを表す。
白濁検出部33は,カメラ1の撮影レンズのレンズ表面のうち,少なくとも検出領域A3およびA4に対応するレンズ表面が白濁していることを検出する(白濁検出部33の補足)。
第2車両検出部71は,検出領域A3およびA4に対応する撮影画像の画像領域から,他車両を検出する(図28のステップS614)。
第2BSW制御部65は,白濁検出部33により少なくとも検出領域A3およびA4に対応するレンズ表面が白濁していることが検出された場合に,太陽の高度が所定高度以下であると第2太陽判定部64が判定した場合には少なくとも,閾値θを最大レベルに調整することで第2車両検出部71による他車両の検出を抑制する(図31のステップS803,図32のNo.12)。
このようにすることで,車載用車両認識装置200では,撮影画像に太陽光が入射した場合にも,画像認識処理の精度が低下しない。
以上で説明した実施の形態は,以下のように変形して実行できる。
(変形例1)実施形態の組み合わせ
制御部2および7には,BSW部32と第2BSW部62の両方を備えることにしてもよい。その場合,例えば立体物検出部413と第2立体物検出部714の両方が他車両VXを検出した場合に,他車両VXが検出されたことにすればよい。また,そのとき,当該制御部には,BSW制御部35と第2BSW制御部65の両方を備えることにしてもよいし,BSW制御部35および第2BSW制御部65のいずれか片方を用いて第1閾値αと閾値θの両方を設定することにしてもよい。BSW制御部35が閾値θを設定する場合は,図17の第1閾値αの設定レベルを閾値θの設定レベルと読み替えればよい。同様に,第2BSW制御部65が第1閾値αを設定する場合は,図32の閾値θの設定レベルを第1閾値αの設定レベルに読み替えればよい。
制御部2は,BSW部32の代わりに第2BSW部62を備えることにしてもよい。その場合,制御部2は太陽判定部34の代わりに第2太陽判定部64を備え,BSW制御部35は第1閾値αの代わりに閾値θを設定する。BSW制御部35が閾値θを設定する場合は,図17の第1閾値αの設定レベルを閾値θの設定レベルと読み替えればよい。
制御部7は,第2BSW部62の代わりにBSW部32を備えることにしてもよい。その場合,制御部7は第2太陽判定部64の代わりに太陽判定部34を備え,第2BSW制御部65は閾値θの代わりに第1閾値αを設定する。第2BSW制御部65が第1閾値αを設定する場合は,図32の閾値θの設定レベルを第1閾値αの設定レベルに読み替えればよい。
BSW制御部35および第2BSW制御部65は,第1閾値α,閾値θ以外の閾値を設定することにしてもよい。例えば,図28のステップS613の第2閾値βを設定することにしてもよい。また,白濁検出部33の閾値ε1,ε2,ε3を設定することにしてもよい。BSW制御部35が第1閾値α以外の閾値を設定する場合は,図17の第1閾値αの設定レベルをその閾値の設定レベルと読み替えればよい。同様に,第2BSW制御部65が閾値θ以外の閾値を設定する場合は,図32の閾値θの設定レベルをその閾値の設定レベルに読み替えればよい。
制御部2および7は,太陽判定部34と第2太陽判定部64の両方を備えることにしてもよい。
その他,第1の実施の形態の構成と,第2の実施の形態の構成とは発明の特徴が損なわれない限り任意に組み合わせて実行してもよい。
(変形例2)白濁度合いによる閾値変化
上記の実施の形態では,白濁検出部33が白濁を検出したか否かに基づいて閾値を変化させたが,カメラ1の撮影レンズの白濁度合いを数値化して,その白濁度合いを表す数値に基づいて閾値を変化させることにしてもよい。例えば,ヒストグラムH1の平均値E1と,ヒストグラムH2の平均値E2と,ヒストグラムH3の平均値E3とに基づいて,白濁度合いを算出することにしてもよい。
図33は,カメラ1の撮影領域に太陽光が入射していると太陽判定部34が判断している場合における白濁度合いと閾値の関係を表す概略図である。図33の縦軸は第1閾値αなどの閾値のレベルを示し,横軸は白濁度合いを示す。白濁度合いがC2のとき,カメラ1の撮影レンズは白濁していない。白濁度合いがC1以上のとき,図17のNo.8の状況となり,閾値はBSW制御部35等により最大レベルに設定される。白濁度合いがC3以上C1以下のときは,白濁度合いがC2のときよりも白濁度合いがC1のときよりも閾値が低く設定されている。これにより,少なくとも検出領域A1またはA2に対応するレンズ表面が白濁していると白濁検出部33が判定するまでは,他車両VXの検出精度の保持を試みることができる。
(変形例3)太陽範囲に関する白濁検出
BSW制御部35は,太陽範囲が白濁しているとき,閾値をより高レベルに設定することにしてもよい。同様に,第2BSW制御部65は,太陽範囲が白濁しているとき,閾値をより高レベルに設定することにしてもよい。太陽範囲が白濁しているか否かは,太陽範囲内の輝度勾配に基づいて判定すればよい。カメラ1の撮影レンズのレンズ表面のうち白濁している部分を通過する光は白濁の原因となる付着物により拡散するため,白濁箇所に対応する画素ごとの輝度の差は小さくなり,輝度勾配が小さくなる。BSW制御部35および第2BSW制御部65は,輝度勾配が所定値以下となったとき,太陽範囲が白濁していると判定すればよい。
以上で説明した実施の形態や変形例はあくまで例示に過ぎず,発明の特徴が損なわれない限り本発明はこれらの内容に限定されない。また,以上で説明した実施の形態や変形例は発明の特徴が損なわれない限り組み合わせて実行してもよい。
次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願2012年第167602号(2012年7月27日出願)
1 カメラ
2 制御部
3 警報出力部
4 動作状態報知部
5 外部装置制御部
6 記憶部
7 制御部
31 画像取得部
32 BSW部
33 白濁検出部
34 太陽判定部
35 BSW制御部
41 車両検出部
42 報知制御部
51 白濁検出領域
52 白濁検出領域
53 白濁検出領域
61 太陽範囲
62 第2BSW部
64 第2太陽判定部
65 第2BSW制御部
71 第2車両検出部
81 高輝度領域
82 上限線
83 下限線
84 重心
88 太陽範囲
100 車載用車両認識装置
200 車載用車両認識装置
411 視点変換部
412 位置合わせ部
413 立体物検出部
712 輝度差算出部
713 エッジ線検出部
714 第2立体物検出部

Claims (10)

  1. カメラが車両外を撮影して出力した撮影画像を取得する画像取得部と,
    少なくとも太陽の高度を含む太陽の位置を演算して,前記太陽の高度が所定高度以下であることを判定する太陽判定部と,
    前記カメラのレンズ表面が白濁していることを検出する白濁検出部と,
    前記撮影画像の第1の画像領域の画像情報に基づいて,前記車両とは異なる他車両を検出する車両検出部と,
    少なくとも前記第1の画像領域が白濁していることが前記白濁検出部により検出された場合に,前記太陽の高度が前記所定高度以下であると前記太陽判定部が判定したとき,前記車両検出部による前記他車両の検出を抑制する制御部と,
    を備える画像処理装置。
  2. 請求項1に記載の画像処理装置において,
    前記車両検出部は,前記他車両の検出感度に関わる所定の閾値を有し,
    前記制御部は,前記レンズ表面のうち前記太陽の位置を中心とした画像範囲に対応する範囲が白濁しているとき,前記レンズ表面の当該範囲が白濁していないときよりも前記他車両の検出感度を前記閾値の変更により抑制する画像処理装置。
  3. 請求項1に記載の画像処理装置において,
    前記太陽判定部は,日時と,前記車両が位置する緯度および経度と,前記車両の方向とに基づいて,前記太陽の位置を演算する画像処理装置。
  4. 請求項1に記載の画像処理装置において,
    前記太陽判定部は,前記撮影画像に対して画像処理を行うことにより前記太陽の位置を演算する画像処理装置。
  5. 請求項4に記載の画像処理装置において,
    前記カメラは,少なくとも前記車両外の路面を撮影し,
    前記太陽判定部は,路面反射による高輝度領域を前記撮影画像から抽出して,前記高輝度領域の重心の位置に基づいて前記太陽の位置を演算する画像処理装置。
  6. 請求項2に記載の画像処理装置において,
    前記制御部は,前記太陽の位置を中心とした画像範囲の輝度勾配に基づいて,前記レンズ表面のうち当該画像範囲に対応する範囲が白濁していることを検出する画像処理装置。
  7. 請求項1に記載の画像処理装置において,
    前記撮影画像には白濁検出領域が設定され,
    前記白濁検出部は,前記白濁検出領域に対してエッジ強度のヒストグラムを演算して,前記ヒストグラムを用いて演算される前記エッジ強度の平均値に基づいて,前記カメラレンズが白濁している領域を検出する画像処理装置。
  8. 請求項7に記載の画像処理装置において,
    前記カメラは,少なくとも前記車両外の路面を撮影し,
    前記白濁検出領域は,前記路面に設けられた白線の消失点の近傍に複数設定され、
    前記白濁検出部は,前記白濁検出領域の各々に対してエッジ強度のヒストグラムを演算して,前記ヒストグラムの各々を用いて演算される前記エッジ強度の平均値に基づいて,前記カメラレンズが白濁している領域を検出する画像処理装置。
  9. 請求項7に記載の画像処理装置において,
    前記カメラは,少なくとも前記車両外の路面を撮影し,
    前記白濁検出領域には,前記路面に設けられた白線の消失点の近傍であって前記撮影画像の中央よりも上側の位置に設定される第1の白濁検出領域と,前記第1の白濁検出領域よりも下方に広がるように前記消失点の近傍に設定される第2の白濁検出領域とが含まれ,
    前記白濁検出部は,昼間は前記第1の白濁検出領域を用いて前記カメラレンズが白濁している領域を検出し,夜間は前記第2の白濁検出領域を用いて前記カメラレンズが白濁している領域を検出する画像処理装置。
  10. 請求項1から9のいずれか一項に記載の画像処理装置において,
    前記車両検出部による前記他車両の検出を前記制御部が抑制したことを,所定の報知部に報知させる報知制御部をさらに備える画像処理装置。
JP2014526910A 2012-07-27 2013-07-22 画像処理装置 Active JP6254084B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012167602 2012-07-27
JP2012167602 2012-07-27
PCT/JP2013/069785 WO2014017434A1 (ja) 2012-07-27 2013-07-22 画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2014017434A1 JPWO2014017434A1 (ja) 2016-07-11
JP6254084B2 true JP6254084B2 (ja) 2017-12-27

Family

ID=49997245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014526910A Active JP6254084B2 (ja) 2012-07-27 2013-07-22 画像処理装置

Country Status (5)

Country Link
US (1) US9721169B2 (ja)
EP (1) EP2879111A4 (ja)
JP (1) JP6254084B2 (ja)
CN (1) CN104508723B (ja)
WO (1) WO2014017434A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5747482B2 (ja) * 2010-03-26 2015-07-15 日産自動車株式会社 車両用環境認識装置
JP6174975B2 (ja) * 2013-11-14 2017-08-02 クラリオン株式会社 周囲環境認識装置
KR20150106719A (ko) * 2014-03-12 2015-09-22 삼성전자주식회사 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
DE102014109062A1 (de) * 2014-06-27 2015-12-31 Connaught Electronics Ltd. Verfahren zum Verfolgen eines sich einem Kraftfahrzeug nähernden Zielfahrzeugs mittels eines Kamerasystems des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
US9718405B1 (en) 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
US9904146B2 (en) * 2015-10-29 2018-02-27 GM Global Technology Operations LLC Camera with positionable light shade
JP6658054B2 (ja) * 2016-02-16 2020-03-04 トヨタ車体株式会社 車体部品の施工部位判定システム及び施工部位判定方法
US10462380B2 (en) * 2016-06-13 2019-10-29 Aptiv Technologies Limited Camera system with light-shield
JP6938903B2 (ja) * 2016-12-14 2021-09-22 株式会社デンソー 車両における衝突回避装置および衝突回避方法
CN110023712A (zh) * 2017-02-28 2019-07-16 松下知识产权经营株式会社 位移计测装置以及位移计测方法
JP6922297B2 (ja) * 2017-03-21 2021-08-18 三菱自動車工業株式会社 運転支援システム
JP6686988B2 (ja) * 2017-08-28 2020-04-22 株式会社Soken 映像出力装置及び映像生成プログラム
US11257375B2 (en) * 2018-12-31 2022-02-22 Ficosa Adas, S.L.U. Method and system for detecting objects in a vehicle blind spot
JP7371419B2 (ja) * 2019-09-30 2023-10-31 株式会社アイシン 運転支援システムおよび運転支援プログラム
JP2021106305A (ja) * 2019-12-26 2021-07-26 日本電気株式会社 データ圧縮装置、モデル生成装置、データ圧縮方法、モデル生成方法及びコンピュータプログラム
JP2022142510A (ja) * 2021-03-16 2022-09-30 パナソニックIpマネジメント株式会社 車両用周辺警戒装置および車両用周辺警戒方法
JP2022155838A (ja) * 2021-03-31 2022-10-14 本田技研工業株式会社 車両制御装置、経路生成装置、車両制御方法、経路生成方法、およびプログラム
EP4099100A1 (fr) 2021-06-02 2022-12-07 The Swatch Group Research and Development Ltd Mouvement horloger muni d'un oscillateur comprenant un spiral piezoelectrique
CN113726983B (zh) * 2021-07-12 2022-07-12 北京邮电大学 一种基于时间,定位,镜头角度,入射光强和色温的太阳光眩光抑制的方法和装置
EP4130890B1 (fr) 2021-08-04 2024-03-27 The Swatch Group Research and Development Ltd Mouvement horloger muni d'un oscillateur comprenant un spiral piézoélectrique

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4346275B2 (ja) * 2002-02-28 2009-10-21 株式会社東芝 映像診断装置および車載型映像監視装置
EP1597699A2 (en) * 2003-02-20 2005-11-23 Intelligent Mechatronic Systems, Inc. Adaptive visual occupant detection and classification system
JP2005073296A (ja) * 2004-10-27 2005-03-17 Mitsubishi Electric Corp 車両用カメラの露光制御装置
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2010086266A (ja) 2008-09-30 2010-04-15 Mazda Motor Corp 車両用画像処理装置
JP5035284B2 (ja) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 車両周辺表示装置
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8704653B2 (en) * 2009-04-02 2014-04-22 GM Global Technology Operations LLC Enhanced road vision on full windshield head-up display
US8212874B2 (en) * 2009-10-23 2012-07-03 GM Global Technology Operations LLC Automatic camera calibration using GPS and solar tracking
JP5251927B2 (ja) * 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
JP2012118929A (ja) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd 外部環境判定装置及び外部環境判定プログラム
CN102036016B (zh) * 2010-12-03 2012-10-10 杭州海康威视系统技术有限公司 视频检测方法及其系统
JP5310760B2 (ja) * 2011-03-04 2013-10-09 トヨタ自動車株式会社 接近車両検出装置
JP5892876B2 (ja) * 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置
WO2013018673A1 (ja) * 2011-08-02 2013-02-07 日産自動車株式会社 立体物検出装置及び立体物検出方法

Also Published As

Publication number Publication date
JPWO2014017434A1 (ja) 2016-07-11
CN104508723A (zh) 2015-04-08
US9721169B2 (en) 2017-08-01
CN104508723B (zh) 2016-10-12
WO2014017434A1 (ja) 2014-01-30
US20150220793A1 (en) 2015-08-06
EP2879111A4 (en) 2016-10-19
EP2879111A1 (en) 2015-06-03

Similar Documents

Publication Publication Date Title
JP6254084B2 (ja) 画像処理装置
JP5981550B2 (ja) 立体物検出装置および立体物検出方法
JP5787024B2 (ja) 立体物検出装置
JP5776795B2 (ja) 立体物検出装置
JP5804180B2 (ja) 立体物検出装置
CN104509100B (zh) 三维物体检测装置以及三维物体检测方法
WO2014017624A1 (ja) 立体物検出装置および立体物検出方法
WO2016125377A1 (ja) 画像処理装置、および車両システム
JP5943077B2 (ja) 立体物検出装置および立体物検出方法
JP5682735B2 (ja) 立体物検出装置
JP5743020B2 (ja) 立体物検出装置
JP4980970B2 (ja) 撮像手段の調整装置および物体検出装置
JP5835459B2 (ja) 立体物検出装置
JP5783319B2 (ja) 立体物検出装置及び立体物検出方法
JP6020568B2 (ja) 立体物検出装置および立体物検出方法
JP5668891B2 (ja) 立体物検出装置
JP2014027495A (ja) 立体物検出装置および立体物検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170502

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170630

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171129

R150 Certificate of patent or registration of utility model

Ref document number: 6254084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350