JP4776587B2 - 画像処理装置,運転支援装置 - Google Patents

画像処理装置,運転支援装置 Download PDF

Info

Publication number
JP4776587B2
JP4776587B2 JP2007156594A JP2007156594A JP4776587B2 JP 4776587 B2 JP4776587 B2 JP 4776587B2 JP 2007156594 A JP2007156594 A JP 2007156594A JP 2007156594 A JP2007156594 A JP 2007156594A JP 4776587 B2 JP4776587 B2 JP 4776587B2
Authority
JP
Japan
Prior art keywords
image
vector
fog
matrix
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007156594A
Other languages
English (en)
Other versions
JP2008310509A (ja
Inventor
美紀 長谷山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Denso Corp
Original Assignee
Hokkaido University NUC
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Denso Corp filed Critical Hokkaido University NUC
Priority to JP2007156594A priority Critical patent/JP4776587B2/ja
Priority to DE102008027723.1A priority patent/DE102008027723B4/de
Priority to US12/157,742 priority patent/US8098890B2/en
Publication of JP2008310509A publication Critical patent/JP2008310509A/ja
Application granted granted Critical
Publication of JP4776587B2 publication Critical patent/JP4776587B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、霧が発生した状況で撮像された画像から霧の影響を除去した復元画像を生成する画像処理装置,及びその画像処理装置が生成する復元画像を利用する運転支援装置に関する。
従来より、自車両の周辺(特に前方)を撮像手段によって撮像し、撮像した画像を、そのまま、或いは画像処理を施して画面に表示したり、撮像した画像から各種物標を検出し、その検出結果に基づいて自車両が走行している道路形状や走行の際に注意を要する障害物等を認識して各種車両制御に用いたりすることで運転支援を行う運転支援装置が知られている。
この種の装置では、撮像された画像から各種物標を検出する際に、画像中の特徴点(例えば道路白線のエッジや高輝度部分など)をカルマンフィルタを用いて追跡することが行われている(例えば、特許文献1参照。)。
ところで、撮像手段としては、一般的に、運転者と同じ見え方をする可視光カメラが用いられている。このため、霧の発生時など、運転者にとって視界が悪い場合には、可視光カメラで撮像された画像も、輝度値の変化が少ないぼけた画像となり、カルマンフィルタを用いた特徴点の追跡も精度が低下する。その結果、画像中の各種物標を精度よく検出することが困難になり、有効な運転支援を実行することができないという問題がある。
これに対して、霧濃度を判定する判定手段によって、霧濃度が濃くなる変化を検出した場合に、画像中の高輝度領域の位置に基づいて、霧濃度が濃くなる前に取得した画像を変形し、その変形した画像を表示する装置が知られている(例えば、特許文献2参照。)。
特開2003−067755号公報 特開平6−113308号公報
しかし、特許文献2に記載の従来装置では、霧濃度が濃い状態が継続すると、霧濃度が濃くなる前に取得した画像と、実際の周囲の状況とが大きく異なったものとなってしまうため、画像の変形だけで現在の状況を表すことが困難であるという問題や、そもそも、画像上に高輝度領域が存在しない場合には、この手法が有効に機能しないという問題があった。
本発明は、霧の発生した状況で撮像された画像から、霧の影響を除去した画像を精度良く復元する画像処理装置、その復元された画像を利用する運転支援装置を提供することを目的とする。
上記目的を達成するためになされた第一発明の画像処理装置では、画像復元手段が、カルマンフィルタを用いて、時系列的に入力される画像のうち、霧が発生した状況で撮像された画像である霧画像から、霧の影響を除去した復元画像を生成する。
なお、カルマンフィルタは、霧画像を構成する各画素の輝度を表すベクトルを観測ベクトル、各画素の本来の輝度を表すベクトルを状態ベクトル、霧画像に撮像された物体の輝度が霧の影響を受けて劣化することを表す行列を観測行列、連続する前記画像間で該画像中の各要素が移動することにより生じる前記状態ベクトルの変化を表した行列を状態遷移行列とするものであり、このカルマンフィルタによって状態ベクトルの予測値を求めることにより、その状態ベクトルの予測値によって表される画像である復元画像を生成する。
このように、本発明の画像処理装置によれば、霧の影響をノイズとしてではなく観測系の特性として扱った(即ち、観測行列に組み込んだ)カルマンフィルタを用いているため、霧の影響が除去された画素本来の輝度を状態ベクトルとして扱うことができ、その結果、このカルマンフィルタを用いて状態ベクトルの予測値を求めることで、霧の影響を除去した復元画像を得ることができる。
また、本発明の画像処理装置によれば、カルマンフィルタを用いて霧の影響を除去しているため、常に、霧の濃さに応じた最適な画像処理によって復元画像を得ることができる。
ところで、状態遷移行列は、状態ベクトルが時間軸方向に遷移していく様子を表すものであり、連続する画像間の動きベクトルによって表すことが可能である。但し、霧画像では、霧の影響によってコントラストが低下するため、コントラストの低下が著しい霧濃度の濃い領域では、動きベクトルを抽出できない可能性がある。
そこで、本発明の画像処理装置において、状態遷移行列を生成する遷移行列生成手段は、今サイクルの入力画像に基づく観測ベクトルに対して観測行列の逆行列を作用させることで生成された仮復元ベクトルと、前サイクルの入力画像に対する状態ベクトルの予測値に基づいて、カルマンフィルタにて推定された今サイクルの状態ベクトルの推定値とに基づいて状態遷移行列を生成するように構成されていることが望ましい。
即ち、仮復元ベクトル(仮復元画像)は、観測ベクトル(霧画像)を観測行列を用いて直に復元したものであり、カルマンフィルタを用いて得られる状態ベクトルの予測値(復元画像)ほどの精度はないが、観測ベクトルよりは霧の影響が低下したものとなる。従って、この仮復元ベクトルを用いることで、観測ベクトルをそのまま用いるより、精度の良い状態遷移行列を得ることができるのである。
次に、第二発明の運転支援装置では、車両に搭載された撮像手段が、該車両の周囲を撮像して、その撮像した画像を上述の画像処理装置に供給し、その画像処理装置により生成された復元画像を、表示手段が表示する。
このように構成された本発明の運転支援装置によれば、霧の発生によって車両周囲の視認性が低下した時でも、表示手段に表示される復元画像によって、車両の運転者に車両の周囲の状況をより的確に把握させることができる。
なお運転支援装置は、復元画像を表示するだけでなく、物標検出手段が、画像処理装置により生成された復元画像に基づいて、車両の周囲に存在する各種物標を検出し、その検出結果に基づいて、制御手段が、運転支援のために車両に設けられた機器の動作を制御するように構成されていてもよい。
つまり、画像に表れている様々な情報を、霧の影響を受けたコントラストの低い(即ち画像処理が行い難い)霧画像から検出するのではなく、霧の影響が除去されコントラストが改善された(即ち画像処理が行い易い)復元画像から検出することになるため、その検出の精度や確実性を向上させることができ、ひいては、その検出結果に基づく制御の精度や確実性を向上させることができる。
以下に本発明の実施形態を図面と共に説明する。
<全体構成>
図1は、本発明を適用した運転支援装置1の全体構成を示すブロック図、図2は、運転支援装置1を構成する各部の配置を示す説明図である。
図1及び図2に示すように、運転支援装置1は、車室内中央のフロントガラスの上部に設置され、車両前方の画像を取得するカメラ3と、車両の挙動を表す各種物理量(車速,ヨー,ピッチ等、以下では挙動データという)を検出するためのセンサ群4(図2には、例として車速センサ4a,ヨーレートセンサ4bを示す)と、カメラ3が取得した画像(以下、入力画像という)及びセンサ群4が検出する挙動データに基づいて、入力画像中の霧の影響を除去した復元画像を生成する画像復元部10と、復元画像の表示/非表示を指示するための復元画像表示スイッチ5と、各種画像を表示するためのモニタ6と、運転支援制御の制御対象となるアクチュエータ群7(図2には図示せず)と、スイッチ5の設定に従ってモニタ6に表示する画像を切り替える表示画像切替制御81や、入力画像または復元画像に基づいて車両周辺の状況を認識してアクチュエータ群7を動作させることにより運転を支援する運転支援制御82等の各種アプリケーションを実行するアプリケーション実行部8とを備えている。
なお、カメラ3は、画素毎の輝度をデジタルデータに変換して出力する周知のものである。
センサ群4としては、上述の車速センサ4a,ヨーレートセンサ4bの他に、例えば、ピッチ角センサ,ステアリング角センサ等を用いてもよい。
アクチュエータ群7は、例えば、車両の制動力,推進力,サスペンション,トランスミッション等を制御するためのアクチュエータからなる。
アプリケーション実行部8は、CPU,ROM,RAMを中心に構成された周知のマイクロコンピュータからなり、表示画像切替制御81及び運転支援制御82は、マイクロコンピュータが実行する処理により実現される。
また、アプリケーション実行部8は、復元画像表示スイッチ5がOFFの場合に、カメラ3からの入力画像を用いて処理を実行し、復元画像表示スイッチ5がONの場合に、画像復元部10からの復元画像を用いて処理を実行するように構成されている。なお、運転支援制御82は、入力画像又は復元画像を画像処理することで車両前方の障害物の位置や挙動を認識し、その認識結果に基づいて危険のある障害物をモニタ6中で強調表示する等して運転者に報知したり制動力を強めたりする等の運転支援のための周知の車両制御を実行するものである。
<画像復元部>
次に、画像復元部10について説明する。
画像復元部10は、アプリケーション実行部8と同様に、CPU,ROM,RAMを中心に構成された周知のマイクロコンピュータからなり、以下で説明する各部の処理は、マイクロコンピュータが実行する処理により実現される。
なお、画像復元部10とアプリケーション実行部8とは、同一のマイクロコンピュータによって実現してもよいし、別々のマイクロコンピュータによって実現してもよい。
<劣化モデル>
ここで、まず、画像復元部10が実行する処理の前提となる劣化モデルについて説明する。
図3は、霧等の大気の影響による輝度の劣化モデルを表す説明図である。
図3に示すように、被観測物からの直接的な光の伝達をT、霧によって拡散された光(以下、拡散光という)の伝達をA、観測点にて観測される劣化した輝度をIとすると、これらは(1)式に示す関係を有する。
また、被観測物の本来の輝度をR、地平線上から伝達されてくる拡散光をA∞ 、観測点から被観測物までの距離をd、大気の消滅係数と呼ばれる拡散光の劣化の特性を示す係数をβとすると、(1)式は、(2)式のように書き換えられる。
但し、(2)式におけるβd及びA∞ (以下では、劣化パラメータという)は、(3)(4)式で示される。
なお、(3)(4)式は、カメラCのパラメータを、図4に示すようにモデル化することで、以下に示すように導出される。
即ち、カメラCに撮像された画像平面上の座標を(u,v)、カメラCの光学センサの座標を(u0 ,v0 )、道路平面の法線に対するカメラCの傾きをθ、道路平面上の地平線の画像平面上への投影点をvh 、カメラCの焦点距離をf、撮像される画像サイズをtpu×tpvとし、更に、αu =f/tpu及びαv =f/tpvは等しいものとみなして、いずれもαで表すものとする。
また、本来は単体のカメラCから、撮像された被観測物までの距離dを正確に算出することは不可能であるが、平坦な道であることを過程すれば、算出することが可能となる。ここで、3次元(x,y,z)で表現されるピンホールカメラモデルを用いると、画像平面上の座標は(5)(6)式で示される。
また、投影点vh は(7)式で示され、更に、この(7)式と(6)式とから(8)式が得られる。
道路平面上の原点Sからy方向のカメラ高さをHとして、(8)式を道路上の座標系である(X,Y,Z)で表すと(9)式が得られる。
原点Sから距離dの位置にある道路上の地点Mの座標は(10)式で示され、これを(9)式に代入すると(11)式が得られる。
更に、この(11)式をdについて解くことで(12)式が得られる。
次に、(2)(12)式から得られる(13)式を、vについて微分すると(14)式が得られ、その(14)式を、更にvについて微分すると(15)式が得られる。
(15)式を0にする解のうち、β=0ではない方の解は(16)で表される。但し、画面上における光の屈曲点の位置をvi 、カメラからその屈折点までの距離をdi とする。
なお、ここでいう光の屈曲点の位置vi とは、画像の縦方向(v方向)の位置のうち、輝度が大きく変化する地点のことであり、具体的には、画像の縦方向の位置をパラメータとして画像の輝度を表す関数を2回微分し、その結果が0となる地点を探すことにより求めることができる。
つまり、劣化パラメータβdを求める(3)式は、(12)式と(16)式とから得られ、また、劣化パラメータA∞ を求める(4)式は、(2)式のIをIi ,dをdi に置換して変形した(17)式の(R−A∞ )の部分に、(14)式を変形した式を代入することによって求められる。
また、劣化パラメータβd,A∞ がわかれば、(2)式を変形した(18)式に基づき、観測される劣化した輝度値Iから、実際の輝度値Rを復元できることがわかる。
<カルマンフィルタ>
次に、一般的なカルマンフィルタについて説明する。
図5は、カルマンフィルタのシステムモデルを表す説明図である。
なお、tは時刻、Z(t)は観測ベクトル、X(t)は状態ベクトル、U(t)はシステムノイズ、V(t)は観測ノイズ、A(t)は状態遷移行列、G(t)は駆動行列、H(t)は観測行列を表す。
このシステムモデルは、次の(19)(20)式によって表される。
なお、システムノイズU(t)及び観測ノイズV(t)は、それぞれ正規分布N(0,S(t)),N(0,T(t))に従い、S(t),T(t)は、その正規分布の共分散行列であるものとする。
以下では、状態推定において、将来の状態を推定することを予測、現在の状態を推定することをろ波(フィルタリング)と呼ぶものとする。
そして、時刻t−1における状態の予測分布p(X(t)|Z(t−1))の平均ベクトル(以下では「予測ベクトル」という)をXb (t),共分散行列をPb (t)とし、時刻tにおける状態のろ波の分布p(X(t)|Z(t))の平均ベクトル(以下では「推定ベクトル」という)をXa (t),共分散行列をPa (t)、時刻tでのカルマンゲインをK(t)とすると、周知のように、これらは(21)〜(25)式によって表される。
但し、QU (t)は、G(t)S(t)GT (t)で表されるシステムノイズの共分散行列であり、QV (t)は、観測ノイズの共分散行列である。
また、Pb (t),Pa (t)は、次の(26)(27)式で与えられる推定誤差共分散行列である。
<画像のモデル化>
次に、劣化モデルをカルマンフィルタに適用するためのモデル化について説明する。
まず、画像を構成するN個の画素の輝度値を要素X1 (t),X2 (t),…,XN (t)とするベクトルを状態ベクトルX(t)として設定する。但し、本実施形態では、図6(A)に示すように、各要素Xi (t)(i=1,2,…,N)は、画面の左上から右下に向かって順番に対応づけられている。
この状態ベクトルX(t)を用いて、原画像のモデルを(28)式のように定義する。なお、システムノイズU(t)は平均値0、分散がσv 2となるようなガウス性白色雑音とする。また、この式は、先に示した(19)式を、駆動行列G(t)を単位行列として示した式である。
つまり、時刻t+1における画素値Xi (t+1)(i=1,2,…N)は、前の時刻tにおけるいずれかの画素値Xi (t−1)が遷移したものであるとする。
次に、観測画像(入力画像)のモデルは、先に示した(20)式で与えられるものとする。
但し、観測ノイズV(t)は、分散がσv 2となるようなガウス性白色雑音v(t)から構成され、観測行列H(t)は、劣化モデルに基づいて設定される劣化関数である。
この(26)式及び(20)式で表されるモデルにカルマンフィルタを適用した場合のアルゴリズムは、先に示した通り(21)〜(25)式で表される。
この(21)〜(25)式に示すアルゴリズムを実現するには、状態遷移行列A(t)、観測行列H(t)、システムノイズの共分散行列QU (t)、観測ノイズの共分散行列QV (t)の値が未知となる。
従って、観測画像(観測ベクトルZ(t))のみを用いて状態ベクトルX(t)を復元するためには、これらの行列A(t),H(t),QU (t),QV (t)を推定すればよいことがわかる。
<観測行列>
推定すべき行列のうち、観測行列H(t)は、(3)(4)式に示した劣化パラメータβd,A∞ が、状態ベクトルX(t)を構成する全ての画素値に対して一様であるものと仮定すると、(28)式で示すことができる。
また、(23)式の第2項に注目すると、この項では、実際の観測値(観測ベクトルZ(t))とカルマンフィルタで得られる予測値(状態ベクトルの予測値Xb (t))に観測行列H(t)を作用させたものの差分、即ち、実際の観測値と予測された観測値との誤差を求めている。従って、観測行列H(t)を(28)式のように定義した場合、(2)式との比較により、カルマンフィルタのアルゴリズムを表す(23)式は、(30)式のように書き換える必要がある。
<状態遷移行列>
次に、推定すべき行列のうち、状態ベクトルX(t)の状態遷移を表す状態遷移行列A(t)は、その状態遷移が時間軸方向に遷移していくことから、時刻tにおける画像(状態ベクトルX(t))と時刻t−1における画像(状態ベクトルX(t−1))との間の動きベクトルによって表せばよい。
そして、状態遷移行列A(t)は、時刻t−1における画像の各画素、即ち動きベクトルの規定となる画素を各列に対応させ、時刻tにおける画像の各画素、即ち動きベクトルの終点となる画素を各行に対応させたN行N列の行列からなる。そして、状態遷移行列A(t)の各要素は0か1で表され、時刻tにおける画像の画素毎に動きベクトルが求められることから、1で表される要素が各行につき必ず一つ存在することになる。
具体的には、画像の画素数が9(=3×3)であり、時刻t−1における画像の画素X1 〜X9 が図7(A)に示すように配列されているものとして、時刻tにおける画像では、各画素X1 〜X9 が図7(B)に示すように遷移したものとすると、状態遷移行列A(t)は、図7(C)のように表されることになる。
但し、動きベクトルを算出する際に、時刻tの画像での霧の濃度が濃い領域では、画像のコントラストが著しく低下することにより動きベクトルを正しく求めることができない場合が考えられる。
そこで、動きベクトルの算出に用いる時刻tの画像としては、観測画像(観測ベクトルZ(t)をそのまま用いるのではなく、劣化モデルに基づく(18)式を用いて、輝度を復元した画像を用い、また、時刻tー1の画像としては、カルマンフィルタで求められた時刻t−1での推定画像(推定ベクトルXa (t−1))を用いる。
<共分散行列>
システムノイズの共分散行列QU (t)は、システムノイズは一定の割合で画像全体に存在するものとして、(31)式で表すことができる。
また、観測ノイズの共分散行列QV (t)は、観測ノイズは一定の割合で画像全体に存在するものとして、(32)式で表すことができる。
上述したように、劣化モデルをカルマンフィルタに適用して、複数時間の画像について状態遷移をさせながら復元を行うことで、霧画像(霧の発生時に撮像された入力画像)以外の統計量を必要とすることなく、時間経過による連続的な相関や誤差,雑音等を光量した、適応的な霧の除去が可能となる。
<画像復元部の構成>
ここで、図8は、上述の処理を実行する画像復元部10の機能的な構成を示す機能ブロック図である。なお、図8中に示された各部は、上述したようにマイクロコンピュータが実行する処理として実現される。
図8に示すように、画像復元部10は、カメラ3からの入力画像(即ち、観測ベクトルZ(t))に基づき、入力画像上での光の屈曲点の位置vi を求め、その求めた位置vi 及び(3)(4)式を用いて劣化パラメータβd,A∞ 算出すると共に、算出された劣化パラメータβdを用いて(29)式に示す観測行列H(t)を生成する劣化パラメータ生成部11と、劣化パラメータ生成部11にて生成された劣化パラメータβd,A∞ に基づき、(18)式を用いて、入力画像(観測ベクトルZ(t)=I)から仮復元画像(即ち、仮復元ベクトルR(t)=R)を生成する仮復元画像生成部12と、センサ群4からの挙動データB(t)を用いて時刻t−1における推定画像(ろ波分布の平均ベクトルXa (t−1))の動き補償を行い、その動き補償を行った時刻t−1における推定画像と時刻tにおける仮復元画像(仮復元ベクトルR(t))との間の動きベクトルを求める(本実施形態ではブロックマッチング法を用いる)ことにより、状態遷移行列A(t−1)を生成する追跡部13とを備えている。
また、画像復元部10は、入力画像(観測ベクトルZ(t)),仮復元画像生成部12にて生成された仮復元画像(仮復元ベクトルR(t)),追跡部13にて生成された状態遷移行列A(t−1),劣化パラメータ生成部11にて生成された観測行列H(t),劣化パラメータβd,A∞ 、時刻t−1における推定画像(推定ベクトルXa (t−1))に基づいて、霧の影響が除去された復元画像(予測ベクトルXb (t)),その復元画像から推定される次の時刻の推定画像(推定ベクトルXa (t))を生成する適応フィルタ部14と、適応フィルタ部14にて生成された推定画像を記憶して、次の時刻で時刻t−1における推定画像として、追跡部13や適応フィルタ部14に供給する推定画像記録部15とを備えている。
<適応フィルタ部の詳細>
適応フィルタ部14は、仮復元ベクトルR(t),状態遷移行列A(t−1),時刻t−1における推定ベクトルXa (t−1),共分散行列Pa (t) 、(31)式で与えられるシステムノイズの共分散行列QU (t)に基づき、(21)(22)式を用いて、予測ベクトルXb (t)(即ち、復元画像)、及び共分散行列Pb (t)を算出する予測部41と、観測行列H(t),予測部41からの共分散行列Pb (t),(32)式で与えられる観測ノイズの共分散行列QV (t)に基づき、(25)式を用いてカルマンゲインK(t)を算出するゲイン算出部42と、観測ベクトルZ(t)、観測行列H(t)、劣化パラメータβd,A∞ 、予測部41からの予測ベクトルXb (t),共分散行列Pb (t)、ゲイン算出部42からのカルマンゲインK(t)に基づき、(30)(24)式を用いて推定ベクトルXa (t)、及び共分散行列Pb (t)を算出するろ波部43とにより構成されている。
このように構成された画像復元部10では、上述した劣化モデルが適用したカルマンフィルタとして動作する適応フィルタ部14により、霧の発生時に撮像された入力画像(霧画像)から、霧の影響を除去した復元画像を逐次的に生成する。
<効果>
以上、説明したように運転支援装置1では、アプリケーション実行部8は、復元画像表示スイッチ5のOFF時には、カメラ3からの入力画像(観測ベクトルZ(t))を用い、復元画像表示スイッチ5のON時には、復元画像(予測ベクトルXb (t)を用いて、表示画像切替制御や運転支援制御などの各種アプリケーションを実行するようにされている。
従って、運転支援装置1によれば、霧の発生時であっても、復元画像表示スイッチ5をONにすることで、霧の影響が除去された、即ち画像のコントラストが改善された復元画像に基づいて、各種画像処理を行うことができるため、運転支援制御等のアプリケーションの精度や信頼性を向上させることができる。
また、画像復元部10において適応フィルタ部14は、霧の影響をノイズとしてではなく観測系の特性として扱った(即ち、観測行列H(t)に組み込んだ)カルマンフィルタを用いているため、霧の影響が除去された画素本来の輝度を状態ベクトルX(t)として扱うことができ、その結果、この適応フィルタ部14(カルマンフィルタ)を用いて状態ベクトルの予測値Xb (t)を求めることで、霧の影響を除去した復元画像を、霧の濃さに応じた最適な画像処理によって得ることができる。
また、画像復元部10では、状態遷移行列A(t−1)の生成に必要な動きベクトルを求める際に、時刻tにおける画像として、観測画像(観測ベクトルZ(t))をそのまま用いるのではなく、劣化パラメータβd,A∞ を用いて簡易的に霧の影響を除去した仮復元画像(仮復元ベクトルR(t))を用いているため、観測画像ではコントラストの低下が著しい霧濃度の濃い領域であっても、動きベクトルを確実に抽出することができ、その結果、適応フィルタ部14(カルマンフィルタ)の動作の信頼性を向上させることができる。
<他の実施形態>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
例えば、上記実施形態では、復元画像表示スイッチ5を備えているが、これに代えて、或いはこれと共に、カメラ3からの入力画像を画像処理することにより、霧がかかった画像であるか否かを判断する霧検出部を設け、霧がかかった画像であると判断された場合に、アプリケーション実行部8での処理に使用する画像を、入力画像から復元画像に切り替えるように構成してもよい。なお、霧検出部の具体的な構成は、例えば、特開2006−349492号に詳述されているため、ここではその説明を省略する。
上記実施形態では、追跡部13において動きベクトルを求める際に、ブロックマッチング法を用いているが、これに限らず、二つの画像間の動きベクトルを求めることができれば、どのような方法を用いてもよい。
上記実施形態では、共分散行列Pb (t),Pa (t)を、(22)(24)式を用いて算出しているが、(26)(27)式のX(t)をR(t)に置き換えた式を用いて算出するように構成してもよい。
運転支援装置の全体構成を示すブロック図。 運転支援装置を構成する各部の車両内での配置を示す説明図。 霧等の大気の影響による輝度の劣化モデルを表す説明図。 カメラのパラメータを示す説明図。 カルマンフィルタのシステムモデルを表す説明図。 原画像のモデル化に関する説明図。 状態遷移行列の具体例を表す説明図。 画像復元部の構成を示す機能ブロック図。
符号の説明
1…運転支援装置 3…カメラ 4…センサ群 4a…車速センサ 4b…ヨーレートセンサ 5…復元画像表示スイッチ 6…モニタ 7…アクチュエータ群 8…アプリケーション実行部 10…画像復元部 11…劣化パラメータ生成部 12…仮復元画像生成部 13…追跡部 14…適応フィルタ部 15…推定画像記録部 41…予測部 42…ゲイン算出部 43…ろ波部 81…表示画像切替制御 82…運転支援制御部

Claims (4)

  1. 時系列的に入力される画像のうち、霧が発生した状況で撮像された画像である霧画像から、霧の影響を除去した復元画像を生成する画像処理装置であって、
    前記霧画像を構成する各画素の輝度を表すベクトルを観測ベクトル、前記各画素の本来の輝度を表すベクトルを状態ベクトル、前記霧画像に撮像された物体の輝度が霧の影響を受けて劣化すること表す行列を観測行列、連続する前記画像間で該画像中の各要素が移動することにより生じる前記状態ベクトルの変化を表した行列を状態遷移行列とするカルマンフィルタを用いて前記状態ベクトルの予測値を求めることにより、該状態ベクトルの予測値によって表される画像である前記復元画像を生成する画像復元手段を備えることを特徴とする画像処理装置。
  2. 今サイクルの入力画像に基づく前記観測ベクトルに対して前記観測行列の逆行列を作用させることで生成された仮復元ベクトルと、前サイクルの入力画像に対する前記状態ベクトルの予測値に基づいて、前記カルマンフィルタにて推定された今サイクルの前記状態ベクトルの推定値とに基づいて前記状態遷移行列を生成する遷移行列生成手段を備えることを特徴とする請求項1に記載の画像処理装置。
  3. 請求項1又は請求項2に記載の画像処理装置と、
    車両に搭載され、該車両の周囲を撮像した画像を前記画像処理装置に供給する撮像手段と、
    前記画像処理装置により生成された前記復元画像を表示する表示手段と、
    を備えることを特徴とする運転支援装置。
  4. 前記画像処理装置により生成された前記復元画像に基づいて、前記車両の周囲に存在する各種物標を検出する物標検出手段と、
    前記物標検出手段での検出結果に基づいて、運転支援のために前記車両に設けられた機器の動作を制御する制御手段と、
    を備えることを特徴とする請求項3に記載の運転支援装置。
JP2007156594A 2007-06-13 2007-06-13 画像処理装置,運転支援装置 Expired - Fee Related JP4776587B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007156594A JP4776587B2 (ja) 2007-06-13 2007-06-13 画像処理装置,運転支援装置
DE102008027723.1A DE102008027723B4 (de) 2007-06-13 2008-06-11 Bildverarbeitungsvorrichtung zum Verringern von Effekten von Nebel bezüglich Abbildungen, die von einer in ein Fahrzeug eingebauten Kamera erzielt werden, und Fahrerunterstützungsvorrichtung, welche sich ergebende verarbeitete Abbildungen verwendet
US12/157,742 US8098890B2 (en) 2007-06-13 2008-06-12 Image processing apparatus for reducing effects of fog on images obtained by vehicle-mounted camera and driver support apparatus which utilizes resultant processed images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007156594A JP4776587B2 (ja) 2007-06-13 2007-06-13 画像処理装置,運転支援装置

Publications (2)

Publication Number Publication Date
JP2008310509A JP2008310509A (ja) 2008-12-25
JP4776587B2 true JP4776587B2 (ja) 2011-09-21

Family

ID=39986393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007156594A Expired - Fee Related JP4776587B2 (ja) 2007-06-13 2007-06-13 画像処理装置,運転支援装置

Country Status (3)

Country Link
US (1) US8098890B2 (ja)
JP (1) JP4776587B2 (ja)
DE (1) DE102008027723B4 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8396324B2 (en) * 2008-08-18 2013-03-12 Samsung Techwin Co., Ltd. Image processing method and apparatus for correcting distortion caused by air particles as in fog
US8437571B2 (en) * 2009-04-30 2013-05-07 Hewlett-Packard Development Company, L.P. Method and system for adaptive context-embedded prediction
US8416300B2 (en) * 2009-05-20 2013-04-09 International Business Machines Corporation Traffic system for enhancing driver visibility
JP4807439B2 (ja) 2009-06-15 2011-11-02 株式会社デンソー 霧画像復元装置及び運転支援システム
US8204329B2 (en) * 2009-06-17 2012-06-19 Sony Corporation System and method for image quality enhancement by reducing the effects of air pollution and haze
EP2385494A1 (en) * 2010-05-07 2011-11-09 IBBT vzw A method and device for estimating noise in a reconstructed image
KR101123302B1 (ko) * 2011-09-19 2012-03-21 (주)금성보안 연기 투시 기능을 가지는 영상 획득 장치 및 방법
CN103188433B (zh) * 2011-12-30 2016-01-20 株式会社日立制作所 图像除雾装置和图像除雾方法
CN103186887B (zh) * 2011-12-30 2016-08-03 株式会社日立制作所 图像除雾装置和图像除雾方法
KR101582479B1 (ko) * 2012-05-15 2016-01-19 에스케이 텔레콤주식회사 동영상에 포함된 헤이즈 제거를 위한 영상 처리 장치 및 그 방법
JP5963166B2 (ja) * 2012-08-10 2016-08-03 学校法人東京理科大学 画像復元装置、方法、及びプログラム
KR101736468B1 (ko) 2012-12-24 2017-05-29 한화테크윈 주식회사 영상 처리 장치 및 방법
JP6249638B2 (ja) * 2013-05-28 2017-12-20 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR102089106B1 (ko) * 2013-06-19 2020-03-16 현대모비스 주식회사 안개 발생 여부 판단 방법 및 이를 위한 장치
JP6205923B2 (ja) * 2013-07-11 2017-10-04 株式会社デンソー 走行支援装置
KR101491305B1 (ko) * 2013-08-27 2015-02-06 현대자동차주식회사 장애물 검출 장치 및 방법
KR101439052B1 (ko) * 2013-09-05 2014-09-05 현대자동차주식회사 장애물 검출 장치 및 방법
KR101583947B1 (ko) * 2014-06-20 2016-01-08 현대자동차주식회사 영상 내 안개 제거 장치 및 그 방법
US9177363B1 (en) * 2014-09-02 2015-11-03 National Taipei University Of Technology Method and image processing apparatus for image visibility restoration
CN106004361B (zh) * 2016-06-23 2019-06-07 京东方科技集团股份有限公司 车用遮光板、遮光板系统、车辆及遮光和显示方法
WO2019181096A1 (ja) * 2018-03-19 2019-09-26 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2020138569A (ja) * 2019-02-26 2020-09-03 アイシン精機株式会社 周辺監視装置
US11127121B2 (en) * 2019-03-29 2021-09-21 Wipro Limited System and method of generating enhanced video by removing fog for vehicle navigation
CN110072107B (zh) * 2019-04-25 2022-08-12 南京理工大学 一种基于运动估计共享的雾霾视频压缩方法
CN111539891A (zh) * 2020-04-27 2020-08-14 高小翎 单张遥感图像的波段自适应除雾优化处理方法
CN113364937B (zh) * 2021-05-13 2022-10-25 西安交通大学 一种有监督的视频真实去雾数据集的采集方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0534996B1 (de) * 1990-06-22 1994-11-17 Siemens Aktiengesellschaft Verfahren zur segmentierung bewegter objekte durch hintergrundadaption mit kompensation der kamerabewegung
JP3113415B2 (ja) 1992-09-25 2000-11-27 ダイハツ工業株式会社 車載用撮像装置における画像処理方法
JP3700625B2 (ja) 2001-08-28 2005-09-28 日産自動車株式会社 道路白線認識装置
US20060291750A1 (en) * 2004-12-16 2006-12-28 Peyman Milanfar Dynamic reconstruction of high resolution video from low-resolution color-filtered video (video-to-video super-resolution)
JP4506573B2 (ja) 2005-06-15 2010-07-21 株式会社デンソー 車載霧判定装置
JP2007156594A (ja) 2005-12-01 2007-06-21 Seiko Epson Corp プログラムトレース装置及び方法
US7693629B2 (en) 2006-11-14 2010-04-06 Denso Corporation Onboard fog determining apparatus
JP4241834B2 (ja) * 2007-01-11 2009-03-18 株式会社デンソー 車載霧判定装置

Also Published As

Publication number Publication date
DE102008027723A8 (de) 2009-06-18
JP2008310509A (ja) 2008-12-25
DE102008027723B4 (de) 2015-05-21
US20080317287A1 (en) 2008-12-25
US8098890B2 (en) 2012-01-17
DE102008027723A1 (de) 2008-12-18

Similar Documents

Publication Publication Date Title
JP4776587B2 (ja) 画像処理装置,運転支援装置
JP4882571B2 (ja) 車両用監視装置
JP4807439B2 (ja) 霧画像復元装置及び運転支援システム
JP4267657B2 (ja) 車両周辺監視装置
JP4970926B2 (ja) 車両周辺監視装置
JP4772115B2 (ja) 夜間に道路を検出する方法及びシステム
US7492962B2 (en) System or method for enhancing an image
JP7151488B2 (ja) 移動物体検出装置、移動物体検出方法及びプログラム
EP2757527B1 (en) System and method for distorted camera image correction
US20090295922A1 (en) In-vehicle device
JP2010118862A (ja) 画像処理装置、撮像装置及び画像処理方法
KR101573576B1 (ko) Avm 시스템의 이미지 처리 방법
JP4872890B2 (ja) 画像の歪曲補正方法
WO2019216005A1 (ja) 自己位置推定システム、自律移動システム及び自己位置推定方法
KR20200000953A (ko) 어라운드 뷰 모니터링 시스템 및 카메라 공차 보정 방법
WO2019156072A1 (ja) 姿勢推定装置
JP2020060550A (ja) 異常検出装置、異常検出方法、姿勢推定装置、および、移動体制御システム
JPWO2005024754A1 (ja) 車載用画像処理装置
CN117557626B (zh) 一种气雾喷雾器喷头安装辅助定位方法
JP6184447B2 (ja) 推定装置及び推定プログラム
JP2010108182A (ja) 車両の運転支援装置
JP2001084497A (ja) 位置検出装置
JP2011013978A (ja) 背景画像推定に基づく物体検出方法及び物体検出装置
JP5418427B2 (ja) 衝突時間算出装置、衝突時間算出方法及びプログラム
JP2009244944A (ja) 画像回復装置および撮影装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110628

R150 Certificate of patent or registration of utility model

Ref document number: 4776587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140708

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees