JP2006107314A - 画像処理装置、および画像処理方法 - Google Patents
画像処理装置、および画像処理方法 Download PDFInfo
- Publication number
- JP2006107314A JP2006107314A JP2004295775A JP2004295775A JP2006107314A JP 2006107314 A JP2006107314 A JP 2006107314A JP 2004295775 A JP2004295775 A JP 2004295775A JP 2004295775 A JP2004295775 A JP 2004295775A JP 2006107314 A JP2006107314 A JP 2006107314A
- Authority
- JP
- Japan
- Prior art keywords
- image
- wiper
- interpolation
- speed information
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】 撮像画像内におけるワイパーで隠れた部分の画像を補間すること。
【解決手段】 制御装置103は、カメラ101で撮像した自車両前方の画像を画像メモリ102から読み込んで画像処理し、画像内に存在する物体の速度情報を算出し、算出した物体の速度情報に基づいて、画像内に存在するワイパーを検出する。画像内にワイパーが検出された場合には、画像上のワイパーによって自車両前方の画像が欠落した領域を、カメラ101で過去に撮像したフレームから補間画像を得て補間する。
【選択図】 図1
【解決手段】 制御装置103は、カメラ101で撮像した自車両前方の画像を画像メモリ102から読み込んで画像処理し、画像内に存在する物体の速度情報を算出し、算出した物体の速度情報に基づいて、画像内に存在するワイパーを検出する。画像内にワイパーが検出された場合には、画像上のワイパーによって自車両前方の画像が欠落した領域を、カメラ101で過去に撮像したフレームから補間画像を得て補間する。
【選択図】 図1
Description
本発明は、車両に搭載されたカメラによって撮像された画像を処理する画像処理装置、および画像処理方法に関する。
次のような画像処理方法が特許文献1によって知られている。自車両前方を撮像した撮像画像の前フレームと現在のフレームとの差分画像を得て、差分画像の平均濃度が所定値よりも大きく、差分画像の分散が所定値よりも小さい場合は、撮像画像内にワイパーが映っていると判断して、画像内からワイパーを除外する。
しかしながら、従来の方法においては、前フレームと現在のフレームとの間で背景が大きく変化した場合には、差分画像の平均濃度、および差分画像の分散も大きく変化するため、実際にはワイパーが映っていなくてもワイパーが映っていると誤って判断して、ワイパー以外の部分を誤って画像内から除外してしまう可能性があるという問題が生じていた。
本発明は、撮像手段で撮像した自車両前方の画像を画像処理して、画像内に存在する物体の速度情報を算出し、算出した物体の速度情報に基づいて、画像内に存在するワイパーを検出し、画像内にワイパーが検出された場合には、画像上のワイパーによって自車両前方の画像が欠落した領域を、過去に撮像したフレームから補間画像を得て補間することを特徴とする。
本発明によれば、画像内に存在する物体の速度情報に基づいて画像内に存在するワイパーを検出して、画像を補間することとした。これによって、画像内に存在するワイパーを正確に検出することができ、ワイパーによって欠落した画像の補間を的確に行うことができる。
図1は、本実施の形態における画像処理装置の一実施の形態の構成例を示すブロック図である。画像処理装置100は、車両前方を撮像するカメラ101と、カメラ101で撮像した画像を格納する画像メモリ102と、カメラ101で撮像されて画像メモリ102に記憶した画像に対して画像処理を実行する制御装置103と、後述する画素カウンタのカウント値を記憶するカウンタメモリ104とを備えている。カメラ101は、例えばCCDやCMOSなどの撮像素子を有した高速カメラであり、極めて微小な一定時間Δt間隔、例えば2ms間隔で連続的に車両前方を撮像し、各フレームごとに画像メモリ102に出力する。
制御装置103は、画像メモリ102に格納された撮像画像を読み込んで、撮像画像内に自車両のワイパーが映り込んでいるか否かを判定する。自車両がフロントガラスのワイパーを動作させている場合には、ワイパーが撮像画像内に映っており、その部分の車両前方の画像は、ワイパーで隠れて欠落している。この欠落部分を後述する補間処理によって、過去に撮像した画像(過去のフレーム)を使用して補間して、ワイパーが映っていない状態の画像を生成する。また、後述する補正処理によって、補間結果の画像を検証して、補間箇所にずれが生じている場合には、その部分を補正して、ずれを修正する。
まず、撮像画像内からワイパーを検出することによって、撮像画像内に自車両のワイパーが映りこんでいるか否かを判定する。すなわち、ワイパー検出処理によって、画像内からワイパーが検出されるか否かを判定する。本実施の形態においては、画像内に存在する物体の画像上の移動速度を算出して、後述するように、画像内におけるワイパーの画像上の移動速度と、その他の車両前方に存在する物体の画像上の移動速度とは、それぞれのカメラ101からの距離との違いにより、大きく異なることを考慮して、画像内からワイパーを検出する。
本実施の形態においては、以下のように画像内に存在する物体の画像上の移動速度を算出して、撮像画像内における物体の移動方向と移動速度とをベクトルで表したオプティカルフローを以下のように算出する。すなわち、カメラ101で撮像された画像を画像メモリ102から読み込み、読み込んだ撮像画像に対して所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。抽出した画像内の各エッジに対して、細線化処理を行ってエッジの中心を正確に求める。そして、細線化されたエッジを、エッジ幅が一定の幅、例えば3画素分の幅になるように膨張させる。このように抽出したエッジを正規化することによって、各エッジが均一な幅を持ったエッジ画像を得ることができる。
なお、図2は、上述した抽出したエッジを正規化して、エッジ画像を得るために行う各処理の具体例を示す図である。すなわち、図2(a)に示す2値化して得たエッジに対して、細線化処理を行って図2(b)に示す細線化後のエッジを得る。そして、細線化したエッジを膨張させ、図2(c)に示すようにエッジに一定の幅を持たせる。
その後、カウンタメモリ104に保存された画素カウンタの内、現在エッジ画像内にエッジが存在している画素に対応した画素カウンタのカウント値を更新する。画素カウンタとは、エッジ画像の各画素に対応したカウンタであり、エッジが存在する画素に対応する画素カウンタのカウント値に1を加算し、エッジが存在しない画素に対応する画素カウンタのカウント値は0で初期化する。このカウンタ値の更新処理を、カメラ101で連続的に撮像される毎フレームごとに行うことで、エッジ存在時間が長い画素はカウント値が大きく、エッジ存在時間が短い画素はカウント値が小さくなる。
そして、エッジ画像において、横方向に隣接するそれぞれの画素に対応する画素カウンタのカウント値の差分を取ることで各画素におけるエッジ存在時間の差を算出して、当該エッジが1画素移動するのに要する時間を得る。そして、この値の逆数を得ることで、各画素における画像空間内の横方向の速度を算出することができる。この各画素における画像空間内の横方向の速度は、各画素に含まれるエッジの横方向の速度に相当する。エッジの縦方向の速度についても、縦方向に隣接するそれぞれの画素に着目して同様の処理を行うことにより算出可能である。これによって、画像上の各画素におけるエッジの速度情報、すなわちエッジの移動方向と移動速度とを算出することができる。
以上の処理によって算出した、画像上の物体の移動方向、および移動速度をベクトルで表したオプティカルフローを算出し、当該オプティカルフローに基づいて、画像内からワイパーを検出する。すなわち、上述したように、画像内におけるワイパーの画像上の移動速度と、その他の車両前方に存在する物体の画像上の移動速度とは大きく異なることを考慮して、画像内からワイパーを検出する。
例えば、カメラ101の焦点距離を1、カメラ101の焦点位置から画像内に存在する物体までの距離をZ、物体の実空間上での幅をr、物体の画像上での幅をxとすると、次式(1)に示す関係式が成立する。
x=(1/Z)・r・・・(1)
そして、式(1)を時間tで微分すると、次式(2)により物体の画像上の移動速度が得られる。
dx/dt=(1/Z)・dr/dt・・・(2)
x=(1/Z)・r・・・(1)
そして、式(1)を時間tで微分すると、次式(2)により物体の画像上の移動速度が得られる。
dx/dt=(1/Z)・dr/dt・・・(2)
式(2)より、画像上の物体の速度は、カメラ101の焦点位置から画像内に存在する物体までの距離Zに反比例し、物体の実空間上における速度に比例することがわかる。例えば、図3に示すように、撮像画像内に壁3a、自車両前方に進行してくる他車両3b、およびワイパー3cが存在するときについて考える。この場合、カメラ101の焦点位置から他車両3bまでの距離が10mで、その実空間上の速度が100km/h(≒27m/s)、カメラ101の焦点位置からワイパー3cまでの距離が10cmで、その実空間上の速度が1m/sとすると、式(2)より、他車両3bの画像上の移動速度v1、およびワイパー3cの画像上の移動速度v2は、次式(3)、および(4)によって算出される。
v1=27/10=2.7・・・(3)
v2=1/0.1=10・・・(4)
v1=27/10=2.7・・・(3)
v2=1/0.1=10・・・(4)
式(3)、および(4)による算出結果より、上述した条件におけるワイパー3cの画像上の移動速度v2は、他車両3bの画像上の移動速度v1よりも約3倍速く検出されることがわかる。このように、自車両の前方10mの地点を時速100kmで走行する他車両3bのように、実空間上で極めて近距離を高速で移動する物体であっても、画像上においてはワイパー速度の1/3程度の移動速度しか検出されないことを考慮すると、検出された物体の画像上の速度が、所定の閾値、例えば5m/s以上である物体は、ワイパーであると判定することができる。したがって、オプティカルフローにおいて、各画素に含まれるエッジの移動速度が所定の閾値以上である場合には、これらの画素に含まれるエッジはワイパーから検出されたエッジであると判定でき、撮像画像内にワイパーが存在すると判定できる。
上述した処理によって、画像内からワイパーが検出された場合には、図4(a)に示すように、そのワイパーが存在する範囲、すなわち、ある一定の閾値以上の移動速度を有するエッジが存在する画素を全て含む範囲に対して、長方形のワイパー領域4aを設定する。この設定したワイパー領域に対して補間処理を実行し、過去のフレームを使用してワイパーによって欠落した画像を補間する。
このとき、画像上で検出されたワイパーは、図4(a)に示すように、ワイパーの位置によって算出される移動速度が異なる。すなわち、ワイパーは先端位置に近づくにつれて画面上の移動速度が増加し、付け根位置に近づくにつれて画面上の移動速度が減少する。したがって、過去のフレームを使用してワイパー領域4aを補間するに当たっては、ワイパーの位置ごとに画像上の移動速度が異なることを考慮して、ワイパー領域4a内の各部分ごとに異なるフレームを使用して画像を補間する必要が生じる。
本実施の形態では、図4(b)に示すように、画像上のワイパーの移動速度に基づいてワイパー領域4aに対してクラスタリングを行い、ワイパー領域4aを複数のクラスタに分割する。具体的には以下のようにクラスタリングを行う。ワイパー領域4aの横幅をPw、ワイパー領域4aの長さをPl、およびワイパーの根元からの距離がPiである任意の位置4bにおけるワイパーの画面上の移動速度viとする。このとき、任意の位置4bにおいてワイパー領域4a内をワイパーが通過するのに要する時間Tiは、次式(5)によって算出される。
Ti=Pw/vi・・・(5)
Ti=Pw/vi・・・(5)
任意の位置4bにおいて、ワイパーによって欠落した画像が映っているフレームは、式(5)で算出した通過時間Ti前に撮像されたフレームであることから、通過時間Tiの長さに応じて、ワイパー領域4aを補間する際に使用する過去のフレームを決定することができる。すなわち、通過時間Tiが短い場合には、ワイパーによる画像の欠落時間は短いため、現在のフレームに近い直近のフレームからの補間が可能となる。これに対して、通過時間Tiが長い場合には、ワイパーによる画像の欠落時間も長いため、現在のフレームから少し前のフレームを使用して補間する必要が生じる。
そして、カメラ101のフレームレートにおける画像撮像間隔をΔt、算出されたワイパーの移動速度が最も遅い部分であるワイパーの根元部分の移動速度をvsとした場合には、分割するクラスタの数Cnを次式(6)により算出して決定する。
Cn=(Pw/vs)/Δt=Ts/Δt・・・(6)
Cn=(Pw/vs)/Δt=Ts/Δt・・・(6)
次に、次式(7)に示す条件式において、変数nを1から式(6)で算出したクラスタ数まで変化させて、クラスタリングを実行する。
0≦Pw/vi≦n・Δt then クラスタn(1≦n≦Cn)に分類・・・(7)
例えば、Cnが4の場合には、次式(8)〜(11)によって、4つのクラスタ、すなわちクラスタ1〜クラスタ4に分類する。
0<Pw/vi≦1・Δt then クラスタ1に分類・・・(8)
1・Δt<Pw/vi≦2・Δt then クラスタ2に分類・・・(9)
2・Δt<Pw/vi≦3・Δt then クラスタ3に分類・・・(10)
3・Δt<Pw/vi≦4・Δt then クラスタ4に分類・・・(11)
0≦Pw/vi≦n・Δt then クラスタn(1≦n≦Cn)に分類・・・(7)
例えば、Cnが4の場合には、次式(8)〜(11)によって、4つのクラスタ、すなわちクラスタ1〜クラスタ4に分類する。
0<Pw/vi≦1・Δt then クラスタ1に分類・・・(8)
1・Δt<Pw/vi≦2・Δt then クラスタ2に分類・・・(9)
2・Δt<Pw/vi≦3・Δt then クラスタ3に分類・・・(10)
3・Δt<Pw/vi≦4・Δt then クラスタ4に分類・・・(11)
これによって、図5に示すように、式(8)でクラスタ1に分類される領域は、ワイパー領域4aの内、現在のフレームの1フレーム前にはワイパーが映っていなかった領域に相当し、現在のフレームの1つ前のフレームを使用してワイパーによって欠落した画像の補間が可能となる。同様に、式(9)でクラスタ2に分類される領域は、現在のフレームの2つ前のフレームを使用してワイパーによって欠落した画像の補間が可能となり、式(10)でクラスタ3に分類される領域は、現在のフレームの3つ前のフレームを使用してワイパーによって欠落した画像の補間が可能となる。さらに式(11)でクラスタ4に分類される領域は、現在のフレームの4つ前のフレームを使用してワイパーによって欠落した画像の補間が可能となる。
上述したように、クラスタリングを実行して、各クラスタごとに補間に使用する過去フレームを決定した後、各クラスタで分類された各領域を、過去フレームにおける各クラスタと同一の画像上の領域で置き換えて補間する。なお、カメラ101のフレームレートにおける画像撮像間隔Δtは、上述したように極めて微小な時間間隔であるため、過去フレームの同一領域の画像をそのまま置き換えても、精度の高い補間が可能となる。これによって撮像画像において、ワイパーによって欠落した画像部分を高い精度で補間することが可能となる。
しかし、上述したように、補間処理では、各クラスタを過去フレームの同一領域の画像をそのまま置き換えていることから、特に古いフレームを用いて補間されたクラスタほど、その補間精度が悪くなり、画像にずれが生じる可能性がある。したがって、このように補間処理を行った結果、画像にずれが生じた場合には、以下のように補正処理を実行して、画像のずれを補正する。
補正を行うに当たっては、まず、補間結果の画像にずれが生じているか否かを判定する必要がある。上述した補間処理を行った結果、クラスタ内に存在する物体のエッジ位置Aと、補間処理時に使用した過去フレームにおける同一エッジの位置、オプティカルフローから取得される移動方向、および移動速度Vから算出した予測エッジ位置Bとを比較して、AとBとの差が所定距離X以上であれば、補間結果の画像にずれが生じていると判定する。ここで、所定距離Xは、式(7)で使用した各クラスタのクラスタ番号を表す変数n、および過去フレーム上におけるエッジの移動速度Vを用いて、例えば次式(12)により算出される。
X=Δt×n×V・・・(12)
X=Δt×n×V・・・(12)
これによって、補間結果の画像にずれが生じていると判定した場合には、現在フレームにおいては、クラスタ内に存在する物体のエッジ位置Aが、過去フレームにおける同一エッジの位置から式(12)で算出した所定距離Xだけ移動した位置となるように、過去フレームから領域を抽出して、各クラスタ領域と置き換えて補正を行う。例えば、図6(a)に示すようにワイパーに隠れて画像が欠落した他車両8aに対してワイパー領域4aが補間された場合に、画像にずれが生じた場合には、上述した補正処理によって、図6(b)に示す補正後の画像を得る。
図7は、本実施の形態における画像処理装置100の処理を示すフローチャートである。図7に示す処理は、車両のイグニションスイッチがオンされて、画像処理装置100の電源がオンされると制御装置103によって実行される。ステップS10において、カメラ101で撮像された自車両前方の画像を画像メモリ102から取り込む。その後、ステップS20へ進み、読み込んだ撮像画像に対してエッジ抽出処理を行って、正規化処理を行うことによって、画像上の物体の速度を算出し、オプティカルフローを算出する。その後、ステップS30へ進む。
ステップS30では、上述したように画像内におけるワイパーの画像上の移動速度は、その他の車両前方に存在する物体の画像上の移動速度よりも速いことを考慮して、画像内からワイパーを検出する。その後、ステップS40へ進み、画像内でワイパーが検出されたか否かを判断する。ワイパーが検出されないと判断した場合には、後述するステップS80へ進む。一方、ワイパーが検出されたと判断した場合には、ステップS50へ進む。ステップS50では、図8により後述する補間処理を実行して、ステップS60へ進む。
ステップS60では、上述した式(12)により、補間処理の結果、画像にずれが生じたか否かを判断して、ずれが生じないと判断した場合には、後述するステップS80へ進む。一方、ずれが生じたと判断した場合には、ステップS70へ進む。ステップS70では、上述したように画像のずれを補正して、ステップS80へ進む。ステップS80では、車両のイグニションスイッチがオフされたか否かを判断し、オフされないと判断した場合には、ステップS10に戻って処理を繰り返す。これに対して、オフされたと判断した場合には、処理を終了する。
次に、ステップS50における補間処理について説明する。図8は、補間処理の流れを示すフローチャート図である。ステップS110において、図4(a)にて上述したように、画像上のワイパーが存在する範囲にワイパー領域4aを設定して、ステップS120へ進む。ステップS120では、ワイパー領域内の位置によって異なる画像上のワイパーの移動速度に基づいてクラスタリングを実行し、式(7)によりワイパー領域4aを複数のクラスタに分割する。その後、ステップS130へ進む。ステップS130では、各クラスタの補間に使用する過去フレームを決定する。その後、ステップS140へ進み、決定した過去フレームを使用して、各クラスタを補間する。その後、図7に示す処理に復帰する。
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)画像内に存在する物体の移動速度が所定の閾値以上である場合に、当該物体はワイパーであると判定することとした。これによって、画像内におけるワイパーの画像上の移動速度は、その他の車両前方に存在する物体の画像上の移動速度よりも速く検出されることを考慮して、精度高く画像内に存在するワイパーを検出することができる。
(2)ワイパー領域4aに対して、画像上のワイパーの移動速度がワイパーの位置によって異なることを考慮してクラスタリングを行い、各クラスタごとに補間時に使用する過去フレームを決定することとした。これによって、補間に使用する過去フレームを正確に決定することができる。さらに、クラスタごとにワイパーが映っていなかった最も直近の過去フレームを補間に使用することができ、補間精度を向上させることができる。
(1)画像内に存在する物体の移動速度が所定の閾値以上である場合に、当該物体はワイパーであると判定することとした。これによって、画像内におけるワイパーの画像上の移動速度は、その他の車両前方に存在する物体の画像上の移動速度よりも速く検出されることを考慮して、精度高く画像内に存在するワイパーを検出することができる。
(2)ワイパー領域4aに対して、画像上のワイパーの移動速度がワイパーの位置によって異なることを考慮してクラスタリングを行い、各クラスタごとに補間時に使用する過去フレームを決定することとした。これによって、補間に使用する過去フレームを正確に決定することができる。さらに、クラスタごとにワイパーが映っていなかった最も直近の過去フレームを補間に使用することができ、補間精度を向上させることができる。
(3)過去フレームを使用して補間するに当たっては、各クラスタで分類された各領域を、過去フレームにおける各クラスタと同一の画像上の領域で置き換えて補間することとした。これによって、補間処理を簡略化でき、処理速度の向上を図ることができる。
(4)クラスタ内に存在する物体のエッジ位置Aと、補間処理時に使用した過去フレームにおける同一エッジの位置、オプティカルフローから取得される移動方向、および移動速度Vから算出した予測エッジ位置Bとを比較して、補間処理を行った結果として得られる画像にずれが生じているかを判定することとした。これによって、ずれの発生の有無を正確に判定することができる。
(4)クラスタ内に存在する物体のエッジ位置Aと、補間処理時に使用した過去フレームにおける同一エッジの位置、オプティカルフローから取得される移動方向、および移動速度Vから算出した予測エッジ位置Bとを比較して、補間処理を行った結果として得られる画像にずれが生じているかを判定することとした。これによって、ずれの発生の有無を正確に判定することができる。
(5)補間処理を行った結果、画像にずれが発生した場合には、過去フレームにおける同一物体の移動速度から移動距離を算出し、当該移動距離に基づいて画像の補正を行うこととした。これによって、古い過去フレームを使用して補間処理を実行した場合に、その補間精度が悪くなることを補うことができ、ずれのない画像を生成することができる。
なお、以下のように変形することもできる。
(1)上述した実施の形態では、撮像画像に対してエッジ抽出処理を行ってエッジ画像を得た後、エッジが存在する画素の画素カウンタを更新し、隣接するそれぞれの画素に対応する画素カウンタのカウント値の差分を取ることで各画素におけるエッジ存在時間の差を算出して、当該エッジが1画素移動するのに要する時間を得る例について説明した。しかし、これに限定されず、例えば一般的な手法である勾配法やブロックマッチングを用いてオプティカルフローを算出してもよい。
(1)上述した実施の形態では、撮像画像に対してエッジ抽出処理を行ってエッジ画像を得た後、エッジが存在する画素の画素カウンタを更新し、隣接するそれぞれの画素に対応する画素カウンタのカウント値の差分を取ることで各画素におけるエッジ存在時間の差を算出して、当該エッジが1画素移動するのに要する時間を得る例について説明した。しかし、これに限定されず、例えば一般的な手法である勾配法やブロックマッチングを用いてオプティカルフローを算出してもよい。
(2)上述した実施の形態では、カメラ101で車両前方を撮像する際に、撮像画像に映り込むフロントガラスのワイパーによって欠落した部分の画像を補間する例について説明したが、これに限定されず、カメラ101で車両後方を撮像する場合に、リアガラスのワイパーが撮像画像に映り込む場合についても同様に処理して、画像の欠落部分を補間できる。
(3)上述した実施の形態では、本発明による物体検出装置100を車両に搭載する例について説明したが、これに限定されず、その他の移動体に搭載してもよい。
特許請求の範囲の構成要素と実施の形態との対応関係について説明する。カメラ101は撮像手段に、制御装置103は速度情報算出手段、ワイパー検出手段、補間手段、ずれ判定手段、および補正手段に相当する。なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
100 画像処理装置
101 カメラ
102 画像メモリ
103 制御装置
104 カウンタメモリ
101 カメラ
102 画像メモリ
103 制御装置
104 カウンタメモリ
Claims (5)
- 自車両前方の画像を撮像する撮像手段と、
前記撮像手段で撮像した画像を画像処理して、画像内に存在する物体の速度情報を算出する速度情報算出手段と、
前記速度情報算出手段で算出した前記物体の速度情報に基づいて、画像内に存在するワイパーを検出するワイパー検出手段と、
前記ワイパー検出手段によって画像内にワイパーが検出された場合には、画像上のワイパーによって自車両前方の画像が欠落した領域(以下、「ワイパー領域」と呼ぶ)を、過去に撮像したフレームから補間画像を得て補間する補間手段とを備えることを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置において、
前記ワイパー検出手段は、前記速度情報算出手段で算出した前記物体の速度情報に基づいて、前記物体の移動速度が所定値以上であれば、当該物体はワイパーであると検出することを特徴とする画像処理装置。 - 請求項1または2に記載の画像処理装置において、
前記補間手段は、前記ワイパー領域を前記速度情報算出手段で算出したワイパーの速度情報に基づいて複数の分割領域に分割し、各分割領域におけるワイパーの速度情報に基づいて決定される各分割領域に応じた過去のフレームから補間画像を得て補間することを特徴とする画像処理装置。 - 請求項1〜3のいずれか一項に記載の画像処理装置において、
前記補間手段によって画像を補間した結果、補間部分に画像のずれが発生しているか否かを判定するずれ判定手段と、
前記ずれ判定手段によって補間部分に画像のずれが発生していると判断された場合に、当該画像のずれを補正する補正手段とをさらに備えることを特徴とする画像処理装置。 - 撮像手段で撮像した自車両前方の画像を画像処理して、画像内に存在する物体の速度情報を算出し、
算出した前記物体の速度情報に基づいて、画像内に存在するワイパーを検出し、
画像内にワイパーが検出された場合には、画像上のワイパーによって自車両前方の画像が欠落した領域を、過去に撮像したフレームから補間画像を得て補間することを特徴とする画像処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004295775A JP2006107314A (ja) | 2004-10-08 | 2004-10-08 | 画像処理装置、および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004295775A JP2006107314A (ja) | 2004-10-08 | 2004-10-08 | 画像処理装置、および画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006107314A true JP2006107314A (ja) | 2006-04-20 |
Family
ID=36376956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004295775A Pending JP2006107314A (ja) | 2004-10-08 | 2004-10-08 | 画像処理装置、および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006107314A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008053472A1 (de) | 2007-10-29 | 2009-06-25 | Fuji Jukogyo K.K. | Objekt-Erfassungssystem |
JP2011178186A (ja) * | 2010-02-26 | 2011-09-15 | Mitsubishi Heavy Ind Ltd | 着陸ガイド装置および着陸ガイド方法 |
CN104754204A (zh) * | 2013-12-27 | 2015-07-01 | 株式会社万都 | 车载摄像头的控制装置及方法 |
CN113928274A (zh) * | 2020-05-08 | 2022-01-14 | 济南睿达物联网有限公司 | 一种基于物联网的洗车设备 |
-
2004
- 2004-10-08 JP JP2004295775A patent/JP2006107314A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008053472A1 (de) | 2007-10-29 | 2009-06-25 | Fuji Jukogyo K.K. | Objekt-Erfassungssystem |
US8233031B2 (en) | 2007-10-29 | 2012-07-31 | Fuji Jukogyo Kabushiki Kaisha | Object detecting system |
DE102008053472B4 (de) | 2007-10-29 | 2018-10-04 | Subaru Corporation | Objekt-Erfassungssystem |
JP2011178186A (ja) * | 2010-02-26 | 2011-09-15 | Mitsubishi Heavy Ind Ltd | 着陸ガイド装置および着陸ガイド方法 |
CN104754204A (zh) * | 2013-12-27 | 2015-07-01 | 株式会社万都 | 车载摄像头的控制装置及方法 |
US9538073B2 (en) | 2013-12-27 | 2017-01-03 | Mando Corporation | Controlling device and method of vehicle camera |
DE102014009644B4 (de) * | 2013-12-27 | 2017-01-19 | Mando Corporation | Vorrichtung und verfahren zum steuern einer fahrzeugkamera |
CN104754204B (zh) * | 2013-12-27 | 2018-01-19 | 株式会社万都 | 车载摄像头的控制装置及方法 |
CN113928274A (zh) * | 2020-05-08 | 2022-01-14 | 济南睿达物联网有限公司 | 一种基于物联网的洗车设备 |
CN113928274B (zh) * | 2020-05-08 | 2023-11-10 | 济南睿达物联网有限公司 | 一种基于物联网的洗车设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4248558B2 (ja) | 道路区画線検出装置 | |
US8050459B2 (en) | System and method for detecting pedestrians | |
JP4877801B2 (ja) | 車両追跡方法及び装置 | |
JP2006268097A (ja) | 車載物体検出装置、および物体検出方法 | |
JP4760089B2 (ja) | 車載画像処理装置、および画像処理方法 | |
JP2006338272A (ja) | 車両挙動検出装置、および車両挙動検出方法 | |
JP2014009975A (ja) | ステレオカメラ | |
JP2012252501A (ja) | 走行路認識装置及び走行路認識用プログラム | |
JP2016173795A (ja) | 画像処理装置、画像処理方法およびプログラム | |
US11288882B2 (en) | Deposit detection device and deposit detection method | |
JP4321410B2 (ja) | 物体検出装置、および方法 | |
JP4529768B2 (ja) | 車載物体検出装置、および物体検出方法 | |
JP2006107314A (ja) | 画像処理装置、および画像処理方法 | |
JP2020201876A (ja) | 情報処理装置及び運転支援システム | |
JP5464073B2 (ja) | 車外環境認識装置、車外環境認識方法 | |
CN112513573B (zh) | 立体摄像机装置 | |
JP7283268B2 (ja) | 情報処理装置及び車載システム | |
JP2018147241A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2013148355A (ja) | 車両位置算出装置 | |
JP4069916B2 (ja) | 物体検出装置、および方法 | |
JP5141275B2 (ja) | 車両用画像処理装置及び車両用画像処理方法 | |
JP2006317328A (ja) | 車載物体検出装置、および物体検出方法 | |
JP2010211578A (ja) | 移動物体検出装置及び移動物体検出方法 | |
JP4120638B2 (ja) | 画像処理装置、および方法 | |
JP2007272785A (ja) | 画像処理式車両検出装置及び画像処理式車両検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090728 |