JP2004212184A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2004212184A
JP2004212184A JP2002381403A JP2002381403A JP2004212184A JP 2004212184 A JP2004212184 A JP 2004212184A JP 2002381403 A JP2002381403 A JP 2002381403A JP 2002381403 A JP2002381403 A JP 2002381403A JP 2004212184 A JP2004212184 A JP 2004212184A
Authority
JP
Japan
Prior art keywords
snow
rain
image
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002381403A
Other languages
Japanese (ja)
Inventor
Hiroshi Sato
宏 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002381403A priority Critical patent/JP2004212184A/en
Publication of JP2004212184A publication Critical patent/JP2004212184A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of suitably removing distortion of images and simplifying an overall constitution in the case of controlling various apparatuses of a motor vehicle. <P>SOLUTION: The vicinity of the motor vehicle is photographed by a photographing part 10 at every prescribed time. On the basis of photographed images acquired by the continuous photographing, the history of fall of rain and snow etc. in the images are determined by a characteristic amount computation part 32. On the basis of the history of fall etc. in the images and the observed characteristics of fall speed, the actual history of fall of rain and snow are determined by a characteristic amount determining part 33. The locations of adhesion and the time of adhesion are estimated by an adhesion data estimation part 34 on the basis of the actual history of fall of rain and snow 50 etc. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置に関する。
【0002】
【従来の技術】
従来、車両周辺をカメラ等の手段により撮影し、得られた撮影画像を画像処理し、画像処理の結果に基づいて車両の各種機器を制御する機能を有した画像処理装置が知られている(例えば特許文献1参照)。
【0003】
しかし、この装置では、雨や雪が降っている場合、カメラのレンズまたはカメラ前方のウインド部に雨滴や雪が付着すると、撮影画像に歪みが生じてしまう。つまり、雨滴等が凸レンズとして作用するなどして、光路に変化が生じ、撮影画像に歪みが生じてしまう。
【0004】
撮影画像の歪みを除去するためには、レンズまたはウインド部への雨雪の付着前に雨雪を検出することと、レンズまたはウインド部の雨雪の付着位置を知ることが必要とされる。付着前に雨雪を検出する理由は、雨雪が付着してから雨雪を検出すると雨雪検出時には既に雨滴等によって画像に歪みが生じており、歪みの除去に遅れが生じてしまうからである。また、付着位置を知ることは、画像中における歪み位置を特定するうえで重要である。
【0005】
一方、付着前に雨滴等を検出し付着位置を特定する検出装置として、投光部と、投光部から投射される帯状光を受光する受光部と備え、これらの間を雨滴や雪が通過すると帯状光の特性に変化が生じることを利用して、雨滴や雪を付着前に検出すると共に、雨滴等の付着位置をある程度知ることが可能となる装置が提案されている(例えば特許文献2参照)。
【0006】
従って、この装置を用いることで、画像処理装置に撮影画像の歪みを除去する機能を追加する必要がなく、好適に歪みを除去することが可能となる。
【0007】
【特許文献1】
特開2001−147278号公報
【0008】
【特許文献2】
特開平10−82741号公報
【0009】
【発明が解決しようとする課題】
しかしながら、特許文献2に記載の装置を用いて画像の歪みを除去する場合、投光部や受光部などの要素が必要となってしまい、画像の歪みを除去する機能を画像処理装置に組み込んだ場合に比して、全体としての構成が複雑となってしまう。
【0010】
本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、画像の歪みを好適に除去することが可能で、且つ車両の各種機器を制御する場合には、全体としての構成の簡素化を図ることが可能な画像処理装置を提供することにある。
【0011】
【課題を解決するための手段】
上記目的を達成するため、本発明は、撮影手段が、連続的に車両周辺を撮影し、雨雪推定手段が、撮影手段により撮影される撮影画像から飛来物を検出して雨雪と推定し、特徴量算出手段が、撮影手段により連続的に撮影された撮影画像に基づいて、雨雪推定手段により推定された雨雪の画像上での特徴量を算出し、特徴量決定手段が、特徴量算出手段により算出された雨雪の画像上での特徴量、および実空間での雨雪の大きさと落下速度との相関を示し且つ予め測定された雨雪の実測落下速度特性に基づいて、雨雪の実空間での特徴量を決定し、付着データ推定手段が、特徴量決定手段により決定された雨雪の実空間での特徴量に基づいて、雨雪のウインド部への付着位置を推定する。
【0012】
【発明の効果】
本発明によれば、連続的に車両周辺を撮影して得られた撮影画像に基づいて、雨雪の画像上での特徴量(例えば雨雪の位置、大きさ、落下速度など)を算出し、これと予め測定された雨雪の実測落下速度特性とに基づいて、実空間での雨雪の特徴量(例えば雨雪の位置、大きさ、落下速度など)を決定する。そして、決定された実空間での雨雪の特徴量に基づいて、雨雪のウインド部への付着位置を推定する。つまり、本発明では、画像上における雨雪の落下課程等を求め、画像上の落下課程等と、実測の落下速度特性とに基づき、実際の雨雪の落下課程等を得ている。そして、実際の雨雪の落下課程等から付着位置を推定している。
【0013】
このように、本発明では雨雪の付着位置を推定することが可能となっている。このため、雨雪が実際にウインド部に付着する前であっても、推定された付着位置に基づく歪み除去を行うことで、除去に遅れが生じることなく、推定された付着位置の歪みを適切に除去することができる。
【0014】
また、本発明では、撮影手段によって得られた撮影画像から付着位置を推定している。このため、雨雪の検出用に他の要素を設ける必要がなくなっている。
【0015】
従って、画像の歪みを好適に除去することが可能で、車両の各種機器を制御する場合には、全体としての構成の簡素化を図ることが可能となる。
【0016】
【発明の実施の形態】
以下、本発明の好適な実施形態を図面に基づいて説明する。
【0017】
図1は、本発明の実施形態に係る画像処理装置の構成図である。同図に示すように、画像処理装置1は、車両内部に設置され一定時間経過ごとに車両周辺を撮影する撮影部(撮影手段)10を備えている。また、画像処理装置1は、車速に関する情報を取得する車速取得部(車速取得手段)20と、撮影部10により撮影された画像、および車速取得部20により得られた車速の情報に基づいて、画像処理を行う処理部30とを備えている。
【0018】
ここで、撮影部10は、例えば、1秒間に1000枚程度の画像を撮影できる高フレームレート撮影手段である。車速取得部20は、車輪速センサや舵角センサなどを用いデッドレコニング等の手法を使って、自車両の走行距離と、進行方向を検出するものである。また、車速取得部20は、この他にもGPSにより自車両の位置や速度を検出するようなものであってもよい。なお、車速取得部20は、様々な情報を取得するが、処理部30には車速に関する情報のみを送信するようになっている。
【0019】
処理部30は、撮影部10により取得された撮影画像から飛来物を検出して雨雪と推定する飛来物検出部(雨雪推定手段)31と、撮影部10により連続的に撮影された撮影画像に基づいて、飛来物検出部31により推定された雨雪の画像上での特徴量を算出する特徴量算出部(特徴量算出手段)32とを備えている。ここで特徴量とは、雨雪の状態や動きに関する特徴を示すものであって、例えば雨雪の大きさと、雨雪の位置および落下速度の少なくとも1つを含むものである。また、雨雪とは、雨滴、雪またはそれらが入り交じったものである。
【0020】
また、処理部30は、特徴量算出部32により算出された画像上の雨雪の特徴量に基づいて、実空間の雨雪の特徴量を決定する特徴量決定部(特徴量決定手段)33と、特徴量決定部33により決定された実空間の特徴量に基づいて、雨雪のウインド部への付着位置および付着時刻を推定する付着データ推定部(付着データ推定手段)34とを備えている。さらに、処理部30は、付着データ推定部34による推定結果に基づいて画像の補正を行う画像補正部(画像補正手段)35を備えている。
【0021】
また、上記画像処理装置1には、画像補正部35により補正された画像に基づいて、外部機器を制御する外部機器制御部40が接続されている。外部機器制御部40は、画像補正部35からの画像データに基づいて、例えば、ワイパや運転操作自体を制御するものである。
【0022】
図2は、本実施形態に係る画像処理装置1のフローチャートである。まず、撮影部10は、車両周囲を撮影して画像を取得する(ST1)。図3は、雨雪がウインド部に付着する様子を示す説明図である。図3に示すように、雨雪50は、略等速直線運動で落下する(時刻t1〜t4はすべて等間隔)。そして、雨雪50は、時刻t5においてウインド部51に付着する。撮影部10は、この等速直線運動の落下の様子(ウインド部51への付着を含む)を1秒間に1000枚程度撮影し、撮影画像のデータを処理部30に逐次出力している。
【0023】
なお、落下の際の雨雪50は、通常略円形であるが、或る一定以上の大きさを超えると空気抵抗を受けて、横に広がった楕円形状をなすようになる。また、実際の雨雪50は落下中に風等を受けるため水平方向に移動するが、本実施形態では、雨雪50の水平方向への移動を考慮しないものとする。撮影部10として高フレームレートの撮影手段を用いているため、雨雪50の水平方向への影響は極めて小さくなっているからである。また、車両走行時においては車両の走行速度に比べ、雨雪50の水平方向への移動量が極めて小さいからである。
【0024】
再度図2を参照して説明する。画像取得後、飛来物検出部31は、画像内の飛来物を検出して雨雪50と推定する(ST2)。詳しくは、飛来物検出部31は、飛来物を検出し、検出されたもの全てを雨滴か雪と推定する。そして、飛来物検出部31は、推定結果を特徴量算出部32に送信する。なお、飛来物検出部31は、推定結果と共に、撮影部10により連続的に取得される撮影画像を特徴量算出部32に出力する。
【0025】
その後、特徴量算出部32は、撮影部10により連続的に撮影された撮影画像および飛来物検出部31の検出結果とに基づいて、画像上での雨雪50の特徴量である位置、大きさおよび落下速度を算出する(ST3)。例えば、特徴量算出部32は、今回撮影された画像から、画像上での雨雪50の大きさおよび位置(撮像素子12の結像された大きさおよび位置に相当)を求め、今回および前回撮影された画像から位置の移動量を求め、この移動量と撮影部10の撮影間隔Δtとに基づいて落下速度(撮像素子12に結像された雨雪50の所定時間あたりの位置移動量に相当)を算出する。
【0026】
この際、特徴量算出部32は、画像上の雨雪50の大きさを、例えば雨雪50の外形の横幅から求めるようにしている。また、特徴量算出部32は、雨雪50の画像上の位置を、例えば雨雪50の円形状や楕円形状等の重心となる位置として特定する。また、ここで対象となる飛来物が画像上落下していないことが明らかな場合は、当該飛来物を雨雪以外の物として処理の対象外とする。
【0027】
特徴量の算出後、特徴量算出部32は、算出した特徴量の情報と、車速取得部20からの車速に関する情報とを特徴量決定部33に出力する。
【0028】
そして、特徴量決定部33は、これら情報を受信し雨雪50の大きさと落下速度との相関関係を示す落下速度関数を算出する。関数の算出後、特徴量決定部33は、雨雪50の落下速度関数と、雨雪50の大きさと落下速度との相関関係を示し且つ予め測定された雨雪50の実測落下速度特性との交点があるか否か判断する(ST4)。以下、この処理について詳しく説明する。
【0029】
図4は、落下速度関数と実測落下速度特性との交点を求める処理(ST4)の説明図であり、(a)は撮影部10から実空間の雨雪50までの距離等の関係を示し、(b)は撮影部10により連続的に得られる撮影画像の一例を示し、(c)は落下速度関数と実測落下速度特性との交点等を示している。なお、図4(b)では、説明を容易にするために、連続的に得られる撮影画像を重ね合わせて一画像にしたものを示している。
【0030】
撮影部10は、レンズ11を介して実空間の雨雪50を撮像素子12にて撮像する。このとき、図4(a)に示すように、実際の雨雪50の大きさをSとし、レンズ11から実際の雨雪50までの距離をZとし、撮像素子12からレンズ11までの距離をfとし、撮像素子12に結像された雨雪50の大きさをLとすると、実際の雨雪50の大きさSは、
【数1】

Figure 2004212184
とすることができる。
【0031】
また、画像は撮影部10により一定時間ごとに取得されている。今、図4(b)に示すように、時刻tにおける画像上の雨雪50が、座標(x1,y1)の位置p1であるとする。そして、Δt秒後の画像上の雨雪50が、座標(x2,y2)の位置p2であるとする。そして、雨雪50の水平方向の移動を考慮しないことからx1=x2とすると、実際の雨雪50の落下速度vは、
【数2】
Figure 2004212184
とすることができる。
【0032】
この式(2)に、式(1)を代入すると、実空間での雨雪50の落下速度vは、
【数3】
Figure 2004212184
とすることができる。ここで、L1は、時刻tにおける画像上の雨雪50の大きさである。
【0033】
また、式(3)において、y1,y2,Δt,L1は既知の数であるため、実際の雨雪50の落下速度vは、
【数4】
Figure 2004212184
とすることができる。この式(4)が、画像上から算出される実空間の雨雪50の落下速度関数である。なお、落下速度関数は、実空間の雨雪50までの距離Zが不明であるため、Sの1次式となっている。すなわち、距離Zが不明であると、図5に示すように、撮影部10に近い側(距離z1)の雨雪50の画像上での大きさが遠い側(距離z2)の雨雪50の画像上での大きさのz1/z2倍である場合、両者は同じ大きさとして撮影されるからであり、画像上からでは、小さい雨雪50が近くにある場合と、大きい雨雪50が遠くにある場合との見分けが付かないからである。このため、落下速度関数は、Sの1次式となってしまう。
【0034】
よって、特徴量決定部33は、実空間の特徴量を求めるために、落下速度関数だけでなく、実測落下速度特性も用いて、両者の交点αの値を実際の雨雪50の落下速度等とするようにしている(図4(c))。
【0035】
また、上記は車両停止中においての交点αの判断であったが、車両走行中においては、自車両が走行しているため、次のようにして交点αの判断を行う。
【0036】
車両が速度vsで走行している場合、Δt秒後における実空間の雨雪50の位置は、Z−vs・Δtとなるので、これを上記式(2)に当てはめると、
【数5】
Figure 2004212184
とすることができる。
【0037】
そして、式(1)を用いると、式(5)は、
【数6】
Figure 2004212184
とすることができる。ここで、y1,y2,L1,vs,Δtは既知の数であるため、式(6)は、
【数7】
Figure 2004212184
とすることができる。この式(7)が車両走行中の落下速度関数である。
【0038】
特徴量決定部33は、車両が走行している場合、ステップST4において、この落下速度関数と、実測落下速度特性との交点を車両停車時と同様に求める(図4(c))。
【0039】
再び、図2を参照して説明する。落下速度関数と実測落下速度特性との交点がないと判断した場合(ST4:NO)、処理は終了する。一方、落下速度関数と実測落下速度特性との交点があると判断した場合(ST4:YES)、特徴量決定部33は、雨雪50の実空間の特徴量を決定する(ST5)。すなわち、上記式(4)または式(7)と実測落下速度特性との交点αから実空間の雨雪50の落下速度vおよび大きさSを求める。
【0040】
そして、特徴量決定部33は、実空間の雨雪50の大きさSを式(1)に代入して、撮影部10内のレンズから雨雪50までの距離Zを求め、雨雪50の位置を決定する。これにより、特徴量決定部33は、実空間における雨雪の特徴量(位置、落下速度、大きさ)を決定する。
【0041】
このように、特徴量決定部33は、画像上の雨雪の特徴量(大きさや落下速度)に基づいて、雨雪の実空間の特徴量(位置や落下速度)を求めていることになる。詳しくは、特徴量決定部33は、画像上の雨雪の特徴量(大きさや落下速度)に基づいて、実空間における雨雪の大きさと落下速度との相関を示す落下速度関数を求め、さらに、雨雪の大きさと落下速度との実際の相関を示す実測落下速度特性を用いて、雨雪の実空間の特徴量(位置や落下速度)を求めている。
【0042】
その後、付着データ推定部34は、求められた雨雪の特徴量に基づいて、ウインド部51への付着位置と付着時刻とを推定する(ST6)。ウインド部51への付着位置は、車両停止中の場合、雨雪50が垂直に落下しているとすると、雨雪50の実空間での位置により推定することができる。また、ウインド部51への付着時刻は、車両停止中の場合、雨雪50が垂直に落下しているとすると、雨雪50の実空間での位置と落下速度とにより推定できる。さらに、車両走行時においても、車速取得部20により取得された車速に関する情報に基づき、付着位置と付着時刻との推定が可能となる。
【0043】
その後、画像補正部35は、雨雪が雨滴か雪かを判断する(ST7)。この判断は、例えば交点αに基づいて判断することができる。すなわち、画像補正部35は、交点αが落下速度関数と雨滴の実測落下速度特性との交点である場合に雨雪を雨滴であると判断し、雪の実測落下速度特性との交点である場合に雨雪を雪であると判断する。
【0044】
雪であると判断した場合、画像補正部35は、雪の付着位置の画像を補正する(ST8)。具体的に画像補正部35は、雪の付着位置の画像を削除する。雪が付着した場合に画像を削除するのは、雪がウインド部51に付着して直ぐに溶けない場合などには、光路の変化による画像の歪み自体が発生しておらず、単に車両内部から外界が見えない状態になっているからである。そこで、ウインド部51に付着したものが雪である場合、画像補正部35は、撮影画像の雪付着部分を削除する補正を行うようにしている。そして、処理は終了する。
【0045】
一方、雨滴であると判断した場合、画像補正部35は、後述する拡大処理を行うか画像削除処理を行うかを判断する(ST9)。具体的に、画像補正部35は、ウインド部51に付着したにより、後述する拡大率が算出可能である場合には拡大処理を行うと判断し、拡大率が算出不可能である場合には削除処理を行うと判断する。削除処理を行うと判断した場合、処理は、ステップST8を経て終了する。ここで、ステップST7において雨滴であると判断されたのにもかかわらず、ステップST9において拡大率の算出不可能と判断される場合とは、例えば落下してくる雨雪が大きすぎて、拡大率が算出不可能な場合をいう。またこれに加えて、雨滴に塵などが入り交じり、非常に透明度が損なわれている場合なども拡大率が算出不可能として処理されることが考えられる。
【0046】
一方、拡大処理を行うと判断した場合、画像補正部35は、補正パラメータを算出し(ST10)、雨滴の付着位置の画像を拡大し(ST11)、処理は終了する。
【0047】
ここで、画像削除処理(ST8)および拡大処理(ST11)について詳説する。図6は、画像削除処理(ST8)および拡大処理(ST11)の説明図であり、(a)は画像削除の範囲と雨雪50の大きさとの関係を示しており、(b)は雨滴付着時の光路の様子を示しており、(c)は拡大処理(ST11)にて求められる拡大率と雨雪の大きさとの関係を示している。
【0048】
画像補正部35は、画像削除処理(ST8)において、雨雪付着部分の撮影画像をマスクするようにしている。マスクの範囲は、雨雪の大きさが大きいほど広くなるようにされている。具体的には、図6(a)に示すように、雨雪の大きさに比例するようにマスクの範囲が広くなっている。
【0049】
また、画像補正部35は、画像補正処理(ST11)において、雨滴付着部分の画像を拡大するようにしている。雨滴がウインド部51に付着すると、図6(b)に示すように、凸レンズと同じように作用して光を集光するようになる。このため、雨滴の付着部分については、車両外部の景色等は縮小して見えるようになる。従って、画像補正部35は、雨滴の付着部分を拡大するように補正する必要がある。
【0050】
この拡大する際、画像補正部35は、雨滴の大きさが大きいほど画像の拡大率を大きくしている。具体的には、図6(c)に示すように、雨滴の大きさに比例するように拡大率が大きくなっている。これは、雨滴の大きさが大きいほど、光を集光し雨滴付着部分の画像が小さく見える傾向にあるからである。
【0051】
なお、画像補正部35は、付着データ推定部34により付着時刻に基づいて、上記画像補正(削除および拡大の双方)を雨雪50のウインド部51への近接時または付着時に行うことが望ましい。近接時または付着時に行うことで、画像の補正を行うタイミングが早すぎることによる画像への悪影響を防止することができるからである。
【0052】
このようにして、本実施形態に係る画像処理装置1では、連続的に車両周辺を撮影して得られた撮影画像に基づいて、雨雪50の画像上での特徴量(大きさ、落下速度など)を算出し、これと予め測定された雨雪の実測落下速度特性とに基づいて、実空間での雨雪50の特徴量(位置、落下速度等)を決定する。そして、決定された実空間での雨雪50の特徴量(位置、落下速度)に基づいて、雨雪50のウインド部51への付着位置を推定する。つまり、本実施形態では、画像上における雨雪50の落下課程等を求め、画像上の落下課程等と、実測の落下速度特性とに基づき、実際の雨雪50の落下課程等を得ている。そして、実際の雨雪50の落下課程等から付着位置を推定している。
【0053】
このように、本実施形態では雨雪50の付着位置を推定することが可能となっている。このため、雨雪50が実際にウインド部51に付着する前であっても、推定された付着位置に基づく歪み除去を行うことで、除去に遅れが生じることなく、推定された付着位置の歪みを適切に除去することができる。
【0054】
また、本実施形態では、撮影部10によって得られた撮影画像から付着位置を推定している。このため、雨雪50の検出用に他の要素を設ける必要がなくなっている。
【0055】
従って、画像の歪みを好適に除去することが可能で、車両の各種機器を制御する場合には、全体としての構成の簡素化を図ることが可能となる。
【0056】
また、車速に関する情報を取得するので、車両停止時のみでなく、車両走行時においても雨雪50の付着位置および付着時刻を推定することが可能となり、利便性を向上させることができる。
【0057】
また、雨雪50の付着前に画像補正を行うということは、未だ雨雪が付着していないときの正常な画像に補正をかけることとなる。このため、画像補正のタイミングが早すぎると、画像に悪影響を及ぼしてしまう。ところが、本実施形態では、付着時刻に基づいて、画像補正のタイミングを雨雪50がウインド部51に近接したとき、または付着したときとするので、タイミングが早すぎることによる画像への悪影響を防止することができる。
【0058】
なお、本発明は、上記した実施形態に限られるものではない。例えば、付着した雨滴上に雨滴が飛来してくることもある。この場合、新たに飛来してきた雨滴の大きさは上記実施形態の手法により容易に決定できるので、すでに付着している雨滴に新たに飛来した雨滴の大きさを加算するようにしてもよい。
【0059】
また、本実施形態では、飛来物検出部31は、検出した飛来物をすべて雨雪50と推定するものであるが、これに限られるものではなく、例えば、テンプレートマッチングすることにより雨雪50を推定するようにしてもよい。すなわち、小さな雨雪50は空気抵抗が少なく撮影された雨雪50の画像は円形に近くなる。このため、飛来物検出部31に予め円形の画像を記憶しておき、テンプレートマッチングすることにより小さな雨雪50の推定を精度よく行うようにすることもできる。また、大きな雨雪50については、落下時に楕円形状となる傾向があることから、飛来物検出部31に予め楕円形状の雨雪の画像を記憶しておき、テンプレートマッチングするようにしてもよい。
【図面の簡単な説明】
【図1】本発明の実施形態に係る画像処理装置の構成図である。
【図2】本実施形態に係る画像処理装置のフローチャートである。
【図3】雨雪がウインド部に付着するときの様子を示す説明図である。
【図4】落下速度関数と実測落下速度特性との交点を求める処理(ST4)の説明図であり、(a)は撮影部10から実空間の雨雪50までの距離等の関係を示し、(b)は撮影部10により連続的に得られる撮影画像の一例を示し、(c)は落下速度関数と実測落下速度特性との交点等を示している。
【図5】雨雪が落下する際の様子を示す説明図である。
【図6】画像削除処理(ST8)および拡大処理(ST11)の説明図であり、(a)は画像削除の範囲と雨雪の大きさとの関係を示しており、(b)は雨滴付着時の光路の様子を示しており、(c)は拡大処理(ST11)にて求められる拡大率と雨雪の大きさとの関係を示している。
【符号の説明】
1 画像処理装置
10 撮影部(撮影手段)
20 車速取得部(車速取得手段)
31 飛来物検出部(雨雪推定手段)
32 特徴量算出部(特徴量算出手段)
33 特徴量決定部(特徴量決定手段)
34 付着データ推定部(付着データ推定手段)
35 画像補正部(画像補正手段)
50 雨雪
51 ウインド部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing device.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an image processing apparatus having a function of photographing an area around a vehicle by a camera or the like, performing image processing on an obtained photographed image, and controlling various devices of the vehicle based on a result of the image processing ( See, for example, Patent Document 1.
[0003]
However, in this device, when rain or snow is falling, if a raindrop or snow adheres to a lens of the camera or a window portion in front of the camera, the captured image is distorted. That is, a change in the optical path occurs due to, for example, raindrops acting as a convex lens, and the captured image is distorted.
[0004]
In order to remove the distortion of the captured image, it is necessary to detect rain and snow before the rain or snow adheres to the lens or the window, and to know the position of the lens or window where the rain or snow adheres. The reason that rain / snow is detected before attachment is that if rain / snow is detected after the attachment of rain / snow, the image has already been distorted due to raindrops, etc. at the time of rain / snow detection, causing a delay in removing the distortion. is there. Knowing the attachment position is important for specifying the distortion position in the image.
[0005]
On the other hand, as a detection device that detects raindrops and the like before attachment and specifies the attachment position, a light-emitting unit and a light-receiving unit that receives band-shaped light projected from the light-emitting unit are provided, and when raindrops or snow passes between them, Utilizing the fact that the characteristics of the band-shaped light changes, an apparatus has been proposed that can detect raindrops and snow before the raindrops adhere and also know the adhesion position of the raindrops and the like to some extent (for example, see Patent Document 2). ).
[0006]
Therefore, by using this apparatus, it is not necessary to add a function of removing distortion of a captured image to the image processing apparatus, and it is possible to preferably remove distortion.
[0007]
[Patent Document 1]
JP 2001-147278 A
[Patent Document 2]
JP-A-10-82741
[Problems to be solved by the invention]
However, when the image distortion is removed using the device described in Patent Document 2, elements such as a light projecting unit and a light receiving unit are required, and a function of removing the image distortion is incorporated in the image processing device. Compared with the case, the configuration as a whole becomes complicated.
[0010]
The present invention has been made to solve such a conventional problem, and an object thereof is to appropriately remove image distortion and to control various devices of a vehicle. An object of the present invention is to provide an image processing apparatus capable of simplifying the configuration as a whole.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, the photographing unit continuously photographs the periphery of the vehicle, and the rain / snow estimation unit detects a flying object from a photographed image photographed by the photographing unit and estimates it as rain / snow. A feature amount calculating unit calculates a feature amount on the image of the rain and snow estimated by the rain and snow estimating unit based on the photographed images continuously photographed by the photographing unit; The feature amount on the image of the rain and snow calculated by the amount calculating means, and the correlation between the size and the falling speed of the rain and snow in the real space and based on the actually measured falling speed characteristics of the rain and snow measured in advance, The characteristic amount of rain and snow in the real space is determined, and the adhesion data estimating means determines the position of the rain and snow to be attached to the window based on the characteristic amount of rain and snow in the real space determined by the characteristic amount determining means. presume.
[0012]
【The invention's effect】
According to the present invention, a feature amount (for example, a position, a size, and a falling speed of rain and snow) on a rain and snow image is calculated based on a photographed image obtained by continuously photographing the periphery of a vehicle. Based on this and the actually measured falling snow velocity characteristics of rain and snow, the characteristic amount of rain and snow in the real space (for example, the position, size and falling speed of rain and snow) is determined. Then, based on the determined characteristic amount of rain and snow in the real space, the position where rain and snow adhere to the window is estimated. That is, in the present invention, the rainfall process of rain and snow on the image is obtained, and the actual rainfall process of rain and snow is obtained based on the fall process on the image and the actually measured fall velocity characteristics. Then, the attachment position is estimated from the actual falling process of rain and snow.
[0013]
As described above, according to the present invention, it is possible to estimate the attachment position of rain and snow. Therefore, even before rain or snow actually adheres to the window portion, by performing distortion removal based on the estimated attachment position, the distortion of the estimated attachment position can be appropriately adjusted without delay. Can be removed.
[0014]
Further, in the present invention, the attachment position is estimated from the photographed image obtained by the photographing means. Therefore, it is not necessary to provide another element for detecting rain and snow.
[0015]
Therefore, it is possible to preferably remove image distortion, and to control various devices of the vehicle, it is possible to simplify the overall configuration.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings.
[0017]
FIG. 1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 1 includes a photographing unit (photographing means) 10 which is installed inside the vehicle and photographs the periphery of the vehicle every predetermined time. Further, the image processing apparatus 1 is configured to acquire information on a vehicle speed based on a vehicle speed acquisition unit (vehicle speed acquisition unit) 20, an image photographed by the photographing unit 10, and vehicle speed information acquired by the vehicle speed acquisition unit 20. A processing unit 30 for performing image processing.
[0018]
Here, the photographing unit 10 is a high frame rate photographing unit that can photograph, for example, about 1000 images per second. The vehicle speed acquisition unit 20 detects a traveling distance and a traveling direction of the own vehicle by using a method such as dead reckoning using a wheel speed sensor or a steering angle sensor. In addition, the vehicle speed acquisition unit 20 may be one that detects the position and speed of the own vehicle by GPS. The vehicle speed acquisition unit 20 acquires various information, but transmits only information relating to the vehicle speed to the processing unit 30.
[0019]
The processing unit 30 detects a flying object from the photographed image acquired by the photographing unit 10 and estimates it as rain / snow, and a flying object detection unit (rain / snow estimation unit) 31 and a photographing continuously photographed by the photographing unit 10. A feature amount calculation unit (feature amount calculation unit) 32 that calculates a feature amount on the image of rain and snow estimated by the flying object detection unit 31 based on the image is provided. Here, the characteristic amount indicates a characteristic relating to the state or movement of rain and snow, and includes, for example, at least one of the size of rain and snow, the position of rain and snow, and the falling speed. Also, rain and snow are raindrops, snow, or a mixture of them.
[0020]
Further, the processing unit 30 determines a feature amount of rain and snow in the real space based on the feature amount of rain and snow on the image calculated by the feature amount calculation unit 32 (a feature amount determination unit) 33. And an adhesion data estimating unit (adhesion data estimating means) 34 for estimating the position and time of attachment of rain and snow to the window based on the characteristic amount of the real space determined by the characteristic amount determining unit 33. I have. Further, the processing unit 30 includes an image correction unit (image correction unit) 35 that corrects an image based on the result of estimation by the adhesion data estimation unit 34.
[0021]
Further, an external device control unit 40 that controls an external device based on the image corrected by the image correction unit 35 is connected to the image processing device 1. The external device control unit 40 controls, for example, the wiper and the driving operation itself based on the image data from the image correction unit 35.
[0022]
FIG. 2 is a flowchart of the image processing apparatus 1 according to the present embodiment. First, the image capturing unit 10 captures an image around the vehicle to acquire an image (ST1). FIG. 3 is an explanatory diagram showing how rain and snow adhere to the window. As shown in FIG. 3, the rain / snow 50 falls with a substantially constant-velocity linear motion (time t1 to t4 are all equally spaced). Then, the rain / snow 50 adheres to the window 51 at time t5. The photographing unit 10 photographs about 1000 drops of the constant velocity linear motion (including the attachment to the window unit 51) per second, and sequentially outputs photographed image data to the processing unit 30.
[0023]
The rain / snow 50 at the time of falling is usually substantially circular, but when it exceeds a certain size or more, it receives an air resistance and forms an elliptical shape which spreads horizontally. Further, the actual rain / snow 50 moves in the horizontal direction to receive wind or the like while falling, but in the present embodiment, the horizontal movement of the rain / snow 50 is not considered. This is because the influence of the rain / snow 50 in the horizontal direction is extremely small because the photographing unit 10 having a high frame rate is used as the photographing unit 10. In addition, during traveling of the vehicle, the amount of movement of the rain / snow 50 in the horizontal direction is extremely smaller than the traveling speed of the vehicle.
[0024]
Description will be made with reference to FIG. 2 again. After acquiring the image, the flying object detection unit 31 detects the flying object in the image and estimates it as rain / snow 50 (ST2). Specifically, the flying object detection unit 31 detects a flying object and estimates all detected objects as raindrops or snow. Then, the flying object detection unit 31 transmits the estimation result to the feature amount calculation unit 32. In addition, the flying object detection unit 31 outputs a captured image continuously acquired by the imaging unit 10 to the feature amount calculation unit 32 together with the estimation result.
[0025]
Thereafter, the feature amount calculating unit 32 determines the position and size of the feature amount of the rain / snow 50 on the image based on the captured images continuously captured by the capturing unit 10 and the detection result of the flying object detection unit 31. The height and the falling speed are calculated (ST3). For example, the feature amount calculation unit 32 obtains the size and position of the rain / snow 50 on the image (corresponding to the size and position of the image formed by the image sensor 12) from the image captured this time, The moving amount of the position is obtained from the photographed image, and the falling speed (the moving amount of the rain / snow 50 imaged on the image sensor 12 per predetermined time) is calculated based on the moving amount and the photographing interval Δt of the photographing unit 10. Equivalent) is calculated.
[0026]
At this time, the feature amount calculation unit 32 obtains the size of the rain / snow 50 on the image from, for example, the width of the outer shape of the rain / snow 50. In addition, the feature amount calculation unit 32 specifies the position of the rain / snow 50 on the image as a position that becomes the center of gravity of the rain / snow 50 such as a circular shape or an elliptical shape. If it is clear that the target flying object has not fallen on the image, the flying object is excluded from processing as objects other than rain and snow.
[0027]
After the calculation of the characteristic amount, the characteristic amount calculation unit 32 outputs information on the calculated characteristic amount and information on the vehicle speed from the vehicle speed acquisition unit 20 to the characteristic amount determination unit 33.
[0028]
Then, the feature amount determining unit 33 receives the information and calculates a falling speed function indicating a correlation between the size of the rain / snow 50 and the falling speed. After the calculation of the function, the feature amount determination unit 33 determines the correlation between the falling speed function of the rain / snow 50 and the actually measured falling speed characteristic of the rain / snow 50 that indicates the correlation between the size and the falling speed of the rain / snow 50. It is determined whether there is an intersection (ST4). Hereinafter, this processing will be described in detail.
[0029]
FIG. 4 is an explanatory diagram of a process (ST4) for obtaining an intersection between the falling speed function and the actually measured falling speed characteristic, and FIG. 4 (a) shows a relationship such as a distance from the photographing unit 10 to the rain / snow 50 in the real space. (B) shows an example of a photographed image continuously obtained by the photographing unit 10, and (c) shows an intersection or the like between the fall velocity function and the measured fall velocity characteristic. Note that FIG. 4B shows an image obtained by superimposing continuously obtained captured images into one image for ease of explanation.
[0030]
The image capturing unit 10 captures an image of rain and snow 50 in real space with the image sensor 12 via the lens 11. At this time, as shown in FIG. 4A, the size of the actual rain / snow 50 is S, the distance from the lens 11 to the actual rain / snow 50 is Z, and the distance from the image sensor 12 to the lens 11 is f, and the size of the rain / snow 50 imaged on the image sensor 12 is L, the actual size S of the rain / snow 50 is
(Equation 1)
Figure 2004212184
It can be.
[0031]
The images are acquired by the photographing unit 10 at regular intervals. Now, as shown in FIG. 4B, it is assumed that the rain / snow 50 on the image at the time t is the position p1 of the coordinates (x1, y1). Then, it is assumed that the rainy snow 50 on the image after Δt seconds is the position p2 of the coordinates (x2, y2). Then, since x1 = x2 because the horizontal movement of the rain / snow 50 is not considered, the actual falling speed v of the rain / snow 50 is:
(Equation 2)
Figure 2004212184
It can be.
[0032]
By substituting equation (1) into equation (2), the falling speed v of the rain / snow 50 in the real space becomes
[Equation 3]
Figure 2004212184
It can be. Here, L1 is the size of rain / snow 50 on the image at time t.
[0033]
Further, in equation (3), since y1, y2, Δt, and L1 are known numbers, the actual falling speed v of the rain / snow 50 is
(Equation 4)
Figure 2004212184
It can be. Equation (4) is a falling speed function of the rain / snow 50 in the real space calculated from the image. The falling velocity function is a linear expression of S because the distance Z to the rain / snow 50 in the real space is unknown. In other words, if the distance Z is unknown, as shown in FIG. 5, the size of the rain / snow 50 on the far side (distance z2) on the image of the rain / snow 50 on the side closer to the imaging unit 10 (distance z1) is larger. This is because when the size is z1 / z2 times the size on the image, the two are photographed as the same size. From the image, when the small rainy snow 50 is close and when the large rainy snow 50 is far, Because it cannot be distinguished from the case in Therefore, the falling speed function is a linear expression of S.
[0034]
Therefore, the feature value determination unit 33 uses the measured fall speed characteristics as well as the fall speed function to determine the value of the intersection α between the actual rain speed and the fall speed of the rain / snow 50 in order to obtain the feature value of the real space. (FIG. 4C).
[0035]
In the above description, the intersection α is determined while the vehicle is stopped. Since the own vehicle is running while the vehicle is traveling, the intersection α is determined as follows.
[0036]
When the vehicle is traveling at the speed vs, the position of the rain / snow 50 in the real space after Δt seconds is Z−vsΔt, and when this is applied to the above equation (2),
(Equation 5)
Figure 2004212184
It can be.
[0037]
Then, using equation (1), equation (5) becomes
(Equation 6)
Figure 2004212184
It can be. Here, since y1, y2, L1, vs, and Δt are known numbers, equation (6) is
(Equation 7)
Figure 2004212184
It can be. This equation (7) is a falling speed function during the running of the vehicle.
[0038]
When the vehicle is running, in step ST4, the characteristic amount determination unit 33 obtains an intersection between the falling speed function and the measured falling speed characteristic in the same manner as when the vehicle is stopped (FIG. 4C).
[0039]
Description will be made again with reference to FIG. If it is determined that there is no intersection between the falling speed function and the measured falling speed characteristic (ST4: NO), the process ends. On the other hand, when it is determined that there is an intersection between the falling speed function and the measured falling speed characteristic (ST4: YES), the feature amount determining unit 33 determines the feature amount of the rain / snow 50 in the real space (ST5). That is, the falling speed v and the size S of the rain / snow 50 in the real space are obtained from the intersection α between the above formula (4) or the formula (7) and the actually measured falling speed characteristic.
[0040]
Then, the feature quantity determining unit 33 substitutes the size S of the rain / snow 50 in the real space into the equation (1), obtains a distance Z from the lens in the photographing unit 10 to the rain / snow 50, and calculates the distance Z of the rain / snow 50. Determine the position. Thereby, the characteristic amount determination unit 33 determines the characteristic amounts (position, falling speed, size) of rain and snow in the real space.
[0041]
As described above, the feature amount determination unit 33 obtains the feature amount (position and fall speed) of the real space of rain and snow based on the feature amount (size and fall speed) of rain and snow on the image. . More specifically, the feature amount determination unit 33 obtains a falling speed function indicating a correlation between the size and the falling speed of the rain and snow in the real space based on the feature amounts (the size and the falling speed) of the rain and snow on the image. In addition, the characteristic amounts (positions and falling speeds) of the real space of rain and snow are obtained by using the actually measured falling speed characteristics indicating the actual correlation between the size of rain and snow and the falling speed.
[0042]
Thereafter, the attachment data estimation unit 34 estimates the attachment position and the attachment time to the window 51 based on the obtained rain / snow feature amounts (ST6). When the vehicle is stopped, the rainy snow 50 can be estimated from the position of the rainy snow 50 in the real space assuming that the rainy snow 50 is vertically falling when the vehicle is stopped. Further, when the rainy snow 50 is falling vertically when the vehicle is stopped, the time of attachment to the window 51 can be estimated from the position of the rainy snow 50 in the real space and the falling speed. Further, even during traveling of the vehicle, it is possible to estimate the attachment position and the attachment time based on the information on the vehicle speed acquired by the vehicle speed acquisition unit 20.
[0043]
Thereafter, the image correction unit 35 determines whether the rain or snow is raindrops or snow (ST7). This determination can be made, for example, based on the intersection α. That is, the image correction unit 35 determines that rain or snow is a raindrop when the intersection α is the intersection of the falling velocity function and the measured falling velocity characteristic of raindrops, and determines that the intersection α is the intersection with the measured falling velocity characteristic of snowdrops. It is determined that rain is snow.
[0044]
If it is determined that the snow is present, the image correction unit 35 corrects the image at the position where the snow is attached (ST8). Specifically, the image correction unit 35 deletes the image of the position where snow is attached. The reason why the image is deleted when snow adheres is that when the snow adheres to the window portion 51 and does not melt immediately, the image itself is not distorted due to a change in the optical path, and the outside world is simply seen from inside the vehicle. This is because there is no state. Therefore, when the thing attached to the window 51 is snow, the image correcting unit 35 performs a correction for deleting a snow-attached part of the captured image. Then, the process ends.
[0045]
On the other hand, when determining that the image is a raindrop, the image correction unit 35 determines whether to perform an enlargement process or an image deletion process described later (ST9). Specifically, the image correction unit 35 determines that the enlargement process is to be performed when the enlargement ratio described later can be calculated due to the attachment to the window unit 51, and deletes the image when the enlargement ratio cannot be calculated. It is determined that processing will be performed. If it is determined that the deletion process is to be performed, the process ends after step ST8. Here, the case where it is determined in step ST9 that the enlargement ratio cannot be calculated in spite of the fact that it is determined in step ST7 that it is a raindrop means that, for example, the rain snow falling is too large and the enlargement ratio is large. Means that it is not possible to calculate. In addition to this, it is conceivable that the enlargement factor is processed as being uncalculable even when dust or the like mixes with the raindrops and the transparency is extremely impaired.
[0046]
On the other hand, if it is determined that the enlargement process is to be performed, the image correction unit 35 calculates a correction parameter (ST10), enlarges the image of the position where the raindrop is attached (ST11), and ends the process.
[0047]
Here, the image deletion processing (ST8) and the enlargement processing (ST11) will be described in detail. FIGS. 6A and 6B are explanatory diagrams of the image deletion process (ST8) and the enlargement process (ST11). FIG. 6A shows the relationship between the range of image deletion and the size of the rain / snow 50, and FIG. The state of the optical path at the time is shown, and (c) shows the relationship between the enlargement ratio obtained in the enlargement processing (ST11) and the size of rain and snow.
[0048]
The image correction unit 35 masks the photographed image of the rain-and-snow attached portion in the image deletion process (ST8). The range of the mask is made wider as the size of rain and snow increases. Specifically, as shown in FIG. 6A, the range of the mask is increased in proportion to the size of rain and snow.
[0049]
The image correction section 35 enlarges the image of the raindrop-attached portion in the image correction processing (ST11). When the raindrops adhere to the window portion 51, as shown in FIG. 6 (b), they act like a convex lens to condense light. For this reason, in the portion where the raindrops adhere, the scenery and the like outside the vehicle appear to be reduced. Therefore, the image correction unit 35 needs to perform correction so as to enlarge the portion where the raindrop is attached.
[0050]
At the time of enlargement, the image correction unit 35 increases the enlargement ratio of the image as the size of the raindrop increases. Specifically, as shown in FIG. 6C, the enlargement ratio increases in proportion to the size of the raindrop. This is because the larger the size of the raindrop, the more the light is condensed and the image of the portion where the raindrop is attached tends to appear smaller.
[0051]
It is desirable that the image correction unit 35 performs the above-described image correction (both deletion and enlargement) when the rain / snow 50 approaches or adheres to the window 51 based on the adhesion time by the adhesion data estimation unit 34. This is because by performing the process at the time of approach or at the time of adhesion, it is possible to prevent an adverse effect on the image due to too early a timing of performing the image correction.
[0052]
Thus, in the image processing apparatus 1 according to the present embodiment, the characteristic amounts (the size, the falling speed, etc.) on the image of the rain / snow 50 are based on the captured image obtained by continuously capturing the surroundings of the vehicle. And the like, and the characteristic amount (position, falling speed, etc.) of the rain / snow 50 in the real space is determined based on this and the actually measured falling speed characteristics of the rain / snow. Then, based on the determined feature amounts (positions, falling speeds) of the rain / snow 50 in the real space, the position where the rain / snow 50 is attached to the window 51 is estimated. That is, in the present embodiment, the fall process of the rain / snow 50 on the image is obtained, and the actual fall process of the rain / snow 50 is obtained based on the fall process on the image and the actually measured fall speed characteristics. . Then, the attachment position is estimated from the actual falling process of the rain / snow 50.
[0053]
As described above, in the present embodiment, it is possible to estimate the attachment position of the rain and snow 50. For this reason, even before the rain / snow 50 actually adheres to the window portion 51, by performing the distortion removal based on the estimated adhesion position, the removal of the estimated adhesion position can be performed without delay. Can be appropriately removed.
[0054]
Further, in the present embodiment, the attachment position is estimated from the photographed image obtained by the photographing unit 10. Therefore, it is not necessary to provide another element for detecting the rain / snow 50.
[0055]
Therefore, it is possible to preferably remove image distortion, and to control various devices of the vehicle, it is possible to simplify the overall configuration.
[0056]
Further, since the information on the vehicle speed is acquired, it is possible to estimate the attachment position and the attachment time of the rain / snow 50 not only when the vehicle is stopped but also when the vehicle is running, and the convenience can be improved.
[0057]
In addition, performing image correction before the attachment of rain and snow 50 means that a normal image when rain and snow is not attached yet is corrected. Therefore, if the timing of the image correction is too early, the image is adversely affected. However, in the present embodiment, based on the attachment time, the timing of the image correction is set when the rain / snow 50 approaches the window portion 51 or when the attachment occurs, so that an adverse effect on the image due to too early timing is prevented. can do.
[0058]
Note that the present invention is not limited to the above embodiment. For example, a raindrop may fly on the attached raindrop. In this case, since the size of the newly arriving raindrop can be easily determined by the method of the above embodiment, the size of the newly arriving raindrop may be added to the already attached raindrop.
[0059]
In the present embodiment, the flying object detection unit 31 estimates all the detected flying objects as rain and snow 50. However, the present invention is not limited to this. For example, the flying object 50 is detected by performing template matching. It may be estimated. That is, the image of the rain and snow 50 photographed by the small rain and snow 50 has low air resistance and is close to a circle. For this reason, it is also possible to store a circular image in the flying object detection unit 31 in advance, and accurately estimate the small rain / snow 50 by performing template matching. Further, since the large rain / snow 50 tends to have an elliptical shape when dropped, an oval rain / snow image may be stored in the flying object detection unit 31 in advance, and template matching may be performed.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart of the image processing apparatus according to the embodiment.
FIG. 3 is an explanatory diagram showing a state when rain and snow adhere to a window portion.
FIG. 4 is an explanatory diagram of a process (ST4) for obtaining an intersection between a falling speed function and an actually measured falling speed characteristic, where (a) shows a relationship such as a distance from the photographing unit 10 to rain / snow 50 in a real space; (B) shows an example of a photographed image continuously obtained by the photographing unit 10, and (c) shows an intersection or the like between the fall velocity function and the measured fall velocity characteristic.
FIG. 5 is an explanatory view showing a state when rain and snow fall.
6A and 6B are explanatory diagrams of an image deletion process (ST8) and an enlargement process (ST11), wherein FIG. 6A shows a relationship between a range of image deletion and the size of rain and snow, and FIG. (C) shows the relationship between the enlargement ratio obtained in the enlargement process (ST11) and the size of rain and snow.
[Explanation of symbols]
1 image processing apparatus 10 photographing unit (photographing means)
20 Vehicle speed acquisition unit (vehicle speed acquisition means)
31 Flying object detector (rain / snow estimation means)
32 feature amount calculation unit (feature amount calculation means)
33 feature amount determination unit (feature amount determination means)
34 adhesion data estimation unit (adhesion data estimation means)
35 Image Correction Unit (Image Correction Means)
50 Rain and snow 51 Wind section

Claims (4)

連続的に車両周辺を撮影する撮影手段と、
前記撮影手段により撮影される撮影画像から飛来物を検出して雨雪と推定する雨雪推定手段と、
前記撮影手段により連続的に撮影された撮影画像に基づいて、前記雨雪推定手段により推定された雨雪の画像上での特徴量を算出する特徴量算出手段と、
前記特徴量算出手段により算出された雨雪の画像上での特徴量、および実空間での雨雪の大きさと落下速度との相関を示し且つ予め測定された雨雪の実測落下速度特性に基づいて、雨雪の実空間での特徴量を決定する特徴量決定手段と、
前記特徴量決定手段により決定された雨雪の実空間での特徴量に基づいて、雨雪のウインド部への付着位置を推定する付着データ推定手段と、
を備えることを特徴とする画像処理装置。
Photographing means for continuously photographing around the vehicle;
Rain / snow estimation means for detecting a flying object from a photographed image taken by the photographing means and estimating rain / snow,
A feature amount calculating unit that calculates a feature amount on the image of the rain and snow estimated by the rain and snow estimating unit, based on the photographed images continuously photographed by the photographing unit;
The feature amount on the image of the rain and snow calculated by the feature amount calculating means, and the correlation between the size and the falling speed of the rain and snow in the real space, and based on the measured falling speed characteristics of the rain and snow measured in advance. Feature amount determining means for determining a feature amount in the real space of rain and snow;
An adhesion data estimating means for estimating an adhesion position of rain and snow on a window portion based on the characteristic amount in the real space of rain and snow determined by the characteristic amount determining means,
An image processing apparatus comprising:
車速に関する情報を取得する車速取得手段を更に備え、
前記付着データ推定手段は、前記特徴量決定手段により決定された雨雪の実空間での特徴量に加え、前記車速取得手段に取得された車速に関する情報に基づいて、車両走行時における雨雪のウインド部への付着位置を推定することを特徴とする請求項1に記載の画像処理装置。
Further provided is a vehicle speed acquisition means for acquiring information on the vehicle speed,
The adhesion data estimating means includes, in addition to the characteristic amount of the rain and snow in the real space determined by the characteristic amount determining means, based on the information about the vehicle speed acquired by the vehicle speed acquiring means, and The image processing apparatus according to claim 1, wherein a position of attachment to the window is estimated.
前記付着データ推定手段により推定された雨雪の付着位置に基づいて、前記撮影手段により撮影された撮影画像のうち雨雪付着部分を補正する画像補正手段をさらに備え、
前記付着データ推定手段は、前記特徴量決定手段により決定された雨雪の実空間での特徴量に基づいて、雨雪のウインド部への付着時刻を推定し、
前記画像補正手段は、この付着時刻に基づいて、雨滴のウインド部への近接時または付着時に、補正を行うことを特徴とする請求項1に記載の画像処理装置。
An image correcting unit that corrects a rain-and-snow-adhered portion in a photographed image taken by the photographing unit, based on the attachment position of the rain / snow estimated by the attachment data estimating unit;
The adhesion data estimation unit estimates the time of attachment of the rain and snow to the window based on the feature amount in the real space of rain and snow determined by the feature amount determination unit,
2. The image processing apparatus according to claim 1, wherein the image correction unit performs correction based on the adhesion time when the raindrop approaches or adheres to the window.
前記雨雪の画像上での特徴量および前記雨雪の実空間での特徴量として雨雪の大きさを用い、更にこの特徴量は雨雪の位置および落下速度の少なくとも1つを含むものであることを特徴とする請求項1〜請求項3のいずれか1項に記載の画像処理装置。The size of rain and snow is used as the feature amount on the image of the rain snow and the feature amount of the rain snow in the real space, and the feature amount includes at least one of the position of the rain snow and the falling speed. The image processing apparatus according to claim 1, wherein:
JP2002381403A 2002-12-27 2002-12-27 Image processing apparatus Pending JP2004212184A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002381403A JP2004212184A (en) 2002-12-27 2002-12-27 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002381403A JP2004212184A (en) 2002-12-27 2002-12-27 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2004212184A true JP2004212184A (en) 2004-07-29

Family

ID=32817330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002381403A Pending JP2004212184A (en) 2002-12-27 2002-12-27 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2004212184A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010084521A1 (en) * 2009-01-20 2010-07-29 本田技研工業株式会社 Method and apparatus for identifying raindrops on a windshield
JP2017090408A (en) * 2015-11-17 2017-05-25 株式会社デンソーウェーブ Window contamination discrimination device, window contamination discrimination method and window contamination discrimination program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010084521A1 (en) * 2009-01-20 2010-07-29 本田技研工業株式会社 Method and apparatus for identifying raindrops on a windshield
JP5216010B2 (en) * 2009-01-20 2013-06-19 本田技研工業株式会社 Method and apparatus for identifying raindrops on a windshield
JP2017090408A (en) * 2015-11-17 2017-05-25 株式会社デンソーウェーブ Window contamination discrimination device, window contamination discrimination method and window contamination discrimination program

Similar Documents

Publication Publication Date Title
US8233031B2 (en) Object detecting system
JP4603970B2 (en) Road marking line detection device
JP3151372B2 (en) Moving object speed detecting apparatus and method
US10755124B2 (en) Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program
WO2007111220A1 (en) Road division line detector
JP2008523417A (en) Method and apparatus for determining vehicle speed
JP2002099907A (en) Object recognizing apparatus
JP2002099906A (en) Object-recognizing device
JPH09189517A (en) Imaging device
JP3747863B2 (en) In-vehicle distance measuring device
JP5107154B2 (en) Motion estimation device
CN108765462B (en) Vehicle speed identification method
JP2003077099A (en) Preceding vehicle recognition system
TW201929210A (en) Semiconductor device, imaging system, and program
JP2002236927A (en) Curved road recognizing method for lane modeling system
JP4100336B2 (en) Image processing device
JP2004212184A (en) Image processing apparatus
CN109309785B (en) Imaging control device and imaging control method
JP2002232869A (en) Calibration method for camera
JP7003972B2 (en) Distance estimation device, distance estimation method and computer program for distance estimation
JP4069919B2 (en) Collision determination device and method
JP2020201876A (en) Information processing device and operation support system
JP2002098509A (en) Vehicle detecting device
JP3501841B2 (en) Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method
JP7380443B2 (en) Partial image generation device and computer program for partial image generation