JP2004212184A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2004212184A JP2004212184A JP2002381403A JP2002381403A JP2004212184A JP 2004212184 A JP2004212184 A JP 2004212184A JP 2002381403 A JP2002381403 A JP 2002381403A JP 2002381403 A JP2002381403 A JP 2002381403A JP 2004212184 A JP2004212184 A JP 2004212184A
- Authority
- JP
- Japan
- Prior art keywords
- snow
- rain
- image
- unit
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置に関する。
【0002】
【従来の技術】
従来、車両周辺をカメラ等の手段により撮影し、得られた撮影画像を画像処理し、画像処理の結果に基づいて車両の各種機器を制御する機能を有した画像処理装置が知られている(例えば特許文献1参照)。
【0003】
しかし、この装置では、雨や雪が降っている場合、カメラのレンズまたはカメラ前方のウインド部に雨滴や雪が付着すると、撮影画像に歪みが生じてしまう。つまり、雨滴等が凸レンズとして作用するなどして、光路に変化が生じ、撮影画像に歪みが生じてしまう。
【0004】
撮影画像の歪みを除去するためには、レンズまたはウインド部への雨雪の付着前に雨雪を検出することと、レンズまたはウインド部の雨雪の付着位置を知ることが必要とされる。付着前に雨雪を検出する理由は、雨雪が付着してから雨雪を検出すると雨雪検出時には既に雨滴等によって画像に歪みが生じており、歪みの除去に遅れが生じてしまうからである。また、付着位置を知ることは、画像中における歪み位置を特定するうえで重要である。
【0005】
一方、付着前に雨滴等を検出し付着位置を特定する検出装置として、投光部と、投光部から投射される帯状光を受光する受光部と備え、これらの間を雨滴や雪が通過すると帯状光の特性に変化が生じることを利用して、雨滴や雪を付着前に検出すると共に、雨滴等の付着位置をある程度知ることが可能となる装置が提案されている(例えば特許文献2参照)。
【0006】
従って、この装置を用いることで、画像処理装置に撮影画像の歪みを除去する機能を追加する必要がなく、好適に歪みを除去することが可能となる。
【0007】
【特許文献1】
特開2001−147278号公報
【0008】
【特許文献2】
特開平10−82741号公報
【0009】
【発明が解決しようとする課題】
しかしながら、特許文献2に記載の装置を用いて画像の歪みを除去する場合、投光部や受光部などの要素が必要となってしまい、画像の歪みを除去する機能を画像処理装置に組み込んだ場合に比して、全体としての構成が複雑となってしまう。
【0010】
本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、画像の歪みを好適に除去することが可能で、且つ車両の各種機器を制御する場合には、全体としての構成の簡素化を図ることが可能な画像処理装置を提供することにある。
【0011】
【課題を解決するための手段】
上記目的を達成するため、本発明は、撮影手段が、連続的に車両周辺を撮影し、雨雪推定手段が、撮影手段により撮影される撮影画像から飛来物を検出して雨雪と推定し、特徴量算出手段が、撮影手段により連続的に撮影された撮影画像に基づいて、雨雪推定手段により推定された雨雪の画像上での特徴量を算出し、特徴量決定手段が、特徴量算出手段により算出された雨雪の画像上での特徴量、および実空間での雨雪の大きさと落下速度との相関を示し且つ予め測定された雨雪の実測落下速度特性に基づいて、雨雪の実空間での特徴量を決定し、付着データ推定手段が、特徴量決定手段により決定された雨雪の実空間での特徴量に基づいて、雨雪のウインド部への付着位置を推定する。
【0012】
【発明の効果】
本発明によれば、連続的に車両周辺を撮影して得られた撮影画像に基づいて、雨雪の画像上での特徴量(例えば雨雪の位置、大きさ、落下速度など)を算出し、これと予め測定された雨雪の実測落下速度特性とに基づいて、実空間での雨雪の特徴量(例えば雨雪の位置、大きさ、落下速度など)を決定する。そして、決定された実空間での雨雪の特徴量に基づいて、雨雪のウインド部への付着位置を推定する。つまり、本発明では、画像上における雨雪の落下課程等を求め、画像上の落下課程等と、実測の落下速度特性とに基づき、実際の雨雪の落下課程等を得ている。そして、実際の雨雪の落下課程等から付着位置を推定している。
【0013】
このように、本発明では雨雪の付着位置を推定することが可能となっている。このため、雨雪が実際にウインド部に付着する前であっても、推定された付着位置に基づく歪み除去を行うことで、除去に遅れが生じることなく、推定された付着位置の歪みを適切に除去することができる。
【0014】
また、本発明では、撮影手段によって得られた撮影画像から付着位置を推定している。このため、雨雪の検出用に他の要素を設ける必要がなくなっている。
【0015】
従って、画像の歪みを好適に除去することが可能で、車両の各種機器を制御する場合には、全体としての構成の簡素化を図ることが可能となる。
【0016】
【発明の実施の形態】
以下、本発明の好適な実施形態を図面に基づいて説明する。
【0017】
図1は、本発明の実施形態に係る画像処理装置の構成図である。同図に示すように、画像処理装置1は、車両内部に設置され一定時間経過ごとに車両周辺を撮影する撮影部(撮影手段)10を備えている。また、画像処理装置1は、車速に関する情報を取得する車速取得部(車速取得手段)20と、撮影部10により撮影された画像、および車速取得部20により得られた車速の情報に基づいて、画像処理を行う処理部30とを備えている。
【0018】
ここで、撮影部10は、例えば、1秒間に1000枚程度の画像を撮影できる高フレームレート撮影手段である。車速取得部20は、車輪速センサや舵角センサなどを用いデッドレコニング等の手法を使って、自車両の走行距離と、進行方向を検出するものである。また、車速取得部20は、この他にもGPSにより自車両の位置や速度を検出するようなものであってもよい。なお、車速取得部20は、様々な情報を取得するが、処理部30には車速に関する情報のみを送信するようになっている。
【0019】
処理部30は、撮影部10により取得された撮影画像から飛来物を検出して雨雪と推定する飛来物検出部(雨雪推定手段)31と、撮影部10により連続的に撮影された撮影画像に基づいて、飛来物検出部31により推定された雨雪の画像上での特徴量を算出する特徴量算出部(特徴量算出手段)32とを備えている。ここで特徴量とは、雨雪の状態や動きに関する特徴を示すものであって、例えば雨雪の大きさと、雨雪の位置および落下速度の少なくとも1つを含むものである。また、雨雪とは、雨滴、雪またはそれらが入り交じったものである。
【0020】
また、処理部30は、特徴量算出部32により算出された画像上の雨雪の特徴量に基づいて、実空間の雨雪の特徴量を決定する特徴量決定部(特徴量決定手段)33と、特徴量決定部33により決定された実空間の特徴量に基づいて、雨雪のウインド部への付着位置および付着時刻を推定する付着データ推定部(付着データ推定手段)34とを備えている。さらに、処理部30は、付着データ推定部34による推定結果に基づいて画像の補正を行う画像補正部(画像補正手段)35を備えている。
【0021】
また、上記画像処理装置1には、画像補正部35により補正された画像に基づいて、外部機器を制御する外部機器制御部40が接続されている。外部機器制御部40は、画像補正部35からの画像データに基づいて、例えば、ワイパや運転操作自体を制御するものである。
【0022】
図2は、本実施形態に係る画像処理装置1のフローチャートである。まず、撮影部10は、車両周囲を撮影して画像を取得する(ST1)。図3は、雨雪がウインド部に付着する様子を示す説明図である。図3に示すように、雨雪50は、略等速直線運動で落下する(時刻t1〜t4はすべて等間隔)。そして、雨雪50は、時刻t5においてウインド部51に付着する。撮影部10は、この等速直線運動の落下の様子(ウインド部51への付着を含む)を1秒間に1000枚程度撮影し、撮影画像のデータを処理部30に逐次出力している。
【0023】
なお、落下の際の雨雪50は、通常略円形であるが、或る一定以上の大きさを超えると空気抵抗を受けて、横に広がった楕円形状をなすようになる。また、実際の雨雪50は落下中に風等を受けるため水平方向に移動するが、本実施形態では、雨雪50の水平方向への移動を考慮しないものとする。撮影部10として高フレームレートの撮影手段を用いているため、雨雪50の水平方向への影響は極めて小さくなっているからである。また、車両走行時においては車両の走行速度に比べ、雨雪50の水平方向への移動量が極めて小さいからである。
【0024】
再度図2を参照して説明する。画像取得後、飛来物検出部31は、画像内の飛来物を検出して雨雪50と推定する(ST2)。詳しくは、飛来物検出部31は、飛来物を検出し、検出されたもの全てを雨滴か雪と推定する。そして、飛来物検出部31は、推定結果を特徴量算出部32に送信する。なお、飛来物検出部31は、推定結果と共に、撮影部10により連続的に取得される撮影画像を特徴量算出部32に出力する。
【0025】
その後、特徴量算出部32は、撮影部10により連続的に撮影された撮影画像および飛来物検出部31の検出結果とに基づいて、画像上での雨雪50の特徴量である位置、大きさおよび落下速度を算出する(ST3)。例えば、特徴量算出部32は、今回撮影された画像から、画像上での雨雪50の大きさおよび位置(撮像素子12の結像された大きさおよび位置に相当)を求め、今回および前回撮影された画像から位置の移動量を求め、この移動量と撮影部10の撮影間隔Δtとに基づいて落下速度(撮像素子12に結像された雨雪50の所定時間あたりの位置移動量に相当)を算出する。
【0026】
この際、特徴量算出部32は、画像上の雨雪50の大きさを、例えば雨雪50の外形の横幅から求めるようにしている。また、特徴量算出部32は、雨雪50の画像上の位置を、例えば雨雪50の円形状や楕円形状等の重心となる位置として特定する。また、ここで対象となる飛来物が画像上落下していないことが明らかな場合は、当該飛来物を雨雪以外の物として処理の対象外とする。
【0027】
特徴量の算出後、特徴量算出部32は、算出した特徴量の情報と、車速取得部20からの車速に関する情報とを特徴量決定部33に出力する。
【0028】
そして、特徴量決定部33は、これら情報を受信し雨雪50の大きさと落下速度との相関関係を示す落下速度関数を算出する。関数の算出後、特徴量決定部33は、雨雪50の落下速度関数と、雨雪50の大きさと落下速度との相関関係を示し且つ予め測定された雨雪50の実測落下速度特性との交点があるか否か判断する(ST4)。以下、この処理について詳しく説明する。
【0029】
図4は、落下速度関数と実測落下速度特性との交点を求める処理(ST4)の説明図であり、(a)は撮影部10から実空間の雨雪50までの距離等の関係を示し、(b)は撮影部10により連続的に得られる撮影画像の一例を示し、(c)は落下速度関数と実測落下速度特性との交点等を示している。なお、図4(b)では、説明を容易にするために、連続的に得られる撮影画像を重ね合わせて一画像にしたものを示している。
【0030】
撮影部10は、レンズ11を介して実空間の雨雪50を撮像素子12にて撮像する。このとき、図4(a)に示すように、実際の雨雪50の大きさをSとし、レンズ11から実際の雨雪50までの距離をZとし、撮像素子12からレンズ11までの距離をfとし、撮像素子12に結像された雨雪50の大きさをLとすると、実際の雨雪50の大きさSは、
【数1】
とすることができる。
【0031】
また、画像は撮影部10により一定時間ごとに取得されている。今、図4(b)に示すように、時刻tにおける画像上の雨雪50が、座標(x1,y1)の位置p1であるとする。そして、Δt秒後の画像上の雨雪50が、座標(x2,y2)の位置p2であるとする。そして、雨雪50の水平方向の移動を考慮しないことからx1=x2とすると、実際の雨雪50の落下速度vは、
【数2】
とすることができる。
【0032】
この式(2)に、式(1)を代入すると、実空間での雨雪50の落下速度vは、
【数3】
とすることができる。ここで、L1は、時刻tにおける画像上の雨雪50の大きさである。
【0033】
また、式(3)において、y1,y2,Δt,L1は既知の数であるため、実際の雨雪50の落下速度vは、
【数4】
とすることができる。この式(4)が、画像上から算出される実空間の雨雪50の落下速度関数である。なお、落下速度関数は、実空間の雨雪50までの距離Zが不明であるため、Sの1次式となっている。すなわち、距離Zが不明であると、図5に示すように、撮影部10に近い側(距離z1)の雨雪50の画像上での大きさが遠い側(距離z2)の雨雪50の画像上での大きさのz1/z2倍である場合、両者は同じ大きさとして撮影されるからであり、画像上からでは、小さい雨雪50が近くにある場合と、大きい雨雪50が遠くにある場合との見分けが付かないからである。このため、落下速度関数は、Sの1次式となってしまう。
【0034】
よって、特徴量決定部33は、実空間の特徴量を求めるために、落下速度関数だけでなく、実測落下速度特性も用いて、両者の交点αの値を実際の雨雪50の落下速度等とするようにしている(図4(c))。
【0035】
また、上記は車両停止中においての交点αの判断であったが、車両走行中においては、自車両が走行しているため、次のようにして交点αの判断を行う。
【0036】
車両が速度vsで走行している場合、Δt秒後における実空間の雨雪50の位置は、Z−vs・Δtとなるので、これを上記式(2)に当てはめると、
【数5】
とすることができる。
【0037】
そして、式(1)を用いると、式(5)は、
【数6】
とすることができる。ここで、y1,y2,L1,vs,Δtは既知の数であるため、式(6)は、
【数7】
とすることができる。この式(7)が車両走行中の落下速度関数である。
【0038】
特徴量決定部33は、車両が走行している場合、ステップST4において、この落下速度関数と、実測落下速度特性との交点を車両停車時と同様に求める(図4(c))。
【0039】
再び、図2を参照して説明する。落下速度関数と実測落下速度特性との交点がないと判断した場合(ST4:NO)、処理は終了する。一方、落下速度関数と実測落下速度特性との交点があると判断した場合(ST4:YES)、特徴量決定部33は、雨雪50の実空間の特徴量を決定する(ST5)。すなわち、上記式(4)または式(7)と実測落下速度特性との交点αから実空間の雨雪50の落下速度vおよび大きさSを求める。
【0040】
そして、特徴量決定部33は、実空間の雨雪50の大きさSを式(1)に代入して、撮影部10内のレンズから雨雪50までの距離Zを求め、雨雪50の位置を決定する。これにより、特徴量決定部33は、実空間における雨雪の特徴量(位置、落下速度、大きさ)を決定する。
【0041】
このように、特徴量決定部33は、画像上の雨雪の特徴量(大きさや落下速度)に基づいて、雨雪の実空間の特徴量(位置や落下速度)を求めていることになる。詳しくは、特徴量決定部33は、画像上の雨雪の特徴量(大きさや落下速度)に基づいて、実空間における雨雪の大きさと落下速度との相関を示す落下速度関数を求め、さらに、雨雪の大きさと落下速度との実際の相関を示す実測落下速度特性を用いて、雨雪の実空間の特徴量(位置や落下速度)を求めている。
【0042】
その後、付着データ推定部34は、求められた雨雪の特徴量に基づいて、ウインド部51への付着位置と付着時刻とを推定する(ST6)。ウインド部51への付着位置は、車両停止中の場合、雨雪50が垂直に落下しているとすると、雨雪50の実空間での位置により推定することができる。また、ウインド部51への付着時刻は、車両停止中の場合、雨雪50が垂直に落下しているとすると、雨雪50の実空間での位置と落下速度とにより推定できる。さらに、車両走行時においても、車速取得部20により取得された車速に関する情報に基づき、付着位置と付着時刻との推定が可能となる。
【0043】
その後、画像補正部35は、雨雪が雨滴か雪かを判断する(ST7)。この判断は、例えば交点αに基づいて判断することができる。すなわち、画像補正部35は、交点αが落下速度関数と雨滴の実測落下速度特性との交点である場合に雨雪を雨滴であると判断し、雪の実測落下速度特性との交点である場合に雨雪を雪であると判断する。
【0044】
雪であると判断した場合、画像補正部35は、雪の付着位置の画像を補正する(ST8)。具体的に画像補正部35は、雪の付着位置の画像を削除する。雪が付着した場合に画像を削除するのは、雪がウインド部51に付着して直ぐに溶けない場合などには、光路の変化による画像の歪み自体が発生しておらず、単に車両内部から外界が見えない状態になっているからである。そこで、ウインド部51に付着したものが雪である場合、画像補正部35は、撮影画像の雪付着部分を削除する補正を行うようにしている。そして、処理は終了する。
【0045】
一方、雨滴であると判断した場合、画像補正部35は、後述する拡大処理を行うか画像削除処理を行うかを判断する(ST9)。具体的に、画像補正部35は、ウインド部51に付着したにより、後述する拡大率が算出可能である場合には拡大処理を行うと判断し、拡大率が算出不可能である場合には削除処理を行うと判断する。削除処理を行うと判断した場合、処理は、ステップST8を経て終了する。ここで、ステップST7において雨滴であると判断されたのにもかかわらず、ステップST9において拡大率の算出不可能と判断される場合とは、例えば落下してくる雨雪が大きすぎて、拡大率が算出不可能な場合をいう。またこれに加えて、雨滴に塵などが入り交じり、非常に透明度が損なわれている場合なども拡大率が算出不可能として処理されることが考えられる。
【0046】
一方、拡大処理を行うと判断した場合、画像補正部35は、補正パラメータを算出し(ST10)、雨滴の付着位置の画像を拡大し(ST11)、処理は終了する。
【0047】
ここで、画像削除処理(ST8)および拡大処理(ST11)について詳説する。図6は、画像削除処理(ST8)および拡大処理(ST11)の説明図であり、(a)は画像削除の範囲と雨雪50の大きさとの関係を示しており、(b)は雨滴付着時の光路の様子を示しており、(c)は拡大処理(ST11)にて求められる拡大率と雨雪の大きさとの関係を示している。
【0048】
画像補正部35は、画像削除処理(ST8)において、雨雪付着部分の撮影画像をマスクするようにしている。マスクの範囲は、雨雪の大きさが大きいほど広くなるようにされている。具体的には、図6(a)に示すように、雨雪の大きさに比例するようにマスクの範囲が広くなっている。
【0049】
また、画像補正部35は、画像補正処理(ST11)において、雨滴付着部分の画像を拡大するようにしている。雨滴がウインド部51に付着すると、図6(b)に示すように、凸レンズと同じように作用して光を集光するようになる。このため、雨滴の付着部分については、車両外部の景色等は縮小して見えるようになる。従って、画像補正部35は、雨滴の付着部分を拡大するように補正する必要がある。
【0050】
この拡大する際、画像補正部35は、雨滴の大きさが大きいほど画像の拡大率を大きくしている。具体的には、図6(c)に示すように、雨滴の大きさに比例するように拡大率が大きくなっている。これは、雨滴の大きさが大きいほど、光を集光し雨滴付着部分の画像が小さく見える傾向にあるからである。
【0051】
なお、画像補正部35は、付着データ推定部34により付着時刻に基づいて、上記画像補正(削除および拡大の双方)を雨雪50のウインド部51への近接時または付着時に行うことが望ましい。近接時または付着時に行うことで、画像の補正を行うタイミングが早すぎることによる画像への悪影響を防止することができるからである。
【0052】
このようにして、本実施形態に係る画像処理装置1では、連続的に車両周辺を撮影して得られた撮影画像に基づいて、雨雪50の画像上での特徴量(大きさ、落下速度など)を算出し、これと予め測定された雨雪の実測落下速度特性とに基づいて、実空間での雨雪50の特徴量(位置、落下速度等)を決定する。そして、決定された実空間での雨雪50の特徴量(位置、落下速度)に基づいて、雨雪50のウインド部51への付着位置を推定する。つまり、本実施形態では、画像上における雨雪50の落下課程等を求め、画像上の落下課程等と、実測の落下速度特性とに基づき、実際の雨雪50の落下課程等を得ている。そして、実際の雨雪50の落下課程等から付着位置を推定している。
【0053】
このように、本実施形態では雨雪50の付着位置を推定することが可能となっている。このため、雨雪50が実際にウインド部51に付着する前であっても、推定された付着位置に基づく歪み除去を行うことで、除去に遅れが生じることなく、推定された付着位置の歪みを適切に除去することができる。
【0054】
また、本実施形態では、撮影部10によって得られた撮影画像から付着位置を推定している。このため、雨雪50の検出用に他の要素を設ける必要がなくなっている。
【0055】
従って、画像の歪みを好適に除去することが可能で、車両の各種機器を制御する場合には、全体としての構成の簡素化を図ることが可能となる。
【0056】
また、車速に関する情報を取得するので、車両停止時のみでなく、車両走行時においても雨雪50の付着位置および付着時刻を推定することが可能となり、利便性を向上させることができる。
【0057】
また、雨雪50の付着前に画像補正を行うということは、未だ雨雪が付着していないときの正常な画像に補正をかけることとなる。このため、画像補正のタイミングが早すぎると、画像に悪影響を及ぼしてしまう。ところが、本実施形態では、付着時刻に基づいて、画像補正のタイミングを雨雪50がウインド部51に近接したとき、または付着したときとするので、タイミングが早すぎることによる画像への悪影響を防止することができる。
【0058】
なお、本発明は、上記した実施形態に限られるものではない。例えば、付着した雨滴上に雨滴が飛来してくることもある。この場合、新たに飛来してきた雨滴の大きさは上記実施形態の手法により容易に決定できるので、すでに付着している雨滴に新たに飛来した雨滴の大きさを加算するようにしてもよい。
【0059】
また、本実施形態では、飛来物検出部31は、検出した飛来物をすべて雨雪50と推定するものであるが、これに限られるものではなく、例えば、テンプレートマッチングすることにより雨雪50を推定するようにしてもよい。すなわち、小さな雨雪50は空気抵抗が少なく撮影された雨雪50の画像は円形に近くなる。このため、飛来物検出部31に予め円形の画像を記憶しておき、テンプレートマッチングすることにより小さな雨雪50の推定を精度よく行うようにすることもできる。また、大きな雨雪50については、落下時に楕円形状となる傾向があることから、飛来物検出部31に予め楕円形状の雨雪の画像を記憶しておき、テンプレートマッチングするようにしてもよい。
【図面の簡単な説明】
【図1】本発明の実施形態に係る画像処理装置の構成図である。
【図2】本実施形態に係る画像処理装置のフローチャートである。
【図3】雨雪がウインド部に付着するときの様子を示す説明図である。
【図4】落下速度関数と実測落下速度特性との交点を求める処理(ST4)の説明図であり、(a)は撮影部10から実空間の雨雪50までの距離等の関係を示し、(b)は撮影部10により連続的に得られる撮影画像の一例を示し、(c)は落下速度関数と実測落下速度特性との交点等を示している。
【図5】雨雪が落下する際の様子を示す説明図である。
【図6】画像削除処理(ST8)および拡大処理(ST11)の説明図であり、(a)は画像削除の範囲と雨雪の大きさとの関係を示しており、(b)は雨滴付着時の光路の様子を示しており、(c)は拡大処理(ST11)にて求められる拡大率と雨雪の大きさとの関係を示している。
【符号の説明】
1 画像処理装置
10 撮影部(撮影手段)
20 車速取得部(車速取得手段)
31 飛来物検出部(雨雪推定手段)
32 特徴量算出部(特徴量算出手段)
33 特徴量決定部(特徴量決定手段)
34 付着データ推定部(付着データ推定手段)
35 画像補正部(画像補正手段)
50 雨雪
51 ウインド部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing device.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an image processing apparatus having a function of photographing an area around a vehicle by a camera or the like, performing image processing on an obtained photographed image, and controlling various devices of the vehicle based on a result of the image processing ( See, for example, Patent Document 1.
[0003]
However, in this device, when rain or snow is falling, if a raindrop or snow adheres to a lens of the camera or a window portion in front of the camera, the captured image is distorted. That is, a change in the optical path occurs due to, for example, raindrops acting as a convex lens, and the captured image is distorted.
[0004]
In order to remove the distortion of the captured image, it is necessary to detect rain and snow before the rain or snow adheres to the lens or the window, and to know the position of the lens or window where the rain or snow adheres. The reason that rain / snow is detected before attachment is that if rain / snow is detected after the attachment of rain / snow, the image has already been distorted due to raindrops, etc. at the time of rain / snow detection, causing a delay in removing the distortion. is there. Knowing the attachment position is important for specifying the distortion position in the image.
[0005]
On the other hand, as a detection device that detects raindrops and the like before attachment and specifies the attachment position, a light-emitting unit and a light-receiving unit that receives band-shaped light projected from the light-emitting unit are provided, and when raindrops or snow passes between them, Utilizing the fact that the characteristics of the band-shaped light changes, an apparatus has been proposed that can detect raindrops and snow before the raindrops adhere and also know the adhesion position of the raindrops and the like to some extent (for example, see Patent Document 2). ).
[0006]
Therefore, by using this apparatus, it is not necessary to add a function of removing distortion of a captured image to the image processing apparatus, and it is possible to preferably remove distortion.
[0007]
[Patent Document 1]
JP 2001-147278 A
[Patent Document 2]
JP-A-10-82741
[Problems to be solved by the invention]
However, when the image distortion is removed using the device described in Patent Document 2, elements such as a light projecting unit and a light receiving unit are required, and a function of removing the image distortion is incorporated in the image processing device. Compared with the case, the configuration as a whole becomes complicated.
[0010]
The present invention has been made to solve such a conventional problem, and an object thereof is to appropriately remove image distortion and to control various devices of a vehicle. An object of the present invention is to provide an image processing apparatus capable of simplifying the configuration as a whole.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, according to the present invention, the photographing unit continuously photographs the periphery of the vehicle, and the rain / snow estimation unit detects a flying object from a photographed image photographed by the photographing unit and estimates it as rain / snow. A feature amount calculating unit calculates a feature amount on the image of the rain and snow estimated by the rain and snow estimating unit based on the photographed images continuously photographed by the photographing unit; The feature amount on the image of the rain and snow calculated by the amount calculating means, and the correlation between the size and the falling speed of the rain and snow in the real space and based on the actually measured falling speed characteristics of the rain and snow measured in advance, The characteristic amount of rain and snow in the real space is determined, and the adhesion data estimating means determines the position of the rain and snow to be attached to the window based on the characteristic amount of rain and snow in the real space determined by the characteristic amount determining means. presume.
[0012]
【The invention's effect】
According to the present invention, a feature amount (for example, a position, a size, and a falling speed of rain and snow) on a rain and snow image is calculated based on a photographed image obtained by continuously photographing the periphery of a vehicle. Based on this and the actually measured falling snow velocity characteristics of rain and snow, the characteristic amount of rain and snow in the real space (for example, the position, size and falling speed of rain and snow) is determined. Then, based on the determined characteristic amount of rain and snow in the real space, the position where rain and snow adhere to the window is estimated. That is, in the present invention, the rainfall process of rain and snow on the image is obtained, and the actual rainfall process of rain and snow is obtained based on the fall process on the image and the actually measured fall velocity characteristics. Then, the attachment position is estimated from the actual falling process of rain and snow.
[0013]
As described above, according to the present invention, it is possible to estimate the attachment position of rain and snow. Therefore, even before rain or snow actually adheres to the window portion, by performing distortion removal based on the estimated attachment position, the distortion of the estimated attachment position can be appropriately adjusted without delay. Can be removed.
[0014]
Further, in the present invention, the attachment position is estimated from the photographed image obtained by the photographing means. Therefore, it is not necessary to provide another element for detecting rain and snow.
[0015]
Therefore, it is possible to preferably remove image distortion, and to control various devices of the vehicle, it is possible to simplify the overall configuration.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a preferred embodiment of the present invention will be described with reference to the drawings.
[0017]
FIG. 1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 1 includes a photographing unit (photographing means) 10 which is installed inside the vehicle and photographs the periphery of the vehicle every predetermined time. Further, the image processing apparatus 1 is configured to acquire information on a vehicle speed based on a vehicle speed acquisition unit (vehicle speed acquisition unit) 20, an image photographed by the photographing
[0018]
Here, the photographing
[0019]
The
[0020]
Further, the
[0021]
Further, an external
[0022]
FIG. 2 is a flowchart of the image processing apparatus 1 according to the present embodiment. First, the
[0023]
The rain /
[0024]
Description will be made with reference to FIG. 2 again. After acquiring the image, the flying
[0025]
Thereafter, the feature
[0026]
At this time, the feature
[0027]
After the calculation of the characteristic amount, the characteristic
[0028]
Then, the feature
[0029]
FIG. 4 is an explanatory diagram of a process (ST4) for obtaining an intersection between the falling speed function and the actually measured falling speed characteristic, and FIG. 4 (a) shows a relationship such as a distance from the photographing
[0030]
The
(Equation 1)
It can be.
[0031]
The images are acquired by the photographing
(Equation 2)
It can be.
[0032]
By substituting equation (1) into equation (2), the falling speed v of the rain /
[Equation 3]
It can be. Here, L1 is the size of rain /
[0033]
Further, in equation (3), since y1, y2, Δt, and L1 are known numbers, the actual falling speed v of the rain /
(Equation 4)
It can be. Equation (4) is a falling speed function of the rain /
[0034]
Therefore, the feature
[0035]
In the above description, the intersection α is determined while the vehicle is stopped. Since the own vehicle is running while the vehicle is traveling, the intersection α is determined as follows.
[0036]
When the vehicle is traveling at the speed vs, the position of the rain /
(Equation 5)
It can be.
[0037]
Then, using equation (1), equation (5) becomes
(Equation 6)
It can be. Here, since y1, y2, L1, vs, and Δt are known numbers, equation (6) is
(Equation 7)
It can be. This equation (7) is a falling speed function during the running of the vehicle.
[0038]
When the vehicle is running, in step ST4, the characteristic
[0039]
Description will be made again with reference to FIG. If it is determined that there is no intersection between the falling speed function and the measured falling speed characteristic (ST4: NO), the process ends. On the other hand, when it is determined that there is an intersection between the falling speed function and the measured falling speed characteristic (ST4: YES), the feature
[0040]
Then, the feature
[0041]
As described above, the feature
[0042]
Thereafter, the attachment
[0043]
Thereafter, the
[0044]
If it is determined that the snow is present, the
[0045]
On the other hand, when determining that the image is a raindrop, the
[0046]
On the other hand, if it is determined that the enlargement process is to be performed, the
[0047]
Here, the image deletion processing (ST8) and the enlargement processing (ST11) will be described in detail. FIGS. 6A and 6B are explanatory diagrams of the image deletion process (ST8) and the enlargement process (ST11). FIG. 6A shows the relationship between the range of image deletion and the size of the rain /
[0048]
The
[0049]
The
[0050]
At the time of enlargement, the
[0051]
It is desirable that the
[0052]
Thus, in the image processing apparatus 1 according to the present embodiment, the characteristic amounts (the size, the falling speed, etc.) on the image of the rain /
[0053]
As described above, in the present embodiment, it is possible to estimate the attachment position of the rain and
[0054]
Further, in the present embodiment, the attachment position is estimated from the photographed image obtained by the photographing
[0055]
Therefore, it is possible to preferably remove image distortion, and to control various devices of the vehicle, it is possible to simplify the overall configuration.
[0056]
Further, since the information on the vehicle speed is acquired, it is possible to estimate the attachment position and the attachment time of the rain /
[0057]
In addition, performing image correction before the attachment of rain and
[0058]
Note that the present invention is not limited to the above embodiment. For example, a raindrop may fly on the attached raindrop. In this case, since the size of the newly arriving raindrop can be easily determined by the method of the above embodiment, the size of the newly arriving raindrop may be added to the already attached raindrop.
[0059]
In the present embodiment, the flying
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart of the image processing apparatus according to the embodiment.
FIG. 3 is an explanatory diagram showing a state when rain and snow adhere to a window portion.
FIG. 4 is an explanatory diagram of a process (ST4) for obtaining an intersection between a falling speed function and an actually measured falling speed characteristic, where (a) shows a relationship such as a distance from the photographing
FIG. 5 is an explanatory view showing a state when rain and snow fall.
6A and 6B are explanatory diagrams of an image deletion process (ST8) and an enlargement process (ST11), wherein FIG. 6A shows a relationship between a range of image deletion and the size of rain and snow, and FIG. (C) shows the relationship between the enlargement ratio obtained in the enlargement process (ST11) and the size of rain and snow.
[Explanation of symbols]
1
20 Vehicle speed acquisition unit (vehicle speed acquisition means)
31 Flying object detector (rain / snow estimation means)
32 feature amount calculation unit (feature amount calculation means)
33 feature amount determination unit (feature amount determination means)
34 adhesion data estimation unit (adhesion data estimation means)
35 Image Correction Unit (Image Correction Means)
50 Rain and
Claims (4)
前記撮影手段により撮影される撮影画像から飛来物を検出して雨雪と推定する雨雪推定手段と、
前記撮影手段により連続的に撮影された撮影画像に基づいて、前記雨雪推定手段により推定された雨雪の画像上での特徴量を算出する特徴量算出手段と、
前記特徴量算出手段により算出された雨雪の画像上での特徴量、および実空間での雨雪の大きさと落下速度との相関を示し且つ予め測定された雨雪の実測落下速度特性に基づいて、雨雪の実空間での特徴量を決定する特徴量決定手段と、
前記特徴量決定手段により決定された雨雪の実空間での特徴量に基づいて、雨雪のウインド部への付着位置を推定する付着データ推定手段と、
を備えることを特徴とする画像処理装置。Photographing means for continuously photographing around the vehicle;
Rain / snow estimation means for detecting a flying object from a photographed image taken by the photographing means and estimating rain / snow,
A feature amount calculating unit that calculates a feature amount on the image of the rain and snow estimated by the rain and snow estimating unit, based on the photographed images continuously photographed by the photographing unit;
The feature amount on the image of the rain and snow calculated by the feature amount calculating means, and the correlation between the size and the falling speed of the rain and snow in the real space, and based on the measured falling speed characteristics of the rain and snow measured in advance. Feature amount determining means for determining a feature amount in the real space of rain and snow;
An adhesion data estimating means for estimating an adhesion position of rain and snow on a window portion based on the characteristic amount in the real space of rain and snow determined by the characteristic amount determining means,
An image processing apparatus comprising:
前記付着データ推定手段は、前記特徴量決定手段により決定された雨雪の実空間での特徴量に加え、前記車速取得手段に取得された車速に関する情報に基づいて、車両走行時における雨雪のウインド部への付着位置を推定することを特徴とする請求項1に記載の画像処理装置。Further provided is a vehicle speed acquisition means for acquiring information on the vehicle speed,
The adhesion data estimating means includes, in addition to the characteristic amount of the rain and snow in the real space determined by the characteristic amount determining means, based on the information about the vehicle speed acquired by the vehicle speed acquiring means, and The image processing apparatus according to claim 1, wherein a position of attachment to the window is estimated.
前記付着データ推定手段は、前記特徴量決定手段により決定された雨雪の実空間での特徴量に基づいて、雨雪のウインド部への付着時刻を推定し、
前記画像補正手段は、この付着時刻に基づいて、雨滴のウインド部への近接時または付着時に、補正を行うことを特徴とする請求項1に記載の画像処理装置。An image correcting unit that corrects a rain-and-snow-adhered portion in a photographed image taken by the photographing unit, based on the attachment position of the rain / snow estimated by the attachment data estimating unit;
The adhesion data estimation unit estimates the time of attachment of the rain and snow to the window based on the feature amount in the real space of rain and snow determined by the feature amount determination unit,
2. The image processing apparatus according to claim 1, wherein the image correction unit performs correction based on the adhesion time when the raindrop approaches or adheres to the window.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002381403A JP2004212184A (en) | 2002-12-27 | 2002-12-27 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002381403A JP2004212184A (en) | 2002-12-27 | 2002-12-27 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004212184A true JP2004212184A (en) | 2004-07-29 |
Family
ID=32817330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002381403A Pending JP2004212184A (en) | 2002-12-27 | 2002-12-27 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004212184A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010084521A1 (en) * | 2009-01-20 | 2010-07-29 | 本田技研工業株式会社 | Method and apparatus for identifying raindrops on a windshield |
JP2017090408A (en) * | 2015-11-17 | 2017-05-25 | 株式会社デンソーウェーブ | Window contamination discrimination device, window contamination discrimination method and window contamination discrimination program |
-
2002
- 2002-12-27 JP JP2002381403A patent/JP2004212184A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010084521A1 (en) * | 2009-01-20 | 2010-07-29 | 本田技研工業株式会社 | Method and apparatus for identifying raindrops on a windshield |
JP5216010B2 (en) * | 2009-01-20 | 2013-06-19 | 本田技研工業株式会社 | Method and apparatus for identifying raindrops on a windshield |
JP2017090408A (en) * | 2015-11-17 | 2017-05-25 | 株式会社デンソーウェーブ | Window contamination discrimination device, window contamination discrimination method and window contamination discrimination program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8233031B2 (en) | Object detecting system | |
JP4603970B2 (en) | Road marking line detection device | |
JP3151372B2 (en) | Moving object speed detecting apparatus and method | |
US10755124B2 (en) | Passenger counting device, system, method and program, and vehicle movement amount calculation device, method and program | |
WO2007111220A1 (en) | Road division line detector | |
JP2008523417A (en) | Method and apparatus for determining vehicle speed | |
JP2002099907A (en) | Object recognizing apparatus | |
JP2002099906A (en) | Object-recognizing device | |
JPH09189517A (en) | Imaging device | |
JP3747863B2 (en) | In-vehicle distance measuring device | |
JP5107154B2 (en) | Motion estimation device | |
CN108765462B (en) | Vehicle speed identification method | |
JP2003077099A (en) | Preceding vehicle recognition system | |
TW201929210A (en) | Semiconductor device, imaging system, and program | |
JP2002236927A (en) | Curved road recognizing method for lane modeling system | |
JP4100336B2 (en) | Image processing device | |
JP2004212184A (en) | Image processing apparatus | |
CN109309785B (en) | Imaging control device and imaging control method | |
JP2002232869A (en) | Calibration method for camera | |
JP7003972B2 (en) | Distance estimation device, distance estimation method and computer program for distance estimation | |
JP4069919B2 (en) | Collision determination device and method | |
JP2020201876A (en) | Information processing device and operation support system | |
JP2002098509A (en) | Vehicle detecting device | |
JP3501841B2 (en) | Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method | |
JP7380443B2 (en) | Partial image generation device and computer program for partial image generation |