JP4248570B2 - 画像処理装置並びに視界支援装置及び方法 - Google Patents

画像処理装置並びに視界支援装置及び方法 Download PDF

Info

Publication number
JP4248570B2
JP4248570B2 JP2006224429A JP2006224429A JP4248570B2 JP 4248570 B2 JP4248570 B2 JP 4248570B2 JP 2006224429 A JP2006224429 A JP 2006224429A JP 2006224429 A JP2006224429 A JP 2006224429A JP 4248570 B2 JP4248570 B2 JP 4248570B2
Authority
JP
Japan
Prior art keywords
image
bird
eye view
camera
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006224429A
Other languages
English (en)
Other versions
JP2008048345A (ja
Inventor
洋平 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006224429A priority Critical patent/JP4248570B2/ja
Priority to US11/842,685 priority patent/US7728879B2/en
Publication of JP2008048345A publication Critical patent/JP2008048345A/ja
Application granted granted Critical
Publication of JP4248570B2 publication Critical patent/JP4248570B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視界支援装置及び視界支援方法に関する。本発明は、特に、車両に設置された複数のカメラの撮像画像から鳥瞰図画像を生成し、各鳥瞰図画像を合成する技術に関する。また本発明は、視界支援装置に用いられる画像処理装置に関する。
自動車などの運転者にとって、バックするときには死角が生じるため後方確認が難しくなる。そこで、運転者の死角となりやすい車両の後方を監視する車載カメラを装備し、その撮像画像をカーナビゲーション等の画面に表示するシステムが既に開発されている。
また、カメラの映像を単に表示するのではなく、画像処理技術を利用して、より人間に優しい映像を見せる研究がなされている。その1つに、撮影した画像を座標変換することにより、地面の上方から眺めたような鳥瞰図画像を生成して表示するものがある。この鳥瞰図画像を表示することによって、運転者は車両後方の状況を把握し易くなる。
更に、複数のカメラから得た画像を幾何変換によって全周鳥瞰図画像に変換し、これを表示部に表示させる視界支援装置が開発されている(例えば、下記特許文献1及び2参照)。この視界支援装置では、車両全周の状況を上空から見た映像として運転者に提示することができるため、車両の周辺を360度死角なくカバーできるという長所がある。
この種の視界支援装置の従来例について説明する。図16は、車両100へのカメラの設置状況を表す、車両100を上方から見た平面図である。図17は、車両100を左斜め前方から見た図である。図17では、各カメラの視野(撮像領域)が模式的に表されている。車両100は、運転室と運転室より高さのある荷室とから形成されるトラックである。
図16に示す如く、車両100の前部、後部、左側部及び右側部に、夫々、カメラ(撮像装置)1F、1B、1L及び1Rが取り付けられている。カメラ1F、1B、1L及び1Rは、夫々、前カメラ、後カメラ、左横カメラ及び右横カメラに対応する。
視界支援装置では、各カメラより得た撮像画像から鳥瞰図画像を生成し、各鳥瞰図画像を合成することにより、図18に示すような全周鳥瞰図画像を表示装置に表示する。表示装置の表示画面上において、車両が中央に表示され、その車両の前方、後方、左側及び右側に、夫々、カメラ1F、1B、1L及び1Rから得た鳥瞰図画像が表示される。
ところで、各カメラの視野(撮像領域)には、図17に示すように重なり合う部分が存在する。例えば、車両100の左斜め前方の所定領域にて、カメラ1Fの視野とカメラ1Lの視野は重なり合う。この重なり合う部分は、図18の符号101が付された領域に対応する。通常、領域101には、カメラ1Fの撮像画像に基づく映像若しくはカメラ1Lの撮像画像に基づく映像又はそれらの平均化映像などが表示される。
この種の視界支援装置では、地表面で画像が連続性を持つように合成処理を行うため、地表面に描かれた駐車区画の線、標識、文字などは特に問題なく表示される。これは、図18の領域101でも同様である。しかし、地表面に置かれた立体物は、カメラの視点によって見え方が異なるため、それを全周鳥瞰図画像で正確且つ連続的に描写することは、原理的に困難である。
例えば、図19に示す如く、カメラ1Fの視野とカメラ1Lの視野が重なり合う部分(空間)に立体物102としての人物が存在していた場合を考える。この場合、カメラ1Fにて立体物102を撮像した画像から鳥瞰図画像を生成した場合、図20に示す如く、この鳥瞰図画像上で立体物102は左方向に倒れた画像となって表れる。一方、カメラ1Lにて立体物102を撮像した画像から鳥瞰図画像を生成した場合、図21に示す如く、この鳥瞰図画像上で立体物102は前方に倒れた画像となって表れる。
カメラ1Fから得た鳥瞰図画像とカメラ1Lから得た鳥瞰図画像を合成する際、図20及び図21に示すような合成境界103を定めて、両鳥瞰図画像を合成境界103にて単純に貼り合わせた場合、その合成によって得られる全周鳥瞰図画像において、立体物102が消失してしまうという問題がある。
この問題を解決するために、カメラ1Fから得た鳥瞰図画像とカメラ1Lから得た鳥瞰図画像とが重なる共通領域の画像を、両鳥瞰図画像を平均化することによって生成する、という手法が考えられる。しかしながら、このような平均化を採用すると、全周鳥瞰図画像において立体物が二重像として現れてしまう。また、二重像の各像は背景画像と平均化されるため、立体物と背景の色によっては、立体物が非常に見えにくくなってしまう。
また、下記特許文献1に記載の方法では、共通領域の画像としてカメラ1Fから得られた鳥瞰図画像のみを採用した全周鳥瞰図画像と、共通領域の画像としてカメラ1Lから得られた鳥瞰図画像のみを採用した全周鳥瞰図画像と、を別個に生成し、これら2種類の全周鳥瞰図画像を左右に並べて同時に表示する。この場合の表示画像は、図22の表示画像200のようになる。しかしながら、この方法では、運転者が確認すべき画像が複数枚、同時に表示されるため、混乱が生じて逆に安全性が損なわれる可能性もある。
また、共通領域の画像としてカメラ1Fから得られた鳥瞰図画像を採用するか或いはカメラ1Lから得られた鳥瞰図画像を採用するかを、手動によって或いは運転操作によって切替えるという方法も考えられる。この場合、図23に示す、表示画像201と表示画像202が切替えて表示されることになる。しかしながら、手動による切り替えは煩雑であり、また、運転操作のみに基づいて生成した映像が立体物を把握しやすい映像になるとは限らない。
特開2003−125224号公報 特開2004−235986号公報
これらの問題は、何れも、共通領域において優先的に表示すべき画像を決定することが困難であることに起因している。鳥瞰図の連続性を維持しつつ単一の映像で立体物を的確に描写するためには、何れのカメラが立体物をより的確に捉えているか(換言すれば、何れの鳥瞰図画像が立体物をより的確に表しているか)を判断してやる必要がある。
例えば、図19〜図21に示すような状況の場合、カメラ1Fは立体物102としての人物の下半身しか撮像できていない一方でカメラ1Lは人物の全体像を撮像することができている。これは、主として、運転室上部に設置されたカメラ1Fよりも荷室上部に設置されたカメラ1Lの方が、より高い位置から立体物(人物)102を捉えることができていることに起因する。このような場合は、カメラ1Lの撮影画像を優先的に用いた映像を表示した方が車両周辺の状況把握にとって望ましい。逆に、立体物102の位置によっては、カメラ1Fの撮影画像を優先的に用いた方が良い場合もある。
そこで本発明は、車両周辺などの状況把握にとってより適した合成鳥瞰図画像を表示することのできる視界支援装置及び視界支援方法を提供することを目的とする。また、本発明は、それらに用いられる画像処理装置を提供することを目的とする。
上記目的を達成するために本発明に係る画像処理装置は、n台の撮像装置(nは2以上の整数)によって撮像された画像の夫々を仮想視点から見た鳥瞰図画像に変換する視点変換手段と、得られた各鳥瞰図画像を合成して合成鳥瞰図画像を生成する画像合成手段と、を備え、前記合成鳥瞰図画像を表示装置に表示させるための映像信号を生成する画像処理装置において、前記画像合成手段は、合成の際に複数の鳥瞰図画像が重なり合う共通領域の画像を前記複数の鳥瞰図画像間で比較することにより、前記共通領域内における、前記複数の鳥瞰図画像間の差分領域を特定し、前記共通領域内における前記差分領域の位置に応じて、前記複数の鳥瞰図画像から1つの鳥瞰図画像を採用画像として選択し、前記合成鳥瞰図画像内の前記共通領域の画像として、前記採用画像内の前記共通領域の画像を採用することを特徴とする。
各カメラにとって、どのような位置の立体物を捉え易く、どのような位置の立体物を捉えにくいかは、各カメラの設置位置などに依存し、また、それらは異なるカメラ間で異なる。一方において、鳥瞰図画像の生成原理上、立体物は上記共通領域内で差分領域を形成する。そして、共通領域内における差分領域の位置は立体物の位置(実空間位置)に依存する。これを考慮し、立体物の位置(実空間位置)を反映した、共通領域内における差分領域の位置に応じて、上記採用画像を選択して合成鳥瞰図画像を生成するようにする。これにより、立体物をより的確に表していると予想される鳥瞰図画像が採用画像として選択され、車両周辺などの状況把握に適した映像を表示することが可能となる。
具体的には例えば、前記複数の鳥瞰図画像の夫々に対して、前記共通領域の画像の各画素位置に対応する重み値が設定され、前記複数の鳥瞰図画像間で、設定される前記重み値の一部又は全部は異なり、前記画像合成手段は、前記複数の鳥瞰図画像の夫々に関して、前記差分領域に含まれる画素に対応する前記重み値を合算して合算値を算出し、各合算値に基づいて前記採用画像を選択する。
そしてより具体的には例えば、前記画像合成手段は、前記複数の鳥瞰図画像間で前記合算値を比較することにより、前記採用画像を選択する。
また具体的には例えば、前記n台の撮像装置は、車両に設置され且つ車両周辺を撮像し、前記画像合成手段は、各合算値に加えて前記車両の運転状態にも基づいて、前記採用画像を選択するようにしてもよい。
これにより、運転状態をも考慮した適切な映像を表示することが可能となる。
また例えば、前記重み値は、前記複数の鳥瞰図画像に対応する複数の撮像装置の設置位置に基づいて設定される。
そして、上記画像処理装置と、前記n台の撮像装置、及び、前記表示装置の内の少なくとも一方と、を備えた視界支援装置を構成するとよい。
また、上記目的を達成するために本発明に係る視界支援方法は、n台の撮像装置(nは2以上の整数)によって撮像された画像の夫々を仮想視点から見た鳥瞰図画像に変換し、得られた各鳥瞰図画像を合成した合成鳥瞰図画像を表示装置に表示させる視界支援方法において、合成の際に複数の鳥瞰図画像が重なり合う共通領域の画像を前記複数の鳥瞰図画像間で比較することにより、前記共通領域内における、前記複数の鳥瞰図画像間の差分領域を特定し、前記共通領域内における前記差分領域の位置に応じて、前記複数の鳥瞰図画像から1つの鳥瞰図画像を採用画像として選択し、前記合成鳥瞰図画像内の前記共通領域の画像として、前記採用画像内の前記共通領域の画像を採用することを特徴とする。
本発明によれば、車両周辺などの状況把握にとってより適した合成鳥瞰図画像を表示することができる。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。
[鳥瞰図画像の生成方法]
まず、1台のカメラによって撮像された撮像画像から鳥瞰図画像を生成する方法について説明する。尚、以下の説明において、地面は水平面上にあるものとし、「高さ」は、地面を基準とした高さを表すものとする。
図1に示すように、車両100の後部に後方斜め下向きにカメラ1が配置されている場合を考える。車両100は、例えばトラックである。水平面とカメラ1の光軸とのなす角は、図1にθで表される角度と、θ2で表される角度との2種類がある。角度θ2は、一般的には、見下ろし角または俯角と呼ばれている。今、角度θを、水平面に対するカメラ1の傾き角度として捉える。90°<θ<180°、が成立する。
図2は、カメラ座標系XYZと、カメラ1の撮像面Sの座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w との関係を示している。カメラ座標系XYZは、X軸、Y軸及びZ軸を座標軸とする三次元の座標系である。座標系Xbubuは、Xbu軸及びYbu軸を座標軸とする二次元の座標系である。2次元地面座標系Xw wは、Xw軸及びZw軸を座標軸とする二次元の座標系である。世界座標系Xw wwは、Xw軸、Yw軸及びZw軸を座標軸とする三次元の座標系である。
カメラ座標系XYZでは、カメラ1の光学中心を原点Oとして、光軸方向にZ軸が、Z軸に直交しかつ地面に平行な方向にX軸が、Z軸およびX軸に直交する方向にY軸がとられている。撮像面Sの座標系Xbubuでは、撮像面Sの中心に原点をとり、撮像面Sの横方向にXbu軸が、撮像面Sの縦方向にYbu軸がとられている。
世界座標系Xw w w では、カメラ座標系XYZの原点Oを通る鉛直線と地面との交点を原点Ow とし、地面と垂直な方向にYw 軸が、カメラ座標系XYZのX軸と平行な方向にXw 軸が、Xw 軸およびYw 軸に直交する方向にZw 軸がとられている。
w 軸とX軸との間の平行移動量はhであり、その平行移動の方向は鉛直線方向である。そして、Zw 軸とZ軸との成す鈍角の角度は、傾き角度θと一致する。
カメラ座標系XYZにおける座標を(x,y,z)と表記する。x、y及びzは、夫々、カメラ座標系XYZにおける、X軸成分、Y軸成分及びZ軸成分である。
世界座標系系Xw w wにおける座標を(xw ,yw ,zw )と表記する。xw 、yw 及びzwは、夫々、世界座標系系Xw w wにおける、Xw軸成分、Yw軸成分及びZw軸成分である。
二次元地面座標系Xw w における座標を(xw ,zw )と表記する。xw及びzwは、夫々、二次元地面座標系Xw wにおける、XW軸成分及びZW軸成分であり、それらは世界座標系系Xw w wにおけるXW軸成分及びZW軸成分と一致する。
撮像面Sの座標系Xbubuにおける座標を(xbu,ybu)と表記する。xbu及びybuは、夫々、撮像面Sの座標系Xbubuにおける、Xbu軸成分及びYbu軸成分である。
カメラ座標系XYZの座標(x,y,z)と世界座標系Xw w w の座標(xw ,yw ,zw )との間の変換式は、次式(1)で表される。
Figure 0004248570
ここで、カメラ1の焦点距離をfとする。そうすると、撮像面Sの座標系Xbubuの座標(xbu,ybu)と、カメラ座標系XYZの座標(x,y,z)との間の変換式は、次式(2)で表される。
Figure 0004248570
上記式(1)及び(2)から、撮像面Sの座標系Xbubuの座標(xbu,ybu)と二次元地面座標系Xw w の座標(xw ,zw )との間の変換式(3)が得られる。
Figure 0004248570
また、図2には示されていないが、鳥瞰図画像についての座標系である鳥瞰図座標系Xauauを定義する。鳥瞰図座標系Xauauは、Xau軸及びYau軸を座標軸とする二次元の座標系である。鳥瞰図座標系Xauauにおける座標を(xau,yau)と表記する。鳥瞰図画像は、二次元配列された複数の画素の画素信号によって表され、鳥瞰図画像上における各画素の位置は座標(xau,yau)によって表される。xau及びyauは、それぞれ鳥瞰図座標系XauauにおけるXau軸成分及びYau軸成分である。
鳥瞰図画像は、実際のカメラの撮像画像を仮想カメラの視点(以下、仮想視点という)から見た画像に変換したものである。より具体的には、鳥瞰図画像は、実際のカメラの撮像画像を、地上面を鉛直方向に見下ろした画像に変換したものである。撮像画像から鳥瞰図画像を生成する際の視点の変換は、一般に、視点変換と呼ばれる。
二次元地面座標系Xw w から仮想カメラの鳥瞰図座標系Xauauへの投影は、平行投影によって行われる。仮想カメラの高さ(即ち、仮想視点の高さ)をHとすると、二次元地面座標系Xw w の座標(xw ,zw )と鳥瞰図座標系Xauauの座標(xau,yau)との間の変換式は、次式(4)で表される。仮想カメラの高さHは予め設定されている。更に、式(4)を変形することにより、下式(5)が得られる。
Figure 0004248570
Figure 0004248570
得られた式(5)を上記式(3)に代入すると、次式(6)が得られる。
Figure 0004248570
上記式(6)から、撮像面Sの座標系Xbubuの座標(xbu,ybu)を、鳥瞰図座標系Xauauの座標(xau,yau)に変換するための次式(7)が得られる。
Figure 0004248570
撮像面Sの座標系Xbubuの座標(xbu,ybu)は、カメラ1の撮像画像における座標を表すため、上記式(7)を用いることによってカメラ1の撮像画像は鳥瞰図画像に変換される。実際には、カメラ1の撮像画像に対して、適宜、レンズ歪み補正などの画像処理を施し、その画像処理後の撮像画像を上記式(7)を用いて鳥瞰図画像に変換する。
[全周鳥瞰図画像の生成方法の基本的な考え方]
本実施形態において、車両100へのカメラの設置状況を表す平面図は上述の図16と同じであるので、重複する図示を割愛する。図3及び図4は、車両100を左斜め前方から見た図である。
図16に示す如く、車両100の前部、後部、左側部及び右側部に、夫々、カメラ(撮像装置)1F、1B、1L及び1Rが取り付けられている。以下の説明において、カメラ1F、1B、1L及び1Rを、夫々、前カメラ1F、後カメラ1B、左横カメラ1L及び右横カメラ1Rと呼ぶこともある。
また、図3及び図4に示す如く、カメラ1Fは、例えば車両100のフロントミラー上部に設置され、カメラ1Lは、例えば車両100の左側面の最上部に設置される。図3及び図4には示されていないが、カメラ1Bは、例えば車両100の後部の最上部に設置され、カメラ1Rは、例えば車両100の右側面の最上部に設置される。
カメラ1Fの光軸が車両100の前方斜め下向きになるように、且つ、カメラ1Bの光軸が車両100の後方斜め下向きになるように、且つ、カメラ1Lの光軸が車両100の左方斜め下向きになるように、且つ、カメラ1Rの光軸が車両100の右方斜め下向きになるように、カメラ1F、1B、1L及び1Rは車両100に設置される。
カメラ1L及び1Rの高さは、カメラ1Fの高さよりも高いものとする。また、車両100は、地面上に位置するものとする。
図3及び図4には、各カメラの視野、即ち、各カメラの撮像領域が示されている。各カメラは、自身の視野内の被写体を撮像した撮像画像を生成する。カメラ1F、1B、1L及び1Rの視野を、夫々、12F、12B、12L及び12Rにて表す。尚、視野12R及び12Bに関しては、図3及び図4において一部しか示されていない。
カメラ1Fの視野12Fには、カメラ1Fの設置位置を基準とした、車両100の前方の所定範囲内に位置する立体物及び車両100の前方の地面が含まれる。
カメラ1Bの視野12Bには、カメラ1Bの設置位置を基準とした、車両100の後方の所定範囲内に位置する立体物及び車両100の後方の地面が含まれる。
カメラ1Lの視野12Lには、カメラ1Lの設置位置を基準とした、車両100の左方の所定範囲内に位置する立体物及び車両100の左方の地面が含まれる。
カメラ1Rの視野12Rには、カメラ1Lの設置位置を基準とした、車両100の右方の所定範囲内に位置する立体物及び車両100の右方の地面が含まれる。
このように、各カメラの視点は異なり、各カメラの視野(画角)内に収まる被写体は異なる。また、立体物とは、人物などの高さのある物体である。地面を形成する路面などは、高さがないため立体物ではない。
カメラ1Fと1Lは、車両100の左斜め前方の所定領域を共通して撮像する。つまり、車両100の左斜め前方の所定領域にて視野12F及び12Lは重なり合う。この重なり合う部分を、共通視野(共通撮像空間)と呼ぶこととする。
同様に、車両100の右斜め前方の所定領域にて視野12Fと12Rは重なり合ってそれらの共通視野が形成され、車両100の左斜め後方の所定領域にて視野12Bと12Lは重なり合ってそれらの共通視野が形成され、車両100の右斜め後方の所定領域にて視野12Bと12Rは重なり合ってそれらの共通視野が形成される。
視野12Fと12Lとの間の共通視野を特に共通視野13と呼び、この共通視野13に着目して以下の説明を行うものとする。共通視野13以外の共通視野に関しても同様の処理が行われる。
図4には、共通視野13が太線を用いて示されている。共通視野13は、車両100の左斜め前方の地面を底面とする円錐に類似した空間となっている。図4に示す如く、この共通視野13内に立体物14が存在するものとする。
本実施形態では、図5に示す如く、カメラ1F、1B、1L及び1Rから得られる撮像画像から、夫々、上記式(7)を用いて鳥瞰図画像10F、10B、10L及び10Rを生成する。次に、カメラ1Bに対応する鳥瞰図画像10Bを基準として、他の3つの鳥瞰図画像10F、10L及び10Rを回転及び/又は平行移動することにより、それら(10F、10L及び10R)を鳥瞰図画像10Bにおける座標に変換する。これにより、各鳥瞰図画像の座標が、全周鳥瞰図画像における座標に変換される。以下、全周鳥瞰図画像における座標を、「全周鳥瞰図座標」とよぶ。
図6に、全周鳥瞰図座標上に表された鳥瞰図画像10F、10B、10L及び10Rを示す。全周鳥瞰図座標で考えた場合、図6に示す如く、2つの鳥瞰図画像が重なり合う部分が存在する。
図6において、CFLの符号が付された斜線領域が、全周鳥瞰図座標上において鳥瞰図画像10Fと10Lが重なり合う部分であり、これを共通領域CFLと呼ぶ。鳥瞰図画像10Fにおいて、共通領域CFLにはカメラ1Fから見た共通視野13(図4参照)内の被写体の画像が現れ、鳥瞰図画像10Lおいて、共通領域CFLにはカメラ1Lから見た共通視野13内の被写体の画像が現れる。尚、共通領域は、複数の鳥瞰図画像が重複する重複領域と呼ぶこともできる。
共通領域CFL以外に、鳥瞰図画像10Fと10Rが重なり合う共通領域CFRと、鳥瞰図画像10Bと10Lが重なり合う共通領域CBLと、鳥瞰図画像10Bと10Rが重なり合う共通領域CBRとがあるが、特に、共通視野13に対応する共通領域CFLに着目して本実施形態の説明を行うこととする。
尚、図5及び図6において、XF軸及びYF軸は、鳥瞰図画像10Fの座標系の座標軸であり、それらは、Xau軸及びYau軸に対応する。同様に、XR軸及びYR軸は、鳥瞰図画像10Rの座標系の座標軸であり、それらは、Xau軸及びYau軸に対応する。同様に、XL軸及びYL軸は、鳥瞰図画像10Lの座標系の座標軸であり、それらは、Xau軸及びYau軸に対応する。同様に、XB軸及びYB軸は、鳥瞰図画像10Bの座標系の座標軸であり、それらは、Xau軸及びYau軸に対応する。
また、図6では、図示の簡略化上、共通領域CFLを矩形としているが、実際には共通領域CFLは矩形とはならない。また、各鳥瞰図画像も矩形になるとは限らない。図7に、各鳥瞰図画像が現れる領域及び共通領域CFLを、より具体的に示す。図7(a)及び(b)は、夫々、全周鳥瞰図座標における鳥瞰図画像10L及び10Fを表し、図7(c)では、それらの共通領域CFLが斜線領域にて示されている。但し、図7(a)及び(c)において、車両の後部よりの画像の図示を省略している。この共通領域CFLにおいて、2つの鳥瞰図画像を如何に合成するかが本実施形態の特徴である。
[全周鳥瞰図画像の具体的な生成方法]
図8に、本実施形態に係る視界支援装置(車両周辺視界支援装置)の全体構成図を示す。本実施形態に係る視界支援装置は、上述の如く車両100に取り付けられるカメラ1F、1B、1L及び1Rと、それらの各カメラにて得られる撮像画像から全周鳥瞰図画像を生成する画像処理部2と、画像処理部2によって生成された全周鳥瞰図画像を表示する表示部3と、を備える。全周鳥瞰図画像は、基本的には、図18に示すものと同様である。但し、本実施形態では、上述の共通領域における合成手法に特徴がある。
カメラ1F、1B、1L及び1Rとして、例えばCCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。画像処理部2は、例えば集積回路から形成される。表示部3は、液晶ディスプレイパネル等から形成される。カーナビゲーションシステムなどに含まれる表示装置を、視界支援装置における表示部3として流用しても良い。
図9に、図8の視界支援装置の処理手順を表すフローチャートを示す。図9に示すステップS2〜S6の処理は画像処理部2によって実施され、ステップS1の処理は各カメラと画像処理部2によって実施され、ステップS7の処理は画像処理部2と表示部3によって実施される。
まず、画像処理部2は、各カメラ1F、1B、1L、1Rの撮像画像を読み込む(ステップS1)。次に、各撮像画像を、変換テーブルデータなどを用いて鳥瞰図画像に変換する(ステップS2)。これによって、上述の鳥瞰図画像10F、10B、10L及び10Rが生成される。変換テーブルデータは、上記式(7)に従って予め設定される。尚、この際、各撮像画像にレンズ歪み補正などの必要な画像処理を施してから、鳥瞰図画像に変換するようにしてもよい。
続いて、ステップS3において、2つの鳥瞰図画像間の共通領域での差分画像を生成し、該差分画像を基に、2つの鳥瞰図画像間の共通領域における差分領域を検出する。図6を参照して説明したように共通領域は4つ存在するが、共通領域CFLに特に着目して説明を行うものとする。他の共通領域についても同様の処理が施される。
共通領域CFLに関する差分画像及び差分領域について説明する。上述したように、共通領域CFLに対応する共通視野13に、立体物14が存在するものとする(図4参照)。
図10を参照する。図10において、符号111は、左横カメラ1Lに対応する鳥瞰図画像10L内の共通領域CFLの画像を表し、符号112は、前カメラ1Fに対応する鳥瞰図画像10F内の共通領域CFLの画像を表す。画像111内の斜線が付された領域121は、画像111における立体物14の描画領域であり、画像112内の斜線が付された領域122は、画像112における立体物14の描画領域である。今、説明の簡略化上、画像111において、領域121以外は一様な地面(路面など)が描画されているものとし、画像112において、領域122以外は一様な地面(路面など)が描画されているものとする。
ステップS3において、画像処理部2は、画像111と画像112の差分をとることにより、差分画像113を生成する。例えば、画像111及び112を濃淡画像として捉え、画像111と画像112の差分画像113を濃淡画像として生成する。差分画像113の各画素の画素値(画素信号の値)は、画像111の各画素の画素値と画像112の各画素の画素値の差(或いは差の絶対値)にて表される。そして、差分画像113から差分領域123を特定する。図10において、差分領域123は、差分画像113内の、斜線が付された領域である。例えば、差分画像113において、差分画像113を形成する画素の画素信号の値が所定の閾値以上となっている領域を差分領域123とする。画素信号とは、画素の輝度を表す輝度信号、または、画素の色を表す色信号(色差信号など)である。
差分領域123は、領域121と領域122を合わせた領域となる。鳥瞰図画像への変換の際、各鳥瞰図画像が地表面において連続性を有するように所定の変換が行われるため、差分画像113では、立体物の存在に関与する領域にのみ或る程度の大きさを有する差分値が得られる。このため、上述の処理によって差分領域123を検出することが可能である。また、差分画像113において、エッジ検出を行って差分領域123を囲む輪郭を検出し、検出された輪郭の内側を差分領域123として特定するようにしても良い。また、画像111の画像112の夫々において個別にエッジ検出を行って、画像111と画像112の間におけるエッジ検出結果(エッジの有無)の相違を抽出し、相違のある画像部分から差分領域123を検出するようにしてもよい。
ステップS3に続くステップS4の処理について説明する。共通領域CFLを例にとり、ステップS4の処理について説明する。他の共通領域についても同様の処理が施される。
ステップS4では、カメラごとに設定された重み値テーブルデータが参照される。共通領域CFLに関しては、前カメラ1Fに対応する重み値テーブルデータと、左横カメラ1Lに対応する重み値テーブルデータが、予め設定されている。
各重み値テーブルデータには、共通領域CFLの画像の各画素位置に対応する重み値が定義されている。例えば、共通領域CFLを、図11に示す如く、3つの領域AR1、AR2及びAR3に分割する。そして、領域AR1に属する画素の重み値と、領域AR2に属する画素の重み値と、領域AR3に属する画素の重み値と、が各重み値テーブルデータに格納される。
共通領域CFLの画像の画素位置との関係で定まる重み値は、異なる重み値テーブルデータ間で異なるように設定されている。図12に、前カメラ1Fに対応する重み値及び左横カメラ1Lに対応する重み値の設定例を示す。例えば、前カメラ1Fに対応する重み値テーブルデータにおいて、領域AR1に属する画素の重み値WF1は1とされ、領域AR2に属する画素の重み値WF2は2とされ、領域AR3に属する画素の重み値WF3は3とされる。一方、左横カメラ1Lに対応する重み値テーブルデータにおいて、領域AR1に属する画素の重み値WL1は2とされ、領域AR2に属する画素の重み値WL2は3とされ、領域AR3に属する画素の重み値WL3は2とされる。
ステップS4では、カメラごと(換言すれば、鳥瞰図画像ごと)に、差分領域123に属する画素に対応する重み値を合算し、その合算値を重み評価値とする。説明の便宜上、図13に示す如く、差分領域123を、領域121(図10参照)に対応する一部差分領域123aと領域122に対応する一部差分領域123bとに分解して考える。
図14に、各領域AR1〜AR3に属する、一部差分領域123a内の画素数及び一部差分領域123b内の画素数を示す。今、領域AR1、AR2及びAR3に属する、一部差分領域123a内の画素数が、夫々15、18及び2であるとし、領域AR1、AR2及びAR3に属する、一部差分領域123b内の画素数が、夫々12、5及び0であるとする。
この場合、前カメラ1Fに関する重み評価値は、
「WF1×(15+12)+WF2×(18+5)+WF3×(2+0)」にて表され、
上述の如く“WF1=1、WF2=2、WF3=3”とした場合、「1×(15+12)+2×(18+5)+3×(2+0)=79」となる。
一方、左横カメラ1Lに関する重み評価値は、
「WL1×(15+12)+WL2×(18+5)+WL3×(2+0)」にて表され、
上述の如く“WL1=2、WL2=3、WL3=2”とした場合、「2×(15+12)+3×(18+5)+2×(2+0)=127」となる。
ステップS4に続くステップS5では、ステップS4にて算出された重み評価値に基づいて、共通領域の画像として採用されるべき画像を含む鳥瞰図画像を提供する優先カメラを選択する。上述のように、共通領域CFLに関し、前カメラ1Fに関する重み評価値が79且つ左横カメラ1Lに関する重み評価値が127である場合、大きい方の重み評価値に対応する左横カメラ1Lが優先カメラとして選択される。換言すれば、左横カメラ1Lに対応する鳥瞰図画像10Lが採用鳥瞰図画像(採用画像)として選択される。他の共通領域に対しても同様に優先カメラが選択される。
そして、ステップS6において、画像処理部2は、優先カメラの選択結果に基づき、全周鳥瞰図画像を生成する。つまり、全周鳥瞰図画像内の共通領域の画像として優先カメラの撮像画像に基づく鳥瞰図画像内の共通領域の画像を採用した上で、全周鳥瞰図画像を生成する。例えば、共通領域CFLに関し、左横カメラ1Lが優先カメラとして選択された場合は、鳥瞰図画像10L内の共通領域CFLの画像を、全周鳥瞰図画像内の共通領域CFLの画像とする。他の共通領域についても同様である。
図15に、得られた全周鳥瞰図画像の例を示す。この全周鳥瞰図画像には、立体物の全体像が現れている。全周鳥瞰図画像内の共通領域以外の画像に関しては、図6に示すように鳥瞰図画像10F、10B、10L及び10Rが配置される。即ち、全周鳥瞰図画像上において、車両の描画領域の前方、後方、左方及び右方に、夫々、鳥瞰図画像10F、10B、10L及び10Rに基づく画像が描画される。
ステップS6に続くステップS7において、画像処理部2は、ステップS6で生成した全周鳥瞰図画像が表示部3に表示されるように必要な映像信号を生成して表示部3に出力する。これにより、図15に示されるような全周鳥瞰図画像が表示部3に表示される。ステップS7を終えるとステップS1に戻り、全周鳥瞰図画像を周期的に最新の画像に更新するべくステップS1〜S7の処理が繰り返される。
上述の重み値は、車両100に対する各カメラの設置位置に応じて設定される。この際、車両100の形状なども考慮される。本実施形態では、図3に示す如く、車両100が運転室と運転室より高さのある荷室とから形成されるトラックであり、前カメラ1Fが運転室の上部に設置され且つ左横カメラ1Lがより高い位置となる荷室の上部に設置される場合を想定している。
前カメラ1Fは、自身に近い位置の立体物を的確に捉えることができる一方で設置位置が低いことに起因して自身から離れた位置の立体物の全体像を捉えにくい。他方、左横カメラ1Lは、立体物をより高い位置から見ることにより立体物の全体像を捉えやすいものの、立体物が前カメラ1Fに近い位置にある場合は、その立体物の全体像を捉え難くなる。
これらを考慮し、前カメラ1Fに比較的近い位置に立体物が存在する場合に前カメラ1Fが優先カメラとして選択されやすいように、図12に示す如く、前カメラ1Fに近い領域において、前カメラ1F用の重み値を比較的大きく設定する。一方、前カメラ1Fから離れた位置に立体物が存在する場合に左横カメラ1Lが優先カメラとして選択されやすいように、前カメラ1Fから離れた領域において、左横カメラ1L用の重み値を比較的大きく設定する。
このように、重み値を各カメラの設置位置などに応じて設定することにより、図15に示すように立体物の全体像が表示されやすくなる。つまり、運転者が車両周辺の状況を把握しやすい画像が取得できると予想されるカメラが自動的に選択されて、全周鳥瞰図画像内の共通領域の画像が形成されるため、従来よりも状況把握に適した映像を表示することが可能となる。
共通領域内における差分領域の位置及び形状が異なれば、選択される優先カメラは異なりうる。また、差分領域の形状が同じであっても、共通領域内における差分領域の位置が異なれば、選択される優先カメラは異なりうる。つまり、本実施形態では、共通領域内における差分領域の位置に応じて(換言すれば、車両100との関係における立体物の位置に応じて)、優先カメラを選択する。この選択手法を採用することの利点は上述の説明から理解される。即ち、例えば、共通領域CFLに関し、前カメラ1Fに比較的近い位置に立体物が存在する場合は前カメラ1Fが優先カメラとして選択されやすくなり、カメラ1Fから比較的離れた位置に立体物が存在する場合は立体物をより高い位置から見る横カメラ1Lが優先カメラとして選択されやすくなる。この結果、従来よりも状況把握に適した映像を表示することが可能となる。
また、ステップS5において、車両100の運転状態に応じて上述の各重み評価値を補正し、補正された各重み評価値に基づいて優先カメラ(優先鳥瞰図画像)を選択するようにしてもよい。
運転状態とは、車両100のギアの状態、ハンドルの操作方向(車両100の進行方向)、速度などを含む。運転状態に関する情報は、該情報を検出するための部位(該部位は、例えば車両100に備えられる)から画像処理部2に与えられる。
この補正前の前カメラ1F及び左横カメラ1Lの重み評価値を、上述の例の如く、夫々、79及び127とした場合を考える。例えば、車両100が左折している際には、前カメラ1Fに関する重み評価値に係数1を乗じ、左横カメラ1Lに関する重み評価値に係数2を乗じる。この場合、補正後の前カメラ1F及び左横カメラ1Lの重み評価値は、夫々、79(=79×1)及び254(=127×2)となり、79<254であるため、左横カメラ1Lが優先カメラとして選択される。また例えば、車両100が前進している際には、前カメラ1Fに関する重み評価値に係数2を乗じ、左横カメラ1Lに関する重み評価値に係数1を乗じる。この場合、補正後の前カメラ1F及び左横カメラ1Lの重み評価値は、夫々、158(=79×2)及び127(=127×1)となり、158>127であるため、前カメラ1Fが優先カメラとして選択される。
車両100が左折している際には、車両100の左側の映像の必要性は比較的大きい一方で車両100の前方の映像の必要性は比較的小さい。車両100が前進している際には、車両100の左側の映像の必要性は比較的小さい一方で車両100の前方の映像の必要性は比較的大きい。これを考慮し、上述のように係数を設定して各重み評価値を補正する。これにより、運転状態をも考慮した適切な映像を表示することが可能となる。
尚、左折と前進に関して例示したが、右折や後退などの運転状態に応じても同様の考え方で重み評価値は補正される。また、車両100のギアの状態や速度などに応じて、補正の程度などを変化させてもよい。
上述の視界支援装置は、本発明の実施形態の例に過ぎず、本発明は、様々な変形例(又は実施例)を含む。以下に、本発明に関する変形例(又は実施例)として、変形例1〜変形例5を例示する。各変形例に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[変形例1]
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の重み値は、各カメラの設置位置や各カメラが設置される車両の形状などに応じて適宜変更される。
[変形例2]
共通領域CFLを3つの領域AR1〜AR3に分割する例を示したが、分割する領域の数は3以外であっても良い。また、カメラ1Fと1L(鳥瞰図画像10Fと10L)との間で、共通領域CFLの領域の分割の仕方が同じである場合を例示したが、異なるカメラ間で該分割の仕方が異なっていても構わない。
また、このような領域の分割は必須ではない。つまり、共通領域CFLの画像の各画素の画素位置に対応して重み値が定まればよいのであり、極端には、異なる任意の2つの画素位置に対応する重み値が全て異なっていても良い。
また、図12に示す重み値の設定例では、同一の画素位置に対応する重み値は、カメラ1Fと1L(鳥瞰図画像10Fと10L)との間で全て異なっているが、一部のみが異なるようにしても構わない。
[変形例3]
また、図8の画像処理部2は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。画像処理部2にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをコンピュータ上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
[変形例4]
画像処理部2は、各カメラの撮像画像の夫々を、視点変換によって鳥瞰図画像に変換する視点変換手段と、その変換によって得られた各鳥瞰図画像を合成することにより合成鳥瞰図画像を生成する画像合成手段と、を備えている。合成鳥瞰図画像として、上述の実施形態では全周鳥瞰図画像を例示している。
[変形例5]
上述の実施形態では、車両100としてトラックを例示しているが、本発明は、車両の種類を問わず、普通乗用車などに対しても適用可能である。
更に、複数のカメラ(例えば、上述のカメラ1F、1B、1L及び1R)を車両以外に設置することも可能である。つまり、本発明は、建物などに設置される監視システムに対しても、適用可能である。この種の監視システムにおいても、上述の実施形態と同様、複数のカメラ間に共通視野が存在して、異なる鳥瞰図画像間で共通領域(CFLなど)が存在するものとする。各鳥瞰図画像を合成して合成鳥瞰図画像を形成するに際、上述の実施形態と同様の手法にて優先カメラを選択するようにするとよい。共通領域を形成する複数のカメラの高さが異なる場合において、本発明は特に有効に機能する。
1台のカメラが設置された車両を横から見た平面図であり、1台のカメラによって撮像された撮像画像から鳥瞰図画像を生成する方法を説明するための図である。 カメラ座標系XYZと、カメラの撮像面の座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w と、の関係を表す図である。 本発明の実施形態に係る、車両を左斜め前方から見た図である。 本発明の実施形態に係る、車両を左斜め前方から見た図である。 本発明の実施形態に係る、各鳥瞰図画像を表す図である。 図5に示す各鳥瞰図画像を全周鳥瞰図画像の座標上に変換した図である。 図3に示す前カメラと横カメラの撮像画像から生成される各鳥瞰図画像と、それらの共通領域を明示する図である 本発明の実施形態に係る、視界支援装置の全体構成図である。 図8の視界支援装置の処理手順を表すフローチャート図である。 図7の共通領域における差分画像及び差分領域を表す図である。 図9のステップS4の処理を説明するための図であり、図7の共通領域を3つの領域に分割した状態を表す図である。 図9のステップS4の処理を説明するための図であり、図7の共通領域に関する、前カメラ用の重み値と左横カメラの用の重み値を示す図である。 図9のステップS4の処理を説明するための図である。 図9のステップS4の処理を説明するための図であり、図11の各領域に属する画素数を例示する図である。 図8の画像処理部によって生成される全周鳥瞰図画像の例を示す図である。 複数のカメラを車両に設置した状況を表す平面図である。 図16の車両を左斜め前方から見た図である。 図16の各カメラより得た撮像画像から生成される全周鳥瞰図画像を示す図である。 図16の車両を左斜め前方から見た図である。 図18の全周鳥瞰図画像を生成する際の従来手法を説明するための図である。 図18の全周鳥瞰図画像を生成する際の従来手法を説明するための図である。 従来手法を用いた場合の表示画像の例を表す図である。 従来手法を用いた場合の表示画像の他の例を表す図である。
符号の説明
1、1F、1B、1L、1R カメラ
2 画像処理部
3 表示部
10F、10B、10L、10R 鳥瞰図画像
12F、12B、12L、12R 視野
13 共通視野
14 立体物
FL 共通領域
100 車両
113 差分画像
123 差分領域

Claims (5)

  1. n台の撮像装置(nは2以上の整数)によって撮像された画像の夫々を仮想視点から見た鳥瞰図画像に変換する視点変換手段と、
    得られた各鳥瞰図画像を合成して合成鳥瞰図画像を生成する画像合成手段と、を備え、
    前記合成鳥瞰図画像を表示装置に表示させるための映像信号を生成する画像処理装置において、
    前記画像合成手段は、合成の際に複数の鳥瞰図画像が重なり合う共通領域の画像を前記複数の鳥瞰図画像間で比較することにより、前記共通領域内における、前記複数の鳥瞰図画像間の差分領域を特定し、
    前記複数の鳥瞰図画像の夫々に対して、前記共通領域の画像の各画素位置に対応する重み値が設定され、
    前記複数の鳥瞰図画像間で、設定される前記重み値の一部又は全部は異なり、
    前記画像合成手段は、前記複数の鳥瞰図画像の夫々に関して、前記差分領域に含まれる画素に対応する前記重み値を合算して合算値を算出し、
    各合算値に基づいて前記複数の鳥瞰図画像から1つの鳥瞰図画像を採用画像として選択し、
    前記合成鳥瞰図画像内の前記共通領域の画像として、前記採用画像内の前記共通領域の画像を採用することを特徴とする画像処理装置。
  2. 前記画像合成手段は、前記複数の鳥瞰図画像間で前記合算値を比較することにより、前記採用画像を選択することを特徴とする請求項に記載の画像処理装置。
  3. 前記n台の撮像装置は、車両に設置され且つ車両周辺を撮像し、
    前記画像合成手段は、各合算値に加えて前記車両の運転状態にも基づいて、前記採用画像を選択することを特徴とする請求項に記載の画像処理装置。
  4. 前記重み値は、前記複数の鳥瞰図画像に対応する複数の撮像装置の設置位置に基づいて設定されることを特徴とする請求項1〜3の何れかに記載の画像処理装置。
  5. 請求項1〜4の何れかに記載の画像処理装置と、
    前記n台の撮像装置、及び、前記表示装置、の内の少なくとも一方と、
    を備えたことを特徴とする視界支援装置。
JP2006224429A 2006-08-21 2006-08-21 画像処理装置並びに視界支援装置及び方法 Expired - Fee Related JP4248570B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006224429A JP4248570B2 (ja) 2006-08-21 2006-08-21 画像処理装置並びに視界支援装置及び方法
US11/842,685 US7728879B2 (en) 2006-08-21 2007-08-21 Image processor and visual field support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006224429A JP4248570B2 (ja) 2006-08-21 2006-08-21 画像処理装置並びに視界支援装置及び方法

Publications (2)

Publication Number Publication Date
JP2008048345A JP2008048345A (ja) 2008-02-28
JP4248570B2 true JP4248570B2 (ja) 2009-04-02

Family

ID=39181613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006224429A Expired - Fee Related JP4248570B2 (ja) 2006-08-21 2006-08-21 画像処理装置並びに視界支援装置及び方法

Country Status (1)

Country Link
JP (1) JP4248570B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5166111B2 (ja) * 2008-05-15 2013-03-21 アルパイン株式会社 車両周辺監視装置
JP4972036B2 (ja) * 2008-05-30 2012-07-11 三洋電機株式会社 画像処理装置
JP2010041530A (ja) 2008-08-07 2010-02-18 Sanyo Electric Co Ltd 操縦支援装置
JP5071738B2 (ja) * 2008-12-18 2012-11-14 アイシン精機株式会社 表示装置
WO2010071053A1 (ja) * 2008-12-18 2010-06-24 アイシン精機株式会社 表示装置
JP5071739B2 (ja) * 2008-12-18 2012-11-14 アイシン精機株式会社 表示装置
JP5299101B2 (ja) * 2009-06-11 2013-09-25 コニカミノルタ株式会社 周辺表示装置
DE102009036200A1 (de) * 2009-08-05 2010-05-06 Daimler Ag Verfahren zur Überwachung einer Umgebung eines Fahrzeugs
TWI392366B (zh) 2009-12-31 2013-04-01 Ind Tech Res Inst 全周鳥瞰影像距離介面產生方法與系統
JP5546321B2 (ja) * 2010-04-02 2014-07-09 アルパイン株式会社 複数カメラ画像使用車外表示装置
JP5752631B2 (ja) * 2012-03-27 2015-07-22 住友重機械工業株式会社 画像生成方法、画像生成装置、及び操作支援システム
KR101371893B1 (ko) * 2012-07-05 2014-03-07 현대자동차주식회사 차량 주변의 영상을 이용한 입체물 검출 장치 및 방법
JP6355298B2 (ja) * 2013-05-30 2018-07-11 住友重機械工業株式会社 画像生成装置及びショベル
GB2556797B (en) 2015-11-06 2018-10-24 Mitsubishi Electric Corp Image processing apparatus, image processing method, and image processing program
DE102016124747A1 (de) 2016-12-19 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Erkennen eines erhabenen Objekts anhand perspektivischer Bilder

Also Published As

Publication number Publication date
JP2008048345A (ja) 2008-02-28

Similar Documents

Publication Publication Date Title
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
US7728879B2 (en) Image processor and visual field support device
JP4934308B2 (ja) 運転支援システム
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP4596978B2 (ja) 運転支援システム
JP5422902B2 (ja) 画像処理装置、画像処理プログラム、画像処理システム及び画像処理方法
JP2008077628A (ja) 画像処理装置並びに車両周辺視界支援装置及び方法
JP4583883B2 (ja) 車両用周囲状況表示装置
US20140114534A1 (en) Dynamic rearview mirror display features
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
KR20020033816A (ko) 감시시스템
JP2009060499A (ja) 運転支援システム及び連結車両
JP2005311868A (ja) 車両周辺視認装置
JP2009206747A (ja) 車両用周囲状況監視装置及び映像表示方法
JP7263731B2 (ja) 画像処理装置
JP2009105660A (ja) 車載用撮像装置
US11601621B2 (en) Vehicular display system
JP5067136B2 (ja) 車両周辺画像処理装置及び車両周辺状況提示方法
JP2013137698A (ja) 俯瞰画像提示装置
JP2011015353A (ja) 車両用画像表示装置
JP4945315B2 (ja) 運転支援システム及び車両
JP5091882B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP4706896B2 (ja) 広角画像の補正方法及び車両の周辺監視システム
JP4696825B2 (ja) 車両用死角映像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4248570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140123

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

LAPS Cancellation because of no payment of annual fees