JP2005223568A - 画像合成装置 - Google Patents

画像合成装置 Download PDF

Info

Publication number
JP2005223568A
JP2005223568A JP2004028912A JP2004028912A JP2005223568A JP 2005223568 A JP2005223568 A JP 2005223568A JP 2004028912 A JP2004028912 A JP 2004028912A JP 2004028912 A JP2004028912 A JP 2004028912A JP 2005223568 A JP2005223568 A JP 2005223568A
Authority
JP
Japan
Prior art keywords
image
pixel
horizon
imaging
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004028912A
Other languages
English (en)
Inventor
Hiroyoshi Yanagi
柳  拓良
Ken Oizumi
大泉  謙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004028912A priority Critical patent/JP2005223568A/ja
Publication of JP2005223568A publication Critical patent/JP2005223568A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】 空間に存在する物体を表示しながら映像の境目がスムーズにつながって違和感のない合成映像を表示する。
【解決手段】 撮像手段により撮像した自車両周辺の映像に対して異なる変換処理を施し、単一の視点から見た複数の映像を生成して合成する。
【選択図】 図1


Description

本発明は、カメラで撮像した画像を異なる変換方式で処理して複数の画像を生成し、それらを一つの画像に合成する画像合成装置に関する。
平らな地面上の白線などをあたかも上空にある仮想視点から見たかのような画像に変換(地面を投影面とした視点変換)することによって、例えば白線で区分された駐車スペースと自車両との位置関係を分かりやすくした車両用画像処理装置が知られている(例えば、特許文献1参照)。
また、地面を撮像した画像を視点変換して地平線方向の画像を生成し、この画像を地面を撮像した画像と合成して表示するようにした監視システムが知られている(例えば、特許文献2参照)。
この出願の発明に関連する先行技術文献としては次のものがある。
特開2003−091720号公報 特開2002−125224号公報
しかしながら、上述した前者の装置では地平線より上の映像が得られないため、カメラの位置よりも高い空間に出っ張っている木の枝などの障害物が表示されないという欠点がある。
後者の装置では上記のような空間に出っ張っている障害物を表示することができるが、合成される2つの画像のつなぎ目において映像がスムーズにつながらず、違和感がある。
本願請求項1の発明は、撮像手段により撮像した自車両周辺の映像に対して異なる変換処理を施し、単一の視点から見た複数の映像を生成して合成する。
また、本願請求項2の発明は、撮像手段により撮像した自車両周辺の映像に対して異なる変換処理を施し、仮想撮像手段により仮想的に撮像した映像と同等な複数の映像を生成して合成する。
本発明によれば、被写界の各領域に対してそれぞれ最適な映像変換処理を行うことができ、空間に存在する物体を表示しながら映像の境目がスムーズにつながって違和感のない合成映像を表示することができる。
図1は一実施の形態の構成を示す図である。カメラ1は車両後方のリヤーハッチなどに設置され、車両後方を撮像する。このカメラ1は地面と地平線と空とを撮像できる程度の広い画角を備えている。画像合成装置2はマイクロコンピューターのソフトウエア形態で構成される第1変換部21、第2変換部22および画像合成部23を備え、カメラ1で撮像された映像に対して第1変換部21と第2変換部22とにより互いに異なる変換処理を施して単一の視点から見た2つの映像に変換し、画像合成部23により一つの映像に合成する。モニター3は画像合成装置2で合成された画像を表示する。
次に、画像合成装置2による画像合成方法について説明する。図2は実カメラの撮像映像を仮想カメラの映像に変換する方法を説明するための図である。図において、実カメラは図1に示すカメラ1であり、仮想カメラ4は任意の位置および向きに配置された仮想的なカメラである。これらのカメラ1、4が存在する三次元空間を(X、Y、Z)とする。なお、仮想カメラ4は実カメラ1よりも高い位置に配置し、高い位置から地表面を見下ろすように配置するのが望ましい。実カメラ1はレンズ1aと撮像素子1bを備え、レンズ1aにより撮像素子1bの受光面に結像された被写体像を撮像素子1bにより電気信号に変換する。同様に、仮想カメラ4は仮想レンズ4aと仮想撮像素子4bを備えており、仮想レンズ4aにより仮想撮像素子4bの受光面に結像された被写体像(以下、仮想カメラ映像という)を仮想撮像素子4bにより電気信号に変換する。
図2において、RCdは実カメラ1の向き(レンズ1aの光軸方向)を示す方向ベクトルであり、VCdは仮想カメラ4の向き(仮想レンズ4aの光軸方向)を示す方向ベクトルである。また、RCgrは地面上の1点G(Xg、Yg)からレンズ1aを通って撮像素子1bの受光面へ入射する光の入射ベクトルを表し、VCgrは地面上の1点G(Xg、Yg)から仮想レンズ4aを通って仮想撮像素子4bの受光面へ入射する光の入射ベクトルを表す。さらに、RCskは地平線よりも高い空間の1点(不図示)からレンズ1aを通って撮像素子1bの受光面へ入射する光の入射ベクトルを表し、VCskは地平線よりも高い空間の1点(不図示)から仮想レンズ4aを通って仮想撮像素子4bの受光面へ入射する光の入射ベクトルを表す。
図3は一実施の形態の画像合成装置2で実行される処理を示すフローチャートである。このフローチャートにより、一実施の形態の動作を説明する。ステップ1において実カメラ1により撮像した映像を読み込む。続くステップ2で仮想カメラ4の映像を構成するピクセルの中から1つを選び、ステップ3〜10の処理を行う。ステップ3〜10では、仮想カメラ4の映像の各ピクセルに対応する実カメラ1の撮像素子1bの画素を演算により求め、対応する画素で検出した色や輝度の情報を対応する仮想カメラ4のピクセルにコピーする。なお、以下ではSqr( )はルート関数を表し、Sqrt( )は二乗関数を表す。また、任意の三次元ベクトルVのx、y、z軸の各要素をV.x、V.y、Z.zと記述する。
ステップ3において仮想カメラ4の映像のピクセル(Xp、Yp)に光が入ってくる方向、すなわちピクセル(Xp、Yp)に対応する入射ベクトルVCを次の手順で求める。まず、ピクセル座標(Xp、Yp)の座標系を変換する。この実施の形態では演算の簡略化を図るためにカメラのレンズの中心から光が入射するものとし、そのために映像中央を原点とする座標系に変換する。すなわち、図4(a)に示す仮想カメラ映像の左上を原点とするピクセル座標(Xp、Yp)を、映像の中央を原点とするピクセル座標(Xpc、Ypc)に変換する。
Xpc=Xp−(水平解像度/2) ・・・(1)、
Ypc=−Yp+(垂直解像度/2) ・・・(2)
次に、図5に示すように、仮想カメラ4の位置が三次元空間の座標(0.0.0)で、向き(仮想レンズ4aの光軸方向)がY軸の+方向(標準化された仮想カメラの向き)であると仮定し、その場合のピクセル(Xp、Yp)に対応する入射ベクトルVC1、すなわちピクセル(Xp、Yp)に光が入射する方向を求める。
y=Sqr(Sqrt(Xpc/水平解像度*受光面の水平寸法)+Sqrt(Ypc/垂直解像度*受光面の垂直寸法)) ・・・(3)、
α=Arctan(Ypc/Xpc) ・・・(4)、
θ=y/レンズのf値 ・・・(5)、
VC1.x=tan(θ)*cos(α) ・・・(6)、
VC1.y=1 ・・・(7)、
VC1.z=tan(θ)*sin(α) ・・・(8)
ここで、(5)式は仮想レンズ4aの歪み分を近似する演算式である。また、(6)式は入射ベクトルVC1のx軸成分を表し、(7)式は入射ベクトルVC1のy軸成分を表し、(8)式は入射ベクトルVC1のz軸成分を表す。
次に、算出した入射ベクトルVC1を実際の仮想カメラ4の向きを考慮した方向に回転させる。すなわち、VC1をy軸周りに仮想カメラ4のロール角分だけ回転させて入射ベクトルVC2を求める。また、入射ベクトルVC2をx軸周りに仮想カメラ4のピッチ角分だけ回転させて入射ベクトルVC3を求める。さらに、入射ベクトルVC3をz軸周りに仮想カメラ4のヨー角分だけ逆回転させて入射ベクトルVC4を求める。この入射ベクトルVC4が、ピクセル(Xp、Yp)に対応する入射ベクトルVCである。
ステップ4で仮想カメラ映像のピクセル(Xp、Yp)に対応する入射ベクトルVCが地平線より上を向いているか否かを確認する。この一実施の形態では仮想カメラ映像のピクセル(Xp、Yp)に対応する入射ベクトルVCが地平線より上を向いているか(図2のVCsk)、下を向いているか(図2のVCgr)によって異なる画像変換処理を行う。上述したように、この一実施の形態では仮想カメラ映像の各ピクセルに対応する実カメラ1の撮像素子1bの画素を演算により求め、対応する画素で検出した色や輝度の情報を対応する仮想カメラ4のピクセルにコピーするが、仮想カメラ映像のピクセル(Xp、Yp)に入射する光が地平線より上から入射した場合と地平線より下から入射した場合とで、仮想カメラ映像のピクセル(Xp、Yp)に対応する実カメラ画素の演算方法を異なるものとする。
まず、入射ベクトルVCが地平線より上を向いている場合、すなわち仮想カメラ映像のピクセル(Xp、Yp)に入射する光が地平線より上から入射する場合はステップ5へ進む。ステップ5では仮想カメラ4の入射ベクトルVCを実カメラ1の入射ベクトルRCとする。つまり、仮想カメラ映像のピクセル(Xp、Yp)に入射する光が地平線より上から入射した場合は、仮想カメラ4の光の入射方向と同一の方向から光が入射する実カメラ1の画素に対応づけ、対応する実カメラ1の画素で検出した色や輝度の情報を仮想カメラ映像のピクセル(Xp、Yp)にコピーする。なお、このような画像変換処理をこの明細書では“画角変換”と呼ぶ。この画角変換処理は第2画像変換部22で実行される。
一方、入射ベクトルVCが地平線より下を向いている場合、すなわち仮想カメラ4のピクセル(Xp、Yp)に入射する光が地平線より下から入射する場合は、従来から公知の地面を投影面とする“視点変換”を行う。つまり、仮想カメラ映像のピクセル(Xp、Yp)に入射する光が地面上のどの地点から発しているかを演算により求め、その地点Gの座標を(Xg、Yg、0)とした場合に、地点G(Xg、Yg、0)から発した光が実カメラ1のレンズ1aを通って撮像素子1b上のどの画素に入射するかを演算により求める。演算結果の画素の座標を(Xs、Ys)とした場合に、この画素(Xs、Ys)で検出した色や輝度の情報を対応する仮想カメラ映像のピクセル(Xp、Yp)にコピーする。なお、この視点変換処理は第1変換部21で実行される。
入射ベクトルVCが地平線より下を向いている場合は視点変換を行うためにステップ6へ進み、仮想カメラ映像のピクセル(Xp、Yp)に対する入射ベクトルVCが地面に接触する地点G(Xg、Yg、0)を求める。つまり、仮想カメラ4の位置VCpと入射ベクトルVCを基にピクセル(Xp、Yp)に写っている地面上の地点G(Xg、Yg、0)を求める。
三次元ベクトルG=(Xg、Yg、0)=VCp−VC*(VCp.z/VC.z)
・・・(9)
続くステップ7で地点G(Xg、Yg、0)と実カメラ1の位置RCpから入射ベクトルRCを求める。
RC=G−RCp ・・・(10)
実カメラ1に対する入射ベクトルRCを演算後、ステップ8で入射ベクトルRCから光が入射する実カメラ1の撮像素子1bの画素(Xs、Ys)を次の手順で求める。まず、実カメラ1の向き(レンズ1aの光軸方向)を考慮するため、入射ベクトルRCを、実カメラ1の位置を三次元空間の座標(0,0,0)とし、向きをY軸の+方向とした場合の入射ベクトルになるように回転させる。最初に入射ベクトルRCをz軸周りに仮想カメラ4のヨー角分だけ回転させて入射ベクトルRC1を求める。次に、入射ベクトルRC1をx軸周りに仮想カメラ4のピッチ角分だけ逆回転させて入射ベクトルRC2を求める。最後に、入射ベクトルRC2をy軸周りに仮想カメラ4のロール角分だけ逆回転させて入射ベクトルRC3を求める。
次に、実カメラ1の位置が座標(0,0,0)で向きがY軸の+方向であると仮定し、入射ベクトルRC3が入射する撮像素子1b上の画素(Xsc、Ysc)を求める。なお、画素(Xsc、Ysc)は画面中央を原点とする座標である。
RC3n=RC3n*(1/RC3.y) ・・・(10)、
θ=Arctan(Sqr(Sqrt(RC3n.x)+Sqrt(RC3n.z))) ・・・(11)、
α=Arctan(RC3n.z/RC3n.x) ・・・(12)、
y=レンズ1aのf値*θ ・・・(13)、
Ysc=y*sin(α)*垂直解像度/受光面の垂直寸法 ・・・(14)、
Xsc=y*cos(α)*水平解像度/受光面の水平寸法 ・・・(15)、
ここで、(10)式はy軸方向の長さが1になるように調整するための演算式であり、(13)式はレンズ1aの歪みを近似するための演算式である。
最後に、画面中央を原点とする座標(Xsc、Ysc)を図4(b)に示すように画面左上を原点とする座標に変換する。
Xs=Xsc+水平解像度/2 ・・・(16)、
Ys=−Ysc+垂直解像度/2 ・・・(17)
仮想カメラ4の映像のピクセル(Xp、Yp)に対応する実カメラ1の撮像素子1bの画素(Xs、Ys)を演算したらステップ9へ進み、仮想カメラ映像のピクセル(Xp、Yp)に実カメラ1の画像(Xs、Ys)で検出した色や輝度の情報を書き込む。ステップ10において仮想カメラ映像のすべてのピクセルについて上述したステップ3〜9の処理を完了したか否かを確認し、未処理のピクセルがある場合はステップ3へ戻り、上述した処理を繰り返す。一方、全ピクセルに対して処理を完了したらステップ11へ進む。ステップ11では、仮想カメラ4の各ピクセルに対応する実カメラ1の画素から色や輝度の情報をコピーして作成した仮想カメラ映像をモニター3へ出力し、表示する。
図6に、実カメラ1の映像(a)と、地面を投影面とする視点変換を行った従来装置の映像(b)と、上述した一実施の形態により合成した映像(c)とを比較して示す。実カメラ1により撮像された映像図6(a)は周辺部が歪んでおり、自車の左右方向と後方の距離感がつかみにくい映像である。
一方、従来の装置により地面を投影面として視点変換を行った映像図6(b)は、図6(a)に示すカメラ映像よりも周辺部の歪みが改善され、自車の左右方向の距離感はつかみやすくなるが、図7(a)に示すように、地面を投影面として視点変換を行うので地平線より上の像が欠落し、自車後方の距離感がつかみにくい映像である。
地面を投影面とする視点変換では地平線より上の映像が欠落するという欠点を補うために、上述した特許文献2には図7(b)に示すようなお椀形状を投影面とした視点変換が提案されている。このお椀形状を投影面とした視点変換では、地平線より上の画像と下の画像が地平線の上下でスムーズにつながるが、歪みの少ない地表面の映像を得るために図7(b)に示すように仮想カメラ4を実カメラ1よりも高い位置に設定するので、合成結果の映像上における地平線は不自然に低い位置に描かれてしまい、重要な地平線から下の映像が狭い範囲に圧縮されて見づらくなる。
これらの映像に対し一実施の形態の画像合成装置による映像図6(c)は、地平線より下方から光が入射する仮想カメラ4のピクセルに対しては従来と同様に地面を投影面とする視点変換を行うとともに、地平線より上方から光が入射する仮想カメラ4のピクセルに対しては、同一方向から光が入射する実カメラ1の画素に対応づける画角変換を行うようにしたので、図7(c)に示すように合成結果の映像における地平線が画面の中央付近の適当な位置になり、自然な映像が得られる。その上、周辺部の映像歪みが少なく左右方向の距離感がつかみやすい上に、地平線から上の映像が表示されて自車後方の距離感がつかみやすく、地平線における2つの映像のつなぎ目においても映像が自然につながっており、見やすい映像となっている。
このように一実施の形態によれば、実カメラ1により撮像した自車両周辺の映像に対して異なる変換処理を施し、仮想カメラ4により仮想的に撮像した自車両周辺の映像と同等な複数の映像を生成し、生成した複数の映像を合成して表示するようにしたので、被写界の各領域に対してそれぞれ最適な映像変換処理を行うことができ、空間に存在する物体を表示しながら映像の境目がスムーズにつながって違和感のない合成映像を表示することができる。
また、一実施の形態によれば、実カメラ1による撮像映像に対して異なる変換処理を施し、地平線より上の映像と地平線より下の映像を生成し、生成した地平線より上の映像と地平線より下の映像を合成して表示するようにしたので、周辺部の映像歪みが少なく左右方向の距離感がつかく、また、地平線から上の映像が表示されて自車後方の距離感がつかみやすい映像が得られる。
さらに、一実施の形態によれば、仮想カメラ4の映像の各ピクセルに入射する光が地面のどの地点から発しているかを演算するとともに、その地点から発した光が実カメラ1の撮像素子1bのどの画素に入射するかを演算し、当該画素で検出した色と輝度を対応する仮想カメラ4の映像のピクセルの色と輝度とする視点変換処理を行って地平線より下の映像を生成するとともに、仮想カメラ4の映像の各ピクセルに入射する光の入射方向と同一方向から光が入射する実カメラ1の撮像素子1bの画素を演算し、当該画素で検出した色と輝度を対応する仮想カメラ4の映像のピクセルの色と輝度とする画角変換処理を行って地平線よりも上の映像を生成するようにしたので、映像上の地平線が画面の中央付近の適当な位置になり、自然な映像が得られる。また、周辺部の映像歪みが少なく左右方向の距離感がつかみやすい上に、地平線から上の映像が表示されて自車後方の距離感がつかみやすく、地平線における2つの映像のつなぎ目においても映像が自然につながって見やすい映像が得られる。
特許請求の範囲の構成要素と一実施の形態の構成要素との対応関係は次の通りである。すなわち、実カメラ1が撮像手段を、仮想カメラ4が仮想撮像手段を、第1画像変換部21および第2画像変換部22が画像変換手段を、画像合成部23が画像合成手段を、モニター3が表示手段をそれぞれ構成する。なお、本発明の特徴的な機能を損なわない限り、各構成要素は上記構成に限定されるものではない。
なお、上述したした一実施の形態では1台のカメラ1で撮像した映像に対して視点変換処理と画角変換処理という2つの異なる変換処理を施し、同一視点から見た2枚の映像を生成して合成する例を示したが、複数のカメラで撮像した複数の映像に対して3種類以上の異なる変換処理を施し、同一視点から見た複数の映像を生成して合成してもよい。例えば、複数の画角や取り付け位置や向きが異なるカメラで地面または空あるいは両方を撮像し、それらの映像に対して3種類以上の画像変換処理を施して合成する。
また、上述した一実施の形態では1台のモニター3で合成した映像を表示する例を示したが、モニターの種類、台数、配置等は特に限定されるものではない。
さらに、上述した一実施の形態では地平線を境にして異なる画像変換処理を適用する例を示したが、異なる画像変換処理を適用する境界は正確に地平線とする必要はなく、多少上下してもそれに合わせて視点変換を行う際の仮想的な地面の高さを調整することにより、映像合成に対する影響を最少限にすることができる。
また、特開2003−111074号公報に開示されているように、複数のカメラからの撮像領域が互いにオーバーラップする映像を入力とした場合の、オーバーラップ領域におけるカメラの選択方法は、「注目点」を「注目方向」と解釈することによって地平線より上方の画像変換にも応用することができる。つまり、例えば一つの注目方向に対し、同じ方向の映像を撮像しているカメラが複数台、存在する場合は、カメラ自体の向きがその注目方向に最も近いカメラを選ぶのがよい。また、他の方法として地平線に近い空の領域においては同じ方向の地平線より下で使用したのと同じカメラを選択することが考えられる。さらに、他の方法として、車両の進行方向を速度センサーやミッションの状態やステアリング角度から検出し、それに応じてカメラを選択したり、運転者のアイポイントにより近いカメラを選択することが考えられる。
一実施の形態の構成を示す図である。 実カメラの撮像映像を仮想カメラの映像に変換する方法を説明するための図である。 一実施の形態の画像合成装置で実行される処理を示すフローチャートである。 仮想カメラの映像上のピクセル(Xp、Yp)と実カメラの映像上の画素(Xs、Ys)との関係を示す図である。 仮想カメラが三次元空間の原点位置にあってY軸の+方向を向いていると仮定した場合の、仮想カメラの映像上のピクセル(Xp、Yp)に対応する入射ベクトルを求める方法を説明する図である。 カメラで撮像した映像、地面を投影面とする視点変換による映像および一実施の形態による映像を示す図である。 地面を投影面とする視点変換、お椀形状を投影面とする視点変換および一実施の形態による視点変換を比較した図である。
符号の説明
1 実カメラ
1a レンズ
1b 撮像素子
2 画像合成装置
3 モニター
4 仮想カメラ
4a 仮想レンズ
4b 仮想撮像素子
21 第1画像変換部
22 第2画像変換部
23 画像合成部

Claims (4)

  1. 自車両周辺を撮像する撮像手段と、
    前記撮像手段により撮像した映像に対して異なる変換処理を施し、単一の視点から見た複数の映像を生成する画像変換手段と、
    前記画像変換手段により生成した複数の映像を合成する画像合成手段と、
    前記画像合成手段で合成した映像を表示する表示手段とを備えることを特徴とする画像合成装置。
  2. 自車両周辺を撮像する撮像手段と、
    自車両周辺を撮像する仮想の撮像手段と、
    前記撮像手段により撮像した映像に対して異なる変換処理を施し、前記仮想撮像手段により仮想的に撮像した映像と同等な複数の映像を生成する画像変換手段と、
    前記画像変換手段により生成した複数の映像を合成する画像合成手段と、
    前記画像合成手段で合成した映像を表示する表示手段とを備えることを特徴とする画像合成装置。
  3. 請求項2に記載の画像合成装置において、
    前記画像変換手段は、前記撮像手段による撮像映像に対して異なる変換処理を施し、地平線より上の映像と地平線より下の映像を生成し、
    前記画像合成手段は、前記画像変換手段により生成した地平線より上の映像と地平線より下の映像を合成することを特徴とする画像合成装置。
  4. 請求項3に記載の画像合成装置において、
    前記画像変換手段は、前記仮想撮像手段の映像の各ピクセルに入射する光が地面のどの地点から発しているかを演算するとともに、その地点から発した光が前記撮像手段の撮像素子のどの画素に入射するかを演算し、当該画素で検出した色と輝度を対応する前記仮想撮像手段の映像のピクセルの色と輝度とする第1の変換処理を行って地平線より下の映像を生成するとともに、前記仮想撮像手段の映像の各ピクセルに入射する光の入射方向と同一方向から光が入射する前記撮像手段の撮像素子の画素を演算し、当該画素で検出した色と輝度を対応する前記仮想撮像手段の映像のピクセルの色と輝度とする第2の変換処理を行って地平線よりも上の映像を生成することを特徴とする画像合成装置。
JP2004028912A 2004-02-05 2004-02-05 画像合成装置 Pending JP2005223568A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004028912A JP2005223568A (ja) 2004-02-05 2004-02-05 画像合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004028912A JP2005223568A (ja) 2004-02-05 2004-02-05 画像合成装置

Publications (1)

Publication Number Publication Date
JP2005223568A true JP2005223568A (ja) 2005-08-18

Family

ID=34998874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004028912A Pending JP2005223568A (ja) 2004-02-05 2004-02-05 画像合成装置

Country Status (1)

Country Link
JP (1) JP2005223568A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
JP2003204547A (ja) * 2001-10-15 2003-07-18 Matsushita Electric Ind Co Ltd 車両周囲監視装置およびその調整方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
JP2003204547A (ja) * 2001-10-15 2003-07-18 Matsushita Electric Ind Co Ltd 車両周囲監視装置およびその調整方法

Similar Documents

Publication Publication Date Title
US11303806B2 (en) Three dimensional rendering for surround view using predetermined viewpoint lookup tables
EP2437494B1 (en) Device for monitoring area around vehicle
JP4642723B2 (ja) 画像生成装置および画像生成方法
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP6311020B2 (ja) 映像合成システムとそのための映像合成装置及び映像合成方法
JP4257356B2 (ja) 画像生成装置および画像生成方法
CN103299617B (zh) 图像生成装置
JP5739584B2 (ja) 車両周辺視角化のための3次元映像合成装置およびその方法
JP4596978B2 (ja) 運転支援システム
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP2007109166A (ja) 運転支援システム
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP2008077628A (ja) 画像処理装置並びに車両周辺視界支援装置及び方法
JP2018117320A (ja) 電子ミラーの映像合成装置及び映像合成方法
JP5516997B2 (ja) 画像生成装置
JP2006171849A (ja) 画像処理装置
JP5338374B2 (ja) 車両用表示装置及び車両用表示方法
US20230379445A1 (en) Image processing device, moving apparatus, image processing method, and storage medium
JP2005223568A (ja) 画像合成装置
KR20110082873A (ko) 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법
JP4339749B2 (ja) 画像生成方法および画像生成装置
JP5047915B2 (ja) 車載用画像処理装置及びその画像処理方法
WO2023145693A1 (ja) 画像処理システム、移動体、画像処理方法、及び記憶媒体
JP2023109163A (ja) 画像処理システム、移動体、画像処理方法、及びコンピュータプログラム
JP2009153156A (ja) 画像処理装置並びに視界支援装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100216