JP3928509B2 - 画像合成装置および画像合成方法 - Google Patents

画像合成装置および画像合成方法 Download PDF

Info

Publication number
JP3928509B2
JP3928509B2 JP2002206484A JP2002206484A JP3928509B2 JP 3928509 B2 JP3928509 B2 JP 3928509B2 JP 2002206484 A JP2002206484 A JP 2002206484A JP 2002206484 A JP2002206484 A JP 2002206484A JP 3928509 B2 JP3928509 B2 JP 3928509B2
Authority
JP
Japan
Prior art keywords
image
camera
opening
door
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002206484A
Other languages
English (en)
Other versions
JP2004048621A (ja
Inventor
謙 大泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002206484A priority Critical patent/JP3928509B2/ja
Publication of JP2004048621A publication Critical patent/JP2004048621A/ja
Application granted granted Critical
Publication of JP3928509B2 publication Critical patent/JP3928509B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像合成装置および画像合成方法に係り、特に、車両に設置した複数の撮影手段で撮影した画像を、車両上方に設定した視点位置から見下ろした画像に変換し、複数の変換画像を1つの画像に合成して表示器に表示する画像合成装置および画像合成方法に関する。
【0002】
【従来の技術】
近年、車両に設置した電子式のカメラによって車両の周辺を撮影し、監視することによって、安全運転を支援する装置が実用化され、普及しつつある。
このような技術は、例えば特開2001−339716号公報に記載されている。
この従来技術は、視点位置をダイナミックに変更して、運転者からの死角を低減したり、運転操作を容易にするため、車内に設置した表示装置に運転状況に応じて最適な合成画像を表示しようとする車両周辺監視装置および方法である。
【0003】
【発明が解決しようとする課題】
車両に取り付けられているカメラは、撮影したい範囲と車両形状を考慮し、その取り付け位置が決定されているが、車両のドア、トランクなど(以下、これらをまとめて開閉体と称す)が開いた場合、開いた部位がカメラに映り込んだり、また、開閉体にカメラが取り付けられている場合にはカメラの位置および向きが変わってしまい、表示映像に影響が出て運転者に誤解を与えるという問題点があった。上記従来技術においては、このような実情は考慮されていなかった。
【0004】
具体的には、各カメラが撮影する範囲は、カメラの位置などをもとに決定されている。各カメラの位置は、通常、車両のドアやトランクやリヤゲートなどの開閉体は閉じている状態を基準に決定されているため、これらの開閉体が開いている場合、カメラの映像内に開いた開閉体が映り込み、撮影範囲に死角が生じ、期待した範囲の映像が取得できなくなる。また、トランクやリヤゲートなどの開閉体にカメラが設置されている場合もあり、このカメラが設置された開閉体の開閉により、該カメラの向きおよび位置が変わり、期待した範囲の映像を取得できなくなる。このように従来においては、開閉体の開閉を検知していないため、前述のように期待した範囲の映像が取得できない場合にも、取得した映像をもとに表示映像を作成するため、運転者が混乱する場合があった。
【0005】
本発明の目的は、車両のドア等の開閉体が開いた場合でも、運転者に画像を表示できる画像合成装置および画像合成方法を提供することにある。
【0006】
【課題を解決するための手段】
この目的を達成するため、本発明は、車両に設置した複数の撮影手段によって撮影された複数の画像データを合成し、合成されたデータを表示し、車両の開閉体の開閉により撮影手段の撮影範囲に死角が生じる場合、撮影手段の担当範囲を変更することを特徴とする。
【0007】
【発明の効果】
本発明によれば、車両のドア等の開閉体が開いた場合でも、運転者に画像を表示することができる。
【0008】
【発明の実施の形態】
実施の形態1
図1は、本発明の実施の形態1の画像合成装置の構成を示す図である。
5a〜5dはそれぞれ車両に複数個設置され、車両の周囲を撮影する電子式のカメラ、1はECU(エレクトロニック・コントロール・ユニット)、2はカメラ5a〜5dからの画像の処理等の各種処理を行うCPU(中央演算処理装置)、3はCPU2の制御プログラムやあらかじめ与えられる設定値などを保持するROM、4はCPU2の演算実行時に必要なデータを一時的に保持するRAM、6は表示器、7はドア等の車両の開閉体の開閉を検知する開閉検知センサである。
本発明は、車両に設置した複数のカメラ5a〜5dで撮影した複数の画像を、車両の上方に設定した視点位置から見下ろした画像にそれぞれ変換し、これら複数の変換画像を1つの画像に合成して表示器6の表示画面に表示する画像合成装置に関するものである。
【0009】
図2はこのような表示画面の一例を示す図であり、101は車両である。
画像変換、視点変換、ならびに画像の合成については、後で図9〜図11を用いて詳述する。
【0010】
車両に設置した複数のカメラ5a〜5d(ここでは、4個のみ図示)によって撮影された複数の画像データをCPU2によって合成し、合成されたデータを表示器6に表示する。
【0011】
図3は、本実施の形態1における車両を上から見た概略図である。
101は車両、102、103はカメラ、104、105は撮影の範囲、106は分割線である。
【0012】
図3に示すように、車両101の例えば右前方にカメラ102、右後方にカメラ103が取り付けられ、それぞれ範囲104と範囲105を撮影している。撮影された映像は、車両101の上空の仮想カメラの映像に変換・合成され(詳細は後述)、表示画像を作成する。範囲104と範囲105は一部重複しているため、ここでは分割線106で分割し、分割線106より前側はカメラ102の映像を用い、分割線106より後ろ側はカメラ103の映像を用いることとする。
【0013】
図4は、本実施の形態1におけるドアが開いた状態の車両を上から見た概略図である。
図4に示すように、車両101のドア201が開いた場合、開いたドア201によって範囲202は、カメラ102では撮影できなくなる。この場合、範囲202を撮影するはずだった部分には、開いたドア201が映っている。同様に、開いたドア201によって範囲203は、カメラ103で撮影できなくなる。この場合、範囲203を撮影するはずだった部分には、開いたドア201が映っている。
【0014】
範囲202および範囲203は、カメラ特性、それぞれのカメラ102、103の取り付け位置と角度、車両101の形状、ドア201の形状、およびドア201の開度から計算できる。
【0015】
ドア201が開いているときに、ドア201が閉じているときの画像変換・合成ルール(分割線106を用いたルール)を適用して画像の合成を行なうと、ドア201が映った画像をもとに変換・合成された表示画像が作成されてしまう。そこで、ドア201が開いたことを開閉検知センサ(図4では図示せず。図1の開閉検知センサ7参照)で検知し、ドア201が開いている場合は、範囲104から範囲202を除いた範囲についてカメラ102の映像を用い、撮影範囲105から範囲203を除いた範囲についてカメラ103の映像を用いて、CPU2(図1)により複数の画像データを合成し、表示画像の作成を行なう。すなわち、車両101のドア201の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、合成のためのカメラ102、103の担当範囲を変更するものである。
【0016】
ドア201の開閉検知センサ7(図1)で、ドア201が開いている角度が検知可能な場合は、ドア201の開度に応じて、範囲202および範囲203を変更して、最適な画像合成を行なう。ドア201の開閉検知センサ7がドア201の角度を検知できず、ドア201が開いているか閉じているかを検知するだけである場合には、ドア201の開度に応じた範囲202および範囲203の設定が不可能である。この場合には、ドア201が閉まった状態から全開の状態になるまで通過する領域すべてに物体があるものとして、範囲202および範囲203の計算を行なう。
【0017】
ドア201の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算はあらかじめ行なって、ROM3(図1)内に記録しておき、ドア201の開き方に応じて情報を呼び出してもよい。
【0018】
また、ドア201が開いたことにより、どのカメラ102、103にも映らなくなる範囲が発生することがある(例えば図4では、範囲204、205)。この範囲の発生は、ドア201の開度の取得が不可能で、ドア201が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、撮影不能範囲の計算を行なった場合により顕著である。その領域が変換・合成した結果の表示画像に含まれる場合には、もともとカメラで撮影されない領域として処理するか、黒で塗りつぶした状態で表示する。ドア201が開いたことにより表示されなくなった領域であることがわかるように、赤や他の色で明示的に表示してもよい。このようなどのカメラでも撮影できない範囲は、ドアが複数同時に開いた場合にはより多く発生する。また、表示画像上には開いたドア201を表す表示を行なったり、同時にドアが開いているメッセージを表示して、注意を喚起しても良い。
【0019】
図5は、本実施の形態1におけるフローを示す図である。
以下、本実施の形態1におけるフローについて説明する。
【0020】
まず、S1において、図3の車両101の開閉体(例えば図4のドア201)の開閉を、開閉検知センサ7(図1)からの信号によりCPU2(図1)が検出する。
【0021】
次に、開閉体の開閉が検出された場合には、カメラ(例えば図3、図4のカメラ102、103)の撮影範囲に死角が生じるので、S2において、開閉体が全閉〜全開の間に通る範囲に物体があるものとして、各カメラの撮影範囲をCPU2が再計算する。あるいは、開閉体の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算をあらかじめ行なって、ROM3(図1)内に記録しておき、ドア201の開き方に応じてCPU2が情報を呼び出す(すなわち、開閉体の開閉の状況によりテーブルを切り替える)。開閉体の開閉が検出されない場合には、S2の処理は行なわない(このフローは図示省略)。
【0022】
次に、S3において、CPU2が、担当範囲が変更されたカメラ102、103からの複数の画像データを合成し、表示画像の作成を行なう。
【0023】
次に、S4において、CPU2が、撮影不能範囲を合成画像上に描画する。
【0024】
最後に、S5において、処理された画像をCPU2が表示器6(図1)に表示する。
【0025】
すなわち、本実施の形態1の画像合成装置は、車両101(図3、図4)に設置した複数のカメラ102、103(図1では5a〜5d)と、カメラ102、103によって撮影された複数の画像データを合成し、また車両101のドア201等の開閉体の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、カメラ102、103の担当範囲を変更するCPU2(図1)と、合成されたデータを表示する表示器6とを有する。なお、図1のCPU2が、特許請求の範囲の変更手段および合成手段に相当し、表示器6が表示手段に相当する。
【0026】
また、本実施の形態1の画像合成方法は、車両101のドア201等の開閉体の開閉を図1の開閉検知センサ7からの信号によりCPU2により検出する工程と、車両101に取り付けられた複数のカメラ102、103によって撮影された複数の画像データを合成する工程と、合成されたデータを表示する工程と、車両101の開閉体の開閉によりカメラ102、103の撮影の範囲104、105に死角が生じる場合、合成のためのカメラ102、103の担当範囲を変更する工程とを有する。なお、図5のS1が開閉体の開閉を検出する工程に相当し、S2が撮影手段の担当範囲を変更する工程に相当し、S3が複数の画像データを合成する工程に相当し、S5が合成されたデータを表示する工程に相当する。
【0027】
以上により、本実施の形態1では、ドア201等の開閉体の少なくとも一部が開いた際に、カメラの担当範囲を変更することにより、映像に開閉体の一部が写りこんだ影響を最低限に抑えることができ、また、開閉体が開くことで、あるカメラで撮影不能になった部分を他のカメラでフォローすることができる。その結果、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。
【0028】
また、開閉体が開いた際に、開閉体が開いたことでカメラの撮影に影響が出た範囲を表示器6の表示画面に明示することにより、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。また、画面を通じて開閉体が開いていることを運転者に明示することにより、従来のように開閉体が開いていることが表示されない画面だけを見て移動することを未然に防ぐことができ、信頼性を向上することができる。
【0029】
このように、本実施の形態1によれば、ドアを開くなどして、車両形状が変化した場合にも適切な画像変換・合成を行なうことが可能となり、運転者に最適な映像を表示することができる。
【0030】
実施の形態2
本実施の形態2においても、画像合成装置の基本構成は図1に示したものと同一である。
図6は、本実施の形態2におけるドアが閉じた状態の車両を上から見た概略図である。
301は車両、302はドア、303、304はカメラ、305、306は撮影の範囲、307は分割線である。
【0031】
図6に示すように、本実施の形態2では、車両301のドア302にカメラ303が取り付けられている。また、車両301の右後方にカメラ304が取り付けられ、それぞれ範囲305、範囲306を撮影する。撮影された映像は、後述の手法を用いて、CPU2(図1)により、車両301の上空の仮想カメラの映像に変換・合成され、表示画像を作成する。範囲305と範囲306は一部重複しているため、ここでは分割線307で分割し、分割線307より前側はカメラ303の映像を用い、分割線307より後ろ側はカメラ304の映像を用いることとする。
【0032】
図7は、本実施の形態2におけるドアが開いた状態の車両を上から見た概略図である。
図7に示すように、車両301のドア302が開いた場合、ドア302に取り付けられたカメラ303の位置および向きが変化し、図6の範囲305はカメラ303では撮影できなくなり、カメラ303は範囲401を撮影することになる。また、開いたドア302によって範囲402はカメラ304で撮影できなくなる。この場合、範囲402を撮影するはずだった部分には、開いたドア302が映っている。
【0033】
範囲401および範囲402は、カメラ特性、それぞれのカメラ303、304の取り付け位置と角度、車両301の形状、ドア302の形状、およびドア302の開度から計算できる。
【0034】
ドア302が開いているときに、ドア302が閉まったときと同じ画像変換・合成ルール(図6の分割線307を用いたルール)を適用して画像の変換・合成を行なうと、カメラ303の撮影している範囲が異なり、かつ、カメラ304では、ドア302が映った画像を撮影しているため、変換・合成された表示画像は期待したものとは違うものが作成されてしまう。
【0035】
そこで、ドア302が開いたことを図1の開閉検知センサ7で検知し、ドア302が開いている場合は、カメラ303の撮影する範囲として図7の範囲401を用い、カメラ304の撮影する範囲としては、図6の範囲305から図7の範囲402を除いた範囲を用いて、表示画像の作成を行なう。
【0036】
ドア302の開閉検知センサ7(図1)が、ドア302が開いている角度を検知可能な場合は、ドア302の開度に応じて、範囲401および範囲402を変更して、最適な画像合成を行なう。ドア302の開閉検知センサ7がドア302の角度を検知できず、ドア302が開いているか閉じているかを検知するだけである場合には、ドア302の開度に応じた範囲401および範囲402の設定が不可能である。この場合には、ドア302に取り付けられたカメラ303の位置および向きの確定が不可能なため、カメラ303の撮影した映像を画像の変換・合成に用いることはできない。よって、ドア302の開度が取得不能な場合は、ドア302が開いたときには、ドア302に取り付けられたカメラ303の映像を使わないようにする。また、カメラ304の撮影可能範囲については、ドア302が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、範囲402の計算を行ない、決定する。ドア302の開き方(軌跡、開く面積など)は毎回一定なので、計算はあらかじめ行なって、図1のROM3内に記録しておき、ドア302の開き方に応じて情報を呼び出してもよい。
【0037】
また、ドア302が開いたことにより、どのカメラ303、304にも映らなくなる範囲が発生することがある。この範囲の発生は、ドア302の開度の取得が不可能で、ドア302が全閉状態から全開状態になるまで通過する領域すべてに物体があるものとして、撮影不能範囲の計算を行なった場合により顕著である。その領域が変換・合成した結果の表示画像に含まれる場合には、もともとカメラで撮影されない領域として処理するか、黒で塗りつぶした状態で表示する。ドア302が開いたことにより表示されなくなった領域であることがわかるように、赤や他の色で明示的に表示してもよい。このようなどのカメラでも撮影できない範囲は、ドアが複数同時に開いた場合にはより多く発生する。また、表示画像上には開いたドア302を表す表示を行ない、同時にドアが開いているメッセージを表示して、注意を喚起しても良い。
【0038】
図8は、本実施の形態2におけるフローを示す図である。
以下、本実施の形態2におけるフローについて説明する。
【0039】
まず、S1において、車両301の開閉体(例えば図6のドア302)の開閉を、開閉検知センサ7(図1)からの信号によりCPU2(図1)が検出する。
【0040】
次に、開閉体の開閉が検出された場合には、カメラ(例えば図6、図7のカメラ303、304)の撮影範囲に死角が生じるので、S2において、車両301の開閉体の開閉の度合いに応じて各カメラの撮影範囲をCPU2が再計算する。あるいは、開閉体の開き方、すなわち、軌跡、開く面積などは毎回一定なので、計算をあらかじめ行なって、ROM3(図1)内に記録しておき、ドア302の開き方に応じてCPU2が情報を呼び出す(すなわち、開閉体の開閉の状況によりテーブルを切り替える)。開閉体の開閉が検出されない場合には、S2の処理は行なわない(このフローは図示省略)。
【0041】
次に、S3において、CPU2が、担当範囲が変更されたカメラ303、304からの複数の画像データを合成し、表示画像の作成を行なう。
【0042】
次に、S4において、CPU2が、撮影不能範囲を合成画像上に描画する。
【0043】
最後に、S5において、処理された画像をCPU2が表示器6(図1)に表示する。
【0044】
以上により、本実施の形態2では、ドア302等の開閉体の少なくとも一部が開いた際に、カメラの担当範囲を変更することにより、映像に開閉体の一部が写りこんだ影響を最低限に抑えることができ、また、開閉体が開くことで、あるカメラで撮影不能になった部分を他のカメラでフォローすることができる。その結果、運転者にわかりやすく信頼性の高い周囲画像を表示することができ、安全性を向上することができる。また、開閉体が開いた際に、開閉体が開いたことでカメラの撮影に影響が出た範囲を表示器6の表示画面に明示することにより、運転者にわかりやすい周囲画像を表示することができ、信頼性を向上することができる。また、画面を通じて開閉体が開いていることを運転者に明示することにより、従来のように開閉体が開いていることが表示されない画面だけを見て移動することを未然に防ぐことができ、信頼性を向上することができる。
【0045】
このように、本実施の形態2によれば、ドアが開くなどして、車両形状が変化し、かつ、カメラの一部が移動した場合にも、適切な画像変換・合成を行なうことが可能となり、運転者に最適な映像を表示することができる。
【0046】
《画像の変換・合成》
既述のように、本発明では、車両に設置した複数のカメラで撮影した複数の画像を、車両の上方に設定した視点位置から見下ろした画像にそれぞれ変換し、これら複数の変換画像を1つの画像に合成して表示6の表示画面に表示する画像合成装置である(図2に表示例を図示)。以下、本発明の画像合成装置および画像合成方法における画像変換、視点変換、ならびに画像の合成について説明する。
【0047】
本発明では、画像を出力する実カメラ(図1の5a〜5d。図3、図4の102、103。図6、図7の303、304。後述図11の11)で撮影した撮影画像について実カメラの内部への出射角を実カメラの外部からの入射角未満として図1のCPU2により画像変換を行ない、この画像変換された画像変換画像の視点変換をCPU2により行なう。視点変換された複数の視点変換画像は、CPU2により1つの画像に合成され、その合成された画像が表示器6に表示される。
【0048】
次に、図9、図10を用いて画像変換について説明する。図に示すように、実カメラモデル11aのカメラ本体21外の光線25(図10)は必ず代表点22(レンズの焦点位置や中心点を用いることが多い)を通り、カメラ本体21内の光線26(図10)はカメラ本体21内に設けられた撮像面23に入る。そして、実カメラモデル11aの向きを示すカメラ光軸24に垂直に撮像面23が設けられ、また撮像面23の中心をカメラ光軸24が通るように、撮像面23が配置されている。もちろん、シミュレートする対象の実カメラの特性によっては、撮像面23の中心をカメラ光軸24が通らなくともよいし、撮像面23とカメラ光軸24が垂直でなくともよい場合もある。また、代表点22と撮像面23との距離は計算の都合上単位距離(1)とするのがよい。また、CCDカメラなどをシミュレートする場合には、撮像面23はシミュレートする対象の実カメラの画素数を再現するように格子状に分割される。最終的には、光線26が撮像面23のどの位置(画素)に入射するかのシミュレーションを行なうことになるため、代表点22と撮像面23との距離および撮像面23の縦横の長さの比率だけが問題になり、実距離は問題にならない。
【0049】
そして、CPU2による画像変換は、実カメラで撮影された撮影画像について、実カメラモデル11a(図5)のカメラ本体21の内部への出射角α、β(出射角αはカメラ光軸24に対する光線26の角、出射角βはカメラ光軸24に直交する軸に対する光線26の角)を実カメラモデル11aのカメラ本体21の外部からの入射角α、β(入射角αはカメラ光軸24に対する光線25の角、入射角βはカメラ光軸24に直交する軸に対する光線25の角)未満として画像変換する。
【0050】
すなわち、光線25は必ず代表点22を通り光線26となる。また、極座標系の考え方を用いると、光線25は代表点22を原点に入射角α、βの2つの角度で示すことができる。そして、光線25は代表点22を通過する際に、次式によって定まる出射角α、βを有する光線26となる。
【0051】
(α,β)=f(α,β) (1)
このとき、α<αの関係式が常に成立するようにする。この場合、光線25は代表点22を通過する際に(1)式によって方向が変えられ、光線26は撮像面23と交点27において交わる。例えば、CCDカメラをシミュレートしている場合には、交点27の座標(位置)から撮像面23上のどの画素に光線26が入射するかを求めることができる。
【0052】
なお、撮像面23の設定によっては光線26と撮像面23とが交わらない場合もあるが、この場合には光線25は実カメラモデル11aには映らないということになる。
【0053】
また、シミュレーションする対象の実カメラの最大画角をM(度)とした場合には、カメラ本体21内部に入射を許される光線25はα<(M/2)を満たす必要がある。この条件を満たさない光線25は実カメラモデル11aに映らないということになる。このときの出射角αの最大値はf(M/2)で計算される。また、(1)式の関数f(α,β)を決定した上で、代表点22と撮像面23との距離(前述の通り単位距離とするのがよい)と撮像面23の縦横の長さとを決定し、実カメラモデル11aの撮像範囲を規定する。なお、図9に示すように、最大出射角θOmaxの大きさは最大入射角θImaxの大きさよりも小さい。
【0054】
以上の手順により、代表点22に入射した光線25が実カメラモデル11aの撮像面23上のどの画素(位置)に入射するかを計算することができ、実カメラで撮影された撮影画像すなわち光線25が代表点22を通って直進したときの撮影画像について画像変換して、画像変換画像を得ることができる。したがって、(1)式によって実カメラに入射する光線の入射角α、βと画像変換画像の画素(位置)との関係を求めることができる。
【0055】
また、(1)式とともに、次式を用いることによって実カメラモデル11aの撮像面23上の任意の点に入射する光線26が代表点22に対してどの方向から入射したかを計算することが可能になる。
【0056】
(α,β)=fi(α,β) (2)
また、最も簡単な(1)式の例は、次のような入射角α、βと出射角α、βとが比例関係を持つ式である。
【0057】
α=kα (3)
β=β (4)
ここで、kは実カメラモデル11aのレンズ特性を決定するパラメータであり、k<1である。仮にk=1の場合には、従来のピンホールカメラモデルと同じ動作となる。実際のレンズの歪曲収差特性はレンズの目的(設計意図)によるが、通常の広角レンズはパラメータkを、1<k<0の範囲で適当に設定することで近似することができ、ピンホールカメラモデルを用いたカメラシミュレーションよりも正確なカメラシミュレーションが可能となる。
【0058】
また、レンズシミュレーションをより精密に行ないたい場合には、関数f(α,β)を(3)式、(4)式に示すような比例関係ではなく、実カメラのレンズ特性を実際に測定し、実カメラのレンズ特性を示す関数で画像変換する。この場合、もちろん出射角αを入射角α未満とする。
【0059】
以上の画像変換を行なったのちに、視点変換を行なう。最も単純な視点変換は、空間上にカメラモデルと投影面を置き、カメラで撮影した映像を投影面に対して投影することで実現される。
【0060】
次に、図11を用いてCPU2による視点変換について説明する。まず、実空間に合わせて仮想空間を設定し、仮想空間上に位置および向きを合わせて実カメラ11と仮想カメラ32とを配置する。次に、投影面を設定する。図11ではxy平面を投影面に設定しているが、実空間の地形や物体の存在に合わせて、投影面を複数設けてもよい。次に、仮想カメラ32の画素の1つに注目し、注目した画素を画素Vとする。仮想カメラ32の画素Vは面積を持っているので、画素Vの中心点の座標を画素Vの座標とする。仮想カメラ32の位置および向きの情報と合わせ、投影面と光線35との交点33を求める。次に、交点33から実カメラ11への光線34を考える。光線34の実カメラ11への入射が実カメラ11の撮影範囲内の場合には、光線34が実カメラ11のどの画素に入射するかを計算する。この場合、図9、10で説明した画像変換後の画像変換画像について光線34が実カメラ11のどの画素に入射するかを計算する。この光線34が入射する画素を画素Rとすると、画素Vと画素Rとが対応し、画素Vの色および輝度を画素Rの色および輝度とする。
【0061】
なお、光線34の実カメラ11への入射が実カメラ11の撮影範囲外の場合や、光線34が実カメラ11の撮像面に入射しない場合には、交点33は実カメラ11に映っていないので、仮想カメラ32の画素Vには何も映っていないとする。この場合の画素Vの色はシステムのデフォルト値(黒など。もちろん黒以外でもよい)を用いるものとする。
【0062】
また、画素Vを代表する座標は上記例では1画素につき1点としたが、代表する代表座標を画素V内に複数設けてもよい。この場合には、各代表座標それぞれに対して光線34が実カメラ11のどの画素に入射するかを計算し、得られた複数の色および輝度をブレンディングし、画素Vの色および輝度とする。この場合、ブレンディングの比率は等しくする。また、色および輝度のブレンディンクの手法としてはアルファブレンディングなどの手法があり、コンピュータグラフィックの分野では一般的な手法である。
【0063】
以上の処理を仮想カメラ32の画素すべてについて行ない、仮想カメラ32の各画素の色および輝度を確定することで仮想カメラ32の画像すなわち視点変換画像を作成することができ、空間上の実カメラ11の画像すなわち画像変換画像を視点変換画像へと視点変換することができる。
【0064】
この手法は撮影画像を投影面に対して単純に投影する方法に比べ、仮想カメラ32の特性や位置が自由に設定でき、かつ仮想カメラ32の特性や位置の変化にも容易に対応できる。
【0065】
なお、仮想カメラ32の各画素は基本的に実カメラ11の画素との対応になり、その対応は仮想カメラ32および実カメラ11の位置および向きおよび投影面の設定が変わらない限り変わらないので、計算能力に余裕のない処理装置を用いる場合には、対応関係を変換テーブルとして保存し、実行時に参照してもよい。また、仮想カメラ32の画素数が増加するにつれ、変換テーブルの容量も比例して増加するので、仮想カメラ32の画素数が多い場合には、大容量のメモリを持つ処理装置(コンピュータ)を用いるよりも、視点変換の計算を高速に行なうことができる処理装置を用いた方がコスト的に有利になる。
【0066】
このような視点変換装置においては、出射角αの変化に対する撮像面23上の位置の変化は、撮像面23の中心部と輪郭部とでほぼ同じであるから、輪郭部付近の画像や、画角の大きなカメラで撮影した画像についても、歪みの少ない視点変換画像を得ることができ、しかも補正関数を算出するためにパターン画像を撮影する必要がないから、容易に視点変換することができる。また、出射角αと入射角αとが比例する関数で画像変換したときには、画像変換された画像変換画像の中心部と輪郭部では同倍率となるから、歪みの少ない視点変換画像を得ることができる。また、実カメラ11のレンズ特性を示す関数で画像変換したときには、実カメラ11のレンズ(収差)による歪みの少ない視点変換画像を得ることができる。また、視点変換手段13は視点変換画像の各画素の色および輝度を画像変換画像の各画素の中心点に位置する色および輝度としているから、色および輝度の平均値などの計算を行なう必要がないので、視点変換時の計算量を少なくすることができる。
【0067】
以上本発明を実施の形態に基づいて具体的に説明したが、本発明は上記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【図面の簡単な説明】
【図1】本発明の実施の形態1の画像合成装置の構成を示す図である。
【図2】変換・合成後の表示画面の一例を示す図である。
【図3】本実施の形態1におけるドアが閉じた状態の車両を上から見た概略図である。
【図4】本実施の形態1におけるドアが開いた状態の車両を上から見た概略図である。
【図5】本実施の形態1におけるフローを示す図である。
【図6】本実施の形態2におけるドアが閉じた状態の車両を上から見た概略図である。
【図7】本実施の形態2におけるドアが開いた状態の車両を上から見た概略図である。
【図8】本実施の形態2におけるフローを示す図である。
【図9】図1に示した画像合成装置のCPUによる画像変換についての説明図である。
【図10】図1に示した画像合成装置のCPUによる画像変換についての説明図である。
【図11】図1に示した画像合成装置のCPUによる視点変換についての説明図である。
【符号の説明】
5a〜5d…カメラ
1…ECU(エレクトロニック・コントロール・ユニット)
2…CPU(中央演算処理装置)
3…ROM
4…RAM
6…表示器
7…開閉検知センサ
11…実カメラ
11a…実カメラモデル
12…画像変換手段
13…視点変換手段
14…表示手段
21…カメラ本体
22…代表点
23…撮像面
24…カメラ光軸
25…光線
26…光線
27…交点
32…仮想カメラ
33…交点
34…光線
35…光線
101、301…車両
102、103、303、304…カメラ
104、105、305、306、401…撮影の範囲
106、307…分割線
201、302…ドア
202、203、402…ドアが開いたことにより撮影できない範囲
204、205…ドアが開いたことによりどのカメラにも映らなくなる範囲

Claims (4)

  1. 車両に設置した複数の撮影手段と、
    前記撮影手段によって撮影された複数の画像データを合成する合成手段と、
    前記合成されたデータを表示する表示手段と、
    前記車両の開閉体の開閉により前記撮影手段の撮影範囲に死角が生じる場合、前記合成のための前記撮影手段の担当範囲を変更する変更手段と
    を有することを特徴とする画像合成装置。
  2. 車両の開閉体の開閉を検出する工程と、
    車両に設置した複数の撮影手段によって撮影された複数の画像データを合成する工程と、
    前記合成されたデータを表示する工程と、
    前記車両の開閉体の開閉により前記撮影手段の撮影範囲に死角が生じる場合、前記合成のための前記撮影手段の担当範囲を変更する工程と
    を有することを特徴とする画像合成方法。
  3. 前記開閉体が開いた際に、前記開閉体が開いたことにより前記撮影手段の撮影に影響が出た範囲を表示することを特徴とする請求項2記載の画像合成方法。
  4. 前記開閉体が開いた際に、前記開閉体が開いていることを表示することを特徴とする請求項2記載の画像合成方法。
JP2002206484A 2002-07-16 2002-07-16 画像合成装置および画像合成方法 Expired - Lifetime JP3928509B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002206484A JP3928509B2 (ja) 2002-07-16 2002-07-16 画像合成装置および画像合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002206484A JP3928509B2 (ja) 2002-07-16 2002-07-16 画像合成装置および画像合成方法

Publications (2)

Publication Number Publication Date
JP2004048621A JP2004048621A (ja) 2004-02-12
JP3928509B2 true JP3928509B2 (ja) 2007-06-13

Family

ID=31711455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002206484A Expired - Lifetime JP3928509B2 (ja) 2002-07-16 2002-07-16 画像合成装置および画像合成方法

Country Status (1)

Country Link
JP (1) JP3928509B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956915B2 (ja) 2005-05-20 2012-06-20 日産自動車株式会社 映像表示装置及び映像表示方法
JP2006341641A (ja) 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法
KR102373159B1 (ko) * 2016-10-24 2022-03-10 현대자동차주식회사 듀얼 카메라 기반 버스차량 사각지대 모니터링 시스템
JP7077131B2 (ja) * 2018-05-16 2022-05-30 アルパイン株式会社 画像処理装置および画像処理方法
JP2021110631A (ja) * 2020-01-10 2021-08-02 株式会社デンソー 検出器の姿勢・位置検出システムおよび検出器の姿勢・位置検出方法

Also Published As

Publication number Publication date
JP2004048621A (ja) 2004-02-12

Similar Documents

Publication Publication Date Title
US20160098815A1 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP3855814B2 (ja) 車両用画像処理装置
CN103770706B (zh) 动态后视镜显示特征
US9098928B2 (en) Image-processing system and image-processing method
CN101489117B (zh) 图像显示装置和方法
US8817079B2 (en) Image processing apparatus and computer-readable recording medium
JP5884439B2 (ja) 車両周辺監視用画像生成装置
JP3960092B2 (ja) 車両用画像処理装置
JP2002019556A (ja) 監視システム
JP2009524171A (ja) 複数の画像を結合して鳥瞰図画像にする方法
CN112224132A (zh) 一种车用全景环视障碍物预警方法
JP2009151524A (ja) 画像表示方法および画像表示装置
JP2007311970A (ja) 車両周辺画像生成装置および撮像装置の測光調整方法
US20100149333A1 (en) Obstacle sensing apparatus
JP2013110712A5 (ja)
WO2010119734A1 (ja) 画像処理装置
CN110796711B (zh) 全景系统标定方法、装置、计算机可读存储介质及车辆
JP2010183265A (ja) 画像表示装置及びそのカメラ取り付け角度算出方法
JP2010028803A (ja) 駐車補助のための画像表示方法
KR20180123302A (ko) 볼의 궤적을 시각화하는 방법 및 장치
JP2007027948A (ja) 車両周辺監視装置及び車両周辺監視方法
JP3928509B2 (ja) 画像合成装置および画像合成方法
JP3695377B2 (ja) 画像合成装置および画像合成方法
US11190757B2 (en) Camera projection technique system and method
JP2010258691A (ja) 操縦支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070226

R150 Certificate of patent or registration of utility model

Ref document number: 3928509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100316

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110316

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120316

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130316

Year of fee payment: 6

EXPY Cancellation because of completion of term