JP2006024142A - 画像処理装置及び方法、プログラム - Google Patents
画像処理装置及び方法、プログラム Download PDFInfo
- Publication number
- JP2006024142A JP2006024142A JP2004203812A JP2004203812A JP2006024142A JP 2006024142 A JP2006024142 A JP 2006024142A JP 2004203812 A JP2004203812 A JP 2004203812A JP 2004203812 A JP2004203812 A JP 2004203812A JP 2006024142 A JP2006024142 A JP 2006024142A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correspondence
- horizontal line
- pixel position
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 各カメラから得られる画像におけるスキャンライン上にある全ての画素につき動的な対応付け(伸縮マッチング)として取り扱うことにより、画像間の対応付けをよりロバストかつ高精度に行う。
【解決手段】 少なくとも2台のカメラ11、12により互いに異なる視点から被写体を撮像することにより得られた各画像間において、被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求め、一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、かかる比較結果に基づいて当該一の水平ラインにつき求められた対応関係を修正する。
【選択図】図2
【解決手段】 少なくとも2台のカメラ11、12により互いに異なる視点から被写体を撮像することにより得られた各画像間において、被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求め、一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、かかる比較結果に基づいて当該一の水平ラインにつき求められた対応関係を修正する。
【選択図】図2
Description
本発明は、例えばテレビ会議システム或いはテレビ電話システム等に適用され、送受信する画像を撮像してこれをあたかも仮想カメラにより撮像した仮想視点画像に再構成する画像処理装置及び方法、プログラムに関する。
テレビ電話システムやテレビ会議システム等に代表されるように、複数のユーザが互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムが提案されている。このようなシステムでは、相手の表示像をディスプレイ上に表示するとともに、当該ディスプレイを視認するユーザを撮影対象として撮像し、得られた画像信号を公衆回線、専用回線等のネットワークを介して相手側の画像処理装置へ送信することにより、双方のユーザに対し臨場感を持たせることが可能となる。
従来におけるテレビ会議システムでは、ディスプレイの中心付近に写し出される相手の表示像を視認するユーザを、ディスプレイ上部にあるカメラにより撮像するため、ユーザが下を向いた状態の画像が相手側のディスプレイ上に表示されることになる。このため、実際にディスプレイを視認するユーザ間において視線が不一致の状態で対話がなされることになり、互いに違和感を与えてしまうという問題がある。
理想的には、相手の表示像が写し出されるディスプレイの中心付近にカメラを設置すれば、双方のユーザの視線を一致させた状態で対話を実現することができる。しかしながら、かかるディスプレイの中心付近にカメラを設置することは物理的に困難である。
このような視線不一致に関する問題点を解決すべく、従来において、ディスプレイの両側に配置された複数のカメラにより撮影された入力画像に基づいて被写体の3次元情報を抽出し、抽出した3次元情報と受信者の視点位置に関する情報に応じて被写体の出力画像を再構成し、これを相手側のディスプレイへ表示させる画像処理装置が提案されている(例えば、特許文献1参照。)。この画像処理装置では、一直線上に配置された複数のカメラ映像から生成されたエピポーラ平面画像を用いて画面中心の仮想視点カメラ映像を合成することにより、利用者の視線を一致させて臨場感の高いコミュニケーションを実現することができる。
また、TV会議で互いの視線を一致させるべく、画面の左右に設置された2台のカメラで撮影した画像に基づいて3次元位置情報を生成する画像通信装置(例えば、特許文献2参照。)も提案されている。
ところで、上述の如く被写体の出力画像を再構成する際には、少なくとも2台のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像につき、画素位置毎に対応関係を求める。これにより、被写体の形状や各カメラまでの距離を三角測量原理によって求めることが可能となり、ひいては、ディスプレイの中心付近に仮想的に設置した仮想カメラにより撮像された仮想視点画像を精度よく生成することが可能となるからである。
ここで基本的な構成として、画面の左右に設置された2台のカメラにより撮像された各画像間につきステレオ視における対応付けを行う場合について図18を用いて説明をする。
各カメラの光学中心C1,C2により互いに異なる視点から撮影対象のM点へ光軸を合わせて撮像を行うと、これにより生成される画像Ps1,Ps2は、各カメラの撮像面に対して平行となる。ここで各カメラと、M点を結ぶ直線の方向は、各カメラにより撮像された各画像Ps1,Ps2の法線方向p1,p2に一致するが、これらは互いに異なる方向を指している。
ちなみに対応付けは、被写体としてのPを構成する同一の箇所にある画素位置と輝度成分を画像Ps1,Ps2間で抽出して対応をとるようにする。例えば、画像Ps1のエピポーラ線L1上にある画素m1の対応点については、画像Ps2のエピポーラ線L1’上に存在することとなり、そのL1’上を探索することにより、画素m1に最も類似する画素m1’を対応点として検出することができる。また、対応付けした画素m1,画素m1’を利用することにより三次元空間内の対象Pを容易に推定することができる。
具体的な対応付けの手法として、従来よりPixel-basedマッチング、Area-basedマッチング、Feature-basedマッチング等が提案されている。Pixel-basedマッチングは、一方の画像における画素の対応点を、他方の画像においてそのまま探索する方法である(例えば、非特許文献1参照。)。Area-basedマッチングは、一方の画像における画素の対応点を、他方の画像において探索する場合に、その対応点の周囲における局所的な画像パターンを参照しつつ実行する対応付けを行う(例えば、非特許文献2,3参照。)。またFeature-basedマッチングは、画像から濃淡エッジ等を抽出し、画像間の特徴部分のみを参照して対応付けを行う(例えば、非特許文献4,5参照。)。
しかしながら、これらの手法は、あくまでエピポーラ線上に位置する画素の中から類似度の高いものを対応点として特定するため、例えばユーザを被写体として撮像した場合に得られた画像Ps1,Ps2間において、図19に示すように、繰り返しパターン(例えば、両目部分)や、輝度変化が殆ど生じないいわゆる非特徴点(例えば壁の部分)において対応付けが困難であった。
また、異なる視点から撮像することにより得られる画像Ps1,Ps2では、被写体からカメラに至るまでの距離に基づく視差により、例えば図19に示す頬や耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。かかるオクリュージョン領域では、上記視差により、一方の画像Ps1に表示されている対象物の対応点が他方の画像Ps2において隠れてしまい、対応付けを行う場合に不都合が生じる場合があった。
また、異なる視点から撮像することにより得られる画像Ps1,Ps2は、例えば窓の部分等のように見る方向によって明るさが異なる領域や、ユーザの鼻の部分等のように正反射が生じる領域において、輝度成分,色成分につき格差が生じ、対応付けが困難となる場合があった。
このため、これら画像間の対応付けをより柔軟かつロバスト的に求めるために、グローバル最適化という考えに基づいた手法が従来において提案されたおり、その中の手法の一つとして、動的な計画法による画像間マッチング方法が提案されている(例えば、非特許文献6、7参照。)。この画像間マッチング方法では、特徴点同士の対応付けや、その間の伸縮マッチングによって、テクスチャ変化の少ない被写体や、上述した繰り返しパターンの問題を解決できることが示されている。
しかしながら、かかる画像間マッチング方法では、対応付けの精度の面において改善の余地があり、全てのパターンにおいて画像間のミスマッチの低減を図ることができなかった。
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、各カメラから得られる画像におけるスキャンライン上にある全ての画素につき動的な対応付け(伸縮マッチング)として取り扱うことにより、画像間の対応付けをよりロバストかつ高精度に行うことともに、かかる対応付けのミスマッチを極力低減させることが可能な画像処理装置及び方法、プログラムを提供することにある。
本発明を適用した画像処理装置は、上述した課題を解決するために、少なくとも2台のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求めるマッチング手段と、上記マッチング手段により求められた対応関係を修正する修正処理手段と、上記修正処理手段により修正された対応関係に基づいて、仮想的に設置される仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備え、上記マッチング手段は、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を計算するとともに、上記計算した類似度に応じて上記対応関係を求め、また求めた対応関係に基づいて視差を推定し、さらに一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、上記修正処理手段は、上記マッチング手段による対応関係の比較結果に基づいて当該一の水平ラインにつき求められた対応関係及び/又は視差を修正する。
本発明を適用した画像処理方法は、上述した課題を解決するために、少なくとも2台のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求めるマッチングステップと、上記マッチングステップにおいて求めた対応関係を修正する修正処理ステップと、上記修正処理ステップにおいて修正した対応関係に基づいて、仮想的に設置される仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップとを有し、上記マッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を計算するとともに、上記計算した類似度に応じて上記対応関係を求め、また求めた対応関係に基づいて視差を推定し、さらに一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、上記修正処理ステップでは、上記マッチングステップにおける対応関係の比較結果に基づいて当該一の水平ラインにつき求められた対応関係及び/又は視差を修正する。
本発明を適用したプログラムは、少なくとも2台のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求めるマッチングステップと、マッチングステップにおいて求めた対応関係を修正する修正処理ステップと、上記修正処理ステップにおいて修正した対応関係に基づいて、仮想的に設置される仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップとを有し、上記マッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を計算するとともに、上記計算した類似度に応じて上記対応関係を求め、求めた対応関係に基づいて視差を推定し、さらに一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、上記修正処理ステップでは、上記マッチングステップにおける対応関係の比較結果に基づいて当該一の水平ラインにつき求められた対応関係及び/又は視差を修正することをコンピュータに実行させる。
本発明では、少なくとも2台のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求め、一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、かかる比較結果に基づいて当該一の水平ラインにつき求められた対応関係を修正する。
これにより、各カメラから得られる画像におけるスキャンライン上にある全ての画素につき動的な対応付け(伸縮マッチング)として取り扱うことにより、画像間の対応付けをよりロバストかつ高精度に行うことともに、かかる対応付けのミスマッチを極力低減させることが可能となる。
以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。
本発明を適用した通信システム1は、例えば図1に示すように、A地点のユーザaと、B地点のユーザbとの間で、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。
A地点には、撮影対象としてのユーザaを互いに異なる視点から撮像するカメラ11a、カメラ12aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、カメラ11a,12aより撮像された各画像Pa1,Pa2に基づいて仮想視点画像Imaを生成し、これをネットワーク7を介してB地点へ送信する画像処理装置2aが配設されている。
B地点には、撮影対象としてのユーザbを互いに異なる視点から撮像するカメラ11b、カメラ12bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、カメラ11b,12bより撮像された各画像Pb1,Pb2に基づいて仮想視点画像Imbを生成し、これをネットワーク7を介してA地点へ送信する画像処理装置2bが配設されている。
なお、この画像処理装置2a,2bにより生成される上記仮想視点画像Ima,Imbは、相手の表示像が写し出されるディスプレイ5a,5bの中心付近において仮想的に設置された仮想カメラにより撮像される画像に相当する。
カメラ11a,11bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左側面に設置されてなり、カメラ12a,12bは、それぞれユーザa,b側から見てディスプレイの右側面に設置されてなる。このカメラ11、12は、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに、この通信システム1では、ユーザの視線の高さに合わせて設置された2台のカメラにより撮影対象を撮像する場合を例に挙げて説明をする。
ディスプレイ5a,5bは、それぞれネットワーク7を介して相手側地点から供給される仮想視点画像Imb,Imaに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Imb,Imaに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。
画像処理装置2a,2bは、通常、パーソナルコンピュータ(PC)等の電子機器で構成される。これらの画像処理装置2a,2bは、ネットワーク7を介して互いに通信するための機能を備え、相手側からの要求に応じて画像や音声を送信する。なお、画像処理装置2a,2bの構成については後において詳細に説明をする。
ネットワーク7は、例えば画像処理装置2と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク7には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、画像処理装置2による要求を受けて、自身に格納してある所定の情報を送信する。
次に、画像処理装置2の構成について、画像処理装置2aを例にとり説明をする。画像処理装置2aは、図2に示すように、接続されたカメラ11a,12aより画像Pa1,Pa2が供給される補正部20と、この補正部20にそれぞれ接続されるカメラキャリブレーション部26並びに第1の切出処理部41,第2の切出処理部42と、各切出処理部41,42に接続されるマッチング部29と、さらにこのマッチング部29に接続される視差マップ修正処理部43と、視差マップ修正処理部43に接続される対応点修正処理部44と、対応点修正処理部44並びに切出処理部41,42に接続されてなる仮想視点画像生成部30と、仮想視点画像生成部30により生成された仮想視点画像Imaを相手側の端末装置2bへ送信するための出力制御部31と、各カメラ11a,12aに対するユーザaの相対的な位置関係を示す相対位置情報を生成する情報生成部33とを備えている。
補正部20は、カメラ11a,12aから送信される各画像Pa1,Pa2につき幾何学的な画像補正を施すための幾何学的画像補正部21,22と、これら幾何学的画像補正部21,22により画像補正が施された画像を正規化するための正規化処理部24とを備えている。
幾何学的画像補正部21,22は、カメラキャリブレーション部26から送信される、上記カメラ11a,12aの幾何学的な位置関係を含む制御情報に基づいて、各画像Pa1,Pa2を補正する。このカメラ11a,12aの幾何学的な位置関係は、上述したカメラキャリブレーション部26から送信される制御情報においてパラメータ化されていてもよい。また、各カメラ11a,12aの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、カメラキャリブレーション部26においてこれらをパラメータ化し、画像を補正する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、幾何学的画像補正部21,22は、各カメラ11a,12aの撮影方向及び/又は撮影画角に応じてリアルタイムに画像補正することができる。
なお、このカメラキャリブレーション部26は、同様にカメラ11a,12aの各レンズにおける色収差や歪み、光軸のずれを、例えば特開2000−350239号公報や、特開平11−53549号公報に示されているカメラキャリブレーション手法に基づいてパラメータ化し、これらを各補正部20へ送信するようにしてもよい。かかる場合において補正部20は、取得したパラメータに基づいて、カメラ11a,12aからの画像を射影変換することにより基準となる画像へ合わせ込む。輝度成分等についても同様にカメラ11a,12aからの画像間において輝度の誤差が最小となるような射影変換行列を用いることにより互いの調整を図る。
正規化処理部24は、各幾何学的画像補正部21,22において補正された画像がそれぞれ供給され、これらにつき幾何学的正規化処理を施す。この正規化処理部24は、各カメラにより撮像された各画像Pa1,Pa2の法線方向を合わせる。即ち、この正規化処理部24は、各画像Pa1,Pa2の法線方向を仮想的に設定された仮想平面πの法線方向に合わせることによりこれを正規化し、それぞれ正規化画像Pm1,Pm2,を生成する。かかる場合において、正規化処理部24は、各カメラ11a,12aにより撮像された各画像Pa1,Pa2を上記仮想平面πへ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面πの法線方向に合わせる。
ちなみに、カメラキャリブレーション部26は、カメラ11a,12aとしていわゆる固定視点カメラを適用する場合には、予めカメラキャリブレーション部26により画像Pa1,Pa2の法線方向を取得するようにしてもよい。また、各カメラ11a,12aの撮影方向及び/又は撮影画角を変更しつつ撮像を実行する場合には、カメラキャリブレーション部26においてこれらをパラメータ化し、画像を正規化する際にこれらのパラメータを制御情報に含めるようにしてもよい。これにより、ユーザa,bの位置に応じて撮影方向等を順次変更しつつ撮像を行う場合においても柔軟に対応することができる。
また、このカメラキャリブレーション部26において、これらのパラメータを図示しないROMやRAMへ格納しておくことにより、補正部20は、状況に応じて随時これらを参照することができ、高速な補正処理を実現することができる。またカメラキャリブレーション部26は、上記カメラ11a,12aから画像Pa1,Pa2が供給される度にこれらのパラメータを求めることにより、幾何学的画像補正部21,22において精度の高い補正処理を実現することができる。
第1の切出処理部41は、正規化処理部24により正規化された正規化画像Pm1が供給される。この第1の切出処理部41は、この正規化画像Pm1から前景画像領域と、その背景画像とをそれぞれ分離する。ちなみにこの前景画像領域は、ユーザaを構成する顔や上半身等が含まれている画像領域を抽出したものであり、背景画像は、画像Pm1から前景画像領域を除いた画像である。なおこの背景画像は、ユーザaが存在しない場合において、同一の撮影方向,撮影画角によりカメラ11aを介して撮像を行った結果得られる画像に相当する。
第2の切出処理部42は、第1の切出処理部41と同様に、正規化処理部24により正規化された正規化画像Pm2から前景画像領域と、その背景画像とをそれぞれ分離する。
ちなみに、各切出処理部41,42は、例えば各カメラ11a,12aにより撮像された各画像の色相並びに彩度に基づいて、或いは各カメラに対する被写体の距離に基づいて、これらの前景画像領域と背景画像とを分離するようにしてもよい。
マッチング部29は、各切出処理部41,42において背景画像が切り出された正規化画像Pm1,Pm2がそれぞれ供給される。このマッチング部29は、これら正規化画像Pm1,Pm2を構成する各画素位置につき対応関係を求める。
ちなみに、この対応付けは、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を正規化画像Pm1,Pm2間で抽出して対応をとるようにする。例えば図3に示すように、正規化画像Pm1のスキャンラインL1上にある画素P11の対応点については、正規化画像Pm2のスキャンラインL1’上に存在することとなり、そのL1’上を探索することにより、最も類似する画素位置P11’を対応点として検出することができる。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、正規化画像Pm1,Pm2を構成する全ての画素に対して実行してもよい。
情報生成部33は、画素位置毎に対応関係を求める際に必要な情報を生成し、これをマッチング部29へ供給する。情報生成部33は、この生成すべき相対位置情報をカメラ11a,12aから被写体としてのユーザaに至るまでの距離を識別し、これに基づく視差情報を生成するようにしてもよい。かかる距離の識別については、各カメラ11a,12aにより生成された画像情報からDepth情報を取得することにより実行してもよい。
また、この情報生成部33は、生成すべき相対位置情報をユーザaのディスプレイ5aに対する視線方向に基づいて生成してもよい。かかる場合において情報生成部30は、カメラ11a,12aから供給される画像Pa1,Pa2からユーザaの視線方向を取得し、これに基づいて相対位置情報を生成する。これにより、いわば仮想カメラの撮影方向をユーザaの視線方向に合わせ込むことと同様の処理を実現することができる。
視差マップ修正処理部43は、マッチング部29により互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。この視差マップ修正処理部43は、視差マップを修正し、かかる修正した結果を対応点修正処理部44へ通知する。
対応点修正処理部44は、視差マップ修正処理部43により修正された視差マップに基づいて、マッチング部29により求められた対応関係を修正する。この対応点修正処理部44は、この修正した対応関係を仮想視点画像生成部30へ通知する。
仮想視点画像生成部30は、対応点修正処理部44により修正された結果得られる、互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。また、仮想視点画像生成部30は、互いに対応付けされた画素位置並びにその輝度成分から、情報生成部33より生成された相対位置情報に応じて、新たに生成すべき仮想視点画像Imaを構成する画素位置並びにその輝度成分を求める。仮想視点画像生成部30は、求めた画素位置並びにその輝度成分により構成される仮想視点画像Imaを出力制御部31へ送信する。
出力制御部31は、送信された仮想視点画像Imaを、ネットワーク7を介して画像処理装置2bへ送信するように制御する。かかる場合において、この出力制御部31は、カメラ11a,12aにより生成された画像Pa1,Pa2を単独で画像処理装置2bへ送信するように制御してもよい。
次に、この画像処理装置2aにおける具体的な動作につき説明をする。
撮影対象としてのユーザaは、カメラ11a,12aにより互いに異なる角度から撮影される。その結果、カメラ11a,12aにより生成される画像Pa1,Pa2上のユーザaの視線方向、顔の向き等は、互いに異なる状態となる。このような画像Pa1,Pa2は、それぞれ幾何学的画像補正部21,22に供給され、カメラキャリブレーション部26により予め求められた各カメラ11a,12aのレンズ歪みや画像中心等のパラメータに基づき、画像の歪みや画像中心がずれないように補正を行う。
これら幾何学的画像補正部21,22において補正された各画像Pa1,Pa2は、正規化処理部24へ供給されると以下に示される方法に基づいて正規化されることになる。
図4は、各カメラ11a,12aにより撮像した画像Pa1, Pa2を正規化する場合につき示している。この図4に示されるように、各カメラ11a,12aの光学中心C1,C2により互いに異なる視点から撮影対象のM点へ光軸を合わせて撮像を行うと、これにより生成される画像Pa1,Pa2は、各カメラ11a,12aの撮像面に対して平行となる。ここで各カメラ11a,12aと、M点を結ぶ直線の方向は、各カメラにより撮像された各画像Pa1,Pa2の法線方向k1,k2に一致するが、これらは互いに異なる方向を指している。これら各画像Pa1,Pa2の法線方向k1,k2が同一方向となるように幾何学的正規化を行うことにより、画像面が互いに平行な正規化画像Pm1,Pm2を作り出す。
この幾何学的正規化は、カメラキャリブレーション部26により予め求められた射影行列P1,P2を用いて、カメラ内部パラメータA1,A2、回転行列R1,R2、転移行列T1,T2を推定することにより実現する。その結果、補正後の画像撮像面の法線方向k1’,k2’が平行化された正規化画像Pm1,Pm2を生成することができる。
ちなみに、この幾何学的正規化を施す場合には、光学中心C1,C2を含む仮想平面πを設定しておき、この仮想平面πの法線方向に対してこれら各画像Pa1,Pa2の法線方向が同一方向となるように、射影行列P1,P2を用いて正規化するようにしてもよい。
正規化処理部24において上述の如く射影変換された正規化画像Pm1,Pm2は、それぞれ第1の切出処理部41,第2の切出処理部42により背景画像が切り出される。各正規化画像Pm1,Pm2から背景画像を切り出した結果、図5に示すようにユーザaのみを示す画像領域が選択的に抽出された前景画像を取得することができる。これらユーザaのみを示す画像領域間で後述するマッチング処理を行うことにより、背景画像による影響を軽減させた、より効率的なマッチング処理を行うことができ、ひいては仮想視点画像Imaを精度よく作成することができる。
ちなみに、この第1の切出処理部41,第2の切出処理部42により背景画像が切り出された各正規化画像Pm1,Pm2は、マッチング部29において撮影対象と関連させつつ、画素位置毎に対応付けされる。本発明においては、マッチング部29の前段にある正規化処理部24において予め正規化され、エピポーラ線が平行化されているため、画素探索のロバスト性を向上させることができる。
これら正規化画像Pm1とPm2につき、このマッチング部29において対応付けを行う場合において、図4に示すように正規化画像Pm1のスキャンラインL1上にある画素P11の対応点については、正規化画像Pm2のスキャンラインL1’上に存在することとなり、そのL1’上を探索することにより、対応点としての画素P11’を検出することができる。
例えば図6(a)に示すように、被写体としてのユーザaがそれぞれ写し出された正規化画像Pm1におけるスキャンラインL1上の画素と、正規化画像Pm2におけるスキャンラインL1’上の画素とを対応付けする場合に、スキャンラインL1上の特徴点の点列R1を左から順に{a1,a2,a3,a4,a5}とし、またスキャンラインL1’の特徴点の点列R2を左から順に{b1,b2,b3,b4,b5}とする。ここで、互いのスキャンラインL1,L1’上にある特徴点R1,R2を被写体との関係において対応付けるとき、先ず、a1に対してL1’上の特徴点はb1が該当し1:1で対応することとなるが、ユーザaの右耳を構成する特徴点a2,a3に対してL1’上の特徴点はb2が該当し、2:1で対応することとなる。同様に、ユーザaの左耳を構成する特徴点a4に対してL1’上の特徴点はb3,b4が該当し、1:2で対応することとなる。なお、a5に対してL1’上の特徴点はb5が該当し1:1で対応することとなる。
このように、異なる視点から撮像することにより得られる正規化画像Pm1,Pm2では、被写体からカメラに至るまでの距離に基づく視差により、ユーザaの耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。かかるオクリュージョン領域では、上記視差により、一方の正規化画像に表示されている被写体の対応点が他方の正規化画像にて隠れてしまうため、従来と同様に、{(a1, b1)、(a2, b2)、(a3, b3)、(a4, b4)、(a5, b5)}と対応付けてしまうと、誤差が生じることになる。
このため、本発明を適用した画像処理装置2aにおけるマッチング部29では、かかる視差を識別することにより、図6(a)に示される正規化画像の特徴点の点列R1,R2を、結果的に図6(b)に示されるように{(a1, b1)、(a2, b2)、(a3, b2)、(a4, b3)、(a4, b4)、(a5, b5)}と対応付けられるように制御する。
具体的には、各正規化画像Pm1,Pm2におけるスキャンライン上にある全ての画素につき、図6(c)に示すようなDynamic Programming(DP:最短経路探索)を利用した動的な対応付けを行う。
この図6(c)におけるx軸にスキャンラインL1上の特徴点の点列R1{a1,a2,a3,a4,a5}を配列し、またy軸をスキャンラインL1’上の特徴点の点列R2{b1,b2,b3,b4,b5}とするとき、図6(b)に示される対応関係をこのグラフにあてはめると、図6(c)に示される太線で示される経路をとることになる。以下、この太線で示される対応点を結ぶ直線を最適経路という。
この最適経路において右上に線形増加する場合には、スキャンラインL1,L1’上を左から右へシフトさせて対応付けする際に、互いの特徴点を1:1で順次シフトさせて対応させることを示している。右上に線形増加する最適経路の例として、スキャンラインL1,L1’上の特徴点(a1, b1)から左から右へそれぞれ一つずつシフトさせることにより特徴点(a2, b2)を正確に対応付けすることができる。
また、この最適経路において水平方向にシフトする場合には、正規化画像Pm1,Pm2間において視差が生じた結果、正規化画像Pm1において示されている特徴点が正規化画像Pm2において隠れてしまったことを示唆している。かかる場合には、正規化画像Pm2上にある1の特徴点に対して、正規化画像Pm1上にある複数の特徴点を対応付ける。この水平方向にシフトする最適経路の例として、スキャンラインL1,L1’上の特徴点(a2, b2)においてユーザaの右耳を示すb2は、上述した視差により更にa3とも対応するため、b2をそのまま維持しつつこれにa3を対応付ける。
また、この最適経路において垂直方向へシフトする場合には、正規化画像Pm1,Pm2間において視差が生じた結果、正規化画像Pm2において示されている特徴点が正規化画像Pm1において隠れてしまったことを示唆している。かかる場合には、正規化画像Pm1上にある1の特徴点に対して、正規化画像Pm2上にある複数の特徴点を対応付ける。この垂直方向にシフトする最適経路の例として、スキャンラインL1,L1’上の特徴点(a4, b3)においてユーザaの左耳を示すa4は、上述した視差により更にb4とも対応するため、a4をそのまま維持しつつこれにb4を対応付ける。
マッチング部29は、これら対応付けを、互いの正規化画像Pm1,Pm2を構成する全てを構成する、或いは一部を構成するスキャンラインL1,L1’間において実行する。そしてスキャンラインL1,L1’毎に上述した最適経路を求めることにより、特徴点の点列R1,R2間における対応付けを行う。
図7は、スキャンラインL1,L1’上の任意の特徴点(x,y)に至るまでの最適経路を求める場合につき示している。
この特徴点(x,y)に至る最適経路は、特徴点(x−1,y−1)から左から右へそれぞれ一つずつシフトさせることにより図7に示されるグラフにおいて右上に線形増加し、或いは特徴点(x−1,y)においてyをそのまま維持しつつ水平方向に1シフトさせることにより図7に示されるグラフにおいて特徴点(x−1,y)から水平方向へ移動する。さらに、この特徴点(x,y)に至る最適経路は、特徴点(x,y−1)においてxをそのまま維持しつつ垂直方向へ1シフトさせることにより図7に示されるグラフにおいて特徴点(x,y−1)から垂直方向へ移動することになる。
即ち、特徴点(x,y)を通る最適経路は、図7に示すグラフにおいて、その左,左下,下に位置する特徴点(x−1,y),(x−1,y−1),(x,y−1)の何れかを経ることになる。本発明マッチング部29は、何れの特徴点(x−1,y),(x−1,y−1),(x,y−1)を経て特徴点(x,y)へ至るのかにつき、以下に説明する関数を順次求めてゆくことにより決定する。
マッチング部29は、以下に示すマッチングコスト関数d(x,y)と、動的なオクリュージョンコスト関数dx(x,y),dy(x,y)を求め、求めた各関数に応じて上述した最適経路を求める。マッチングコスト関数d(x,y)は、対応関係を求める各画素位置間における輝度成分及び色成分の類似度を示す関数であり、またオクリュージョンコスト関数dx(x,y)は、正規化画像Pm1の正規化画像Pm2に対する被写体画像の隠れ度合いを示す関数であり、またオクリュージョンコスト関数dy(x,y)は、正規化画像Pm2の正規化画像Pm1に対する被写体画像の隠れ度合いを示す関数である。これらオクリュージョンコスト関数dx(x,y),dy(x,y)は、被写体の各画像間における視差が反映される形となる。
先ず、マッチングコスト関数d(x,y)を求める方法につき説明をする。
d(x,y)につき、比較する輝度成分又は色成分のうち何れに重み付けをするか決定する。この重み付けは、重み付け係数αを用いて、以下の式(1)に基づいて行う。
dk(s,t)=α×dYk(s,t)+(1−α)dCk(s,t)・・・・・(1)
ここで(s,t)は、特徴点(x,y)に対応する正規化画像Pm1、正規化画像Pm2における画素位置を表している。またkは、正規化画像Pm1、正規化画像Pm2の何行目に該当するかを示している(つまりk=y)。この式(1)においてdYk(s,t)は、正規化画像Pm1と正規化画像Pm2との座標(s,t)間における輝度成分の差分絶対値を表し、以下の(2)式で定義される。
dYk(s,t)=|Y1k(s,t)−Y2k(s,t)|・・・・・(2)
また、この式(1)においてdCk(s,t)は、正規化画像Pm1と正規化画像Pm2との間における色成分の差分絶対値を表し、以下の(3)式で定義される。
dCk(s,t)=|C1k(s,t)−C2k(s,t)|・・・・・(3)
即ち、上記式(1)においてαをより高く設定することにより、求めるdk(s,t)につき、輝度成分の差分絶対値dYk(s,t)の成分をより反映させることができる。また上記式(1)においてαをより小さく設定することにより、求めるdk(s,t)につき、色成分の差分絶対値dCk(s,t)の成分をより反映させることができる。ちなみに、このαについては、色成分のマッチングコストと、輝度成分のマッチングコストとの平均値を割り当てるようにしてもよい。
dk(s,t)=α×dYk(s,t)+(1−α)dCk(s,t)・・・・・(1)
ここで(s,t)は、特徴点(x,y)に対応する正規化画像Pm1、正規化画像Pm2における画素位置を表している。またkは、正規化画像Pm1、正規化画像Pm2の何行目に該当するかを示している(つまりk=y)。この式(1)においてdYk(s,t)は、正規化画像Pm1と正規化画像Pm2との座標(s,t)間における輝度成分の差分絶対値を表し、以下の(2)式で定義される。
dYk(s,t)=|Y1k(s,t)−Y2k(s,t)|・・・・・(2)
また、この式(1)においてdCk(s,t)は、正規化画像Pm1と正規化画像Pm2との間における色成分の差分絶対値を表し、以下の(3)式で定義される。
dCk(s,t)=|C1k(s,t)−C2k(s,t)|・・・・・(3)
即ち、上記式(1)においてαをより高く設定することにより、求めるdk(s,t)につき、輝度成分の差分絶対値dYk(s,t)の成分をより反映させることができる。また上記式(1)においてαをより小さく設定することにより、求めるdk(s,t)につき、色成分の差分絶対値dCk(s,t)の成分をより反映させることができる。ちなみに、このαについては、色成分のマッチングコストと、輝度成分のマッチングコストとの平均値を割り当てるようにしてもよい。
d(x,y)は、(1)式により求められるdk(s,t)に基づいて、更に以下の(4)式により求められる。
d(x,y)=(Σdk(s,t))/2K k=−K,・・,K−1
・・・・・・・・・(4)
この(4)式は、スキャンラインの上下に位置する各画素との間で平均をとることにより、d(x,y)を求めることができることを意味している。この(4)式により、求めるd(x,y)につきスキャンラインの上下に位置する各画素との相関関係を反映させることができる。これにより対応付け精度の向上を大幅に図ることが可能となる。
d(x,y)=(Σdk(s,t))/2K k=−K,・・,K−1
・・・・・・・・・(4)
この(4)式は、スキャンラインの上下に位置する各画素との間で平均をとることにより、d(x,y)を求めることができることを意味している。この(4)式により、求めるd(x,y)につきスキャンラインの上下に位置する各画素との相関関係を反映させることができる。これにより対応付け精度の向上を大幅に図ることが可能となる。
即ち、上述の方法により求められるマッチングコストd(x,y)は、正規化画像Pm1と正規化画像Pm2の画素位置(s,t)における輝度成分、或いは色成分の差分絶対値が大きくなるにつれて増加する。換言すれば、正規化画像Pm2と正規化画像Pm1の画素位置(s,t)における輝度成分、或いは色成分の差異が大きくなるにつれて増加し、またこれらが類似するにつれて小さくなる。即ち、このマッチングコストd(x,y)により、正規化画像Pm1と正規化画像Pm2の画素位置(s,t)における輝度成分、或いは色成分の類似度を識別することが可能となる。
次にオクリュージョンコスト関数dx(x,y),dy(x,y)を求める方法につき説明をする。
これら各オクリュージョンコスト関数dx(x,y),dy(x,y)は、情報生成部33におより生成される視差情報に基づいて生成される。カメラ11a,12aから被写体としてのユーザaに至るまでの距離が小さくなるにつれて(視差が大きくなるにつれて)、オクリュージョン領域の発生する確率が高くなる。かかる場合において、マッチング部29は、オクリュージョンコスト関数dx(x,y),dy(x,y)を下げることにより対応する。一方、カメラ11a,12aから被写体としてのユーザaに至るまでの距離が長くなるにつれて(視差が小さくなるにつれて)、オクリュージョン領域の発生する確率が小さくなる。かかる場合において、マッチング部29は、オクリュージョンコスト関数dx(x,y),dy(x,y)を上げることにより対応する。
各オクリュージョンコスト関数dx(x,y),dy(x,y)は、以下の式(5)、(6)に基づいて求めることができる。
dx(x,y)=β×d(x,y)+T0・・・・・・・・(5)
dy(x,y)=γ×d(x,y)+T1・・・・・・・・(6)
ここで、d(x,y)は、マッチングコストであり、左画像と右画像の輝度値、色合いのばらつきを解消させるべく、オクリュージョンコストを動的に調整するものである。β、γは、dp(x,y)の変化率を表しており、予め実験的に求めることができる。またT0、T1は、初期オクリュージョンコスト定数であり、これについても予め実験的に求めることができる。
dx(x,y)=β×d(x,y)+T0・・・・・・・・(5)
dy(x,y)=γ×d(x,y)+T1・・・・・・・・(6)
ここで、d(x,y)は、マッチングコストであり、左画像と右画像の輝度値、色合いのばらつきを解消させるべく、オクリュージョンコストを動的に調整するものである。β、γは、dp(x,y)の変化率を表しており、予め実験的に求めることができる。またT0、T1は、初期オクリュージョンコスト定数であり、これについても予め実験的に求めることができる。
マッチング部29は、これら各関数dx(x,y),d(x,y),dy(x,y)を求めた後、それぞれ以下の式(7)〜式(9)に基づいて累積マッチングコストC(x−1,y),C(x−1,y−1),C(x,y−1)を加算し、総コストk1,k2,k3を算出する。
k1=C(x−1,y)+dx(x,y)・・・・・・・・(7)
k2=C(x−1,y−1)+d(x,y)・・・・・・・(8)
k3=C(x,y−1)+dy(x,y)・・・・・・・・(9)
ここでC(x−1,y),C(x−1,y−1),C(x,y−1)は、それぞれ特徴点(x−1,y),(x−1,y−1),(x,y−1)において求められた累積マッチングコストを示している。ちなみに、特徴点(x,y)における累積マッチングコストC(x,y)は、以下の式(10)に示すように、求めたk1,k2,k3の中から最小となるものが割り当てられる。
C(x,y)=min{k1,k2,k3}・・・・・・・(10)
マッチング部29は、求めた総コストk1,k2,k3の中から最小となるものを選択することにより最適経路を求める。
k1=C(x−1,y)+dx(x,y)・・・・・・・・(7)
k2=C(x−1,y−1)+d(x,y)・・・・・・・(8)
k3=C(x,y−1)+dy(x,y)・・・・・・・・(9)
ここでC(x−1,y),C(x−1,y−1),C(x,y−1)は、それぞれ特徴点(x−1,y),(x−1,y−1),(x,y−1)において求められた累積マッチングコストを示している。ちなみに、特徴点(x,y)における累積マッチングコストC(x,y)は、以下の式(10)に示すように、求めたk1,k2,k3の中から最小となるものが割り当てられる。
C(x,y)=min{k1,k2,k3}・・・・・・・(10)
マッチング部29は、求めた総コストk1,k2,k3の中から最小となるものを選択することにより最適経路を求める。
ここで、k1が最小となる場合には、視差が大きくなることにより、正規化画像Pm1において示されている特徴点が正規化画像Pm2において遮蔽されたことを意味している。かかる場合には、図7矢印J1に示すように特徴点(x−1,y)から水平方向にシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。
またk3が最小となる場合には、視差が大きくなることにより、正規化画像Pm2において示されている特徴点が正規化画像Pm1において遮蔽されたことを意味している。かかる場合には、図7矢印J3に示すように、特徴点(x,y−1)から垂直方向にシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。
更に、k2が最小となる場合には、正規化画像Pm1と正規化画像Pm2の画素位置(s,t)における輝度成分、或いは色成分の類似度が高いことを意味している。かかる場合には、図7矢印J2に示すように特徴点(x−1,y−1)から水平、垂直方向に一つずつシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。
図8(b)は、図8(a)に示される正規化画像Pm1と正規化画像Pm2におけるスキャンラインL1,L1’上にある各特徴点の画素成分(輝度又は色成分)の対応関係を示している。
この図8(a)に示す正規化画像Pm1において、ユーザaの両側に示される壁の凹部L2,L3、並びに正規化画像Pm2において、ユーザaの両側に示される壁の凹部L2’,L3’は、図8(b)において画素成分の差分としてライン状に明確に現れている。同様に、ユーザaを構成する画素成分については、図8(b)の中心付近において画素成分の差分として明確に現れている。
この図8(b)において、最適経路が、スキャンラインL1,L1’上にある各特徴点において同一の画素成分の交点を通過している場合には、k2が最小となる結果、当該画素位置(s,t)における輝度成分、或いは色成分の類似度が高いことが優先されたことを意味している。これに対して、最適経路が、スキャンラインL1,L1’上にある各特徴点において同一の画素成分の交点以外を通過している場合には、k1又はk3が最小となる結果、視差により何れかの画像Pm1,Pm2が遮蔽されたことを意味している。
このようにして特徴点(x−1,y),(x−1,y−1),(x,y−1)の何れかから特徴点(x,y)に至るまでの最適経路が求められることになる。この最適経路が求められるということは、輝度成分及び色成分の類似度と、正規化画像Pm1,Pm2間の視差に応じて最適な対応関係が求められていることを意味しており、上記(10)式より得られるC(x,y)についても、画素位置毎に対応関係を求める上での最適な累積マッチングコストとして定義されることになる。これら累積マッチングコストC(x,y)を、上記グラフにおいて上、右上、右に位置する特徴点に至るまでの最適経路を求める際に累積的に参酌することができるため、対応付けの精度をより向上させることができる。
また、マッチング部29では、各関数dx(x,y),d(x,y),dy(x,y)を全く異なるコンセプトに基づいて算出するため、得られた総コストk1,k2,k3を式(10)に基づいて単純に比較する場合に、撮影環境や被写体に応じて誤差が生じる場合もある。かかる場合には、式(5),(6)におけるβ,γ,T0,T1を撮影環境や被写体に応じて予め最適化しておくことにより、各関数dx(x,y),d(x,y),dy(x,y)間の格差を解消することができる。
このように本発明を適用した画像処理装置2aにおけるマッチング部29では、上記各正規化画像Pm1,Pm2間における対応関係を求める際に、識別した類似度及び視差のうち何れを優先させるか決定し、類似度を優先させる場合には、水平ライン上にある同一画素位置間において対応付け、視差を優先させる場合には、一の画素位置に対し同一の水平ライン上にある複数の画素位置を対応付ける。これにより、オクリュージョン領域が存在する場合においてもより正確な対応付けを行うことができる。また、上述の手法に基づいて対応付けを行うことにより、例えば両目部分等の繰り返しパターンや、輝度変化が殆ど生じないいわゆる非特徴点(例えば壁の部分)においても対応付けの精度を向上させることができる。更に、例えば窓の部分等のように見る方向によって明るさが異なる領域や、ユーザの鼻の部分等のように正反射が生じる領域においても、輝度成分,色成分の格差に支配されることが少なく、比較的に容易に対応付けを行うことができる。
なお、本発明を適用した画像処理装置2aにおけるマッチング部29では、あくまで上記類似度と上記視差を識別し、識別した類似度及び視差に応じて上記対応関係が求められていれば、上述の効果を得ることができることは勿論である。
なお、このマッチング部29において求められた対応関係において僅かながら非対応な画像位置同士で対応付けがなされる場合がある(以下、これをミスマッチという。)。かかるミスマッチが生じた場合には、スキャンライン上の複数の対応点が纏った形でくずれてしまい、かかるスキャンライン上においてカメラ11aまたは12aから同じ距離を示す画素が連続して推定されることになる。
このため本発明では、かかるミスマッチに応じたエラー特性に着目し、人物領域内の距離連続性拘束により、上下に亘って配列することになるスキャンライン間の対応関係が大きく異なる場合にマッチング部29、視差マップ修正処理部43、さらには対応点修正処理部44において以下に示す修正処理を行う。
先ず、マッチング部29により各スキャンライン上の画素位置毎に求めた対応関係に基づいた図9に示すような視差マップを作成する。この視差マップは、マッチング部29において求められた対応関係を画素毎に輝度で表示したものである。例えばスキャンラインLにおいてミスマッチが生じた場合には、図9に示す視差マップにおいて輝度の差としてこれが現れることになる。
次に、このようなラインWが入るスキャンラインLの対応点の信頼性を評価する。実際にこの信頼性の評価は、かかるスキャンラインLの上下に位置する他のスキャンラインの対応点との差異を検出する。
具体的には、図10に示すようにスキャンラインLにおける画素位置(x,y)につき求めた対応関係から得られた視差値D(x,y)に対し、その上下に位置する画素位置(x,y−k){k=±1,・・・・・・,±N}につき求めた対応関係から得られた視差値D(x,y−k){k=±1,・・・・・・,±N}を比較する。この視差値D(x,y)は、視差であり、左画像内のある画素m1(x1,y1)と右画像内のある画素m2(x2,y2)との対応関係が得られた場合、そのx1とx2との差(x1−x2)を視差とするものである。計算上の便宜のため、一般的に(x1−x2)の絶対値を視差としている。ちなみに、本実施の形態において、カメラ補正(平行化)が行われた結果、同一の水平ライン上での対応付け処理を行っているため、y1=y2となっている。
実際には、これらの視差の差異を表す関数ED(x,y)を求める。この関数ED(x,y)は、以下の(11)式で表される。
ED(x,y)=|D(x,y)−D(x,y−k)|{k=±1,・・・・・・,±N}・・・・・(11)
この(11)式に基づいて求めたED(x,y)が第1の閾値以下の場合には、かかる画素位置につき求めた視差値D(x,y)は正規化画像Pm1,Pm2間において正確な対応点を表していることが分かる。これに対して、求めたED(x,y)が第1の閾値を超えている場合には、かかる画素位置につき求めた視差値D(x,y)は正規化画像Pm1,Pm2間において正確な対応点を表していないことが分かる。このような画素位置について求めた視差値D(x,y)については、当該画素位置と関連させてマークを付ける。
ED(x,y)=|D(x,y)−D(x,y−k)|{k=±1,・・・・・・,±N}・・・・・(11)
この(11)式に基づいて求めたED(x,y)が第1の閾値以下の場合には、かかる画素位置につき求めた視差値D(x,y)は正規化画像Pm1,Pm2間において正確な対応点を表していることが分かる。これに対して、求めたED(x,y)が第1の閾値を超えている場合には、かかる画素位置につき求めた視差値D(x,y)は正規化画像Pm1,Pm2間において正確な対応点を表していないことが分かる。このような画素位置について求めた視差値D(x,y)については、当該画素位置と関連させてマークを付ける。
図11は、かかるマークが付された画素位置を示している。上述の処理をスキャンライン毎に全て画素位置につき実行することにより、全ての画素位置毎に求めた対応関係につき、その上下方向に位置する他の水平ライン上の各画素位置との間で信頼性を確認することができ、正確な対応点を表していない、いわゆる相異度の高い画素位置のみにつき選択的にマークを付けることができる。
次に、このようなマークが付された画素位置が連続している個数をカウントする。その結果、かかる個数が第2の閾値を超えている場合に、かかる連続してマークが付された画素位置につきミスマッチが生じているものであると判断することができる。
視差マップ修正処理部43は、かかるミスマッチが生じた画素位置からなる画像領域につき、正確な対応付けを再度行うことによりミスマッチを解消する。具体的には、ミスマッチが生じた画像領域を含む一のスキャンラインの上下に位置する他のスキャンラインにつき求めた対応関係をそのまま用いることによりミスマッチを解消する。かかる場合には、当該他のスキャンラインにつき求められている視差値D(x,y−k)をそのまま一のスキャンラインに適用することにより、これを実現することが可能となる。
図12は、視差マップ修正処理部43においてかかるミスマッチを解消させた結果得られる視差マップを示している。ミスマッチが生じていた領域につき正確な対応付けがなされた結果、ラインWが解消されているのが分かる。
また、対応点修正処理部44では、視差マップ修正処理部43において修正された対応関係に基づいて仮想視点画像Imaの各画素位置並びにその輝度成分を求め、これを仮想視点画像生成部30へ送信する。
仮想視点画像生成部30では、上述の如くマッチング部29において求められた対応関係に基づいて、仮想視点画像Imaを生成する。例えばマッチング部29において、正規化画像Pm1における画素位置P11に対して、正規化画像Pm2における画素位置P11’がその対応点として特定されていた場合に、かかる画素位置P11の座標を図13に示すように(x1,y1)とし、また画素位置P11’の座標を(x2,y2)とする。仮想視点画像生成部31は、かかる画素位置P11、P11’に対応する仮想視点画像Ima上の画素位置の座標(xt,yt)を、相対位置情報としてのm(≦1)に基づいて以下の式(11)により決定することができる。
(xt,yt)=(1−m)×(x1,y1)+m×(x2,y2)・・・(11)
また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、かかる仮想視点画像Ima上の画素位置Phにおける輝度成分Ptを以下の式(12)により決定することができる。
(xt,yt)=(1−m)×(x1,y1)+m×(x2,y2)・・・(11)
また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、かかる仮想視点画像Ima上の画素位置Phにおける輝度成分Ptを以下の式(12)により決定することができる。
Pt=(1−m)×J11+m×J11’ ・・・(12)
このように仮想視点画像生成部31は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのmに応じて決定することができる。ここでmは、仮想カメラにおける仮想視点がカメラ11aに近くなるにつれて小さくなり、また仮想視点がカメラ12aに近くなるにつれて大きくなる。
このように仮想視点画像生成部31は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのmに応じて決定することができる。ここでmは、仮想カメラにおける仮想視点がカメラ11aに近くなるにつれて小さくなり、また仮想視点がカメラ12aに近くなるにつれて大きくなる。
このため、式(11)に基づいて決定される座標(xt,yt)は、仮想視点がカメラ11aに近づくにつれて画素位置P11の座標(x1,y1)に近づき、また仮想視点がカメラ12aに近づくにつれて画素位置P12の座標(x2,y2)に近づくことになる。即ち、座標(xt,yt)を、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaの位置を自在に変化させることができる。
また、式(12)に基づいて決定される輝度成分Ptは、仮想視点がカメラ11aに近づくにつれて画素位置P11の輝度成分J11に近づき、仮想視点がカメラ12aに近づくにつれて画素位置P11’の輝度成分J11’に近づくことになる。即ち、仮想カメラの位置に応じて、仮想視点画像Ima上のユーザaを構成する画素を輝度成分J11、又は輝度成分J11’に近づけることができる。
特に、カメラ11aとカメラ12aは互いに撮影方向が異なるため、正規化画像Pm1上にある画素位置P11と、これに対応する正規化画像Pm2上にある画素位置P11’との間では、輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのmに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。また、この生成される仮想支点画像Imaは、上述したマッチング部29において対応付けられた関係に基づいて生成されるため、得られる画像の画質劣化をより減少させることができる。
上述のようにして画素位置Phにおける座標(xt,yt)並びにその輝度成分Ptを順次決定することにより、生成した仮想視点画像Imaは、表示されるユーザaの視線方向、顔の向き等は互いに異なっていた正規化画像Pm1,Pm2に対して、常時正面を向いている状態となる。
生成された仮想視点画像Imaは、出力制御部31による制御の下、ネットワーク7へ送出される。そして相手側の画像処理装置2bへ送信された仮想視点画像Imaは、画像処理装置2bにおける制御の下、ディスプレイ5b上へ表示されることになる。ユーザbは、ディスプレイ5bに表示される仮想視点画像Ima上のユーザaを視認しつつ対話をすることになるが、ユーザaの顔、視線方向は正面を向いている状態にあるため、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を視認しているような感覚を味わうことができる。ユーザaについても同様にディスプレイ5aに表示される仮想視点画像Imb上のユーザbを視認しつつ対話をすることになるが、正面を向いているユーザbを視認することができる。即ち、この通信システム1では、いわば対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。
特にこの通信システム1では、少なくとも2台のカメラ11,12をディスプレイ5
の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。
の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。
また、この通信システム1では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。
なお、本発明を適用した通信システムは、上述した実施の形態に限定されるものではなく、例えば図14に示すように、得られた画像につき複眼立体視を可能とすべく処理を施すための撮像システム7に適用してもよい。この撮像システム7において上述した通信システム1と同一の構成については、当該同一の番号を付して説明を省略する。
この撮像システム7は、互いに異なる視点から同一の撮影対象5を撮像する8台のカメラ71_1〜71_8と、接続された各カメラ71_1〜71_8より撮像された画像が供給される画像補正部72_1〜72_8と、各画像補正部72_1〜72_8における画像補正に必要なパラメータを供給するためのカメラキャリブレーション部26と、接続された各画像補正部72_1〜72_8から供給される各画像につき互いに対応付けをとるためのマッチング部29と、このマッチング部29に接続される視差マップ修正処理部43と、視差マップ修正処理部43に接続される対応点修正処理部44と、立体視ディスプレイ80を視認するユーザの頭部位置を検出し、これに基づいてユーザの相対的な視点位置を推定するための両眼位置推定部75と、両眼位置推定部75により推定されたユーザの視点位置に応じて、立体視ディスプレイ80に対するユーザの視点位置における相対的な位置関係を示す相対位置情報を生成する情報生成部76と、対応点修正処理部44並びに情報生成部76にそれぞれ接続されてなり、ユーザの左眼により視認される左眼用視差画像と、ユーザの右眼により視認される右眼用視差画像とを生成する仮想視点画像生成部30と、仮想視点画像生成部30により生成された左眼用視差画像と右眼用視差画像とを、接続された立体視ディスプレイ80上へ表示させるための表示制御部79とを備えている。
カメラ71_1〜71_8は、撮像した撮影対象の光学像を、そのままCCDへ入射させることにより、これを電気信号に変換する。このカメラ71_1〜71_8は、変換した電気信号により表される画像をそれぞれ画像補正部72_1〜72_8へ供給する。
画像補正部72_1〜72_8は、上記幾何学的画像補正部21,22と同様の役割を担う部分であり、カメラ71_1〜71_8間の幾何学的な位置関係を含む制御情報に基づいて、得られた画像を補正する。
マッチング部29は、互いに隣接するカメラにより撮像された画像間において、上述した手法を利用することにより、撮影対象5と関連させつつ、画素位置毎に対応付けを行う。ちなみに、マッチング部29に入力される画像は、背景画像を除去された形であってもよい。
両眼位置推定部75は、立体視ディスプレイ80を視認するユーザの頭部における3次元的な位置やサイズを、当該立体視ディスプレイ80との間で相対的に検出する。この両眼位置推定部75は、例えばステレオ視方式やレンジファインダ方式に基づいてリアルタイムな位置検出を行う距離計測装置等により適用される。この両眼位置推定部75は、検出したユーザの頭部における3次元的な位置やサイズに基づき、三次元空間座標の下、ユーザの左眼位置並びに右眼位置を推定する。この両眼位置の推定については、例えば、人間の頭部と両眼の相対的な位置関係に関する統計的な計測データを参照しつつリアルタイムに実行するようにしてもよい。
情報生成部76は、両眼位置推定部75において推定された、ユーザの左眼位置並びに右眼位置をパラメータ化した相対位置情報を生成し、これを仮想視点画像生成部30へ送信する。
仮想視点画像生成部30は、マッチング部29により互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。また、仮想視点画像生成部30は、互いに対応付けされた画素位置並びにその輝度成分から、情報生成部76より生成された相対位置情報に応じて、上記仮想視点画像Imaの代替として、左眼用視差画像並びに右眼用視差画像を生成する。
表示制御部79は、仮想視点画像生成部30により生成された左眼用視差画像と右眼用視差画像につき、立体視ディスプレイ80における表示方法に応じて、各画素位置における輝度レベル(RGB)を割り当てる。
立体視ディスプレイ80は、液晶パネル上に光学素子を組み合わせ、互いに異なる左眼用視差画像と右眼用視差画像を表示させる表示面であり、ユーザに対して専用眼鏡の着用を義務付ける必要がない点において優れている。
図15(a)は、点線で示される撮影対象5に対する各カメラ71の相対的な位置関係を、実線で示される立体視ディスプレイ80に対するユーザの視点の位置関係にそのまま重ね合わせて表示したものである。立体視ディスプレイ80では、この撮影対象5に対する各カメラ71の光学中心の相対的な位置関係が、立体視ディスプレイ80を視認するユーザの左眼、右眼の視点位置の位置関係に合致する場合のみ立体視が実現されることになる。
ここで、座標(0,0,0)上に位置する撮影対象5のM点へカメラ71_1〜71_8の光軸を合わせて撮像を行う場合に、これに立体視ディスプレイ80の中心を重ね合わせることにより、その中心の座標が原点(0,0,0)に位置するように設定する。また両眼位置推定部75により計測されたユーザの頭部位置の座標(xn,yn,zn)をこの原点座標(0,0,0)に基づき特定する。ちなみにユーザの頭部位置をいかに定義するかについては、撮像システム7側において任意に決定することができるが、例えば、ユーザの眉間中心を頭部位置として定義するようにしてもよい。
仮にユーザの頭部が位置Aにあるとき、両眼位置推定部75はその座標(xa,ya,za)を特定する。またユーザの頭部が位置Bにあるとき、両眼位置推定部75はその座標(xb,yb,zb)を特定する。またユーザの頭部が位置Cにあるとき、両眼位置推定部75はその座標(xc,yc,zc)をそれぞれ特定する。ちなみに両眼位置推定部75は、かかる座標の特定と同時に、ユーザの頭部のサイズを同時に識別する。
両眼位置推定部75は、これら特定したユーザの頭部位置(xn,yn,zn)の座標に基づき、ユーザの左眼位置並びに右眼位置を推定する。この推定は、例えば頭部位置Aにつき特定した座標(xa,ya,za)と、識別したユーザ頭部のサイズに基づき、統計的な計測データを参照しつつ、図15(b)に示すように、ユーザの左眼位置の座標(xaL,yaL,zaL)並びに右眼位置の座標(xaR,yaR,zaR)を推定する。これにより、立体視ディスプレイ20の中心座標(0,0,0)に基づいた左眼位置の座標(xaL,yaL,zaL)並びに右眼位置の座標(xaR,yaR,zaR)を相対的に求めることが可能となる。
ちなみに、推定した左眼位置の座標(xaL,yaL,zaL)と、右眼位置の座標(xaR,yaR,zaR)が、それぞれ図15(a)の点線で示されるカメラ71_1〜71_8の光学中心に位置している場合には、かかるカメラから取得される画像をそのまま左眼用視差画像と右眼用視差画像とすれば立体視が実現されることになる。しかし、それ以外の場合には、撮影対象5に対する各カメラ71の相対的な位置関係から外れることになり、ユーザによる立体視の実現が困難となる。
ここで、推定した左眼位置の座標(xaL,yaL,zaL)と、右眼位置の座標(xaR,yaR,zaR)が、カメラ71_1〜71_8の光学中心以外に位置している場合であって、かつ図10(a)に示すカメラ71間の光学中心を結ぶラインLc上に位置している場合には、左眼用視差画像(右眼用視差画像)を構成することのみで、かかる位置関係の調整を図る。
例えば図16に示すように、ユーザの頭部が位置Dにあり、また推定した左眼位置,右眼位置がそれぞれVcL1,VcR1にあるとき、このVcL1,VcR1に仮想的にカメラを設置して撮影対象5のM点(立体視ディスプレイ20の中心座標(0,0,0)に相当する)を撮像した結果得られる画像が左眼用視差画像(右眼用視差画像)となるように調整する。
かかる場合において、情報生成部76は、上述の如く両眼位置推定部75により推定された左眼位置VcL1,右眼位置VcR1をそれぞれ取得する。そして、この取得した左眼位置VcL1を仮想的にカメラを設置する仮想位置WL1とし、これを実際に撮影対象5との間で相対的な位置関係を保ちつつ設置されているカメラ71_1〜カメラ71_8の位置関係に当てはめる。同様にして、取得した右眼位置VcR1を仮想的にカメラを設置する仮想位置WR1とし、これを実際に撮影対象5との間で相対的な位置関係を保ちつつ設置されているカメラ71_1〜カメラ71_8の位置関係に当てはめる。
例えば図16に示すように、左眼位置VcL1,右眼位置VcR1の双方がカメラ71_4、71_5の間にある場合に、情報生成部76は、カメラ71_4、71_5に対する左眼位置VcL1並びに右眼位置VcR1の位置関係を相対的に識別し、これに応じた相対位置情報としてkL1、kR1をそれぞれ生成する。この相対位置情報としてのkL1は、仮想位置WL1が、カメラ71_4から71_5にかけてkL1:1−kL1の位置にあることを意味している。同様に、この相対位置情報としてのkR1は、仮想位置WR1が、カメラ71_4から71_5にかけてkR1:1−kR1の位置にあることを意味している。即ち、この相対位置情報としてのkL1、kR1が小さくなるにつれて、仮想位置WL1,仮想位置WR1はカメラ71_4に近づき、またこの相対位置情報としてのkL1、kR1が大きくなるにつれて仮想位置WL1,仮想位置WR1はカメラ71_5に近づくことになる。
このため仮想視点画像生成部18において、式(11)に基づいて決定される左眼用視差画像(右眼用視差画像)上の画素mv’の座標(xt,yt)は、仮想位置WL1(仮想位置WR1)がカメラ71_4に近づくにつれて(x1,y1)に近づき、また仮想位置WL1(仮想位置WR1)がカメラ71_5に近づくにつれて(x2,y2)に近づくことになる。
また、式(12)に基づいて決定される左眼用視差画像(右眼用視差画像)上の画素mv’における輝度成分Ptは、仮想位置WL1(仮想位置WR1)がカメラ71_4に近づくにつれてJ11’に近づき、また仮想位置WL1(仮想位置WR1)がカメラ71_5に近づくにつれてJ12’に近づくことになる。
得られた左眼用視差画像(右眼用視差画像)は、VcL1(VcR1)に仮想的にカメラを設置した結果得られる画像に相当する。これらを表示制御部79を介して立体視ディスプレイ80へ表示させることにより、推定した左眼位置,右眼位置VcL1,VcR1にカメラを設置した結果得られる画像を左眼用視差画像,右眼用視差画像として出力することができる。
図17は、これら左眼用視差画像(右眼用視差画像)の構成例につき示している。仮に撮影対象5が人物の顔である場合において、カメラ71_4,71_5においてこれを撮影する。かかる場合にカメラ71_4は、撮影範囲の右端付近において捉えた撮影対象5としての人物を撮像し、またカメラ71_5は、撮影範囲の左端付近において捉えた撮影対象5としての人物を、カメラ71_4と異なる視点から撮像することになる。その結果、カメラ71_4により撮像される画像は、図17に示すように右端付近において右側を向いている人物が示されている状態となり、またカメラ71_5により撮像される画像は、左端付近において左側を向いている人物が示されている状態となる。
相対位置情報としてのkが小さい場合(k1の場合)において、仮想位置WL1a(仮想位置WR1a)は、カメラ71_4により近くなる。またこの仮想位置WL1aにつき、上記(11),(12)式から求められる左眼用視差画像(右眼用視差画像)は、カメラ71_4に近い内容となる。
また相対位置情報がk2からk4へと徐々に大きくなるにつれて、仮想位置は、WL1b(仮想位置WR1b)からWL1d(仮想位置WR1d)へと、徐々にカメラ71_5へ近くなる。これに伴って、左眼用視差画像(右眼用視差画像)に示される画像は、右端付近から左端付近へ徐々に移り、また人物が向いている方向も右から左へ徐々に変化することになる。
なお、推定した左眼位置の座標(xaL,yaL,zaL)と、右眼位置の座標(xaR,yaR,zaR)が、ラインLc上に位置していない場合には、構成した左眼用視差画像(右眼用視差画像)の視野を拡大又は縮小することにより位置関係の調整を図るようにしてもよい。
このような立体視を実現する撮像システム7において、視差によるオクリュージョン領域が発生する場合であっても、マッチング部29により精度良く対応付けを行うことができる。このため、立体視ディスプレイ80を視認するユーザの視点位置に支配されることなく、視差のズレを高精度かつスムーズに解消することができ、ユーザに対してより自然な立体画像を常時提供することが可能となる。
また、上述したカメラ中心を結ぶ線上での任意の仮想視点画像生成を利用することにより、視差のズレ等を解消させたホログラム立体写真を作成することも可能となる。
1 通信システム、2 画像処理装置、5 ディスプレイ、7 ネットワーク、11,12 カメラ、20 補正部、29 マッチング部、30 仮想視点画像生成部、31 出力制御部、33 情報生成部、43 視差マップ修正処理部、44 対応点修正処理部
Claims (13)
- 少なくとも2台のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求めるマッチング手段と、
上記マッチング手段により求められた対応関係を修正する修正処理手段と、
上記修正処理手段により修正された対応関係に基づいて、仮想的に設置される仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段とを備え、
上記マッチング手段は、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を計算するとともに、上記計算した類似度に応じて上記対応関係を求め、また求めた対応関係に基づいて視差を推定し、さらに一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、
上記修正処理手段は、上記マッチング手段による対応関係の比較結果に基づいて当該一の水平ラインにつき求められた対応関係及び/又は視差を修正すること
を特徴とする画像処理装置。 - 上記マッチング手段は、一の水平ラインの画素位置毎に求めた対応関係又は視差と上記他の水平ライン上の各画素位置につき求めた対応関係又は視差とを比較することによりその相異度を識別し、上記一の水平ライン上の画素位置のうち相異度が連続して第1の閾値を超えている個数を判別し、
上記修正処理手段は、上記マッチング手段により判別された上記個数が第2の閾値を超えている場合に、当該一の水平ラインにつき求めた対応関係を修正すること
を特徴とする請求項1記載の画像処理装置。 - 上記修正処理手段は、上記他の水平ライン上の各画素位置につき求めた対応関係を用いて、当該一の水平ラインにつき求めた対応関係を修正すること
を特徴とする請求項1記載の画像処理装置。 - 上記各カメラにより撮像された各画像から、上記被写体を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離手段をさらに備え、
上記マッチング手段は、上記画像分離手段により分離された各前景画像領域間において上記対応関係を求めること
を特徴とする請求項1記載の画像処理装置。 - 上記仮想カメラにおける光学中心の上記各カメラに対する相対的な位置関係を示す相対位置情報を生成する情報生成手段をさらに備え、
上記画像生成手段は、上記情報生成手段により生成された相対位置情報に基づいて、上記仮想視点画像を構成する画素位置並びにその輝度成分を求めること
を特徴とする請求項1記載の画像処理装置。 - 上記マッチング手段は、上記各画像間における対応関係を求める際に、上記計算した類似度及び視差のうち何れを優先させるか決定し、類似度を優先させる場合には、上記水平ライン上にある同一画素位置間において対応付け、視差を優先させる場合には、一の画素位置に対し同一の水平ライン上にある複数の画素位置を対応付けること
を特徴とする請求項1記載の画像処理装置。 - 上記マッチング手段は、上記類似度を計算する際に比較する輝度成分又は色成分のうち何れかに重み付けをすること
を特徴とする請求項1記載の画像処理装置。 - 上記マッチング手段は、上記水平ラインの上下に位置する各画素位置における輝度成分及び色成分との相関関係を反映させつつ、上記類似度を計算すること
を特徴とする請求項1記載の画像処理装置。 - 上記マッチング手段は、上記各カメラから上記被写体までの距離に基づいて上記視差を識別すること
を特徴とする請求項1記載の画像処理装置。 - 上記画像補正手段は、上記各カメラにより撮像された各画像の法線方向を仮想的に設定された仮想平面の法線方向に合わせること
を特徴とする請求項1記載の画像処理装置。 - 上記画像補正手段は、上記各カメラにより撮像された各画像を上記仮想平面へ射影するための射影変換行列を求め、求めた射影変換行列に基づいて上記各画像の法線方向を上記仮想平面の法線方向に合わせること
を特徴とする請求項10記載の画像処理装置。 - 少なくとも2台のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求めるマッチングステップと、
上記マッチングステップにおいて求めた対応関係を修正する修正処理ステップと、
上記修正処理ステップにおいて修正した対応関係に基づいて、仮想的に設置される仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップとを有し、
上記マッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を計算するとともに、上記計算した類似度に応じて上記対応関係を求め、また求めた対応関係に基づいて視差を推定し、さらに一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、
上記修正処理ステップでは、上記マッチングステップにおける対応関係の比較結果に基づいて当該一の水平ラインにつき求められた対応関係及び/又は視差を修正すること
を特徴とする画像処理方法。 - 少なくとも2台のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素位置毎に対応関係を求めるマッチングステップと、
上記マッチングステップにおいて求めた対応関係を修正する修正処理ステップと、
上記修正処理ステップにおいて修正した対応関係に基づいて、仮想的に設置される仮想カメラにより生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップとを有し、
上記マッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を計算するとともに、上記計算した類似度に応じて上記対応関係を求め、求めた対応関係に基づいて視差を推定し、さらに一の水平ラインの画素位置毎に求めた対応関係と当該一の水平ラインの上下方向に位置する他の水平ライン上の各画素位置につき求めた対応関係とを比較し、
上記修正処理ステップでは、上記マッチングステップにおける対応関係の比較結果に基づいて当該一の水平ラインにつき求められた対応関係及び/又は視差を修正することをコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004203812A JP2006024142A (ja) | 2004-07-09 | 2004-07-09 | 画像処理装置及び方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004203812A JP2006024142A (ja) | 2004-07-09 | 2004-07-09 | 画像処理装置及び方法、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006024142A true JP2006024142A (ja) | 2006-01-26 |
Family
ID=35797348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004203812A Withdrawn JP2006024142A (ja) | 2004-07-09 | 2004-07-09 | 画像処理装置及び方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006024142A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010133751A (ja) * | 2008-12-02 | 2010-06-17 | Topcon Corp | 形状測定装置およびプログラム |
CN116320358A (zh) * | 2023-05-19 | 2023-06-23 | 成都工业学院 | 一种视差图像预测装置及方法 |
-
2004
- 2004-07-09 JP JP2004203812A patent/JP2006024142A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010133751A (ja) * | 2008-12-02 | 2010-06-17 | Topcon Corp | 形状測定装置およびプログラム |
CN116320358A (zh) * | 2023-05-19 | 2023-06-23 | 成都工业学院 | 一种视差图像预测装置及方法 |
CN116320358B (zh) * | 2023-05-19 | 2023-12-01 | 成都工业学院 | 一种视差图像预测装置及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4069855B2 (ja) | 画像処理装置及び方法 | |
US7330584B2 (en) | Image processing apparatus and method | |
JP4198054B2 (ja) | 3dビデオ会議システム | |
US8810635B2 (en) | Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional images | |
US8792039B2 (en) | Obstacle detection display device | |
CN106981078B (zh) | 视线校正方法、装置、智能会议终端及存储介质 | |
WO2011014420A1 (en) | Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3d) images | |
WO2012092246A2 (en) | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation | |
KR101510312B1 (ko) | 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법 | |
US9380263B2 (en) | Systems and methods for real-time view-synthesis in a multi-camera setup | |
JP4461739B2 (ja) | 撮像装置 | |
JP2005142957A (ja) | 撮像装置及び方法、撮像システム | |
JP4617965B2 (ja) | 画像処理方法、その装置およびプログラム | |
JP2001052177A (ja) | 画像処理装置および画像処理方法 | |
JP4595313B2 (ja) | 撮像表示装置及び方法、画像送受信システム | |
JP2020191624A (ja) | 電子機器およびその制御方法 | |
JP2005174148A (ja) | 撮像装置及び方法、撮像システム | |
JP2005142765A (ja) | 撮像装置及び方法 | |
JP2006024141A (ja) | 画像処理装置及び方法、プログラム | |
JP2006024142A (ja) | 画像処理装置及び方法、プログラム | |
KR20110025083A (ko) | 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법 | |
US20230005213A1 (en) | Imaging apparatus, imaging method, and program | |
WO2021049281A1 (ja) | 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法 | |
JP4586447B2 (ja) | 画像処理装置及び方法、プログラム | |
KR20160101762A (ko) | 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071002 |