JP4586447B2 - 画像処理装置及び方法、プログラム - Google Patents

画像処理装置及び方法、プログラム Download PDF

Info

Publication number
JP4586447B2
JP4586447B2 JP2004216320A JP2004216320A JP4586447B2 JP 4586447 B2 JP4586447 B2 JP 4586447B2 JP 2004216320 A JP2004216320 A JP 2004216320A JP 2004216320 A JP2004216320 A JP 2004216320A JP 4586447 B2 JP4586447 B2 JP 4586447B2
Authority
JP
Japan
Prior art keywords
image
matching
pixel
virtual viewpoint
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004216320A
Other languages
English (en)
Other versions
JP2006039770A (ja
Inventor
堅一郎 多井
偉国 呉
隆之 芦ヶ原
浩一 打出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004216320A priority Critical patent/JP4586447B2/ja
Publication of JP2006039770A publication Critical patent/JP2006039770A/ja
Application granted granted Critical
Publication of JP4586447B2 publication Critical patent/JP4586447B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)

Description

本発明は、例えばテレビ会議システム或いはテレビ電話システム等に適用され、送受信する画像を撮像してこれを仮想カメラにより撮像した結果得られる仮想視点画像に再構成する画像処理装置及び方法、プログラムに関する。
テレビ電話システムやテレビ会議システム等に代表されるように、複数のユーザが互いに離れた場所で相手の表示像を視認し、遠隔対話するシステムが提案されている。このようなシステムでは、相手の表示像をディスプレイ上に表示するとともに、当該ディスプレイを視認するユーザを撮影対象として撮像し、得られた画像信号を公衆回線、専用回線等のネットワークを介して相手側の画像処理装置へ送信することにより、双方のユーザに対し臨場感を持たせることが可能となる。
従来におけるテレビ会議システムでは、ディスプレイの中心付近に写し出される相手の表示像を視認するユーザを、ディスプレイ上部にあるカメラにより撮像するため、ユーザが下を向いた状態の画像が相手側のディスプレイ上に表示されることになる。このため、実際にディスプレイを視認するユーザ間において視線が不一致の状態で対話がなされることになり、互いに違和感を与えてしまうという問題がある。
理想的には、相手の表示像が写し出される箇所にカメラを設置すれば、ユーザは自然とカメラ目線となるため、双方のユーザの視線を一致させた状態で対話を実現することができる。しかし、相手の表示像の上にカメラを設置すると非常に目障りになる問題がある。
このような視線不一致に関する問題点を解決すべく、ディスプレイの両側に配置された複数のカメラにより撮影された入力画像に基づいて被写体の3次元情報を抽出し、抽出した3次元情報と受信者の視点位置に関する情報に応じて被写体の出力画像を再構成し、これを相手側のディスプレイへ表示させる画像処理装置が提案されている(例えば、特許文献1参照。)。この画像処理装置では、一直線上に配置された複数のカメラ映像から生成されたエピポーラ平面画像を用いて画面中心の仮想視点カメラ映像を合成することにより、利用者の視線を一致させて臨場感の高いコミュニケーションを実現させている。
上記装置の他に、TV会議で互いの視線を一致させるべく、画面の左右に設置された2台のカメラで撮影し、得られた画像に基づいて3次元位置情報を生成する画像通信装置(例えば、特許文献2参照。)も提案されている。
ところで、ユーザを被写体として異なる視点から撮像することにより得られる画像Ps1,Ps2間において、図17に示すように、繰り返しパターン(例えば、チェック柄)や、輝度変化が殆ど生じないいわゆる非特徴点(例えば単一色の壁)において対応付けが困難であった。
また、異なる視点から撮像することにより得られる画像Ps1,Ps2では、被写体からカメラに至るまでの距離に基づく視差により、例えば図17に示す頬や耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。オクリュージョン領域では、上記視差により、一方の画像Ps1に表示されている対象物の対応点が他方の画像Ps2において隠れているため、対応付けを行う場合に不都合が生じる問題があった。
また、異なる視点から撮像することにより得られる画像Ps1,Ps2は、例えば窓の部分等のように見る方向によって明るさが異なる領域や、ユーザの鼻の部分等のように正反射が生じる領域において、輝度成分,色成分につき格差が生じ、対応付けに間違いが起こるため、対応付けに基づいて生成する仮想視点画像が乱れてしまうという問題点があった。
以上の改善策とは別の方法として、被写体を適切な位置・姿勢へ誘導させ、適切な映像を取得することを目的とした画像通信端末装置のユーザインタフェースが提案されている(例えば、特許文献3参照。)。このユーザインタフェースでは、カメラシステムからの被写体の位置や姿勢を検出した結果を用いて、当該被写体としてのユーザがカメラに対して接近し過ぎていてカメラフレームから逸脱している場合には、ユーザに適切な指示を与えることにより実写映像の改善を図る。しかしながら、この従来における画像通信端末装置では、実写映像を想定した環境下においてカメラフレーム内に被写体が収まるようにするという観点においては有効であるものの、仮想視点画像生成時は乱れの要因が被写体以外の物体(背景等)の特徴にあることが多いため、有効であるとはいい難い。さらに、複雑な背景と前景との奥行き・オクルージョンに配慮しながら被写体の適切な位置・姿勢を誘導させることは非常に困難である。
特開2001−52177号公報 特開2002−300602号公報 特開平8−251561号公報
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、各カメラから得られる画像から作成される仮想視点画像の乱れを自動的に効率的かつ高精度に除去することが可能な画像処理装置及び方法、プログラムを提供することにある。
本発明を適用した画像処理装置は、上述した課題を解決するために、少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、画素毎に対応関係を求める第1のマッチング手段と、上記第1のマッチング手段と異なる手法に基づき画素毎に対応関係を求める第2のマッチング手段と、上記第1のマッチング手段により求められた対応関係に基づく視差と上記第2のマッチング手段により求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に仮想的な視点である仮想視点がフレーム単位で上記カメラのいずれかへ段階的に近づくように上記仮想視点上記各カメラとの間の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、上記第1のマッチング手段及び/又は第2のマッチング手段により互いに対応付けされた画素の位置並びに輝度成分から、上記情報生成手段により生成された上記仮想視点の相対位置情報に基づいて、上記仮想視点における仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成手段とを備える。
本発明を適用した画像処理装置は、上述した課題を解決するために、少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチング手段と、複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチング手段と、上記第1のマッチング手段により求められた対応関係に基づく視差と上記第2のマッチング手段により求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に仮想的な視点である仮想視点がフレーム単位で上記カメラのいずれかへ段階的に近づくように上記仮想視点上記各カメラとの間の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、上記第1のマッチング手段及び/又は第2のマッチング手段により互いに対応付けされた画素の位置並びに輝度成分から上記情報生成手段により生成された相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成手段を備え、上記第1のマッチング手段は上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求める。
本発明を適用した画像処理方法は、上述した課題を解決するために、少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチングステップと、複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチングステップと、上記第1のマッチングステップ求められた対応関係に基づく視差と上記第2のマッチングステップ求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に仮想的な視点である仮想視点がフレーム単位で上記カメラのいずれかへ段階的に近づくように上記仮想視点上記各カメラとの間の相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、上記第1のマッチングステップ及び/又は第2のマッチングステップにより互いに対応付けした画素の位置並びに輝度成分から上記情報生成ステップにより生成した相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成ステップとを有し、上記第1のマッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求める。
本発明を適用したプログラムは、上述した課題を解決するために、少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチングステップと、複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチングステップと、上記第1のマッチングステップ求められた対応関係に基づく視差と上記第2のマッチングステップ求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に仮想的な視点である仮想視点がフレーム単位で上記カメラのいずれかへ段階的に近づくように上記仮想視点と上記各カメラとの間の相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、上記第1のマッチングステップ及び/又は第2のマッチングステップにより互いに対応付けした画素の位置並びに輝度成分から上記情報生成ステップにより生成した相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成ステップとを有し、上記第1のマッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求めることをコンピュータに実行させる。
本発明では、当該比較結果より、生成すべき仮想視点画像につき乱れが生じることが確認された場合には、仮想視点位置を各カメラへ近づけていくことにより、視差のエラーによる画像の乱れが生じない仮想視点画像をユーザに表示させることができる。これにより、相手側のユーザに対して、乱れのある画像を生成することを防ぐことができ、違和感を与えることがなくなる。特に本発明では、仮想視点画像の作成時における乱れを自動的に除去することができることから、各ユーザがカメラとの関係において適切な位置へ移動するための配慮が軽減される。また、仮想視点画像の乱れを除去することにより、仮想視点画像における画質そのものを向上させることも可能となる。
以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。
本発明を適用した通信システム1は、例えば図1に示すように、A地点のユーザaと、B地点のユーザbとの間で、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。
A地点には、撮影対象としてのユーザaを互いに異なる視点から撮像するカメラ11a、カメラ12aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、カメラ11a,12aより撮像された各画像Pa1,Pa2に基づいて仮想視点画像Imaを生成し、これをネットワーク7を介してB地点へ送信する画像処理装置2aが配設されている。
B地点には、撮影対象としてのユーザbを互いに異なる視点から撮像するカメラ11b、カメラ12bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、カメラ11b,12bより撮像された各画像Pb1,Pb2に基づいて仮想視点画像Imbを生成し、これをネットワーク7を介してA地点へ送信する画像処理装置2bが配設されている。
なお、この画像処理装置2a,2bにより生成される上記仮想視点画像Ima,Imbは、相手の表示像が写し出されるディスプレイ5a,5bの中心付近において仮想的に設置された仮想カメラにより撮像される画像に相当する。
カメラ11a,11bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左側面に設置されてなり、カメラ12a,12bは、それぞれユーザa,b側から見てディスプレイの右側面に設置されてなる。このカメラ11、12は、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに、この通信システム1では、ユーザの視線の高さに合わせて設置された2台のカメラにより撮影対象を撮像する場合を例に挙げて説明をする。
ディスプレイ5a,5bは、それぞれネットワーク7を介して相手側地点から供給される仮想視点画像Imb,Imaに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Imb,Imaに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。
画像処理装置2a,2bは、通常、パーソナルコンピュータ(PC)等の電子機器で構成される。これらの画像処理装置2a,2bは、ネットワーク7を介して互いに通信するための機能を備え、相手側からの要求に応じて画像や音声を送信する。なお、画像処理装置2a,2bの構成については後において詳細に説明をする。
ネットワーク7は、例えば画像処理装置2と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク7には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、画像処理装置2による要求を受けて、自身に格納してある所定の情報を送信する。
次に、画像処理装置2の構成について、画像処理装置2aを例にとり説明をする。画像処理装置2aは、図2に示すように、接続されたカメラ11a,12aより画像Pa1,Pa2が供給されるブロックマッチング部28並びにDPマッチング部29と、これらブロックマッチング部28並びにDPマッチング部29にそれぞれ接続されてなる情報生成部33と、情報生成部33に接続されてなる仮想視点画像生成部30と、仮想視点画像生成部30により生成された仮想視点画像Imaを相手側の端末装置2bへ送信するための出力制御部31とを備えている。
ブロックマッチング部28には、各カメラ11a,12aによって撮像された画像Pa1,Pa2がそれぞれ供給される。このブロックマッチング部28は、いわゆるブロックマッチング法に基づいて、複数の画素を2次元的に配列させたブロックを各画像Pa1,Pa2につき切り出し、切り出したブロック間で輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロック間で画素毎に対応関係を求める。
DPマッチング部29は、各カメラ11a,12aによって撮像された画像Pa1,Pa2がそれぞれ供給される。このDPマッチング部29は、これら画像Pa1,Pa2を構成する各画素位置につき対応関係を求める。
ちなみに、このDPマッチング部29における対応付けは、ユーザaの顔を構成する同一の箇所にある画素位置と輝度成分を画像Pa1,Pa2間で抽出して対応をとるようにする。例えば図3に示すように、画像Pa1のエピポーラ線L1上にある画素P11の対応点については、画像Pa2のエピポーラ線L1’上に存在することとなり、そのL1’上を探索することにより、最も類似する画素位置P11’を対応点として検出することができる。ちなみにマッチング部29は、この対応付けにつき特徴抽出した箇所のみについて実行してもよいし、画像Pa1,Pa2を構成する全ての画素に対して実行してもよい。
情報生成部33は、ブロックマッチング部28により求められた対応関係と、DPマッチング部29により求められた対応関係とを画素毎に比較する。情報生成部33は、仮想的に設置される仮想カメラにおける光学中心の各カメラ11a,12aに対する相対的な位置関係を示す相対位置情報を当該比較結果に基づいて生成する。
仮想視点画像生成部30は、情報生成部33から通知される相対位置情報が通知される。またこの仮想視点画像生成部30は、情報生成部33からブロックマッチング部28及び/又はDPマッチング部29により互いに対応付けされた画素位置並びにその輝度成分が通知される。この仮想視点画像生成部30は、情報生成部33により生成された相対位置情報に基づいて、仮想カメラにより生成すべき仮想視点画像Imaを構成する画素位置並びにその輝度成分を求める。仮想視点画像生成部30は、求めた画素位置並びにその輝度成分により構成される仮想視点画像Imaを出力制御部31へ送信する。
出力制御部31は、送信された仮想視点画像Imaを、ネットワーク7を介して画像処理装置2bへ送信するように制御する。かかる場合において、この出力制御部31は、カメラ11a,12aにより生成された画像Pa1,Pa2を単独で画像処理装置2bへ送信するように制御してもよい。
次に、この画像処理装置2aにおける具体的な動作につき説明をする。
撮影対象としてのユーザaは、カメラ11a,12aにより互いに異なる角度から撮影される。その結果、カメラ11a,12aにより生成される画像Pa1,Pa2上のユーザaの視線方向、顔の向き等は、互いに異なる状態となる。このような画像Pa1,Pa2は、DPマッチング部29において撮影対象と関連させつつ、画素位置毎に対応付けされる。
これら画像Pa1とPa2につき、このDPマッチング部29において対応付けを行う場合において、例えば図4(a)に示すように、被写体としてのユーザaがそれぞれ写し出された画像Pa1におけるエピポーラ線L1上の画素と、画像Pa2におけるエピポーラ線L1’上の画素とを対応付けする場合に、エピポーラ線L1上の特徴点の点R1を左から順に{a1,a2,a3,a4,a5}とし、またエピポーラ線L1’の特徴点の点R2を左から順に{b1,b2,b3,b4,b5}とする。ここで、互いのエピポーラ線L1,L1’上にある特徴点R1,R2を被写体との関係において対応付けるとき、先ず、a1に対してL1’上の特徴点はb1が該当し1:1で対応することとなるが、ユーザaの右耳を構成する特徴点a2,a3に対してL1’上の特徴点はb2が該当し、2:1で対応することとなる。同様に、ユーザaの左耳を構成する特徴点a4に対してL1’上の特徴点はb3,b4が該当し、1:2で対応することとなる。なお、a5に対してL1’上の特徴点はb5が該当し1:1で対応することとなる。
このように、異なる視点から撮像することにより得られる画像Pa1,Pa2では、被写体からカメラに至るまでの距離に基づく視差により、ユーザaの耳の部分等において表示される内容が異なってくる。以下、このような領域をオクリュージョン領域という。かかるオクリュージョン領域では、上記視差により、一方の画像に表示されている被写体の対応点が他方の画像にて隠れてしまうため、従来と同様に、{(a1, b1)、(a2, b2)、(a3, b3)、(a4, b4)、(a5, b5)}と対応付けてしまうと、誤差が生じることになる。
このため、本発明を適用した画像処理装置2aにおけるDPマッチング部29では、かかる視差を識別することにより、図4(a)に示される画像の特徴点の点列R1,R2を、結果的に図4(b)に示されるように{(a1, b1)、(a2, b2)、(a3, b2)、(a4, b3)、(a4, b4)、(a5, b5)}と対応付けられるように制御する。
具体的には、各画像Pa1,Pa2におけるエピポーラ線上にある全ての画素につき、図4(c)に示すようなDynamic Programming(DP:最短経路探索)を利用した動的な対応付けを行う。
この図4(c)におけるx軸にエピポーラ線L1上の特徴点の点列R1{a1,a2,a3,a4,a5}を配列し、またy軸をエピポーラ線L1’上の特徴点の点列R2{b1,b2,b3,b4,b5}とするとき、図4(b)に示される対応関係をこのグラフにあてはめると、図4(c)に示される太線で示される経路をとることになる。以下、この太線で示される対応点を結ぶ直線を最適経路という。
この最適経路において右上に線形増加する場合には、エピポーラ線L1,L1’上を左から右へシフトさせて対応付けする際に、互いの特徴点を1:1で順次シフトさせて対応させることを示している。右上に線形増加する最適経路の例として、エピポーラ線L1,L1’上の特徴点(a1, b1)から左から右へそれぞれ一つずつシフトさせることにより特徴点(a2, b2)を正確に対応付けすることができる。
また、この最適経路において水平方向にシフトする場合には、画像Pa1,Pa2間において視差が生じた結果、画像Pa1において示されている特徴点が画像Pa2において隠れてしまったことを示唆している。かかる場合には、画像Pa2上にある1の特徴点に対して、画像Pa1上にある複数の特徴点を対応付ける。この水平方向にシフトする最適経路の例として、エピポーラ線L1,L1’上の特徴点(a2, b2)においてユーザaの右耳を示すb2は、上述した視差により更にa3とも対応するため、b2をそのまま維持しつつこれにa3を対応付ける。
また、この最適経路において垂直方向へシフトする場合には、画像Pa1,Pa2間において視差が生じた結果、画像Pa2において示されている特徴点が画像Pa1において隠れてしまったことを示唆している。かかる場合には、画像Pa1上にある1の特徴点に対して、画像Pa2上にある複数の特徴点を対応付ける。この垂直方向にシフトする最適経路の例として、エピポーラ線L1,L1’上の特徴点(a4, b3)においてユーザaの左耳を示すa4は、上述した視差により更にb4とも対応するため、a4をそのまま維持しつつこれにb4を対応付ける。
DPマッチング部29は、これら対応付けを、互いの画像Pa1,Pa2を構成する全てを構成する、或いは一部を構成するエピポーラ線L1,L1’間において実行する。そしてエピポーラ線L1,L1’毎に上述した最適経路を求めることにより、特徴点の点列R1,R2間における対応付けを行う。
図5は、エピポーラ線L1,L1’上の任意の特徴点(x,y)に至るまでの最適経路を求める場合につき示している。
この特徴点(x,y)に至る最適経路は、特徴点(x−1,y−1)から左から右へそれぞれ一つずつシフトさせることにより図5に示されるグラフにおいて右上に線形増加し、或いは特徴点(x−1,y)においてyをそのまま維持しつつ水平方向に1シフトさせることにより図5に示されるグラフにおいて特徴点(x−1,y)から水平方向へ移動する。さらに、この特徴点(x,y)に至る最適経路は、特徴点(x,y−1)においてxをそのまま維持しつつ垂直方向へ1シフトさせることにより図5に示されるグラフにおいて特徴点(x,y−1)から垂直方向へ移動することになる。
即ち、特徴点(x,y)を通る最適経路は、図5に示すグラフにおいて、その左,左下,下に位置する特徴点(x−1,y),(x−1,y−1),(x,y−1)の何れかを経ることになる。DPマッチング部29は、何れの特徴点(x−1,y),(x−1,y−1),(x,y−1)を経て特徴点(x,y)へ至るのかにつき、以下に説明する関数を順次求めてゆくことにより決定する。
DPマッチング部29は、以下に示すマッチングコスト関数d(x,y)と、動的なオクリュージョンコスト関数dx(x,y),dy(x,y)を求め、求めた各関数に応じて上述した最適経路を求める。マッチングコスト関数d(x,y)は、対応関係を求める各画素位置間における輝度成分及び色成分の類似度を示す関数であり、またオクリュージョンコスト関数dx(x,y)は、画像Pa1の画像Pa2に対する被写体画像の隠れ度合いを示す関数であり、またオクリュージョンコスト関数dy(x,y)は、画像Pa2の画像Pa1に対する被写体画像の隠れ度合いを示す関数である。これらオクリュージョンコスト関数dx(x,y),dy(x,y)は、被写体の各画像間における視差が反映される形となる。
例えば図6に示すように一方のカメラ11aの視点C1のみから撮像することができる点wが他方のカメラ12aの視点C2からは撮像することができない場合に、被写体像の隠れ度合いが大きくなる。かかる場合には、オクリュージョンコスト関数dx(x,y),dy(x,y)が大きくなり、またかかる点wを含む領域は、オクリュージョン領域となる。
次にマッチングコスト関数d(x,y)を求める方法につき説明をする。
d(x,y)につき、比較する輝度成分又は色成分のうち何れに重み付けをするか決定する。この重み付けは、重み付け係数αを用いて、以下の式(1)に基づいて行う。
(s,t)=α×dY(s,t)+(1−α)dC(s,t)・・・・・(1)
ここで(s,t)は、特徴点(x,y)に対応する画像Pa1、画像Pa2における画素位置を表している。またkは、画像Pa1、画像Pa2の何行目に該当するかを示している(つまりk=y)。この式(1)においてdY(s,t)は、画像Pa1と画像Pa2との座標(s,t)間における輝度成分の差分絶対値を表し、以下の(2)式で定義される。
dY(s,t)=|Y1(s,t)−Y2(s,t)|・・・・・(2)
また、この式(1)においてdC(s,t)は、画像Pa1と画像Pa2との間における色成分の差分絶対値を表し、以下の(3)式で定義される。
dC(s,t)=|C1(s,t)−C2(s,t)|・・・・・(3)
即ち、上記式(1)においてαをより高く設定することにより、求めるd(s,t)につき、輝度成分の差分絶対値dY(s,t)の成分をより反映させることができる。また上記式(1)においてαをより小さく設定することにより、求めるd(s,t)につき、色成分の差分絶対値dC(s,t)の成分をより反映させることができる。ちなみに、このαについては、色成分のマッチングコストと、輝度成分のマッチングコストとの平均値を割り当てるようにしてもよい。
d(x,y)は、(1)式により求められるd(s,t)に基づいて、更に以下の(4)式により求められる。
d(x,y)=(Σd(s,t))/2K k=−K,・・,K−1
・・・・・・・・・(4)
この(4)式は、エピポーラ線の上下に位置する各画素との間で平均をとることにより、d(x,y)を求めることができることを意味している。この(4)式により、求めるd(x,y)につきエピポーラ線の上下に位置する各画素との相関関係を反映させることができる。これにより対応付け精度の向上を大幅に図ることが可能となる。
即ち、上述の方法により求められるマッチングコストd(x,y)は、画像Pa1と画像Pa2の画素位置(s,t)における輝度成分、或いは色成分の差分絶対値が大きくなるにつれて増加する。換言すれば、画像Pa2と画像Pa1の画素位置(s,t)における輝度成分、或いは色成分の差異が大きくなるにつれて増加し、またこれらが類似するにつれて小さくなる。即ち、このマッチングコストd(x,y)により、画像Pa1と画像Pa2の画素位置(s,t)における輝度成分、或いは色成分の類似度を識別することが可能となる。
次にオクリュージョンコスト関数dx(x,y),dy(x,y)を求める方法につき説明をする。
これら各オクリュージョンコスト関数dx(x,y),dy(x,y)は、情報生成部33におより生成される視差情報に基づいて生成される。カメラ11a,12aから被写体としてのユーザaに至るまでの距離が小さくなるにつれて(視差が大きくなるにつれて)、オクリュージョン領域の発生する確率が高くなる。かかる場合において、DPマッチング部29は、オクリュージョンコスト関数dx(x,y),dy(x,y)を下げることにより対応する。一方、カメラ11a,12aから被写体としてのユーザaに至るまでの距離が長くなるにつれて(視差が小さくなるにつれて)、オクリュージョン領域の発生する確率が小さくなる。かかる場合において、DPマッチング部29は、オクリュージョンコスト関数dx(x,y),dy(x,y)を上げることにより対応する。
各オクリュージョンコスト関数dx(x,y),dy(x,y)は、以下の式(5)、(6)に基づいて求めることができる。
dx(x,y)=β×dp(x,y)+T0・・・・・・・・(5)
dy(x,y)=γ×dp(x,y)+T1・・・・・・・・(6)
ここで、dp(x,y)は、上記取得される視差情報に支配され、視差がより大きくなるにつれて減少し、また視差がより小さくなるにつれて増加する。β、γは、dp(x,y)の変化率を表しており、予め実験的に求めることができる。またT0、T1は、初期オクリュージョンコスト定数であり、これについても予め実験的に求めることができる。
DPマッチング部29は、これら各関数dx(x,y),d(x,y),dy(x,y)を求めた後、それぞれ以下の式(7)〜式(9)に基づいて累積マッチングコストC(x−1,y),C(x−1,y−1),C(x,y−1)を加算し、総コストk1,k2,k3を算出する。
k1=C(x−1,y)+dx(x,y)・・・・・・・・(7)
k2=C(x−1,y−1)+d(x,y)・・・・・・・(8)
k3=C(x,y−1)+dy(x,y)・・・・・・・・(9)
ここでC(x−1,y),C(x−1,y−1),C(x,y−1)は、それぞれ特徴点(x−1,y),(x−1,y−1),(x,y−1)において求められた累積マッチングコストを示している。ちなみに、特徴点(x,y)における累積マッチングコストC(x,y)は、以下の式(10)に示すように、求めたk1,k2,k3の中から最小となるものが割り当てられる。
C(x,y)=min{k1,k2,k3}・・・・・・・(10)
DPマッチング部29は、求めた総コストk1,k2,k3の中から最小となるものを選択することにより最適経路を求める。
ここで、k1が最小となる場合には、視差が大きくなることにより、画像Pa1において示されている特徴点が画像Pa2において遮蔽されたことを意味している。かかる場合には、図5矢印J1に示すように特徴点(x−1,y)から水平方向にシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。
またk3が最小となる場合には、視差が大きくなることにより、画像Pa2において示されている特徴点が画像Pa1において遮蔽されたことを意味している。かかる場合には、図5矢印J3に示すように、特徴点(x,y−1)から垂直方向にシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。
更に、k2が最小となる場合には、画像Pa1と画像Pa2の画素位置(s,t)における輝度成分、或いは色成分の類似度が高いことを意味している。かかる場合には、図5矢印J2に示すように特徴点(x−1,y−1)から水平、垂直方向に一つずつシフトさせることにより特徴点(x,y)に至るように最適経路が求められることになる。
図7(b)は、図7(a)に示される画像Pa1と画像Pa2におけるエピポーラ線L1,L1’上にある各特徴点の画素成分(輝度又は色成分)の対応関係を示している。
この図7(a)に示す画像Pa1において、ユーザaの両側に示される壁の凹部L2,L3、並びに画像Pa2において、ユーザaの両側に示される壁の凹部L2’,L3’は、図7(b)において画素成分の差分としてライン状に明確に現れている。同様に、ユーザaを構成する画素成分については、図7(b)の中心付近において画素成分の差分として明確に現れている。
この図7(b)において、最適経路が、エピポーラ線L1,L1’上にある各特徴点において同一の画素成分の交点を通過している場合には、k2が最小となる結果、当該画素位置(s,t)における輝度成分、或いは色成分の類似度が高いことが優先されたことを意味している。これに対して、最適経路が、エピポーラ線L1,L1’上にある各特徴点において同一の画素成分の交点以外を通過している場合には、k1又はk3が最小となる結果、視差により何れかの画像Pa1,Pa2が遮蔽されたことを意味している。
このようにして特徴点(x−1,y),(x−1,y−1),(x,y−1)の何れかから特徴点(x,y)に至るまでの最適経路が求められることになる。この最適経路が求められるということは、輝度成分及び色成分の類似度と、画像Pa1,Pa2間の視差に応じて最適な対応関係が求められていることを意味しており、上記(10)式より得られるC(x,y)についても、画素位置毎に対応関係を求める上での最適な累積マッチングコストとして定義されることになる。これら累積マッチングコストC(x,y)を、上記グラフにおいて上、右上、右に位置する特徴点に至るまでの最適経路を求める際に累積的に参酌することができるため、対応付けの精度をより向上させることができる。
また、DPマッチング部29では、各関数dx(x,y),d(x,y),dy(x,y)を全く異なるコンセプトに基づいて算出するため、得られた総コストk1,k2,k3を式(10)に基づいて単純に比較する場合に、撮影環境や被写体に応じて誤差が生じる場合もある。かかる場合には、式(5),(6)におけるβ,γ,T0,T1を撮影環境や被写体に応じて予め最適化しておくことにより、各関数dx(x,y),d(x,y),dy(x,y)間の格差を解消することができる。
このように本発明を適用した画像処理装置2aにおけるDPマッチング部29では、上記各画像Pa1,Pa2間における対応関係を求める際に、識別した類似度及び視差のうち何れを優先させるか決定し、類似度を優先させる場合には、水平ライン上にある同一画素位置間において対応付け、視差を優先させる場合には、一の画素位置に対し同一の水平ライン上にある複数の画素位置を対応付ける。これにより、オクリュージョン領域が存在する場合においてもより正確な対応付けを行うことができる。また、上述の手法に基づいて対応付けを行うことにより、例えば両目部分等の繰り返しパターンや、輝度変化が殆ど生じないいわゆる非特徴点(例えば壁の部分)においても対応付けの精度を向上させることができる。更に、例えば窓の部分等のように見る方向によって明るさが異なる領域や、ユーザの鼻の部分等のように正反射が生じる領域においても、輝度成分,色成分の格差に支配されることが少なく、比較的に容易に対応付けを行うことができる。
なお、本発明を適用した画像処理装置2aにおけるDPマッチング部29では、あくまで上記類似度と上記視差を識別し、識別した類似度及び視差に応じて上記対応関係が求められていれば、上述の効果を得ることができることは勿論である。
このDPマッチング部29において上記対応関係を求めるステップを図8中のステップS11とする。ちなみに、このステップS11と並行してブロックマッチング部28においてブロックマッチング法に基づく対応関係が求められるが(ステップS12)、かかる対応関係に基づいてカメラ11a,12aにおける視差のヒストグラムを作成し、マッチング結果に対する画像の乱れの有無を検証する。
このステップS12において、図9(a)に示すようにマッチング結果において差分絶対値和が小さくなる結果、互いにマッチングする頻度が高くなる複数のピークが存在する場合には、例えば、図9(b)に示すようにユーザaの顔と手がカメラ11a,12aに対して互いに異なる距離にあることを意味している。
一般的に、ユーザの顔Uと手Vが図10(a)に示すように、カメラ11a,12aに対してほぼ同一の距離上にある場合には、例えばカメラ11aの視点C1からユーザaの顔Uと手Vを撮像した結果得られる顔の画像U’と手の画像V’の各位置に対して、カメラ12aの視点C2から撮像した結果得られる顔の画像U”と手の画像V”の各位置は順に整列することになる。即ち、顔Uと手Vとの間で視差が生じることが無いことから、マッチングの精度を確保でき、ひいては生成する仮想視点画像Imaの乱れを抑えることが可能となる。
これに対して、例えば図10(b)に示すように、ユーザの顔Aと手Vがカメラ11a,12aに対して互いに異なる距離にある場合には、例えばカメラ11aの視点C1からユーザaの顔Uと手Vを撮像した結果得られる顔の画像U’と手の画像V’の各位置に対して、カメラ12aの視点C2から撮像した結果得られる顔の画像U”と手の画像V”の各位置は互いに逆転してしまうことになる。即ち、顔Uと手Vとの間で視差の逆転が生じる結果、マッチングの精度を確保することができず、ひいては生成する仮想視点画像Imaが乱れてしまう危険性が生じる。
このため、ステップS13では、例えば図11に示す手順に基づいてマッチング頻度のピークを介してこれらの視差の逆転が起きているか否かにつきより効率よく識別する。
ステップS12におけるマッチング結果の検証を行うステップS13の詳細を図11に示す。この図11では、先ずステップS21においてかかるピークが2つ以上存在するか否か判別する。その結果、マッチング頻度のピークが2つ以上存在する場合にはステップS22へ移行し、当該ピークが一つのみ存在する場合には、ステップS25へ移行する。
またステップS22へ移行した場合には、かかる2つ以上のピークの間隔が所定の閾値を超えているか否かを識別する。その結果、ピークの間隔が所定の閾値を超えている場合には、ピーク間隔は十分広いものであることを識別してステップS23へ移行し、それ以外の場合にはステップS25へ移行する。一般にオクリュージョンが発生しやすい状況というのは、図9(a)に示すような視差のヒストグラムにおいて離れた位置に異なる複数のピークが出ている場合が多いため、これを検出することにより、映像が乱れやすさを識別することが可能となる。
またステップS23へ移行した場合には、2つのピーク近傍の画素数は相当量あるか否か検出する。この相当量あるか否かの判別は、ステップS22と同様に画素数が閾値を超えているか否かに基づいて判別するようにしてもよい。画素数が相当量あるものと判別された場合には、ステップS24へ移行し、それ以外の場合にはステップS25へ移行する。
ステップS24では、被写体につき視差が逆転しているため、生成すべき仮想視点画像Imaが乱れる可能性がある旨を判別する。かかる判別がなされた場合にはステップS13からステップS14へ移行することになる。
これに対してステップS25へ移行した場合には、被写体につき視差が生じていないため、生成すべき仮想視点画像Imaが乱れる可能性がない旨を判別する。かかる判別がなされた場合にはステップS13からステップS17へ移行することになる。
ステップS14においては、ステップS11におけるDPマッチング部29により得られる対応関係と、ステップS12におけるブロックマッチング部28により得られる対応関係とを比較する。
このステップS14においては、図12に示す手順に基づいてこれら対応関係を比較する。先ずこの図12におけるステップS31において、視差が異なる画素の数を計測するためのカウンタCounterを初期化する。次にステップS32へ移行し、画像Pa1並びに画像Pa2を構成する全ての画素に対して、以下に説明する処理を実行する。
ステップS33において、ステップS12においてブロックマッチング法に基づき得られた視差D1と、ステップS11におけるDPによるマッチングに基づき得られた視差D2の差分をとる。ちなみに、これら視差D1は、それぞれブロックマッチング部28により得られる対応関係に基づくものであり、また視差D2は、DPマッチング部29により得られる対応関係に基づくものである。このステップS33では、これら視差D1と視差D2との差分絶対値(=|D1−D2|)が閾値Thrを超えているか否かを識別する。その結果、かかる差分絶対値が閾値Thrを超えている場合には、ステップS34へ移行する。これに対して、差分絶対値が閾値Thr以下の場合には、ステップS35へ移行する。
ステップS34に移行した場合には、カウンタCounterの値に1を加算し、ステップS35へ移行する。
ステップS35へ移行した場合には、画像Pa1並びに画像Pa2を構成する全ての画素に対して、上述した処理を実行したか否か確認する。その結果、全ての画素につき上述した処理を実行した場合には、ステップS36へ移行する。これに対して、全ての画素につき上述した処理の実行を終了させていない場合には、再びステップS32へ移行し、残りの画素につき処理を繰り返す。その結果、カウンタCounterには、差分絶対値が閾値Thrを超える画素数の分だけカウントされることになる。
即ち、差分絶対値が閾値Thrを超えているか否かにつき、画像Pa1並びに画像Pa2を構成する全ての画素に対して実行することができる。これにより、差分絶対値が閾値Thrを超える画素数を識別することができる。ちなみにかかる画素数は、ブロックマッチング部28により得られる対応関係と、DPマッチング部29により得られる対応関係との間でズレがある全ての画素数に相当する。また、かかる画素は、生成すべき仮想視点画像Imaにつき視差による画像の乱れを誘発する可能性のあるものであるため、これらが画像全体のうちどの程度の割合を占めているかを以下のステップS36において判別する。
ステップS36では、カウンタCounterが閾値Rを超えているか否か判別する。なお、この閾値Rを、画像の乱れを誘発するために必要となる最低限の画素数に応じて予め最適化しておく。これにより、実際に識別した閾値Thrを超える画素の数が画像の乱れを誘発するか否かを判別することが可能となる。このステップS36において、カウンタCounterが閾値Rを超えている場合には、ステップS37へ移行し、画像の乱れが検出されることを判別することになる。これに対して、このステップS36において、カウンタCounterが閾値R以下の場合には、ステップS38へ移行し、画像の乱れがないことを判別することになる。
再び図8の説明に戻る。ステップS14において各対応関係が比較された結果、画像の乱れが検出されて上述のステップS37へ到達した場合には、ステップS15からステップS16へ移行する。これに対して、画像の乱れが検出されず上述のステップS38へ移行した場合には、ステップS15を経てステップS17へ移行することになる。
ステップS17へ移行した場合には、ユーザaにおけるカメラ11a、カメラ12aからの距離を識別する。その結果、かかるユーザaがカメラ11a、カメラ12aにより接近している場合には、視差による画像の乱れが生じる可能性があるものとしてステップS18へ移行する。ちなみに、このユーザaにおける各カメラ11a、12aからの距離は、ステップS12において求められた対応関係に基づく視差のヒストグラムを利用し、かかる距離が所定の閾値に対して大きいか否かに応じて判断するようにしてもよい。これに対して、ユーザaがカメラ11a、カメラ12aから離れている場合には、視差による画像の乱れが生じる可能性がないものとしてステップS19へ移行する。
なお、ステップS16、S18、S19に移行した場合には、仮想視点画像生成部30において仮想視点画像Imaを生成する際に、後述するような修正処理を施す。
先ず、この仮想視点画像生成部30による仮想視点画像Imaの作成方法につき説明する。
仮想視点画像生成部30では、上述の如くDPマッチング部29において求められた対応関係、並びにブロックマッチング部28において求められた対応関係に基づいて、仮想視点画像Imaを生成する。例えばDPマッチング部29において、画像Pa1における画素位置P11に対して、画像Pa2における画素位置P11’がその対応点として特定されていた場合に、かかる画素位置P11の座標を図13に示すように(x1,y1)とし、また画素位置P11’の座標を(x2,y2)とする。仮想視点画像生成部31は、かかる画素位置P11、P11’に対応する仮想視点画像Ima上の画素位置の座標(xt,yt)を、相対位置情報としてのm(≦1)に基づいて以下の式(11)により決定することができる。
(xt,yt)=(1−m)×(x1,y1)+m×(x2,y2)・・・(11)
また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、かかる仮想視点画像Ima上の画素位置Phにおける輝度成分Ptを以下の式(12)により決定することができる。
Pt=(1−m)×J11+m×J11’ ・・・(12)
このように仮想視点画像生成部31は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのmに応じて決定することができる。なおmは、図14に示すように仮想カメラにおける仮想視点がカメラ11aに近くなるにつれて小さくなり、また仮想視点がカメラ12aに近くなるにつれて大きくなる。
このため、式(11)に基づいて決定される座標(xt,yt)は、仮想視点がカメラ11aに近づくにつれて画素位置P11の座標(x1,y1)に近づき、また仮想視点がカメラ12aに近づくにつれて画素位置P12の座標(x2,y2)に近づくことになる。即ち、座標(xt,yt)を、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaの位置を自在に変化させることができる。
また、式(12)に基づいて決定される輝度成分Ptは、仮想視点がカメラ11aに近づくにつれて画素位置P11の輝度成分J11に近づき、仮想視点がカメラ12aに近づくにつれて画素位置P11’の輝度成分J11’に近づくことになる。即ち、仮想カメラの位置に応じて、仮想視点画像Ima上のユーザaを構成する画素を輝度成分J11、又は輝度成分J11’に近づけることができる。
特に、カメラ11aとカメラ12aは互いに撮影方向が異なるため、画像Pa1上にある画素位置P11と、これに対応する画像Pa2上にある画素位置P11’との間では、輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのmに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。また、この生成される仮想支点画像Imaは、上述したDPマッチング部29において対応付けられた関係に基づいて生成されるため、得られる画像の画質劣化をより減少させることができる。
上述のようにして画素位置Phにおける座標(xt,yt)並びにその輝度成分Ptを順次決定することにより、生成した仮想視点画像Imaは、表示されるユーザaの視線方向、顔の向き等は互いに異なっていた画像Pa1,Pa2に対して、常時正面を向いている状態となる。
生成された仮想視点画像Imaは、出力制御部31による制御の下、ネットワーク7へ送出される。そして相手側の画像処理装置2bへ送信された仮想視点画像Imaは、画像処理装置2bにおける制御の下、ディスプレイ5b上へ表示されることになる。ユーザbは、ディスプレイ5bに表示される仮想視点画像Ima上のユーザaを視認しつつ対話をすることになるが、ユーザaの顔、視線方向は正面を向いている状態にあるため、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を視認しているような感覚を味わうことができる。ユーザaについても同様にディスプレイ5aに表示される仮想視点画像Imb上のユーザbを視認しつつ対話をすることになるが、正面を向いているユーザbを視認することができる。即ち、この通信システム1では、いわば対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。
特にこの通信システム1では、少なくとも2台のカメラ11,12をディスプレイ5
の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。
また、この通信システム1では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。
なお、本発明を適用した通信システム1においては、画像に乱れが生ずるものと判別された結果、ステップS16に移行した場合には、仮想視点画像Imaを生成する際に、以下に示す修正処理を施す。
先ず仮想カメラの初期位置が図14における相対位置情報mが0.5で表される位置にあると仮定する。このとき仮想視点画像Imaの前フレームにおける仮想カメラの位置αpが0より大きい場合には、仮想視点画像Imaの現フレームにおける仮想カメラの位置αcを、以下の(13)式に基づいて算出する。
αc=Max{(αp−Vc_Step)、0}・・・・・・・・・・(13)
ここでVc_Stepは、仮想カメラの視点を初期位置からカメラ11a、またはカメラ12aの視点へシフトさせる際のステップ幅を意味する。このステップ幅を前フレームにおける仮想カメラの位置αpから差し引いた位置(αp−Vc_Step)は、ステップ幅Vc_Stepの分だけカメラ11aへ近づいた視点位置となる。かかる(αp−Vc_Step)と、0のうち何れが大きいかを判別する。その結果、(αp−Vc_Step)が大きい場合には、(13)式に基づいて現フレームにおける視点位置αcを(αp−Vc_Step)とする。
次のフレームに移った場合においても当該次のフレームを現フレームとした場合には、前フレームでは、ステップ幅Vc_Stepの分だけカメラ11aへ近づいた視点位置とされているため、さらにステップ幅Vc_Stepの分だけ差し引いた位置と、0のうち何れが大きいか判別されることになる。即ち、フレームが後方へ移るにつれて、仮想カメラの視点位置は、ステップ幅Vc_Stepだけカメラ11aへ徐々に近づくことになる。そして最終的に仮想カメラの視点位置は、カメラ11aの視点位置と同等になる。
即ち、ステップS16に移行することにより、生成すべき仮想視点画像Imaにつき乱れが生じることが確認された場合には、仮想カメラの視点位置をステップ幅Vc_Step毎にカメラ11aへ近づけていくことにより、視差による画像の乱れが生じないカメラ11aによる視点の画像をユーザに表示させることができる。これにより、相手側のユーザbに対して、乱れのある画像を表示させることを防ぐことができ、違和感を与えることがなくなる。特にこの通信システム1では、仮想視点画像Imaの作成時における乱れを自動的に除去することができることから、各ユーザがカメラ11a,12aとの関係において適切な位置へ移動する必要もなくなる。また、仮想視点画像Imaの乱れを除去することにより、かかる画像における画質そのものを向上させることも可能となる。
なお、ステップ幅Vc_Stepは、撮影環境に応じてできるだけスムーズに視点位置を変更すべく、ユーザ側で自由に設定できるようにしてもよい。また、仮想カメラの視点位置をカメラ11aに近づけていく場合に限定されるものではなく、ステップ幅Vc_Step毎にカメラ12aの視点へ近づけていくようにしてもよい。このとき仮想カメラの視点位置をカメラ11a、カメラ12aの何れに近づけていくかについては、例えばオクリュージョンの原因となるユーザの手Vの位置がカメラ11a側にある場合には、カメラ11aへ仮想視点を近づけ、手Vの位置がカメラ12a側にある場合には、カメラ12aへ仮想視点を近づけるようにしてもよい。
なお、仮想カメラの視点位置をカメラ11aの視点に合わせた後、画像の乱れが検出されず上述のステップS19へ移行するようになった場合には、αp<0.5であるときに以下の(14)式に基づいて仮想カメラの視点位置を元に戻すようにしてもよい。
αc=Min{(αp+Vc_Step)、α0}・・・・・・・・・・(14)
この(14)式に示すように、フレームが後方へ移るにつれて仮想カメラの視点位置はステップ幅Vc_Step毎にα0へ近づいていくことになる。そして最終的に元の仮想視点位置α0へ戻ることになる。
なお、本発明を適用した画像処理装置2は、上述した実施の形態に限定されるものではない。例えば図15に示すようにステップS14における上記対応関係の比較結果に応じた情報をユーザに通知する通知部101を実装した画像処理装置110として適用してもよい。この図15において上述した図2に示す画像処理装置2と同一の構成要素、部材については、同一の番号を付して説明を省略する。
この通知部101は、情報生成部33に接続されてなり、上述した対応関係の比較結果が送られてきた場合には、これに応じた適切な情報をユーザに対して通知する。
例えば、ブロックマッチング部28によるオクリュージョンの検出結果より、ユーザaの位置がカメラ11a,12aに対して接近し過ぎている旨を識別した場合には、その旨を映像又は音声等によりユーザaに通知する。かかる通知を受けたユーザaは自身の位置がカメラ11a,12aに接近し過ぎている旨を認識し、後方へ移動する。その結果、視差の逆転を防ぐことができ、相手側のユーザbに対して違和感のある仮想視点画像Imaが送信されることを防止することが可能となる。
またユーザaがより前方にある場合に限定されるものではなく、乱れのない仮想視点画像Imaを作成する観点において、カメラ11a,12aに対するユーザaの位置を視差のない適切な位置へ誘導させるためのメッセージを出力するようにしてもよい。
さらに、ユーザaを適切な位置へ誘導させる場合に限定されるものではなく、ステップS11やステップS12における対応付け結果に基づいた情報であればいかなるものを通知するようにしてもよい。
図16は、このような通知部101を設ける場合における動作手順を示している。各カメラ11a,12aにより撮像された各画像Pa1,Pa2において、視差のズレの原因となる被写体(ユーザaの手等)が含まれる場合には、何ら修正処理がなされていないまま仮想視点位置α0において仮想視点画像Imaを作成すると、ステップS31に示すような画像の乱れが生じてしまう。
かかる場合には、ステップS32へ移行して、通知部101を介してユーザにエラー通知をし、例えば“前に出すぎています”等のメッセージを出力することにより、視差が生じない位置への移動を促すとともに、仮想視点をカメラ11a又はカメラ12aの視点へ移動させることにより、画像の乱れを抑制した仮想視点画像Imaを作成し、これを相手側の画像処理装置2へ送信する。これにより、ユーザaが後方へ移動するまで、かかる視点位置を移動させた仮想視点画像Imaを送信し続け、ユーザaが後方に移動した後、再び仮想視点位置α0における仮想視点画像Imaを作成することも可能となり、ひいては、相手側ユーザに対して乱れのない仮想視点画像Imaを送信し続けることも可能となり、より自然なコミュニケーションを実現することが可能となる。
特に仮想視点画像を出力し続けたい場合において、通信システム1が適切な手段をユーザに対して提示し得ることから、従来法と比較して仮想視点画像が出力される可能性が高くなる。
なお、本発明は上述した実施の形態に限定されるものではなく、DPマッチング部29における対応付け方法並びに、ブロックマッチング部28における対応付け方法は、互いに異なるものであればいかなる方法であってもよい。
本発明を適用した通信システムの概略を示す図である。 画像処理装置の構成につき説明するための図である。 マッチング部における対応付けにつき説明するための図である。 DPを利用した対応付けにつき説明するための図である。 エピポーラ線L1,L1’上の任意の特徴点(x,y)に至るまでの最適経路を求める場合につき示す図である。 画像Pa1と画像Pa2との間で生じるオクリュージョンにつき説明するための図である。 画像Pa1と画像Pa2におけるエピポーラ線L1,L1’上にある各特徴点の画素成分(輝度又は色成分)の対応関係を示す図である。 画像処理装置における処理手順を示すフローチャートである。 カメラからの距離に対するマッチングの頻度を示す図である。 カメラに対するユーザの顔と手の位置に応じた視差の逆転現象につき説明するための図である。 マッチング頻度のピークを介してこれらの視差の逆転が起きているか否かにつき識別するフローチャートである。 DPマッチングとブロックマッチングとにより求めた対応関係を比較する手順を示すフローチャートである。 仮想視点画像を作成する方法につき説明するための図である。 仮想視点位置を修正する方法につき示す図である。 通知部を備えた画像処理装置の構成につき説明するための図である。 通知部を設ける場合における動作手順を示す図である。 従来技術の問題点について説明するための図である。
符号の説明
1 通信システム、2 画像処理装置、5 ディスプレイ、7 ネットワーク、11,12 カメラ、28 ブロックマッチング、29 DPマッチング部、30 仮想視点画像生成部、31 出力制御部、33 情報生成部

Claims (12)

  1. 少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、画素毎に対応関係を求める第1のマッチング手段と、
    上記第1のマッチング手段と異なる手法に基づき画素毎に対応関係を求める第2のマッチング手段と、
    上記第1のマッチング手段により求められた対応関係に基づく視差と上記第2のマッチング手段により求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に仮想的な視点である仮想視点がフレーム単位で上記カメラのいずれかへ段階的に近づくように上記仮想視点と上記各カメラとの間の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
    上記第1のマッチング手段及び/又は第2のマッチング手段により互いに対応付けされた画素の位置並びに輝度成分から、上記情報生成手段により生成された上記仮想視点の相対位置情報に基づいて、上記仮想視点における仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成手段とを備える画像処理装置。
  2. 上記情報生成手段は、上記判別した個数が第2の閾値未満の場合、上記仮想視点が上記各カメラ間の中間位置へ段階的に近づけるように上記相対位置情報を生成する請求項1記載の画像処理装置。
  3. 少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチング手段と、
    複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチング手段と、
    上記第1のマッチング手段により求められた対応関係に基づく視差と上記第2のマッチング手段により求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に仮想的な視点である仮想視点がフレーム単位で上記カメラのいずれかへ段階的に近づくように上記仮想視点と上記各カメラとの間の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
    上記第1のマッチング手段及び/又は第2のマッチング手段により互いに対応付けされた画素の位置並びに輝度成分から上記情報生成手段により生成された相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成手段を備え、
    上記第1のマッチング手段は上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求める画像処理装置。
  4. 上記情報生成手段は、上記判別した個数が第2の閾値未満の場合,上記仮想視点が上記各カメラ間の中間位置へ段階的に近づけるように上記相対位置情報を生成する請求項3記載の画像処理装置。
  5. 上記第2のマッチング手段は、上記被写体の上記各カメラに対する幾何学的な位置関係に基づく視差を識別し、
    上記情報生成手段は、さらに上記第2のマッチング手段により識別された視差に基づいて、上記相対位置情報を生成する請求項3記載の画像処理装置。
  6. 上記第1のマッチング手段は、上記各画像間における対応関係を求める際に、上記識別した類似度及び視差のうちいずれを優先させるか決定し、類似度を優先させる場合には、上記水平ライン上にある同一画素位置間において対応付けを行い、視差を優先させる場合には対応させる画素の位置に対し同一の水平ライン上にある複数の画素位置を対応付ける請求項3記載の画像処理装置。
  7. 上記第1のマッチング手段は、上記類似度を識別する際に比較する輝度成分又は色成分のうち何れかに重み付けをする請求項3記載の画像処理装置。
  8. 上記第1のマッチング手段は、上記水平ラインの上下に位置する各画素位置における輝度成分及び色成分との相関関係を反映させつつ、上記類似度を識別する請求項3記載の画像処理装置。
  9. 少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチングステップと、
    複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチングステップと、
    上記第1のマッチングステップで求められた対応関係に基づく視差と上記第2のマッチングステップで求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に仮想的な視点である仮想視点がフレーム単位で上記カメラのいずれかへ段階的に近づくように上記仮想視点と上記各カメラとの間の相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、
    上記第1のマッチングステップ及び/又は第2のマッチングステップにより互いに対応付けした画素の位置並びに輝度成分から上記情報生成ステップにより生成した相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成ステップとを有し、
    上記第1のマッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求める画像処理方法。
  10. 上記情報生成ステップでは、上記判別した個数が第2の閾値未満の場合、上記仮想視点が上記各カメラ間の中間位置へ段階的に近づけるように上記相対位置情報を生成する請求項記載の画像処理方法。
  11. 少なくとも2台以上のカメラにより互いに異なる視点から被写体を撮像することにより得られた各画像間において、上記被写体と関連させつつ互いに同一の水平ライン上にある画素毎に対応関係を求める第1のマッチングステップと、
    複数の画素を2次元的に配列させたブロックを上記各画像につき切り出し、切り出したブロック間での輝度成分の差分絶対値和を順次演算し、演算した差分絶対値和が最小となるブロックの組に基づき画素毎の対応関係を求める第2のマッチングステップと、
    上記第1のマッチングステップで求められた対応関係に基づく視差と上記第2のマッチングステップで求められた対応関係に基づく視差との差分絶対値を上記画素毎に求め、求めた差分絶対値が第1の閾値を超える個数を判別し、判別した個数が第2の閾値を超えている場合に仮想的な視点である仮想視点がフレーム単位で上記カメラのいずれかへ段階的に近づくように上記仮想視点と上記各カメラとの間の相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、
    上記第1のマッチングステップ及び/又は第2のマッチングステップにより互いに対応付けした画素の位置並びに輝度成分から上記情報生成ステップにより生成した相対位置情報に基づいて、上記仮想視点により生成すべき仮想視点画像を構成する画素の位置並びにその輝度成分を求める画像生成ステップとを有し、
    上記第1のマッチングステップでは、上記対応関係を求める各画素位置につき輝度成分及び色成分を比較することによりその類似度を識別するとともに、上記被写体の各画像間における視差を識別し、上記識別した類似度及び視差に応じて上記対応関係を求めることをコンピュータに実行させるためのプログラム。
  12. 上記情報生成ステップでは、上記判別した個数が第2の閾値未満の場合,上記仮想視点が上記各カメラ間の中間位置へ段階的に近づけるように上記相対位置情報を生成する請求項11記載のプログラム。
JP2004216320A 2004-07-23 2004-07-23 画像処理装置及び方法、プログラム Expired - Fee Related JP4586447B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004216320A JP4586447B2 (ja) 2004-07-23 2004-07-23 画像処理装置及び方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004216320A JP4586447B2 (ja) 2004-07-23 2004-07-23 画像処理装置及び方法、プログラム

Publications (2)

Publication Number Publication Date
JP2006039770A JP2006039770A (ja) 2006-02-09
JP4586447B2 true JP4586447B2 (ja) 2010-11-24

Family

ID=35904733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004216320A Expired - Fee Related JP4586447B2 (ja) 2004-07-23 2004-07-23 画像処理装置及び方法、プログラム

Country Status (1)

Country Link
JP (1) JP4586447B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4939639B2 (ja) * 2010-09-28 2012-05-30 シャープ株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
WO2013088872A1 (ja) * 2011-12-16 2013-06-20 コニカミノルタ株式会社 対応点探索方法、対応点探索装置および対応点探索プログラム
JP6100089B2 (ja) * 2013-05-17 2017-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215311A (ja) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法およびその装置
JP2001052177A (ja) * 1999-08-11 2001-02-23 Univ Waseda 画像処理装置および画像処理方法
JP2002008040A (ja) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd 三次元情報検出装置及び三次元情報検出方法
JP2004152133A (ja) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07296194A (ja) * 1994-04-22 1995-11-10 Canon Inc 画像処理方法およびその装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215311A (ja) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法およびその装置
JP2001052177A (ja) * 1999-08-11 2001-02-23 Univ Waseda 画像処理装置および画像処理方法
JP2002008040A (ja) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd 三次元情報検出装置及び三次元情報検出方法
JP2004152133A (ja) * 2002-10-31 2004-05-27 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体

Also Published As

Publication number Publication date
JP2006039770A (ja) 2006-02-09

Similar Documents

Publication Publication Date Title
JP4069855B2 (ja) 画像処理装置及び方法
US7330584B2 (en) Image processing apparatus and method
US9521362B2 (en) View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking
TWI479452B (zh) 修正數位影像的裝置及方法
JP5843751B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
US8203595B2 (en) Method and apparatus for enabling improved eye contact in video teleconferencing applications
JP4461739B2 (ja) 撮像装置
WO2018225518A1 (ja) 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム
JP6946684B2 (ja) 電子情報ボードシステム、画像処理装置、及びプログラム
JP4539015B2 (ja) 画像通信装置、および画像通信方法、並びにコンピュータ・プログラム
JP2005092657A (ja) 画像表示装置および画像表示方法
JP6157077B2 (ja) カメラ付き表示装置
JP4617965B2 (ja) 画像処理方法、その装置およびプログラム
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
JP4586447B2 (ja) 画像処理装置及び方法、プログラム
JP2005142765A (ja) 撮像装置及び方法
WO2010070820A1 (ja) 画像通信装置及び画像通信方法
JP6004978B2 (ja) 被写体画像抽出装置および被写体画像抽出・合成装置
JP4089027B2 (ja) 双方向通信システム、端末装置および制御方法
JP2006024141A (ja) 画像処理装置及び方法、プログラム
JPH0716244B2 (ja) 視線一致補正装置
CN113632458A (zh) 广角相机透视体验的系统、算法和设计
JP2006024142A (ja) 画像処理装置及び方法、プログラム
JP5485102B2 (ja) コミュニケーション装置、コミュニケーション方法、及びプログラム
CN117480776A (zh) 视频会议终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100823

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees