JP2005065051A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2005065051A
JP2005065051A JP2003294638A JP2003294638A JP2005065051A JP 2005065051 A JP2005065051 A JP 2005065051A JP 2003294638 A JP2003294638 A JP 2003294638A JP 2003294638 A JP2003294638 A JP 2003294638A JP 2005065051 A JP2005065051 A JP 2005065051A
Authority
JP
Japan
Prior art keywords
image
imaging
camera
virtual viewpoint
pixel position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003294638A
Other languages
English (en)
Other versions
JP4461739B2 (ja
Inventor
Ikoku Go
偉国 呉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003294638A priority Critical patent/JP4461739B2/ja
Publication of JP2005065051A publication Critical patent/JP2005065051A/ja
Application granted granted Critical
Publication of JP4461739B2 publication Critical patent/JP4461739B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

【課題】システム全体を複雑化させることなく、よりリアルで臨場感のある遠隔対話を実現する。
【解決手段】 撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像し、撮像した各画像から撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離し、分離した各前景画像領域間において撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けされた画素位置並びにその輝度成分から、生成した相対位置情報に応じて新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求め、求めた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する。
【選択図】図2

Description

本発明は、例えばテレビ会議システム或いはテレビ電話システム等に適用され、ネットワークを介して画像を双方向で送受信する通信システム、送受信する画像を撮像して、ユーザの視線方向に応じてこれを再構成する撮像装置及び方法、画像処理装置及び方法に関する。
テレビ電話システムやテレビ会議システム等に代表されるように、複数のユーザが互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムが提案されている。このようなシステムでは、相手の表示像をディスプレイ上に表示するとともに、当該ディスプレイを視認するユーザを撮影対象として撮像し、得られた画像信号を公衆回線、専用回線等のネットワークを介して相手側の端末装置へ送信することにより、双方のユーザに対し臨場感を持たせることが可能となる。
従来におけるテレビ会議システムでは、例えば図19に示すように、ディスプレイ81の中心付近に写し出される相手の表示像を視認するユーザを、ディスプレイ81上部にあるカメラ82により撮像するため、ユーザが下を向いた状態の画像が相手側のディスプレイ81上に表示されることになる。このため、実際にディスプレイを視認するユーザ間において視線が不一致の状態で対話がなされることになり、互いに違和感を与えてしまうという問題がある。
理想的には、図20に示すように、相手の表示像が写し出されるディスプレイ81の中心付近にカメラ82を設置すれば、双方のユーザの視線を一致させた状態で対話を実現することができる。しかしながら、かかるディスプレイ81の中心付近にカメラ82を設置することは物理的に困難である。
このような視線不一致に関する問題点を解決すべく、例えばハーフミラーを用いてカメラの向きと表示画面を合わせるテレビ電話装置(例えば、特許文献1参照。)、光透過状態と光散乱状態を制御できるスクリーンとプロジェクタを用いて時系列で表示と撮像を行う画像表示/制御装置(例えば、特許文献2参照。)、ホログラムスクリーンとプロジェクタを用いることにより、表示と撮像の双方を同時に実現できる撮像機能付き表示装置(例えば、特許文献3参照。)が提案されている。
また、視線と顔の位置に応じて相手側のカメラの光軸を制御することにより、表示画面と視線を一致させる双方向通信システム、端末装置及び制御方法が提案されている(例えば、特許文献4参照。)。
また、ディスプレイの両側に配置された複数のカメラにより撮影された入力画像に基づいて被写体の3次元情報を抽出し、抽出した3次元情報と受信者の視点位置に関する情報に応じて被写体の出力画像を再構成し、これを相手側のディスプレイへ表示させる画像処理装置が提案されている(例えば、特許文献5参照。)。この画像処理装置では、一直線上に配置された複数のカメラ映像から生成されたエピポーラ平面画像を用いて画面中心の仮想視点カメラ映像を合成することにより、利用者の視線を一致させて臨場感の高いコミュニケーションを実現することができる。
また、観察者の視点位置に合わせた画像を入力された画像群より切り替えて表示し、観察者の視点位置に応じた画像を表示する画像処理方法及びその装置(例えば、特許文献6参照。)も提案されている。この画像処理方法等においても、対応点の探索を容易化すべく、同様にエピポーラ平面画像を用いることができる。
また、TV会議で互いの視線を一致させるべく、画面の左右に設置された2台のカメラで撮影した画像に基づいて3次元位置情報を生成する画像通信装置(例えば、特許文献7参照。)も提案されている。この画像通信装置は、例えば図21に示すように、カメラ91,92により同じ被写体を撮像する。撮像された画像は、ビデオ信号処理部93,94にて所定の処理が施された上で対応点抽出部95及び法線ベクトル抽出部96へ送られる。対応点抽出部95では、各カメラ91,92で撮像された画像につき互いに対応点を抽出し、また法線ベクトル抽出部96は、法線ベクトルを抽出する。3次元構造処理部97は、対応点抽出部95及び法線ベクトル抽出部96で抽出された情報を使い、被写体のおおよその3次元位置情報を算出する。座標変換部98は、算出された被写体の構造情報を用いて、当該被写体を指定の方向へ向かせ、これを通信相手に送信する。
特開昭61−65683号公報 特開平4−11485号公報 特開平9−168141号公報 特開2000−83228号公報 特開2001−52177号公報 特開平7−296139号公報 特開平7−99644号公報
しかしながら、上述した従来のシステムでは、実際にディスプレイを視認するユーザ間において視線を一致させた状態で対話を実現することができるが、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を使用する必要があり、簡易で安価なシステムを構成することができないという問題点があった。
また、例えば特許文献5等のようにエピポーラ平面画像を生成する場合には、少なくとも4台のカメラをディスプレイの両側に配設する必要があり、また被写体の3次元情報をその都度抽出する必要があるため、システム全体が複雑化してしまうという問題点があった。
特に近年において、ブロードバンドネットワーク技術の進歩に伴い、このテレビ電話システムやテレビ会議システムに対するニーズがますます高くなる中、ディスプレイを視認するユーザの視線方向を常時抽出することにより、細かい動きや表情までを正確に捉えた、よりリアルで臨場感のある遠隔対話を実現する必要がある。
そこで本発明は上述した問題点を解決すべく案出されたものであり、その目的とするところは、システム全体を複雑化させることなく、よりリアルで臨場感のある遠隔対話を実現することができる通信システム、撮像装置及び方法、画像処理装置及び方法を提供することにある。
上述した問題点を解決するために、本発明では、撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像し、撮像した各画像から上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離し、分離した各前景画像領域間において上記撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けされた画素位置並びにその輝度成分から、上記生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求め、求めた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する。
即ち、本発明を適用した撮像装置は、撮影対象を互いに異なる角度から撮像する少なくとも2台のカメラを含む撮像手段と、上記撮像手段における各カメラにより撮像された各画像から、上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離手段と、上記画像分離手段により分離された各前景画像領域間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する送信手段とを備える。
また、本発明を適用した撮像方法は、撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像する撮像ステップと、上記撮像ステップにおいて各カメラにより撮像した各画像から、上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離ステップと、上記画像分離ステップにおいて分離した各前景画像領域間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチングステップと、上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、上記マッチングステップにおいて互いに対応付けされた画素位置並びにその輝度成分から、上記生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップと、上記画像生成ステップにおいて求めた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する送信ステップとを有する。
また、本発明を適用した画像処理装置は、撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像することにより生成された各画像を処理する画像処理装置において、上記生成された各画像から、上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離手段と、上記画像分離手段により分離された各前景画像領域間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する送信手段とを備える。
また、本発明を適用した画像処理方法は、撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像することにより生成された各画像を処理する画像処理方法において、上記生成された各画像から、上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離ステップと、上記画像分離ステップにおいて分離した各前景画像領域間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチングステップと、上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、上記マッチングステップにおいて互いに対応付けされた画素位置並びにその輝度成分から、上記生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップと、上記画像生成ステップにおいて求めた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する送信ステップとを有する。
また、本発明を適用した通信システムは、ネットワークを介して画像を双方向で送受信する通信システムにおいて、上記ネットワークを介して相手側から受信した画像を互いに表示するための表示装置と、上記各表示装置を視認するユーザを撮影対象とし、少なくとも2台のカメラにより互いに異なる角度からこれを撮像する撮像装置と、
上記各カメラにより撮像された各画像から上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離手段と、上記画像分離手段により分離された各前景画像領域間において上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から上記生成された相対位置情報に応じて新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を上記ネットワークを介して送信する送信手段とを有する画像処理装置とを備える。
本発明では、撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像し、撮像した各画像から上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離し、分離した各前景画像領域間において上記撮影対象と関連させつつ画素位置毎に対応付けを行い、各カメラに対する撮影対象の相対的な位置関係を示す相対位置情報を生成し、互いに対応付けされた画素位置並びにその輝度成分から、上記生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求め、求めた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する。
これにより、システム全体を複雑化させることなくね対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。
以下、本発明の実施を実施するための最良の形態について図面を参照しながら詳細に説明する。
本発明を適用した通信システム1は、例えば図1に示すように、A地点のユーザaと、B地点のユーザbとの間で、互いに離れた場所から相手の表示像を視認しながら遠隔対話するシステムである。
A地点には、撮影対象としてのユーザaを互いに異なる角度から撮像するカメラ11a、カメラ12aと、B地点側で撮像されたユーザbの画像をユーザaに対して表示するためのディスプレイ5aと、カメラ11a,12aより撮像された各画像Pa1,Pa2に基づいて仮想視点画像Imaを生成し、これをネットワーク7を介してB地点へ送信する端末装置2aが配設されている。
B地点には、撮影対象としてのユーザbを互いに異なる角度から撮像するカメラ11b、カメラ12bと、A地点側で撮像されたユーザaの画像をユーザbに対して表示するためのディスプレイ5bと、カメラ11b,12bより撮像された各画像Pb1,Pb2に基づいて仮想視点画像Imbを生成し、これをネットワーク7を介してA地点へ送信する端末装置2bが配設されている。
なお、この端末装置2a,2bにより生成される上記仮想視点画像Ima,Imbは、相手の表示像が写し出されるディスプレイ5a,5bの中心付近において仮想的に設置された仮想カメラにより撮像される画像に相当する。
カメラ11a,11bは、それぞれユーザa,b側から見てディスプレイ5a,5bの左側面に設置されてなり、カメラ12a,12bは、それぞれユーザa,b側から見てディスプレイの右側面に設置されてなる。このカメラ11、12は、撮影方向、撮影画角が固定された状態で設置されるが、各ユーザa,bからの入力される情報に基づき、これらを自在に変更するようにしてもよい。ちなみに、この通信システム1では、ユーザの視線の高さに合わせて設置された2台のカメラにより撮影対象を撮像する場合を例に挙げて説明をする。
ディスプレイ5a,5bは、それぞれネットワーク7を介して相手側地点から供給される仮想視点画像Imb,Imaに基づく画像を、例えば液晶表示面を介して表示する。このディスプレイ5a,5bにおける液晶表示面は、多数の液晶表示素子等からなり、各仮想視点画像Imb,Imaに基づく出力信号に応じて液晶表示素子を光変調させてユーザに表示する画像を作り出す。
端末装置2a,2bは、通常、パーソナルコンピュータ(PC)等の電子機器で構成される。これらの端末装置2a,2bは、ネットワーク7を介して互いに通信するための機能を備え、相手側からの要求に応じて画像や音声を送信する。なお、端末装置2a,2bの構成については後において詳細に説明をする。
ネットワーク7は、例えば端末装置2と電話回線を介して接続されるインターネット網を始め、TA/モデムと接続されるISDN(Integrated Services Digital Network)/B(broadband)−ISDN等のように、情報の双方向送受信を可能とした公衆通信網である。ちなみにこの通信システム1を、一定の狭いエリア内で運用する場合には、このネットワーク7を、LAN(Local Area Network)で構成してもよい。さらにこのネットワーク7は、動画像を送信する場合には、インターネットプロトコル(IP)に基づき、例えばMPEG(Moving Picture Experts Group)データを始めとする動画像がある一つのチャネルから継続的に送信される。また静止画像を送信する場合には、動画像を送信するチャネルとは別のチャネルから一定時間毎に送信されることになる。なお、このネットワーク7には、さらに図示しないネットワークサーバを接続してもよい。この図示しないネットワークサーバは、例えばインターネット情報を管理し、端末装置2による要求を受けて、自身に格納してある所定の情報を送信する。
次に、端末装置2の構成について、端末装置2aを例にとり図2を用いて説明をする。端末装置2aは、接続されたカメラ11aより画像Pa1が供給される第1の画像補正部21と、接続されたカメラ部11bより画像Pa2が供給される第2の画像補正部22と、第1の画像補正部21,第2の画像補正部22に対して所定の処理を施すカメラキャリブレーション部23と、第1の画像補正部21,第2の画像補正部22にそれぞれ接続される第1の分離部24,第2の分離部25と、この第1の分離部24,第2の分離部25にそれぞれ接続される第1の特徴抽出部26,第2の特徴抽出部27とを備えている。
また、この端末装置2は、第1の特徴抽出部26,第2の特徴抽出部27から、それぞれ図中D1、D2を介して接続されるマッチング部29と、各カメラ11a,12aに対するユーザaの相対的な位置関係を示す相対位置情報を生成する情報生成部30と、マッチング部29並びに情報生成部30にそれぞれ接続されてなり、上記仮想視点画像Imaを生成する仮想視点画像生成部31と、背景画像Bcxを生成するための背景画像生成部32と、上記背景画像生成部32により生成された背景画像Bcx上に、上記仮想視点画像生成部31により生成された仮想視点画像Imaを合成した合成画像Coaを生成する画像合成部33と、カメラ11a,12a並びに画像合成部33にそれぞれ接続されてなる出力選択部35とを備えている。
第1の画像補正部21は、カメラ11aから供給される画像Pa1を、カメラキャリブレーション部23から送信される制御情報に基づいて補正する。また、第2の画像補正部22は、カメラ12aから供給される画像Pa2を、カメラキャリブレーション部23から送信される制御情報に基づいて補正する。
この各画像補正部21,22は、少なくとも上記カメラ11a,12aの幾何学的な位置関係に基づいて各画像Pa1,Pa2を補正する。このカメラ11a,12aの幾何学的な位置関係は、上述したカメラキャリブレーション部23から送信される制御情報においてパラメータ化されていてもよい。このとき、カメラキャリブレーション部23は、同様にカメラ11a,12aの各レンズにおける色収差や歪み、光軸のずれをパラメータ化し、これらを各画像補正部22,23に送信するようにしてもよい。
ちなみに、カメラキャリブレーション部23は、これらのパラメータを図示しないROMやRAMへ格納しておくことにより、状況に応じて随時これらを参照することができ、高速な補正処理を実現することができる。またカメラキャリブレーション部23は、上記カメラ11a,12aから画像Pa1,Pa2が供給される度にこれらのパラメータを求めることにより、各画像補正部22,23において精度の高い補正処理を実現することができる。
なお、本発明を適用した端末装置2aでは、この画像補正部21,22並びにカメラキャリブレーション部23からなる構成を省略してもよい。
第1の分離部24は、第1の画像補正部21により補正された画像Pa1から、前景画像領域Fr1と、その背景画像Bc1とをそれぞれ分離する。ちなみにこの前景画像領域Fr1は、ユーザaを構成する顔や上半身等が含まれている画像領域を抽出したものであり、背景画像Bc1は、画像Pa1から前景画像領域を除いた画像である。なおこの背景画像は、ユーザaが存在しない場合において、同一の撮影方向,撮影画角によりカメラ11aを介して撮像を行った結果得られる画像に相当する。
第2の分離部25は、第1の分離部24と同様に、第2の画像補正部22により補正された画像Pa2から、前景画像領域Fr2と、その背景画像Bc2とをそれぞれ分離する。
ちなみに、第1の分離部24,第2の分離部25は、例えば各カメラ11a,12aにより撮像された各画像の色相並びに彩度に基づいて、或いは各カメラに対する被写体の距離に基づいて、これらの前景画像領域と背景画像とを分離する。
第1の特徴抽出部26は、第1の分離部24により分離された前景画像領域Fr1につき、前景画像領域Fr2との間で対応をとるための特徴点を抽出する。この特徴点は、例えばユーザaの顔や眼鏡、ネクタイの一部等、画素間で対応を取る上で好適な部分を抽出するようにしてもよい。また、第2の特徴抽出部27においても同様にして、第2の分離部25により分離された前景画像領域Fr2につき、前景画像領域Fr1との間で対応をとるための特徴点を抽出する。
マッチング部29は、第1の特徴抽出部26により特徴点が抽出された前景画像領域Fr1と、第2の特徴抽出部27により特徴点が抽出された前景画像領域Fr2とがそれぞれ供給される。マッチング部29は、これら供給された前景画像領域Fr1、Fr2につき、互いに対応付けを行う。この対応付けは、ユーザaの顔を構成する同一の箇所を特徴点として抽出した場合にはかかる箇所にある画素位置と輝度成分を各前景画像領域Fr1、Fr2間で抽出して、対応をとるようにする。
例えば図3に示すように、前景画像領域Fr1上にある画素位置P11に対して、前景画像領域Fr2上において同一の箇所に存在する画素位置P11’をその対応点として特定する。同様に、前景画像領域Fr1上にある画素位置P12に対して、前景画像領域Fr2上において同一の箇所に存在する画素位置P12’をその対応点として特定する。
即ち、このマッチング部29では、第1の分離部24,第2の分離部25により分離された各前景画像領域Fr1,Fr2間において、撮影対象と関連させつつ、画素位置毎に対応付けを行う。ちなみにマッチング部29は、この対応付けにつき特徴抽出部26,27により抽出された特徴点のみについて実行してもよいし、前景画像領域Fr1、Fr2を構成する全ての画素に対して実行してもよい。
情報生成部30は、生成する上記相対位置情報を、ユーザaのディスプレイ5aに対する視線方向に基づいて生成してもよい。かかる場合において情報生成部30は、カメラ11a,12aから供給される画像Pa1,Pa2からユーザaの視線方向を取得し、これに基づいて相対位置情報を生成する。これにより、いわば仮想カメラの撮影方向をユーザaの視線方向に合わせ込むことと同様の処理を実現することができる。また情報生成部30は、図示しないキーボードやマウス等の操作部を介して入力された情報に基づき、相対位置情報を生成するようにしてもよい。この操作部はユーザにより操作されるため、ユーザの意思に応じてこれら相対位置情報を任意に生成することができ、ひいては、仮想カメラの撮像方向を左右カメラ(11a,12aまたは11b,12b)の間に任意に設定することができる。
仮想視点画像生成部31は、マッチング部29により互いに対応付けされた画素位置並びにその輝度成分がそれぞれ入力される。また、仮想視点画像生成部31は、互いに対応付けされた画素位置並びにその輝度成分から、情報生成部30より生成された相対位置情報に応じて、新たに生成すべき仮想視点画像Imaを構成する画素位置並びにその輝度成分を求める。仮想視点画像生成部31は、求めた画素位置並びにその輝度成分により構成される仮想視点画像Imaを画像合成部33へ供給する。
背景画像生成部32は、仮想視点画像Imaと合成するための背景画像Bcxを生成する。この背景画像生成部32は、この生成する背景画像Bcxとして、例えばCG等で作成した特定の背景画を用いてもよいし、また第1の分離部24,第2の分離部25によりそれぞれ分離された背景画像Bc1,Bc2の一部を利用してもよい。生成された背景画像Bcxは、画像合成部33において仮想視点画像生成部31により生成された仮想視点画像Imaと合成されることになる。
出力選択部35は、画像合成部33により合成された合成画像Coa、カメラ11a,12aにより生成された画像Pa1,Pa2がそれぞれ供給される。この出力選択部35は、通常、合成画像Coaのみをネットワーク7を介して端末装置2bへ送信するが、図示しない操作部を介して入力された情報に応じて画像Pa1,Pa2,合成画像Coaの何れか1つ又は2つを送信してもよいし、或いはこれらの画像全てを送信してもよい。ちなみに、この出力選択部35は、ネットワークを介して合成画像Coaを送信するための機能をも備えている。
なお、端末装置2において、この出力選択部35の構成を省略してもよい。かかる場合において、カメラ11a,12aにより生成された画像Pa1,Pa2並びに画像合成部33において合成された合成画像Coa全てが相手側の端末装置へ送信されることになる。
次に、この端末装置2における具体的な動作につき説明をする。
撮影対象としてのユーザaは、カメラ11a並びにカメラ12aにより互いに異なる角度から撮影される。その結果、カメラ11a,カメラ12aにより生成される画像Pa1,Pa2上のユーザaの視線方向、顔の向き等は、例えば図4に示すように互いに異なる状態となる。
このカメラ11a,カメラ12aからの画像Pa1,Pa2は、図5に示すように、第1の画像補正部21、第2の画像補正部22によりそれぞれ補正された後、第1の分離部24、第2の分離部25へ供給される。
第1の分離部24,第2の分離部25は、各カメラ11a,12aに対する被写体の距離に基づいて、これらの前景画像領域と背景画像とを分離する場合において、先ず、第1の画像補正部21により補正された画像Pa1,Pa2上の各被写体につき、各カメラ11a,12aに対する距離を識別する。この距離の識別については、画像Pa1,Pa2上の各被写体における各カメラ11a,12aに対する距離を示す距離情報(以下、これらをそれぞれDepth情報(1), Depth情報(2)という。)に基づいて行う。第1の分離部24,第2の分離部25は、画像Pa1,Pa2上の各被写体につき、Depth情報(1), Depth情報(2)の分布を算出する。通常、撮影対象としてのユーザaを構成する画像領域については、カメラ11a,カメラ11bから近距離にある旨のDepth情報(1), Depth情報(2)がそれぞれ算出され、またユーザaの背後にあるオフィス等の風景については、カメラ11a,カメラ11bから遠距離にある旨のDepth情報(1), Depth情報(2)がそれぞれ算出されることになる。
第1の分離部24,第2の分離部25は、算出したDepth情報(1), Depth情報(2)に基づき、ユーザaを含む画像領域を識別し、これらを前景画像領域Fr1,Fr2として背景画像Bc1,Bc2と分離する。図6(a)(b)は、第1の分離部24,第2の分離部25においてそれぞれ分離された前景画像領域Fr1,Fr2を示している。この図6に示されるように、前景画像領域Fr1,Fr2は、あたかもユーザaを構成する画像領域のみ切り出した画像として構成される。かかる場合において、背景画像Bc1,Bc2は、この前景画像領域Fr1,Fr2が切り出されたオフィス風景のみで構成されることになる。
前景画像領域Fr1,Fr2は、第1の特徴抽出部26、第2の特徴抽出部27において、特徴点が抽出された後、マッチング部29において上述の如く撮影対象と関連させつつ、画素位置毎に対応付けされる。本発明を適用した端末装置2aでは、それぞれ背景画像から分離した前景画像領域Fr1,Fr2間においてマッチングを行うことができる。これにより、ユーザaを構成する画素位置につき、背景画像Bc1,Bc2を構成する輝度成分を取り除いた状態でマッチングを行うことができるため、当該マッチングの精度を向上させることができる。ちなみに、このマッチング部29におけるマッチング処理を高速に行うべく、以下の図7に示されるような多解像度マッチングを実行してもよい。
この多解像度マッチングでは、先ずステップS11において、各カメラ11a,12aにより異なる方向から撮影対象を撮像することにより、画像Pa1,Pa2を生成する。次にステップS12において、第1の分離部24,第2の分離部25によりそれぞれ前景画像領域Fr1,Fr2が分離される。ここまでは、上述した手順と同様であるが、第1の分離部24,第2の分離部25は、ステップS13において、前景画像領域Fr1,Fr2につき更に低解像度化した低解像度画像Lp1、Lp2をそれぞれ生成する。
次にステップS14へ移行し、マッチング部29は、低解像度画像Lp1、Lp2につき互いに対応付けを行う。このステップS14における対応付けについても、上述と同様に、撮影対象と関連させつつ、画素位置毎に対応付けを行う。例えば図7に示すように低解像度画像Lp1上にある画素位置P1に対して、低解像度画像Lp2上において同一の箇所に存在する画素位置P1’をその対応点として特定する。同様に、低解像度画像Lp1上にある画素位置P2に対して、低解像度画像Lp2上において同一の箇所に存在する画素位置P2’をその対応点として特定する。
次にステップS15へ移行し、マッチング部29は、低解像度画像Lp1、Lp2につき行った対応付けに基づき、前景画像領域Fr1,Fr2間において、撮影対象と関連させつつ、画素位置毎に対応付けを行う。このステップS15へ移行する際には、ステップS14における対応付けにより、前景画像領域Fr1,Fr2を構成する一部の画素につき両者間で互いに対応付けがとれている状態となっている。このため、マッチング部29は、ステップS14において対応付けがなされた画素の位置関係に基づいて、前景画像領域Fr1,Fr2を構成する残りの画素につき対応付けを行えば足りるため、マッチング処理の迅速化を図ることができ、ひいては、前景画像領域Fr1、Fr2を構成する全ての画素の対応付けを高速に行うことが可能となる。
上述の如く対応付けされた画素位置は、その輝度成分と共に、仮想視点画像生成部31へ出力される。この仮想視点画像生成部31には、情報生成部30により生成された相対位置情報も供給される。
図8は、この相対位置情報をユーザのディスプレイ5aに対する視線方向に基づいて生成する手順を示している。
先ず、この図8に示すステップS21において、カメラ11a,12aは、互いに異なる方向から撮影対象としてのユーザaを撮像する。次にステップS22へ移行し、カメラ11a,12aは、これら撮像した画像Pa1,Pa2をそれぞれ情報生成部30へ送信する。情報生成部30は、受信した画像Pa1,Pa2からユーザaの画像領域を抽出する。
次にステップS23へ移行し、情報生成部30は、ユーザaの画像領域から更に両目を構成する画像領域を抽出する。次にステップS24へ移行し、情報生成部30は、両目を構成する画像領域から、瞳部分を抽出し、これらにつき目の画像領域に対する相対的な位置を識別する。ちなみに、瞳部分の抽出や両目を構成する画像領域の抽出は、輝度成分を判別することにより実行してもよい。
次にステップS25へ移行し、情報生成部30は、ステップS24において識別した相対的な瞳位置に応じて、ユーザaの視線方向並びに視線位置を推定する。情報生成部30は、仮想カメラの撮影方向が、この推定した視線方向並びに視線位置に合致するような相対位置情報を生成して、これを仮想視点画像生成部31へ出力する。これにより、ユーザaがいかなる方向からディスプレイ5aを視認していたとしても、ユーザbは、ユーザaが常時正面を向いている画像を視認することができる。換言すれば、ユーザaとユーザbとの間で視線方向を常時一致させてディスプレイ5を通じた対話を実現することができる。
また情報生成部30は、例えば図9(a)に示すように、ディスプレイ5aの側面において設置されているカメラ11a、12aの光学中心を結ぶ直線距離がBであり、仮想カメラの光学中心(以下、仮想視点という。)とカメラ11aとの距離をDとした場合であり、かつカメラ11a、12a並びに仮想カメラの撮影方向が、全て正面を向いていると仮定した場合に、以下の式(1)に基づいて相対位置情報としてのkを生成することができる。
k=D/B・・・・・・・・(1)
情報生成部30は、図示しない操作部を介して入力される情報に応じて距離Dを決定することができ、また状況に応じて任意にこの距離Dを決定することができる。
このような相対位置情報としてのkが供給される仮想視点画像生成部31は、以下に説明する方法に基づいて仮想視点画像Imaを生成してもよい。例えばマッチング部29において、図9(b)に示すように、前景画像領域Fr1上にある画素位置P11に対して、前景画像領域Fr2上において同一の箇所に存在する画素位置P11’をその対応点として特定されていた場合に、かかる画素位置P11の座標を(x1,y1)とし、また画素位置P11’の座標を(x2,y2)とする。仮想視点画像生成部31は、かかる画素位置P11、P11’に対応する仮想視点画像Ima上の画素位置の座標(xt,yt)を、相対位置情報としてのkに基づいて以下の式(2)により決定することができる。
(xt,yt)=(1−k)×(x1,y1)+k×(x2,y2)・・・(2)
また画素位置P11、P11’における輝度成分をそれぞれJ11, J11’としたときに、かかる仮想視点画像Ima上の画素位置Phにおける輝度成分Ptを以下の式(3)により決定することができる。
Pt=(1−k)×J11+k×J11’ ・・・(3)
このように仮想視点画像生成部31は、仮想視点画像Imaを構成する各画素の座標並びにその輝度成分につき、相対位置情報としてのkに応じて決定することができる。ここでkは、仮想カメラにおける仮想視点がカメラ11aに近くなるにつれて小さくなり、また仮想視点がカメラ12aに近くなるにつれて大きくなる。
このため、式(2)に基づいて決定される座標(xt,yt)は、仮想視点がカメラ11aに近づくにつれて画素位置P11の座標を(x1,y1)に近づき、また仮想視点がカメラ12aに近づくにつれて画素位置P12の座標を(x2,y2)に近づくことになる。このため座標(xt,yt)を、仮想カメラの位置に応じて自在に決定することができるため、仮想視点画像Ima上に表示させるユーザaの位置を自在に変化させることができる。
また、式(3)に基づいて決定される輝度成分Ptは、仮想視点がカメラ11aに近づくにつれて画素位置P11の輝度成分J11に近づき、仮想視点がカメラ12aに近づくにつれて画素位置P11’の輝度成分J11’に近づくことになる。即ち、仮想カメラの位置に応じて、仮想視点画像Ima上のユーザaを構成する画素を輝度成分J11、又は輝度成分J11’に近づけることができる。
特に、カメラ11aとカメラ12aは互いに撮影方向が異なるため、前景画像領域Fr1上にある画素位置P11と、これに対応する前景画像領域Fr2上にある画素位置P11’との間では、輝度成分が互いに異なる。この互いに異なる輝度成分の何れか一方を最小値とし、他方が最大値となるようにして、相対位置情報としてのkに応じて輝度成分Ptを線形に増減させることにより、仮想カメラの位置に応じて仮想視点画像Ima上に表示させるユーザaを構成する画素の輝度成分を決定することが可能となる。
例えば、画素位置P11と画素位置P11’とが、互いにユーザaが着用している眼鏡の縁の部分を捉えている場合に、これらは互いに異なる撮影方向で撮像されているため、その輝度成分は異なる。これらの輝度成分をそれぞれ最小値又は最大値として割り当て、kに応じて輝度成分Ptを線形に増減させることにより、輝度成分Ptを決定する。この決定した輝度成分Ptが、新たに生成すべき仮想視点画像Imaにおける眼鏡の縁を示す輝度成分に相当することになる。
また、本発明を適用した端末装置2aでは、背景画像を構成する輝度成分を取り除いた前景画像領域Fr1,Fr2を構成する輝度成分J11,J11’のみ用いて輝度成分Ptを決定することができる。これにより、輝度成分Ptを高精度に決定することができるため、ユーザaの細かい表情や動きまでを正確に捉えた高画質の仮想視点画像Imaを作り出すことが可能となる。
上述のようにして画素位置Phにおける座標(xt,yt)並びにその輝度成分Ptを順次決定することにより、生成した仮想視点画像Imaの例を図10に示す。表示されるユーザaの視線方向、顔の向き等は互いに異なっていた前景画像領域Fr1,Fr2に対して、ユーザaの顔、視線方向が常時正面を向いている状態にある仮想視点画像Imaを作り出すことが可能となる。
生成された仮想視点画像Imaは、図11に示すように画像合成部33へ送信され、背景画像Bcxと合成されることになる。背景画像生成部32は、この合成すべき背景画像Bcxを、画像Pa1から分離した背景画像Bc1と、画像Pa2から分離した背景画像Bc2に基づいて生成する。仮想視点画像Imaと背景画像Bcxとを合成した結果得られる合成画像Coaは、出力選択部35へ供給される。
ちなみに背景画像生成部32は、例えば図12に示すように、背景画像Bc1と背景画像Bc2の一部のみ利用することにより、背景画像Bcxを生成してもよい。かかる場合において背景画像生成部32は、画像Pa1から分離した背景画像Bc1、画像Pa2から分離した背景画像Bc2から一部の画像領域を抽出し、或いはこれらを圧縮して互いに貼り合わせ、一枚の背景画像Bcxを生成する。ちなみに貼り合わせる際にできる画像の境界線は、後に画像合成部33において仮想視点画像Imaと合成する際にユーザaの画像と重なるため、相手側のディスプレイ5bに表示されることがなくなり、ユーザbに対して視覚的な不自然さを与えることがなくなる。
また、上述したマッチングや仮想視点画像Imaの生成を精度よく実行すべく、前景画像領域Fr1,Fr2と背景画像Bc1,Bc2を分離するが、かかる場合においても分離した背景画像Bc1,Bc2に応じた背景画像Bcxを生成することができる。従って、ユーザaがある特定のオフィスに居る場合に、それに応じた背景画像Bcxを作り出して合成することができ、かかる特定のオフィスに居るユーザaと対話をするものと予想しているユーザbにとって、何ら違和感を与えることがなくなる。
なお、画像合成部33は、合成画像Coaを生成する際において、画像Pa1,Pa2上に表示されるユーザaの画像の相対的な位置関係を正確に識別することにより、仮想視点画像Imaと背景画像Bcxとを継ぎ目無く合成するようにしてもよい。
画像合成部33において合成された合成画像Coaは、出力選択部35へ供給される。この出力選択部35において、相手側の端末装置2bへ送信する旨が選択された合成画像Coaは、ネットワーク7へ送出される。そして相手側の端末装置2bへ送信された合成画像Coaは、端末装置2bにおける制御の下、ディスプレイ5b上へ表示されることになる。ユーザbは、ディスプレイ5bに表示される合成画像Coa上のユーザaを視認しつつ対話をすることになるが、ユーザaの顔、視線方向は常時正面を向いている状態にあるため、あたかも画面中央付近に設置された仮想カメラで撮像されたような画像を視認しているような感覚を味わうことができる。ユーザaについても同様にディスプレイ5aに表示される合成画像Coa上のユーザbを視認しつつ対話をすることになるが、常時正面を向いているユーザbを視認することができる。即ち、この通信システム1では、いわば対話するユーザ間において常時視線を一致させたビジュアルコミュニケーションを実現することができ、よりリアルで臨場感のある遠隔対話を実現することができる。
特にこの通信システム1では、少なくとも2台のカメラ11,12をディスプレイ5
の両側に配設すれば足り、また被写体の3次元情報をその都度抽出する必要もなくなるため、システム全体が複雑化することがなくなるという利点もある。
また、この通信システム1では、ハーフミラーやホログラムスクリーン、更にはプロジェクタ等のような特殊装置を用いる必要もなく、簡易で安価なシステムを構成することができる。
なお、上述した実施の形態では、画像合成部33において生成した合成画像Coaをネットワーク7を介して相手側の端末装置2bへ送信する場合を例に挙げて説明をしたが、かかる場合に限定されるものではなく、例えば、仮想視点画像生成部31において生成された仮想視点画像Imaをそのまま端末装置2bへ送信してもよい。また、仮想視点画像生成部31における処理結果のみをネットワーク7を介して端末装置2bへ送信してもよい。これにより、送信するデータ量を減らすことができるとともに、相手側のユーザbは、好きなCG画像又は事前に送られてきた背景画像を合成することができるため、よりバリエーションに富んだ対話をシステムを提供することが可能となる。また、今までのテレビ電話システムと違って、何らかの理由によって見せたくない個人のプライベートの映像を送信しなくて済み、セキュリティやプライベートの点においても、効果的である。
なお上述した実施の形態では、第1の分離部24,第2の分離部25において、カメラ11a,12aに対する距離情報に基づいて前景画像領域と背景画像とを分離する場合につき説明したが、かかる場合に限定されるものではなく、例えば各カメラ11a,12aにより撮像された各画像の色相並びに彩度に基づいてこれを分離してもよい。
かかる場合において第1の分離部24,第2の分離部25は、撮影対象としてのユーザaの色相並びに彩度の分布特性に応じた基準値を予め決定する。そして、各カメラ11a,12aにより撮像された各画像の色相並びに彩度を上記基準値との関係において画素位置毎に識別し、識別した結果に応じて前景画像領域Fr1,Fr2とその背景画像Bc1,Bc2とをそれぞれ分離する。
図13は、ユーザaの色相並びに彩度の分布特性に応じた基準値を決定する手順を示している。
先ずステップS31において、各カメラ11a,12aにより撮影対象としてのユーザaをそれぞれ撮像する。撮像された画像は、第1の分離部24,第2の分離部25に順次供給される。
次にステップS32へ移行し、第1の分離部24,第2の分離部25は、撮像した画像からユーザaの顔の部分を示す画像領域を抽出する。この画像領域については、ユーザaの顔が大きな領域(例えば、90%以上)を占めるように抽出する。このステップS32において、第1の分離部24,第2の分離部25は、ユーザaの顔を構成する画素か否かを判別する場合に、RGB又はYUVに基づいて実行してもよい。
次にステップS33へ移行し、第1の分離部24,第2の分離部25は、抽出した画像領域から色相と彩度を算出する。この色相と彩度の算出については、抽出した画像領域を構成する全ての画素について実行してもよいし、一部の画素のみに対して実行してもよい。
次にステップS34へ移行し、ステップS33において算出した色相、彩度の分布を計算する。ちなみに抽出した画像領域は、ユーザaの顔が大半を占めるものであるため、このステップS34において計算される色相、彩度の分布は、肌色を中心としたものとなる。
次にステップS35へ移行し、第1の分離部24,第2の分離部25は、ステップS34において計算した色相、彩度の分布から、上述の基準値を決定する。ちなみに、この基準値は、ユーザaの顔の色(肌色)に基づくものである。ここで、カメラ11aにより撮像された画像Pa1における色相の基準値をHUE1±HReg1、彩度の基準値をSAT1±SReg1とする。また、カメラ12aにより撮像された画像Pa2における色相の基準値をHUE2±HReg2、彩度の基準値をSAT2±SReg2とする。
次に、上述の如く決定した基準値との関係において各カメラ11a,12aにより撮像された各画像の色相並びに彩度を識別しつつ、画像を分離する手順につき図14を用いて説明をする。
先ずステップS41において、各カメラ11a,12aにより撮影対象としてのユーザaをそれぞれ撮像する。
次にステップS42へ移行し、各カメラ11a,12aにより撮影された撮影対象を示す画像Pa1,Pa2を生成し、これらにつき画像補正部24,25において補正処理を施した後、第1の分離部24,第2の分離部25へそれぞれ送信する。
次にステップS43へ移行し、第1の分離部24,第2の分離部25は、送信された画像Pa1,Pa2につき、それぞれ色相と彩度を算出する。ここで、カメラ11aにより撮像された画像Pa1につき抽出した色相をHue1とし、彩度をSatu1とする。また、カメラ12aにより撮像された画像Pa2につき抽出した色相をHue2とし、彩度をSatu2とする。このステップ43において、送信された画像Pa1,Pa2を構成する全ての或いは一部の画素につき、色相と彩度を算出した後、ステップS44,45へ移行する。
ステップS44において第1の分離部24は、ステップS43において画像Pa1を構成する全ての或いは一部の画素毎に算出した各色相Hue1につき、色相の基準値HUE1±HReg1と比較する。またかかる画素につき算出した彩度Satu1につき、彩度の基準値SAT1±SReg1と比較する。その結果、HUE1−HReg1<Hue1<HUE1+HReg1であり、かつSAT1−SReg1<Satu1<SAT1+SReg1であるものと判別された場合には、ステップS45へ移行し、それ以外の場合にはステップS46へ移行する。
ステップS45へ移行した場合において、第1の分離部24は、基準値との間で判別した画素につき、画素値を“1”に設定する。またステップS46へ移行した場合において、第1の分離部24は、基準値との間で判別した画素につき画素値を“0”に設定する。
第1の分離部24は、このステップS44〜ステップS46までの処理を、ステップS43において色相Hue1、彩度Satu1を算出した画素全てにつき行う。これにより、色相の基準値をHUE1±HReg1並びに彩度の基準値をSAT1±SReg1に入る全ての画素につき、画素値として“1”が割り当てられ、それ以外の画素につき画素値として“0”が割り当てられる。これらの各基準値は、ユーザaの顔の色(肌色)に基づくものであるため、ユーザaの顔を構成する画素につき、画素値として“1”が割り当てられ、それ以外の画素につき画素値として“0”が割り当てられることになる。
次にステップS47へ移行し、第1の分離部24は、画素値として“1”が割り当てられた画素からユーザaの顔を構成する画像領域の大きさや、当該画像領域の中心に位置する画素位置等の情報を取得する。
次にステップS48へ移行し、第1の分離部24は、ステップS47において取得した情報に基づき、ユーザaの顔を構成する画像領域を前景画像領域Fr1として分離する。このステップS48において第1の分離部24は、前景画像領域Fr1を、例えば長方形状又は楕円形状に分離してもよい。
なお、第2の分離部25における画像領域を抽出するまでの処理についても、第1の分離部S24のステップS44〜S48における処理と同様となる。即ち、ステップS49において第2の分離部25は、ステップS43において画像Pa2を構成する全ての或いは一部の画素毎に算出した各色相Hue2につき、色相の基準値HUE2±HReg2と比較する。またかかる画素につき算出した彩度Satu2につき、彩度の基準値SAT2±SReg2と比較する。その結果、HUE2−HReg2<Hue2<HUE2+HReg2であり、かつSAT2−SReg2<Satu2<SAT2+SReg2であるものと判別された場合には、ステップS50へ移行し、それ以外の場合にはステップS51へ移行する。
ステップS50へ移行した場合において、第2の分離部25は、基準値との間で判別した画素につき、画素値を“1”に設定する。またステップS51へ移行した場合において、第2の分離部25は、基準値との間で判別した画素につき画素値を“0”に設定する。
これ以降についても同様にして、第2の分離部25は、画素値として“1”が割り当てられた画素からユーザaの顔を構成する画像領域の大きさや、当該画像領域の中心に位置する画素位置等の情報を取得し(ステップS52)、更にユーザaの顔を構成する前景画像領域を分離する(ステップS53)。
図15は、ステップS48,S53において、第1の分離部24,第2の分離部25により分離された前景画像領域を示している。互いに異なる撮影方向により撮像された画像Pa1,Pa2を、上述の如く各画像の色相並びに彩度に基づいて図15に示すような長方形状の前景画像領域Fr1,Fr2に分離する。これらの分離された前景画像領域Fr1,Fr2から仮想視点画像Imaを同様に作り出すことが可能となる。
また、第1の分離部24,第2の分離部25は、更に各カメラ11,12により撮像された各画像Pa1,Pa2から、予め取得された背景画像を差し引くことにより、上記前景画像領域Fr1,Fr2を分離してもよい。
図16は、背景画像を予め取得する手順を示している。
先ずステップS61において、カメラ11a,カメラ12aは、背景画像の撮像を行う。このステップS61では、ユーザがディスプレイ5aの前に着席する前に、ディスプレイ5aの側面に設置されたカメラ11a,カメラ12aにより撮像を実行する。
次にステップS62へ移行し、ステップS61において、カメラ11a,カメラ12aにより撮像された各背景画像BackImg1, BackImg2を取得し、図示しないメモリ等に保存しておく。
図17は、各カメラ11a,12aにより撮像された各画像Pa1,Pa2から、予め取得された背景画像BackImg1, BackImg2を差し引く手順につき示している。
先ずステップS71において、カメラ11a、カメラ12aにより撮影対象としてのユーザaをそれぞれ撮像する。
次にステップS72へ移行し、各カメラ11a,12aにより撮影された撮影対象を示す画像Pa1,Pa2を生成する。これらの各画像Pa1,Pa2は、画像補正部24,25において補正処理が施された後、第1の分離部24,第2の分離部25へそれぞれ送信される。
次にステップS73,S74へ移行し、各画像Pa1,Pa2から背景画像BackImg1, BackImg2を差し引く。次にステップS75へ移行し、第1の分離部24,第2の分離部25は、ステップS73,S74においてそれぞれ差し引かれた結果得られる前景画像領域Lr1,Lr2を分離する。このとき、更にステップS76へ移行し、分離した前景画像領域Lr1,Lr2からユーザaを構成する画像領域をフィルタ処理を用いることにより抽出してもよい。
このように予め取得された背景画像を差し引くことによっても前景画像領域Lr1,Lr2を分離することができ、これらに基づいて仮想視点画像Imaを作り出すことが可能となる。
なお、上述した実施の形態では、図18(a)に示すように、ユーザの視線の高さに合わせて設置された2台のカメラにより撮影対象を撮像する場合を例に挙げて説明をしたが、かかる場合に限定されるものではなく、3台以上のカメラをディスプレイの側面に設置して、これを撮像してもよい。
図18(b)は、ディスプレイ5aの側面において4台のカメラ61〜64を設置する例を示している。このように互いに異なる4方向からユーザaを撮像することにより、仮にユーザの視線の高さが微妙に変化する場合であっても、細かい視線の動きを検出することができ、常時視線を一致させた状態で対話を実現することが可能となる。
なお、本発明を適用した端末装置2とカメラ11,12とを一体化させた撮像装置として適用してもよいことは勿論である。
本発明を適用した通信システムの概略を示す図である。 端末装置の構成につき説明するための図である。 マッチング部における対応付けにつき説明するための図である。 互いに異なる撮影方向により撮像された各画像を示す図である。 カメラから分離部までの動作につき説明するための図である。 抽出された前景画像領域について示す図である。 多解像度マッチングにつき説明するためのフローチャートである。 情報生成部においてユーザの視線を抽出する場合につき説明するためのフローチャートである。 仮想視点画像の各座標、輝度成分の算出方法につき説明するための図である。 生成した仮想視点画像の例を示す図である。 合成画像を生成するまでの手順を示す図である。 背景画像の合成方法につき説明するための図である。 ユーザの色相並びに彩度の分布特性に応じた基準値を決定する手順を示すフローチャートである。 各カメラにより撮像された各画像の色相並びに彩度を識別しつつ、画像を分離する手順を示すフローチャートである。 各カメラにより撮像された各画像の色相並びに彩度を識別しつつ、分離された画像を示す図である。 背景画像を予め取得する手順を示す図である。 各カメラにより撮像された各画像Pa1,Pa2から、予め取得された背景画像BackImg1, BackImg2を差し引く手順につき示す図である。 3台以上のカメラをディスプレイの側面に設置する場合につき説明するための図である。 従来におけるテレビ会議システムにつき説明するための図である。 従来におけるテレビ会議システムにおける問題点につき説明するための図である。 画面の左右に設置された2台のカメラで撮影した画像に基づいて3次元位置情報を生成する画像通信装置につき説明するための図である。
符号の説明
1 通信システム、2 端末装置、5 ディスプレイ、7 ネットワーク、11,12 カメラ、21 第1の画像補正部、22 第2の画像補正部、23 カメラキャリブレーション部、24 第1の分離部、25 第2の分離部、26 第1の特徴抽出部、27 第2の特徴抽出部、29 マッチング部、30 情報生成部、31 仮想視点画像生成部、32 背景画像生成部、33 画像合成部、35 出力選択部

Claims (21)

  1. 撮影対象を互いに異なる角度から撮像する少なくとも2台のカメラを含む撮像手段と、
    上記撮像手段における各カメラにより撮像された各画像から、上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離手段と、
    上記画像分離手段により分離された各前景画像領域間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
    上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
    上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、
    上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する送信手段とを備えること
    を特徴とする撮像装置。
  2. 上記撮像手段は、上記撮影対象として画面を視認するユーザを撮像し、
    上記情報生成手段は、上記撮像手段により撮像されたユーザの上記画面に対する視線方向に基づいて上記相対位置情報を生成すること
    を特徴とする請求項1記載の撮像装置。
  3. 上記情報生成手段は、外部入力された情報に基づいて上記相対位置情報を生成すること
    を特徴とする請求項1記載の撮像装置。
  4. 少なくとも上記各カメラ間の幾何学的な位置関係に基づき、上記撮像手段により撮像された画像を補正する画像補正手段をさらに備えること
    を特徴とする請求項1記載の撮像装置。
  5. 上記画像分離手段は、上記撮影対象の色相並びに彩度の分布特性に応じた基準値を予め決定し、上記撮像手段における各カメラにより撮像された各画像の色相並びに彩度を上記基準値との関係において画素位置毎に識別し、上記識別した結果に応じて上記前景画像領域とその背景画像とをそれぞれ分離すること
    を特徴とする請求項1記載の撮像装置。
  6. 上記画像分離手段は、上記撮像手段における各カメラにより撮像された各画像から、予め取得された背景画像を差し引くことにより、上記前景画像領域を分離すること
    を特徴とする請求項1記載の撮像装置。
  7. 上記画像分離手段は、各カメラに対する被写体の距離を識別し、識別した距離に基づいて上記前景画像領域とその背景画像とをそれぞれ分離すること
    を特徴とする請求項1記載の撮像装置。
  8. 上記マッチング手段は、上記各前景画像領域から解像度を下げた参照用画像をそれぞれ生成し、上記生成した各参照用画像間において上記撮影対象と関連させつつ画素位置毎に対応付けを行い、上記参照用画像間の対応付けに基づいて上記各前景画像領域間における上記対応付けを行うこと
    を特徴とする請求項1記載の撮像装置。
  9. 上記撮像手段は、光学中心を結ぶ直線距離がBである第1のカメラと第2のカメラとを含み、
    上記画像分離手段は、上記第1のカメラにより撮像された画像から前景画像領域T1を分離し、また上記第2のカメラにより撮像された画像から前景画像領域T2を分離し、
    上記情報生成手段は、上記第1のカメラに対する仮想視点の距離をDとしたとき、上記相対位置情報としてk(=D/B)を生成し、
    上記画像生成手段は、上記マッチング手段により互いに対応付けされた前景画像領域T1における画素位置(x1,y1),前景画像領域T2における画素位置(x2,y2)並びにその輝度成分J1,J1’から、上記仮想視点画像を構成する画素位置(xt,yt)並びにその輝度成分Ptを以下の式
    (xt,yt)=(1−k)×(x1,y1)+k×(x2,y2)
    Pt=(1−k)×J1+k×J1’
    に基づいて求めること
    を特徴とする請求項1記載の撮像装置。
  10. 上記仮想視点画像とその背景画像とを合成する画像合成手段をさらに備え、
    上記送信手段は、上記画像合成手段により合成された画像を外部へ送信すること
    を特徴とする請求項1記載の撮像装置。
  11. 上記仮想視点画像と合成する背景画像を、上記画像分離手段により分離された各背景画像に基づいて作成する背景画像作成手段をさらに備えること
    を特徴とする請求項10記載の撮像装置。
  12. 上記背景画像作成手段は、外部入力された情報に基づいて上記作成する背景画像の解像度を変化させること
    を特徴とする請求項11記載の撮像装置。
  13. 上記送信手段は、上記撮像手段における各カメラにより撮像された各画像、上記画像合成手段により合成された画像の何れか或いは全てを、外部入力された情報に応じて送信すること
    を特徴とする請求項10記載の撮像装置。
  14. 外部から受信した仮想視点画像を表示画面上へ表示させる表示制御手段をさらに備えること
    を特徴とする請求項1記載の撮像装置。
  15. 外部から受信した仮想視点画像とその背景画像とを合成する画像合成手段をさらに備え、
    上記表示制御手段は、上記画像合成手段により合成された画像を上記表示画面上へ表示させること
    を特徴とする請求項14記載の撮像装置。
  16. 撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像する撮像ステップと、
    上記撮像ステップにおいて各カメラにより撮像した各画像から、上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離ステップと、
    上記画像分離ステップにおいて分離した各前景画像領域間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチングステップと、
    上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、
    上記マッチングステップにおいて互いに対応付けされた画素位置並びにその輝度成分から、上記生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップと、
    上記画像生成ステップにおいて求めた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する送信ステップとを有すること
    を特徴とする撮像方法。
  17. 撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像することにより生成された各画像を処理する画像処理装置において、
    上記生成された各画像から、上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離手段と、
    上記画像分離手段により分離された各前景画像領域間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、
    上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、
    上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から、上記生成された相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、
    上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する送信手段とを備えること
    を特徴とする画像処理装置。
  18. 撮影対象を少なくとも2台のカメラにより互いに異なる角度から撮像することにより生成された各画像を処理する画像処理方法において、
    上記生成された各画像から、上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離ステップと、
    上記画像分離ステップにおいて分離した各前景画像領域間において、上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチングステップと、
    上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成ステップと、
    上記マッチングステップにおいて互いに対応付けされた画素位置並びにその輝度成分から、上記生成した相対位置情報に応じて、新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成ステップと、
    上記画像生成ステップにおいて求めた画素位置並びにその輝度成分により構成される仮想視点画像を外部へ送信する送信ステップとを有すること
    を特徴とする画像処理方法。
  19. ネットワークを介して画像を双方向で送受信する通信システムにおいて、
    上記ネットワークを介して相手側から受信した画像を互いに表示するための表示装置と、
    上記各表示装置を視認するユーザを撮影対象とし、少なくとも2台のカメラにより互いに異なる角度からこれを撮像する撮像装置と、
    上記各カメラにより撮像された各画像から上記撮影対象を含む前景画像領域とその背景画像とをそれぞれ分離する画像分離手段と、上記画像分離手段により分離された各前景画像領域間において上記撮影対象と関連させつつ画素位置毎に対応付けを行うマッチング手段と、上記各カメラに対する上記撮影対象の相対的な位置関係を示す相対位置情報を生成する情報生成手段と、上記マッチング手段により互いに対応付けされた画素位置並びにその輝度成分から上記生成された相対位置情報に応じて新たに生成すべき仮想視点画像を構成する画素位置並びにその輝度成分を求める画像生成手段と、上記画像生成手段により求められた画素位置並びにその輝度成分により構成される仮想視点画像を上記ネットワークを介して送信する送信手段とを有する画像処理装置とを備えること
    を特徴とする通信システム。
  20. 上記画像処理装置は、上記仮想視点画像とその背景画像とを合成する画像合成手段をさらに有し、
    上記送信手段は、上記画像合成手段により合成された画像を上記ネットワークを介して送信すること
    を特徴とする請求項19記載の通信システム。
  21. 上記画像処理装置は、上記ネットワークを介して相手側から受信した仮想視点画像とその背景画像とを合成する画像合成手段とをさらに有すること
    を特徴とする請求項19記載の通信システム。
JP2003294638A 2003-08-18 2003-08-18 撮像装置 Expired - Fee Related JP4461739B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003294638A JP4461739B2 (ja) 2003-08-18 2003-08-18 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003294638A JP4461739B2 (ja) 2003-08-18 2003-08-18 撮像装置

Publications (2)

Publication Number Publication Date
JP2005065051A true JP2005065051A (ja) 2005-03-10
JP4461739B2 JP4461739B2 (ja) 2010-05-12

Family

ID=34371147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003294638A Expired - Fee Related JP4461739B2 (ja) 2003-08-18 2003-08-18 撮像装置

Country Status (1)

Country Link
JP (1) JP4461739B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007053496A (ja) * 2005-08-16 2007-03-01 Sony Corp 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
JP2009147823A (ja) * 2007-12-17 2009-07-02 Taito Corp 異種カメラによる画像形成方法,該画像形成方法を用いたマルチカメラ装置および該マルチカメラ装置を備えたプリントシール機
JP2011097447A (ja) * 2009-10-30 2011-05-12 Sharp Corp コミュニケーションシステム
WO2011091755A1 (zh) * 2010-01-29 2011-08-04 华为终端有限公司 多画面视频图像处理方法和装置
JP2012114557A (ja) * 2010-11-22 2012-06-14 Nec Saitama Ltd 表示装置、表示制御方法、プログラム及び電子機器
KR20140049980A (ko) * 2011-02-17 2014-04-28 아이락 인크. 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 효율적인 방법 및 시스템
JP2016174633A (ja) * 2015-03-18 2016-10-06 株式会社タイトー ダンス装置
JP2016174632A (ja) * 2015-03-18 2016-10-06 株式会社タイトー 撮影装置
JP2016174631A (ja) * 2015-03-18 2016-10-06 株式会社タイトー ダンス装置
JP2016192688A (ja) * 2015-03-31 2016-11-10 大和ハウス工業株式会社 映像表示システム及び映像表示方法
JP2017527230A (ja) * 2014-05-29 2017-09-14 ネクストブイアール・インコーポレイテッド コンテンツを配信および/または再生するための方法及び装置
JP2018010677A (ja) * 2013-09-24 2018-01-18 シャープ株式会社 画像処理装置、画像表示装置およびプログラム
CN112489182A (zh) * 2017-12-14 2021-03-12 佳能株式会社 用于生成图像的系统、方法和存储介质
US11336966B2 (en) 2014-05-29 2022-05-17 Nevermind Capital Llc Methods and apparatus for delivering content and/or playing back content
US11494971B2 (en) 2019-02-12 2022-11-08 Canon Kabushiki Kaisha Material generation apparatus, image generation apparatus, and image processing apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6429829B2 (ja) 2016-05-25 2018-11-28 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
KR101827998B1 (ko) * 2017-04-24 2018-02-12 에스케이플래닛 주식회사 얼굴 특징 기반의 가상 체험 시스템 및 그 방법

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4645356B2 (ja) * 2005-08-16 2011-03-09 ソニー株式会社 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
US8159527B2 (en) 2005-08-16 2012-04-17 Sony Corporation Method of displaying pictures, program for displaying pictures, recording medium holding the program, and display unit
JP2007053496A (ja) * 2005-08-16 2007-03-01 Sony Corp 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置
JP2009147823A (ja) * 2007-12-17 2009-07-02 Taito Corp 異種カメラによる画像形成方法,該画像形成方法を用いたマルチカメラ装置および該マルチカメラ装置を備えたプリントシール機
JP2011097447A (ja) * 2009-10-30 2011-05-12 Sharp Corp コミュニケーションシステム
US8947498B2 (en) 2010-01-29 2015-02-03 Huawei Device Co., Ltd. Method and device for processing multi-picture video image
WO2011091755A1 (zh) * 2010-01-29 2011-08-04 华为终端有限公司 多画面视频图像处理方法和装置
JP2012114557A (ja) * 2010-11-22 2012-06-14 Nec Saitama Ltd 表示装置、表示制御方法、プログラム及び電子機器
KR102024949B1 (ko) * 2011-02-17 2019-09-24 아이락 엘엘씨 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 효율적인 방법 및 시스템
KR20140049980A (ko) * 2011-02-17 2014-04-28 아이락 인크. 단일 센서를 이용하여 장면 이미지 및 홍채 이미지를 획득하기 위한 효율적인 방법 및 시스템
JP2018010677A (ja) * 2013-09-24 2018-01-18 シャープ株式会社 画像処理装置、画像表示装置およびプログラム
JP2017527230A (ja) * 2014-05-29 2017-09-14 ネクストブイアール・インコーポレイテッド コンテンツを配信および/または再生するための方法及び装置
US11336966B2 (en) 2014-05-29 2022-05-17 Nevermind Capital Llc Methods and apparatus for delivering content and/or playing back content
US11871085B2 (en) 2014-05-29 2024-01-09 Nevermind Capital Llc Methods and apparatus for delivering content and/or playing back content
JP2016174633A (ja) * 2015-03-18 2016-10-06 株式会社タイトー ダンス装置
JP2016174632A (ja) * 2015-03-18 2016-10-06 株式会社タイトー 撮影装置
JP2016174631A (ja) * 2015-03-18 2016-10-06 株式会社タイトー ダンス装置
JP2016192688A (ja) * 2015-03-31 2016-11-10 大和ハウス工業株式会社 映像表示システム及び映像表示方法
CN112489182A (zh) * 2017-12-14 2021-03-12 佳能株式会社 用于生成图像的系统、方法和存储介质
US11494971B2 (en) 2019-02-12 2022-11-08 Canon Kabushiki Kaisha Material generation apparatus, image generation apparatus, and image processing apparatus

Also Published As

Publication number Publication date
JP4461739B2 (ja) 2010-05-12

Similar Documents

Publication Publication Date Title
JP4069855B2 (ja) 画像処理装置及び方法
CN109952759B (zh) 用于具有hmd的视频会议的改进的方法和系统
US7330584B2 (en) Image processing apparatus and method
JP4461739B2 (ja) 撮像装置
TWI479452B (zh) 修正數位影像的裝置及方法
CN104885125B (zh) 信息处理设备、信息处理系统和信息处理方法
US20230206531A1 (en) Avatar display device, avatar generating device, and program
US20170180680A1 (en) Object following view presentation method and system
WO2018225518A1 (ja) 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム
JP2010250452A (ja) 任意視点画像合成装置
US9380263B2 (en) Systems and methods for real-time view-synthesis in a multi-camera setup
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
JP2009246408A (ja) 対話装置、画像処理モジュール、画像処理方法およびプログラム
JP4617965B2 (ja) 画像処理方法、その装置およびプログラム
CN113112407B (zh) 基于电视的照镜视野生成方法、系统、设备及介质
JP4595313B2 (ja) 撮像表示装置及び方法、画像送受信システム
KR20100134288A (ko) 입체 영상 시스템 및 입체 영상 처리 방법
JP7452434B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2005142765A (ja) 撮像装置及び方法
JP4211097B2 (ja) 受像機、その位置認識装置、その位置認識方法及び仮想画像立体合成装置
JP2005174148A (ja) 撮像装置及び方法、撮像システム
JP5924833B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び撮像装置
JP4586447B2 (ja) 画像処理装置及び方法、プログラム
KR20160101762A (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130226

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees