JP2011077710A - 映像コミュニケーションシステム、及び映像コミュニケーション方法 - Google Patents

映像コミュニケーションシステム、及び映像コミュニケーション方法 Download PDF

Info

Publication number
JP2011077710A
JP2011077710A JP2009225373A JP2009225373A JP2011077710A JP 2011077710 A JP2011077710 A JP 2011077710A JP 2009225373 A JP2009225373 A JP 2009225373A JP 2009225373 A JP2009225373 A JP 2009225373A JP 2011077710 A JP2011077710 A JP 2011077710A
Authority
JP
Japan
Prior art keywords
image
display
video
person
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009225373A
Other languages
English (en)
Other versions
JP5237234B2 (ja
Inventor
Akira Ishii
亮 石井
Hajime Noto
肇 能登
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009225373A priority Critical patent/JP5237234B2/ja
Publication of JP2011077710A publication Critical patent/JP2011077710A/ja
Application granted granted Critical
Publication of JP5237234B2 publication Critical patent/JP5237234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザに映像中の対話相手との距離感、現実感を与える。
【解決手段】画像取得部10は、ユーザBの2次元映像を撮影する。距離情報取得部11は、ディスプレイ面とユーザB間の距離を取得する。3次元画像生成部12は、ユーザBの2次元画像とディスプレイ面とユーザBの距離とに基づいて、ユーザBの2次元画像を、奥行き情報を持つ、ユーザBの3次元画像情報に変換する。視点位置検出部13では、ユーザの視点がどこにあるかを示すユーザの視点位置を取得する。映像生成部14では、ユーザAの視点位置と、奥行き情報を持つ、ユーザBの3次元画像情報とから、ユーザAのディスプレイ面に表示する映像を生成する。映像表示部15は、映像生成部14により生成された、ユーザAの視点位置に応じた、ユーザBの2次元画像を表示する。
【選択図】図2

Description

本発明は、少なくとも撮像側の映像伝送装置と表示側の映像伝送装置との間で、撮像側の映像伝送装置で撮影した映像を表示側の映像伝送装置に伝送する映像コミュニケーションシステム、及び映像コミュニケーション方法に関する。
映像コミュニケーションにおいて、対話相手とあたかも対面しているかのように、対話相手をユーザにどのような映像として提示するかが重要である。従来、映像コミュニケーションにおいては、あたかも実物大の対話相手が目の前にいるように感じさせるために、対話相手の人物を2次元ディスプレイ上に実物大に映す方式が考えられている(例えば、特許文献1参照)。
特許第3586126号公報
対面会話において、対人間の距離感は、話しやすさや、緊張感に影響を与え重要である(参考文献1:エドワードホール、かくれた次元、2000、みすず書房)。しかしながら、従来の2次元ディスプレイに映された対話相手では、どの位置から映像を観察しても2次元ディスプレイに表示された映像は変化しない。視点位置による画像変化が無いため、奥行き情報が欠落し、対話相手との距離の表現ができなかった。
すなわち、実際に、対話相手が目の前にいるように感じさせるためには、実物大表示だけでは不十分である。例えば、ディスプレイ上に等身大に表示されている人物を見ても、個人によって人物がディスプレイよりも前や、後ろにいるように感じたり、そもそもどの奥行き位置にいるのかが把握できないために、実物より大きい、もしくは小さい人物がいるように感じられ、対話相手を等身大に感じることができない。このように、従来技術では、距離感が表現できないために、対面会話のように距離による会話への効果を期待することができない。
また、従来技術では、ユーザが映像中の対話相手とどれくらいの距離にいるのかを、把握することができなかったため、対面会話と同様に、対人距離を適度に調節することや、距離の遠近によってもたらせる緊張感が感じられなかった。さらに、対話相手の視線や、姿勢がどこを向いているのかが分からなかったことに加えて、遠隔地に存在する対話相手とあたかも同じ空間を共有している感覚(臨場感)が欠落していた。
本発明は、このような事情を考慮してなされたものであり、その目的は、ユーザに映像中の対話相手との距離感、現実感を与えることができる映像コミュニケーションシステム、及び映像コミュニケーション方法を提供することにある。
上述した課題を解決するために、本発明は、少なくとも撮像側の映像伝送装置と表示側の映像伝送装置との間で、前記撮像側の映像伝送装置で撮影した映像を前記表示側の映像伝送装置に伝送する映像コミュニケーションシステムであって、前記撮像側の映像伝送装置は、前記撮像側の人物と、その背景とを含む2次元画像を取得する画像取得手段と、前記撮像側の人物と前記撮像側に設けられた表示手段との間の距離情報を取得する距離情報取得手段と、前記画像取得手段により取得された前記2次元画像と、前記距離情報取得手段により取得された前記距離情報とに基づいて、前記撮像側の人物画像とその背景画像とからなる多層画像に分割した3次元画像を生成する3次元画像生成手段とを備え、前記表示側の映像伝送装置は、前記表示側の人物の視点位置を検出する視点位置検出手段と、前記視点位置検出手段により検出された前記表示側の人物の視点位置と、前記3次元画像生成手段により生成された前記3次元画像とに基づいて、前記表示側の人物の視点位置に応じた、前記撮像側の2次元画像を生成する映像生成手段と、前記映像生成手段により生成された前記撮像側の2次元画像を表示する映像表示手段とを備えることを特徴とする映像コミュニケーションシステムである。
本発明は、上記の発明において、前記3次元画像生成手段は、前記距離情報取得手段により取得された前記距離情報に基づいて、前記画像取得手段により取得された前記2次元画像を、前記撮像側の人物画像とその背景画像とからなる多層画像に分割する分割手段と、前記分割手段により分割された前記撮像側の背景画像を補完する補完手段と、前記分割手段により分割された前記撮像側の人物画像と、前記補完手段により補完された前記撮像側の背景画像とに対し、実寸の大きさを算出して、実寸情報として取得する実寸取得手段と、前記距離情報取得手段により取得された前記距離情報と前記実寸取得手段により取得された前記実寸情報とを、奥行き情報として、前記分割手段により分割された前記撮像側の人物画像と、前記補完手段により補完された前記撮像側の背景画像とのそれぞれに付与し、前記撮像側の3次元画像として生成する付与手段とを備えることを特徴とする。
本発明は、上記の発明において、前記映像生成手段は、前記視点位置検出手段により検出された前記表示側の人物の視点位置を基点に、前記奥行き情報が付与された前記撮像側の人物画像と前記撮像側の背景画像とを、前記映像表示手段の表示面上に射影変換することで、前記表示側の人物の視点位置に応じた、前記撮像側の2次元画像を生成することを特徴とする。
本発明は、上記の発明において、前記映像生成手段は、前記視点位置検出手段により検出された前記表示側の人物の視点位置を基点に、前記奥行き情報が付与された前記撮像側の人物画像と前記撮像側の背景画像とを、前記映像表示手段の表示面上に射影変換する際に、前記映像表示手段の表示面に対して、最前面となる画像のみを投影することを特徴とする。
本発明は、上記の発明において、前記映像生成手段は、前記視点位置検出手段により検出された前記表示側の人物の視点位置を基点に、前記奥行き情報が付与された前記撮像側の人物画像と前記撮像側の背景画像とを、前記映像表示手段の表示面上に射影変換する際に、前記映像表示手段の表示面に対して全画像を投影し、少なくともある画像に対して前面となる画像に透過性を持たせることを特徴とする。
また、上述した課題を解決するために、本発明は、少なくとも撮像側の映像伝送装置と表示側の映像伝送装置との間で、前記撮像側の映像伝送装置で撮影した映像を前記表示側の映像伝送装置に伝送する映像コミュニケーション方法であって、前記撮像側の映像伝送装置は、画像取得手段により、前記撮像側の人物と、その背景とを含む2次元画像を取得するステップと、距離情報取得手段により、前記撮像側の人物と前記撮像側に設けられた表示手段との間の距離情報を取得するステップと、3次元画像生成手段により、前記取得された2次元画像と、前記取得された距離情報とに基づいて、前記撮像側の人物画像とその背景画像とからなる多層画像に分割した3次元画像を生成するステップとを含み、前記表示側の映像伝送装置は、視点位置検出手段により、前記表示側の人物の視点位置を検出するステップと、映像生成手段により、前記表示側の人物の視点位置と、前記3次元画像とに基づいて、前記表示側の人物の視点位置に応じた、前記撮像側の2次元画像を生成するステップと、映像表示手段により、前記撮像側の2次元画像を表示するステップとを含むことを特徴とする映像コミュニケーション方法である。
この発明によれば、ユーザの視点(目の位置)に応じて、対話相手の映像を変化させるという運動視差を実現し、距離に応じた人物サイズで対話相手を表示することで、ユーザに映像中の対話相手との距離感、現実感を与えることができる。
本発明による映像表示のイメージを示す概念図である。 本実施形態による、映像コミュニケーション装置の構成を示すブロック図である。 本実施形態による3次元画像生成部12の動作を説明するためのフローチャートである。 本実施形態において、各レイヤの画像の大きさ情報の算出方法を説明するための概念図である。 本実施形態において、実際に生成される「奥行き情報を持つユーザBの3次元画像情報」の例を示す概念図である。 本実施形態による映像生成部14の動作を説明するためのフローチャートである。 本実施形態による映像生成部14の動作を説明するための概念図である。
以下、本発明の一実施形態を、図面を参照して説明する。
A.発明の原理
本件発明は、映像コミュニケーションにおいて、映像の奥行き表現技術に関するものである。より具体的には、本発明の映像コミュニケーション装置は、撮像側と表示側とを有し、撮像側から人物と背景とに分けた多層映像を表示側へ送り、表示側では表示側にいる人物の眼の位置に応じて多層映像の重なり具合を変化させた(あたかも窓(=ディスプレイ)を通して該人物と該背景とが表示側の人物の目の位置から見た位置関係となるように人物の層と背景の層とを移動させた)合成画像を生成し、該変化によって生じた運動視差によって高臨場感を得るものである。
すなわち、本発明は、2地点での映像コミュニケーションにおいて、ディスプレイを1枚の窓に見立てて、ユーザと対話相手とが互いにあたかも相手の空間を窓越しに覗いているかのように、ユーザの視点位置に応じて、その位置から見える対話相手の空間の映像をディスプレイに表示すること(運動視差)を実現し、映像中の対話相手の奥行き位置を表現することを特徴としている。
図1は、本発明による映像表示のイメージを示す概念図である。図1において、ユーザ1が視点を変えると(3軸移動に対応)、映像中の対話相手2の奥行き位置(対話相手2とその背景の壁3)を、その視点の変化に応じて2次元ディスプレイ4上に表示することで、対話相手2、背景の壁3の見え方があたかも現実のように再現される。
すなわち、ユーザ1が位置P1にて2次元ディスプレイ4に対峙する場合には、対話相手2を正面から見ているように表示し、ユーザ1が左側の位置P2から見ている場合には、対話相手2、及びその背景にある壁3との位置関係(奥行き)を反映し、対話相手2を左側から見ているように表示し、ユーザ1が右側の位置P3から見ている場合には、対話相手2、及びその背景にある壁3との位置関係(奥行き)を反映し、対話相手2を右側から見ているように表示する。
本発明を実現するためには、ディスプレイ4に対するユーザ1の視点位置・姿勢の検出、ユーザ1の視点位置に応じた対話相手2の映像の生成・表示の2つの技術が重要である。本発明では、特に、視点位置に応じた映像の生成・表示について複数の方法を提案する。
B.実施形態
本実施形態では、カメラから撮影された2次元映像から、人物と背景を分離し、多層化して奥行きを持つ3次元映像を生成し、ユーザの視点位置に応じて、ディスプレイ面に投影して表示する方法について説明する。
図2は、本実施形態による、映像コミュニケーション装置の構成を示すブロック図である。図示の映像コミュニケーション装置は、ユーザ(以下、ユーザA)、及び対話相手(以下、ユーザB)のそれぞれに用意され、双方向通信を介して使用される。以下では、ユーザAのディスプレイにユーザBの奥行き映像を表示するときについて説明する。
画像取得部(ユーザB)10は、撮影装置(カメラ)からなり、ユーザBの2次元映像(画像)を撮影する。該画像取得部(ユーザB)10は、ユーザAの視線とユーザBの視線とを合わせるために、ユーザBのディスプレイ(映像表示部:図示略)上に表示されるユーザAの目位置(目位置とは、両目の目頭を結ぶ線分の中点の位置)に、光学的、または、仮想的に、カメラのレンズ中心がくるように配置される。
例えば、ディスプレイとユーザBとの間にハーフミラーを、ディスプレイの平面の法線とハーフミラーの法線のなす角度が45度となるように設置し、カメラを該ハーフミラーの上方または下方に、ハーフミラーからディスプレイまでの距離だけ離して設置することにより、ハーフミラーを介して撮像する手法を用いることが考えられる。
また、ディスプレイを隠さないように、ユーザBのディスプレイの周囲に複数のカメラを配置し、FTV(Free−Viewpoint Television)技術によって、該周囲の複数のカメラ画像から、ユーザBのディスプレイ上に表示されるユーザAの視点位置にある仮想視点の映像を生成する手法を用いることも考えられる。その他、視線を一致させるために、カメラ位置をできるだけ、ユーザBのディスプレイに表示されたユーザAの目位置にレンズ中心が来るように配置するようにしてもよい。以後、ユーザBのディスプレイの中心にカメラレンズの中心があるようにカメラが設置されており、カメラの撮像面がディスプレイ面にあると仮定して説明する。
距離情報取得部(ユーザB)11は、
a)複数カメラを用いた顔認識、及びステレオマッチングを用いた画像処理技術
b)光学式、または磁気式のモーショントラッキング技術、
また、映像コミュニケーションにおいて人物がカメラ映像の中央にいることを前提条件とし、
c)カメラのオートフォーカス機能によるフォーカス距離情報取得
などの手法を用いて、ディスプレイ面とユーザB間の距離を取得する。このとき、「ディスプレイ面とユーザB間の距離」は、ディスプレイ面からユーザBへの法線の長さである。距離を取得する手法は、上記手法だけに限らず、他の手法であってもよい。
次に、3次元画像生成部(ユーザB)12は、画像取得部10によって撮影された、「ユーザBの2次元画像」、及び距離情報取得部11によって取得された、ディスプレイ面とユーザB間の距離に基づいて、「ユーザBの2次元画像」を、奥行き情報を持つ「ユーザBの3次元画像情報」に変換して出力する。
本実施形態の特徴として、1対1の映像コミュニケーションにおいては、ディスプレイの正面から大きくユーザが動かないという前提条件の下、完全な3次元形状を持つ奥行き映像を生成するのではなく、入力された「ユーザBの2次元画像」を、人物領域と背景領域とに分割し、書割のように平面レイヤのまま奥行き情報を付与して多層化する。
人物領域と背景領域の分割には、ディスプレイが据え置きの映像コミュニケーションにおいては、背景が多くの場合に固定であるため、背景差分を利用し、予め背景のみを撮影しておき、それをリファレンスとして差分を取得することで人物を抽出する。
また、距離画像センサを用いた距離情報や、温度画像センサによる人物の体温情報、顔認識を併用して領域分割の精度を向上することも考えられる。
具体的な手法として、所定の範囲内に人物が存在し得る(例えば、ディスプレイが設置された部屋の場合には、ディスプレイから部屋の壁までの範囲内)場合には、ディスプレイの所定の位置を基準点とした人物の存在範囲(該基準点から該部屋の壁までの範囲)を規定し、距離画像センサを用いて距離画像を取得し、人物が存在すると規定される範囲の距離を示す画素領域を該距離画像中の人物領域と判定する。例えば、ディスプレイ面から、0〜3mまでの領域は、人物領域と判定し、3m以上の領域は背景領域と判定する。
また、温度画像センサの場合、同様に人物を示す温度範囲を規定して、同様な判定を行う。これらの複数センサから取得された複数の人物領域を候補として、各画素でボーティングして人物領域を最終的に判定する。
具体的には、例えば、画像中のある画素で、各センサを用いた人物領域判定の論理積を取ることで、最終的な判定を行う。顔認識の利用用途は、上記処理などを行った後に、人物領域と判定される領域の候補が複数存在し、その中に人物以外のものが混在していたときに、2次元画像中の領域毎に顔認識を行い、顔抽出された領域のみを人物領域と判定する。これにより、誤って人物領域と判定された領域を排除することが可能であり、より頑健な人物領域抽出が可能となる。
その他、画像中の領域分割には様々な手法が提案されており、それらも利用可能である。また、本実施形態では、2層化についての方式を説明したが、さらに多層化する場合、距離や温度の閾値を細かく設定し、距離画像や、温度画像の分割数を増やすことが考えられる。これにより、多層の書割レイヤを生成することが可能である。
次に、視点位置検出部(ユーザA)13は、顔認識、及びステレオマッチングを用いた画像処理技術や、光学式または磁気式のモーショントラッキング技術等を用いて、ユーザAの視点(目)位置がどこにあるかを示すユーザAの視点位置V(v,v,v)を検出して出力する。
映像生成部(ユーザA)14は、視点位置検出部13によって検出された、ディスプレイ位置に対するユーザAの視点位置と、3次元画像生成部12によって生成された、奥行き情報を持つユーザBの3次元画像情報とに基づいて、ユーザAのディスプレイ面に表示する画像(「ユーザAの視点位置に応じた、ユーザBの2次元画像」)を生成する。
映像表示部(ユーザA)15は、映像生成部14により生成された、ユーザAの視点位置に応じた、ユーザBの2次元画像を表示する。
なお、上述した構成において、画像取得部10、距離情報取得部11、及び3次元画像生成部12は、ユーザB側の映像コミュニケーション装置に設けられており、通信回線等を介して、3次元画像生成部12により生成された、ユーザBの3次元画像情報を、所定の通信手段、通信回線を介して、ユーザA側の映像コミュニケーション装置に伝送する。これ以外にも、ユーザB側の映像コミュニケーション装置に画像取得部10、距離情報取得部11を設け、画像取得部10により取得された、ユーザB側の画像と、距離情報取得部11に取得されたユーザBとそのディスプレイ間の距離情報とを、所定の通信手段、通信回線を介して、ユーザA側の映像コミュニケーション装置に伝送するようにしてもよい。
言い換えると、図2には示していないが、実際には、ユーザA側の映像コミュニケーション装置には、ユーザAの2次元映像(画像)を撮影する画像取得部(ユーザA)、ディスプレイ(映像表示部15)面とユーザA間の距離を取得する距離情報取得部(ユーザA)、及び/または「ユーザAの2次元画像」を、奥行き情報を持つ「ユーザAの3次元画像情報」を生成する3次元画像生成部(ユーザA)が備えられている。すなわち、ユーザA側の映像コミュニケーション装置から、ユーザAの2次元映像(画像)、ディスプレイ(映像表示部15)面とユーザA間の距離、及び/またはユーザAの3次元画像情報を、所定の通信手段、通信回線を介して、ユーザB側の映像コミュニケーション装置に伝送するようになっている。
次に、本実施形態の動作を説明する。
画像取得部10は、ユーザBの2次元映像(画像)を撮影し、3次元画像生成部12に供給する。距離情報取得部11は、ディスプレイ面とユーザB間の距離を取得し、3次元画像生成部12に供給する。3次元画像生成部12は、画像取得部10によって撮影された、ユーザBの2次元画像と、距離情報取得部11によって取得された、ディスプレイ面とユーザBの距離とに基づいて、「ユーザBの2次元画像」を、奥行き情報を持つ「ユーザBの3次元画像情報」に変換して映像生成部14に供給する。
ここで、図3は、本実施形態による3次元画像生成部12の動作を説明するためのフローチャートである。簡単のため、最も単純な構成である2層化の手法について具体的に述べる。まず、画像取得部10によって撮影された「ユーザBの2次元画像」と、距離情報取得部11から供給される、「ディスプレイ面とユーザBの距離」を入力する(ステップS10)。
次に、「ディスプレイ面とユーザBの距離」に基づいて、「ユーザBの2次元画像」を、人物領域とその背景領域とに分割する(ステップS11)。2層化する際、前のレイヤが人物領域、後ろのレイヤが背景領域となる。
次に、2層化されたうち、背景領域の画像を入力として、新たな背景画像を生成する(ステップS12)。単純に1枚の元画像から人物領域を抜いた(減算した)ままだと、背景画像中の人物領域にあたる部分の画像が欠けてしまう。このため、欠落している背景画像の領域(以後、欠落領域)を過去の背景画像から補完する。該補完した背景画像が新たな背景領域の画像となる。
その他、背景が大きく変化しないと仮定し、事前に撮影した背景画像を背景レイヤとして使用してもよい。または、プライバシ保護の観点から、背景部分を実際とは違う画像と差し替えてもよい。その他、背景画像に用いる画像に特に制約は無く、一般的に考えられるあらゆる画像が利用可能である。
次に、上記生成された、人物領域の画像、背景画像に実寸の大きさ情報を付与する(ステップS13)。まず、各レイヤの画像の大きさ情報の算出方法について以下に述べる。ここで、図4は、本実施形態において、各レイヤの画像の大きさ情報の算出方法を説明するための概念図である。このとき、人物レイヤαの画像の高さα、幅αは、画像取得部10(カメラ)の画角(縦θ、横θ)、画像取得部10から人物レイヤまでの距離D(画像取得部10(カメラ)とディスプレイ(ユーザB側の映像表示部)との位置関係を既知とし、「ディスプレイ面とユーザBの距離」から算出)、カメラズーム率Zを用いて、次式(1)、(2)で算出される。
Figure 2011077710
Figure 2011077710
次に、ディスプレイからの距離情報と実寸情報とを併せて奥行き情報とし、人物領域の画像と背景画像とに該奥行き情報を付与し、それぞれレイヤ化する(ステップS14)。以後、これらのレイヤを「人物レイヤ」、「背景レイヤ」と呼ぶ。この3次元画像情報が、「奥行き情報を持つユーザBの3次元画像情報」として生成される。このとき、人物レイヤの奥行き位置は、「ディスプレイ面とユーザBとの距離」を用いる。背景レイヤの奥行きは、任意の値(但し、人物レイヤより奥行き位置が遠いこと)を用いる。なお、ステップS12において、背景レイヤの距離情報を取得できていた場合、その距離を用いて値を決めることもできる。
図5は、本実施形態において、実際に生成される「奥行き情報を持つユーザBの3次元画像情報」の例を示す概念図である。図5では、距離1.0mの位置に人物レイヤ、距離3.0mの位置に背景レイヤが配置されている。この奥行きに応じて配置された多層レイヤの情報は、各レイヤの2D画像データ、各レイヤ面とディスプレイ間の距離、各レイヤの縦・横サイズ(α,α)であり、これらの「奥行き情報を持つユーザBの3次元画像情報」が出力される。「奥行き情を持つユーザBの3次元画像情報」は、各レイヤの2D画像データ+D+α+αである。
次に、視点位置検出部13では、ユーザの視点(目)位置がどこにあるかを示すユーザの視点位置V(v,v,v)を取得し、映像生成部14に供給する。映像生成部14では、「ディスプレイ位置に対するユーザAの視点位置」と、「奥行き情報を持つユーザBの3次元画像情報」とから、ユーザAのディスプレイ面に表示する映像(「ユーザの視点位置に応じた2次元画像」)を生成する。
ここで、図6は、本実施形態による映像生成部14の動作を説明するためのフローチャートである。また、図7は、本実施形態による映像生成部14の動作を説明するための概念図である。「ユーザの視点位置に応じた2次元画像」は、図7に示すように「奥行き情報を持つユーザBの3次元画像情報」を、「ディスプレイ位置に対するユーザAの視点位置」を基点に、ユーザAのディスプレイ面に透視投影などの射影変換を行うことで生成される(ステップS20)。
まず、「ディスプレイ位置に対するユーザAの視点位置」、「奥行き情報を持つユーザBの3次元画像情報」、ユーザAのディスプレイの座標系を統一する。このとき、座標系は実寸のサイズ情報を有する。ここで、ユーザAのディスプレイサイズが必要となる。
次に、実際の透視変換の一例を示す。ディスプレイの中心を座標系の原点O(0,0,0)とし、座標ディスプレイ面の横方向にx軸、縦方向にy軸、ディスプレイ面の法線をz軸とし、ユーザ位置とは逆向きを正の方向とする。ユーザの視点位置をV(v,v,v)(但し、v<0)としたとき、ディスプレイ面上の点D(x,y,z)に投影されるべき、あるレイヤiの点H(h,h,h)は、次式(3)により算出される。
Figure 2011077710
なお、数式(3)の変換行列式中の座標は、実寸の情報を有する座標系ということを前提にしている。
この処理を、ディスプレイ面上の各画素において、「奥行き情報を持つユーザBの3次元画像情報」の各画像レイヤに対して行う。また、その他、平行投影といった一般的な射影変換の手法も利用可能である。
人物レイヤ中でディスプレイ面上に投影するのは人物領域のみとする。このとき、複数のレイヤの点がディスプレイ面に投影される場合、最も前面のレイヤのみを投影して表示する。また、計算量を軽くするために、各画像レイヤの前面(ディスプレイに対して)から、ディスプレイに射影されるべき点を計算し、あるレイヤ中に射影される点がある場合、このレイヤより後ろのレイヤに対しては計算を行わない。
また、上述したように、最も前面のレイヤのみ投影することせずに、全レイヤを投影することとし、該当する点の透明度(α値)を任意に設定し、複数のレイヤを透かせて見えることで、背景情報など、実際には見えない背景情報も可視化することで、背景情報を伝達するようにすることも考えられる。
最後に、映像表示部15は、映像生成部14により生成された映像、すなわち、ユーザAの視点位置に応じた、ユーザBの2次元画像を表示する。
上述した実施形態によれば、ユーザの視点(目の位置)に応じて、映像が変化する、すなわち運動視差を実現すること、及び、距離に応じた人物サイズで対話相手を表示することから、視覚的に窓1枚を挟んで対面している際と同等の情報が得られるため、映像中の対話相手に奥行きに係る手がかりが与えられ、ユーザが映像中の対話相手との距離感を把握することができる。それにより、対面会話と同様に距離を適度に調節したり、対面会話において距離がもたらす、話しやすさ、緊張感の有無の効果をもたらすことができる。また、上述した通り、映像が変化するため、あたかも実物大の対話相手が目の前にいるかのように感じさせることができ、従来技術のように2次元映像で人物を提示したものに比べて、視線・姿勢などの非言語情報と、遠隔地に存在する対話相手とあたかも同じ空間を共有している感覚(臨場感)とを与えることができる。
また、上述した距離情報取得部11、3次元画像生成部12、映像生成部14などによる各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、各種処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
10 画像取得部
11 距離情報取得部
12 3次元画像生成部
13 視点位置検出部
14 映像生成部
15 映像表示部

Claims (6)

  1. 少なくとも撮像側の映像伝送装置と表示側の映像伝送装置との間で、前記撮像側の映像伝送装置で撮影した映像を前記表示側の映像伝送装置に伝送する映像コミュニケーションシステムであって、
    前記撮像側の映像伝送装置は、
    前記撮像側の人物と、その背景とを含む2次元画像を取得する画像取得手段と、
    前記撮像側の人物と前記撮像側に設けられた表示手段との間の距離情報を取得する距離情報取得手段と、
    前記画像取得手段により取得された前記2次元画像と、前記距離情報取得手段により取得された前記距離情報とに基づいて、前記撮像側の人物画像とその背景画像とからなる多層画像に分割した3次元画像を生成する3次元画像生成手段と
    を備え、
    前記表示側の映像伝送装置は、
    前記表示側の人物の視点位置を検出する視点位置検出手段と、
    前記視点位置検出手段により検出された前記表示側の人物の視点位置と、前記3次元画像生成手段により生成された前記3次元画像とに基づいて、前記表示側の人物の視点位置に応じた、前記撮像側の2次元画像を生成する映像生成手段と、
    前記映像生成手段により生成された前記撮像側の2次元画像を表示する映像表示手段と
    を備えることを特徴とする映像コミュニケーションシステム。
  2. 前記3次元画像生成手段は、
    前記距離情報取得手段により取得された前記距離情報に基づいて、前記画像取得手段により取得された前記2次元画像を、前記撮像側の人物画像とその背景画像とからなる多層画像に分割する分割手段と、
    前記分割手段により分割された前記撮像側の背景画像を補完する補完手段と、
    前記分割手段により分割された前記撮像側の人物画像と、前記補完手段により補完された前記撮像側の背景画像とに対し、実寸の大きさを算出して、実寸情報として取得する実寸取得手段と、
    前記距離情報取得手段により取得された前記距離情報と前記実寸取得手段により取得された前記実寸情報とを、奥行き情報として、前記分割手段により分割された前記撮像側の人物画像と、前記補完手段により補完された前記撮像側の背景画像とのそれぞれに付与し、前記撮像側の3次元画像として生成する付与手段と
    を備えることを特徴とする請求項1記載の映像コミュニケーションシステム。
  3. 前記映像生成手段は、
    前記視点位置検出手段により検出された前記表示側の人物の視点位置を基点に、前記奥行き情報が付与された前記撮像側の人物画像と前記撮像側の背景画像とを、前記映像表示手段の表示面上に射影変換することで、前記表示側の人物の視点位置に応じた、前記撮像側の2次元画像を生成することを特徴とする請求項2記載の映像コミュニケーションシステム。
  4. 前記映像生成手段は、
    前記視点位置検出手段により検出された前記表示側の人物の視点位置を基点に、前記奥行き情報が付与された前記撮像側の人物画像と前記撮像側の背景画像とを、前記映像表示手段の表示面上に射影変換する際に、前記映像表示手段の表示面に対して、最前面となる画像のみを投影することを特徴とする請求項3記載の映像コミュニケーションシステム。
  5. 前記映像生成手段は、
    前記視点位置検出手段により検出された前記表示側の人物の視点位置を基点に、前記奥行き情報が付与された前記撮像側の人物画像と前記撮像側の背景画像とを、前記映像表示手段の表示面上に射影変換する際に、前記映像表示手段の表示面に対して全画像を投影し、少なくともある画像に対して前面となる画像に透過性を持たせることを特徴とする請求項3記載の映像コミュニケーションシステム。
  6. 少なくとも撮像側の映像伝送装置と表示側の映像伝送装置との間で、前記撮像側の映像伝送装置で撮影した映像を前記表示側の映像伝送装置に伝送する映像コミュニケーション方法であって、
    前記撮像側の映像伝送装置は、
    画像取得手段により、前記撮像側の人物と、その背景とを含む2次元画像を取得するステップと、
    距離情報取得手段により、前記撮像側の人物と前記撮像側に設けられた表示手段との間の距離情報を取得するステップと、
    3次元画像生成手段により、前記取得された2次元画像と、前記取得された距離情報とに基づいて、前記撮像側の人物画像とその背景画像とからなる多層画像に分割した3次元画像を生成するステップと
    を含み、
    前記表示側の映像伝送装置は、
    視点位置検出手段により、前記表示側の人物の視点位置を検出するステップと、
    映像生成手段により、前記表示側の人物の視点位置と、前記3次元画像とに基づいて、前記表示側の人物の視点位置に応じた、前記撮像側の2次元画像を生成するステップと、
    映像表示手段により、前記撮像側の2次元画像を表示するステップと
    を含むことを特徴とする映像コミュニケーション方法。
JP2009225373A 2009-09-29 2009-09-29 映像コミュニケーションシステム、及び映像コミュニケーション方法 Active JP5237234B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009225373A JP5237234B2 (ja) 2009-09-29 2009-09-29 映像コミュニケーションシステム、及び映像コミュニケーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009225373A JP5237234B2 (ja) 2009-09-29 2009-09-29 映像コミュニケーションシステム、及び映像コミュニケーション方法

Publications (2)

Publication Number Publication Date
JP2011077710A true JP2011077710A (ja) 2011-04-14
JP5237234B2 JP5237234B2 (ja) 2013-07-17

Family

ID=44021242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009225373A Active JP5237234B2 (ja) 2009-09-29 2009-09-29 映像コミュニケーションシステム、及び映像コミュニケーション方法

Country Status (1)

Country Link
JP (1) JP5237234B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244433A (ja) * 2011-05-19 2012-12-10 Nippon Telegr & Teleph Corp <Ntt> 映像提示装置
JP2014071871A (ja) * 2012-10-02 2014-04-21 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014072880A (ja) * 2012-10-02 2014-04-21 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014086774A (ja) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014086775A (ja) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014086773A (ja) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
WO2014192239A1 (en) 2013-05-30 2014-12-04 Sony Corporation Information processing apparatus, display control method, and program
JP2016005055A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 プロジェクター及び投写方法
JP2016066918A (ja) * 2014-09-25 2016-04-28 大日本印刷株式会社 映像表示装置、映像表示制御方法、及びプログラム
WO2016159163A1 (ja) * 2015-03-31 2016-10-06 大和ハウス工業株式会社 映像表示システム及び映像表示方法
EP3130994A4 (en) * 2014-04-07 2018-01-03 Sony Corporation Display control device, display control method, and program
US10229656B2 (en) 2014-06-18 2019-03-12 Sony Corporation Image processing apparatus and image processing method to display full-size image of an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03179994A (ja) * 1989-12-08 1991-08-05 Nippon Hoso Kyokai <Nhk> 画像表示方法および装置
JPH09289638A (ja) * 1996-04-23 1997-11-04 Nec Corp 3次元画像符号化復号方式
JP2003009108A (ja) * 2001-06-26 2003-01-10 Minolta Co Ltd 画像通信システム、画像通信装置、および画像通信方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03179994A (ja) * 1989-12-08 1991-08-05 Nippon Hoso Kyokai <Nhk> 画像表示方法および装置
JPH09289638A (ja) * 1996-04-23 1997-11-04 Nec Corp 3次元画像符号化復号方式
JP2003009108A (ja) * 2001-06-26 2003-01-10 Minolta Co Ltd 画像通信システム、画像通信装置、および画像通信方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012244433A (ja) * 2011-05-19 2012-12-10 Nippon Telegr & Teleph Corp <Ntt> 映像提示装置
JP2014071871A (ja) * 2012-10-02 2014-04-21 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014072880A (ja) * 2012-10-02 2014-04-21 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014086774A (ja) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014086775A (ja) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2014086773A (ja) * 2012-10-19 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム及び映像コミュニケーション方法
CN105247881A (zh) * 2013-05-30 2016-01-13 索尼公司 信息处理设备、显示控制方法以及程序
WO2014192239A1 (en) 2013-05-30 2014-12-04 Sony Corporation Information processing apparatus, display control method, and program
US10038874B2 (en) 2013-05-30 2018-07-31 Sony Corporation Information processing apparatus, display control method, and program
CN105247881B (zh) * 2013-05-30 2020-02-14 索尼公司 信息处理设备、显示控制方法以及程序
EP3130994A4 (en) * 2014-04-07 2018-01-03 Sony Corporation Display control device, display control method, and program
JP2016005055A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 プロジェクター及び投写方法
US10229656B2 (en) 2014-06-18 2019-03-12 Sony Corporation Image processing apparatus and image processing method to display full-size image of an object
JP2016066918A (ja) * 2014-09-25 2016-04-28 大日本印刷株式会社 映像表示装置、映像表示制御方法、及びプログラム
WO2016159163A1 (ja) * 2015-03-31 2016-10-06 大和ハウス工業株式会社 映像表示システム及び映像表示方法
JP2016192685A (ja) * 2015-03-31 2016-11-10 大和ハウス工業株式会社 映像表示システム及び映像表示方法
US10182206B2 (en) 2015-03-31 2019-01-15 Daiwa House Industry Co., Ltd. Image display system and image display method

Also Published As

Publication number Publication date
JP5237234B2 (ja) 2013-07-17

Similar Documents

Publication Publication Date Title
JP5237234B2 (ja) 映像コミュニケーションシステム、及び映像コミュニケーション方法
US9595127B2 (en) Three-dimensional collaboration
US9654734B1 (en) Virtual conference room
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US9292962B2 (en) Modifying perspective of stereoscopic images based on changes in user viewpoint
JP6377082B2 (ja) 鏡のメタファを使用した遠隔没入型体験の提供
US20120162384A1 (en) Three-Dimensional Collaboration
JP5833526B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP6558839B2 (ja) 媒介現実
TWI813098B (zh) 用於新穎視圖合成之神經混合
JP4619216B2 (ja) 立体画像表示装置及び立体画像表示方法
JP2011113206A (ja) 映像コミュニケーションシステム、及び映像コミュニケーション方法
JP5731462B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
Avveduto et al. Real-world occlusion in optical see-through AR displays
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
US20200192550A1 (en) Methods, apparatus, systems, computer programs for enabling mediated reality
JP5833525B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP5898036B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP5520774B2 (ja) コミュニケーション装置、コミュニケーション方法、及びプログラム
EP3623908A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
Ishihara et al. Integrating Both Parallax and Latency Compensation into Video See-through Head-mounted Display
Tat Holotab: Design and Evaluation of Interaction Techniques for a Handheld 3D Light Field Display
JP2022146839A (ja) 画像を3次元的に表示するための方法、プログラムおよびシステム
Joachimiak et al. View Synthesis with Kinect-Based Tracking for Motion Parallax Depth Cue on a 2D Display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130328

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5237234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350