JP2014086774A - 映像コミュニケーションシステム及び映像コミュニケーション方法 - Google Patents

映像コミュニケーションシステム及び映像コミュニケーション方法 Download PDF

Info

Publication number
JP2014086774A
JP2014086774A JP2012232016A JP2012232016A JP2014086774A JP 2014086774 A JP2014086774 A JP 2014086774A JP 2012232016 A JP2012232016 A JP 2012232016A JP 2012232016 A JP2012232016 A JP 2012232016A JP 2014086774 A JP2014086774 A JP 2014086774A
Authority
JP
Japan
Prior art keywords
image
person
dimensional
display
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012232016A
Other languages
English (en)
Other versions
JP5833525B2 (ja
Inventor
Akira Ishii
亮 石井
Shiro Ozawa
史朗 小澤
Harumi Kawamura
春美 川村
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012232016A priority Critical patent/JP5833525B2/ja
Publication of JP2014086774A publication Critical patent/JP2014086774A/ja
Application granted granted Critical
Publication of JP5833525B2 publication Critical patent/JP5833525B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザに対して映像中の対話相手の表現をより現実的にすることができる映像コミュニケーションシステムを提供する。
【解決手段】撮像側及び表示側の人物と人物以外の空間とを含む各2次元画像を撮影する画像取得手段と、撮像側及び表示側の人物と人物以外の空間とを含む各距離画像を取得する距離画像取得手段と、距離画像に基づき2次元画像に対応する撮像側及び表示側の空間の3次元モデルデータを生成する3次元モデル生成手段と、3次元モデル生成手段により得られた3次元モデルデータで定義される3次元モデルの表面に対して、2次元画像をテクスチャとして貼り付けることにより、撮像側及び表示側の空間の3次元画像を生成する3次元画像生成手段と、表示側の人物の視点位置を検出する視点検出手段と、3次元画像から視点位置に応じた2次元画像に変換する画像変換手段と、表示側の表示装置に変換された2次元画像を表示する表示手段とを備えた。
【選択図】図3

Description

本発明は、撮像側の映像装置で撮影した映像を表示側の映像装置に伝送する映像コミュニケーションシステム及び映像コミュニケーション方法に関する。
映像コミュニケーションにおいて、対話相手とあたかも対面しているかのように、対話相手をユーザにどのような映像として提示するかが重要である。従来、映像コミュニケーションにおいては、あたかも実物大の対話相手が眼の前にいるように感じさせるために、対話相手の人物を2次元ディスプレイ上に実物大に映す方式が考えられている(例えば、特許文献1参照)。
対面会話において、対人間の距離感は、話しやすさや、緊張感に影響を与え重要である(参考文献1:エドワードホール、かくれた次元、2000、みすず書房)。しかしながら、従来の2次元ディスプレイに映された対話相手では、どの位置から映像を観察しても2次元ディスプレイに表示された映像は変化しない。視点位置による画像変化が無いため、奥行き情報が欠落し、対話相手との距離の表現ができなかった。
すなわち、実際に、対話相手が眼の前にいるように感じさせるためには、実物大表示だけでは不十分である。例えば、ディスプレイ上に等身大に表示されている人物を見ても、個人によって人物がディスプレイよりも前や、後ろにいるように感じたり、そもそもどの奥行き位置にいるのかが把握できないために、実物より大きい、もしくは小さい人物がいるように感じられ、対話相手を等身大に感じることができない。このように、距離感が表現できないために、対面会話のように距離による会話への効果を期待することができない。
また、ユーザが映像中の対話相手とどれくらいの距離にいるのかを、把握することができなかったため、対面会話と同様に、対人距離を適度に調節することや、距離の遠近によってもたらせる緊張感が感じられなかった。
このような問題を解決するために、出願人は、ユーザに対して映像中の対話相手との距離感や現実感を与えることができる映像コミュニケーションシステムを提案している(特許文献2参照)。このシステムは、ディスプレイを窓に見立てて、ユーザと対話相手の空間が窓越しに繋がったような表現を行う。具体的には、ユーザの視点位置に応じて、対話相手の映像を変化させるという運動視差を実現し、距離に応じた人物サイズで対話相手を表示することで、ユーザに映像中の対話相手との距離感、現実感を与えることができるものである。
特許第3586126号公報 特開2011−77710号公報
しかしながら、特許文献2に開示された映像コミュニケーションシステムでは、対話相手がディスプレイの奥に存在しているように表現することを前提としているので、同じ空間(例えば、部屋)にいるような一体感が不足していた。また、ユーザは対話相手の空間に入り込んで会話をすることができなかった。すなわち、対話相手と同じ空間に一緒に居る感じ(以下、同室感という。)が得にくいという問題があった。
本発明は、このような事情に鑑みてなされたもので、ユーザに対して対話相手との同室感を与えることができる映像コミュニケーションシステム及び映像コミュニケーション方法を提供することを目的とする。
本発明は、撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示する映像コミュニケーションシステムであって、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離情報を取得する第1の距離情報取得手段と、前記第1の距離情報に基づき前記第1の2次元画像に対応する前記撮像側の空間の3次元画像を生成する第1の3次元画像生成手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮影する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離情報を取得する第2の距離情報取得手段と、前記第2の距離情報に基づき前記第2の2次元画像に対応する前記表示側の空間の3次元画像を生成する第2の3次元画像生成手段と、前記表示側の人物の視点位置を検出する視点検出手段と、前記表示側の表示装置の表示面に対して対称な前記第1の3次元画像の人物の画像と、前記表示側の表示装置の表示面に対して対称な前記第2の3次元画像の人物の画像とを前記視点位置に応じて1つの2次元画像に変換する画像変換手段と、前記表示側の表示装置に前記変換された2次元画像を表示する表示手段とを備えたことを特徴とする。
本発明は、撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示する映像コミュニケーションシステムであって、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離画像を取得する第1の距離画像取得手段と、前記第1の距離画像に基づき前記第1の2次元画像に対応する前記撮像側の空間の3次元モデルデータを生成する第1の3次元モデル生成手段と、前記第1の3次元モデル生成手段により得られた3次元モデルデータで定義される3次元モデルの表面に対して、前記第1の2次元画像をテクスチャとして貼り付けることにより、前記撮像側の空間の3次元画像を生成する第1の3次元画像生成手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮影する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離画像を取得する第2の距離画像取得手段と、前記第2の距離画像に基づき前記第2の2次元画像に対応する前記表示側の空間の3次元モデルデータを生成する第2の3次元モデル生成手段と、前記第2の3次元モデル生成手段により得られた3次元モデルデータで定義される3次元モデルの表面に対して、前記第2の2次元画像をテクスチャとして貼り付けることにより、前記表示側の空間の3次元画像を生成する第2の3次元画像生成手段と、前記表示側の人物の視点位置を検出する視点検出手段と、前記表示側の表示装置の表示面に対して対称な前記第1の3次元画像の人物の3次元モデルデータと、前記表示側の表示装置の表示面に対して対称な前記第2の3次元画像の人物の3次元データモデルとを前記視点位置に応じて1つの2次元画像に変換する画像変換手段と、前記表示側の表示装置に前記変換された2次元画像を表示する表示手段とを備えたことを特徴とする。
本発明は、前記画像変換手段は、前記第1の3次元画像の空間の3次元モデルデータを前記2次元画像における空間として用いることを特徴とする。
本発明は、前記画像変換手段は、前記第2の3次元画像の空間の3次元モデルデータを前記2次元画像における空間として用いることを特徴とする。
本発明は、前記画像変換手段は、前記第1の3次元画像の空間及び前記第2の3次元画像の空間と異なる空間の3次元モデルデータであって予め定められた3次元モデルデータを前記2次元画像における空間として用いることを特徴とする。
本発明は、撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示する映像コミュニケーションシステムであって、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離画像を取得する第1の距離画像取得手段と、3次元人物モデルデータを記憶する人物モデル記憶手段と、撮影した前記第1の2次元画像を第1の人物領域画像と第1の空間領域画像に分離する第1の画像分離手段と、前記第1の人物領域画像と前記第1の距離画像とから前記撮像側の人物の大きさと姿勢を推定する第1の推定手段と、前記第1の推定手段が推定した前記人物の大きさと前記姿勢に基づき、前記人物モデル記憶手段に記憶されている前記3次元人物モデルデータを変形して前記第1の人物領域画像に対応する3次元人物モデルデータを生成し、得られた3次元人物モデルデータで定義される人物モデルの表面に対して、前記第1の人物領域画像をテクスチャとして貼り付けることにより、人物モデルを生成する第1の人物モデル生成手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮影する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離画像を取得する第2の距離画像取得手段と、撮影した前記第2の2次元画像を第2の人物領域画像と第2の空間領域画像に分離する第2の画像分離手段と、前記第2の人物領域画像と前記第2の距離画像とから前記表示側の人物の大きさと姿勢を推定する第2の推定手段と、前記第2の推定手段が推定した前記人物の大きさと前記姿勢に基づき、前記人物モデル記憶手段に記憶されている前記3次元人物モデルデータを変形して前記第2の人物領域画像に対応する3次元人物モデルデータを生成し、得られた3次元人物モデルデータで定義される人物モデルの表面に対して、前記第2の人物領域画像をテクスチャとして貼り付けることにより、人物モデルを生成する第2の人物モデル生成手段と、前記表示側の人物の視点位置を検出する視点検出手段と、前記表示側の表示装置の表示面に対して対称な人物モデルであって前記第1の人物モデル生成手段が生成した人物モデルと、前記表示側の表示装置の表示面に対して対称な人物モデルであって前記第2の人物モデル生成手段が生成した人物モデルとを前記視点位置に応じて1つの2次元画像に変換する画像変換手段と、前記表示側の表示装置に前記変換された2次元画像を表示する表示手段とを備えたことを特徴とする。
本発明は、前記第1の空間領域画像に対応する前記第1の距離画像から3次元空間モデルデータを生成し、得られた3次元空間モデルデータで定義される空間モデルの表面に対して、前記第1の空間領域画像をテクスチャとして貼り付けることにより空間モデルを生成する第1の空間モデル生成手段をさらに備え、前記画像変換手段は、前記第1の空間モデル生成手段が生成した前記空間モデルを前記2次元画像における空間として用いることを特徴とする。
本発明は、前記第2の空間領域画像に対応する前記第2の距離画像から3次元空間モデルデータを生成し、得られた3次元空間モデルデータで定義される空間モデルの表面に対して、前記第2の空間領域画像をテクスチャとして貼り付けることにより空間モデルを生成する第2の空間モデル生成手段を更に備え、前記画像変換手段は、前記第2の空間モデル生成手段が生成した前記空間モデルを前記2次元画像における空間として用いることを特徴とする。
本発明は、前記画像変換手段は、前記第1の3次元画像の空間及び前記第2の3次元画像の空間と異なる空間の3次元モデルデータであって予め定められた3次元モデルデータを前記2次元画像における空間として用いることを特徴とする。
本発明は、撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示するために、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離情報を取得する第1の距離情報取得手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮影する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離情報を取得する第2の距離情報取得手段とを備える映像コミュニケーションシステムが行う映像コミュニケーション方法であって、前記第1の距離情報に基づき前記第1の2次元画像に対応する前記撮像側の空間の3次元画像を生成する第1の3次元画像生成ステップと、前記第2の距離情報に基づき前記第2の2次元画像に対応する前記表示側の空間の3次元画像を生成する第2の3次元画像生成ステップと、前記表示側の人物の視点位置を検出する視点検出ステップと、前記表示側の表示装置の表示面に対して対称な前記第1の3次元画像の人物の画像と、前記表示側の表示装置の表示面に対して対称な前記第2の3次元画像の人物の画像とを前記視点位置に応じて1つの2次元画像に変換する画像変換ステップと、前記表示側の表示装置に前記変換された2次元画像を表示する表示ステップとを有することを特徴とする。
本発明は、撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示するために、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離画像を取得する第1の距離画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮像する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離画像を取得する第2の距離画像取得手段とを備える映像コミュニケーションシステムが行う映像コミュニケーション方法であって、前記第1の距離画像に基づき前記第1の2次元画像に対応する前記撮像側の空間の3次元モデルデータを生成する第1の3次元モデル生成ステップと、前記第1の3次元モデル生成ステップにより得られた3次元モデルデータで定義される3次元モデルの表面に対して、前記第1の2次元画像をテクスチャとして貼り付けることにより、前記撮像側の空間の3次元画像を生成する第1の3次元画像生成ステップと、前記第2の距離画像に基づき前記第2の2次元画像に対応する前記表示側の空間の3次元モデルデータを生成する第2の3次元モデル生成ステップと、前記第2の3次元モデル生成ステップにより得られた3次元モデルデータで定義される3次元モデルの表面に対して、前記第2の2次元画像をテクスチャとして貼り付けることにより、前記表示側の空間の3次元画像を生成する第2の3次元画像生成ステップと、前記表示側の人物の視点位置を検出する視点検出ステップと、前記表示側の表示装置の表示面に対して対称な前記第1の3次元画像の人物の3次元モデルデータと、前記表示側の表示装置の表示面に対して対称な前記第2の3次元画像データの人物の3次元モデルデータとを前記視点位置に応じて1つの2次元画像に変換する画像変換ステップと、前記表示側の表示装置に前記変換された2次元画像を表示する表示ステップとを有することを特徴とする。
本発明は、撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示するために、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離画像を取得する第1の距離画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮像する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離画像を取得する第2の距離画像取得手段と、3次元人物モデルデータを記憶する人物モデル記憶手段とを備える映像コミュニケーションシステムが行う映像コミュニケーション方法であって、撮影した前記第1の2次元画像を第1の人物領域画像と第1の空間領域画像に分離する第1の画像分離ステップと、前記第1の人物領域画像と、前記第1の距離画像とから前記撮像側の人物の大きさと姿勢を推定する第1の推定ステップと、前記第1の推定ステップにおいて推定された前記人物の大きさと前記姿勢に基づき、前記人物モデル記憶手段に記憶されている前記3次元人物モデルデータを変形して前記第1の人物領域画像に対応する3次元人物モデルデータを生成し、得られた3次元人物モデルデータで定義される人物モデルの表面に対して、前記第1の人物領域画像をテクスチャとして貼り付けることにより、人物モデルを生成する第1の人物モデル生成ステップと、撮影した前記第2の2次元画像を第2の人物領域画像と第2の空間領域画像に分離する第2の画像分離ステップと、前記第2の人物領域画像と、前記第2の距離画像とから前記表示側の人物の大きさと姿勢を推定する第2の推定ステップと、前記第2の推定ステップにおいて推定された前記人物の大きさと前記姿勢に基づき、前記人物モデル記憶手段に記憶されている前記3次元人物モデルデータを変形して前記第2の人物領域画像に対応する3次元人物モデルデータを生成し、得られた3次元人物モデルデータで定義される人物モデルの表面に対して、前記第1の人物領域画像をテクスチャとして貼り付けることにより、人物モデルを生成する第2の人物モデル生成ステップと、前記表示側の人物の視点位置を検出する視点検出ステップと、前記表示側の表示装置の表示面に対して対称な人物モデルであって前記第1の人物モデル生成ステップにおいて生成した人物モデルと、前記表示側の表示装置の表示面に対して対称な人物モデルであって前記第2の人物モデル生成ステップにおいて生成した人物モデルとを前記視点位置に応じて1つの2次元画像に変換する画像変換ステップと、前記表示側の表示装置に前記変換された2次元画像を表示する表示ステップとを有することを特徴とする。
本発明によれば、ユーザの視点(眼の位置)に応じて、対話相手の映像を変化させるという運動視差を実現し、距離に応じた人物サイズで対話相手を表示することで、ユーザに映像中の対話相手との距離感、現実感を与えることができる。このとき、ユーザ自身と対話相手とを1つの映像中に表示することにより、ユーザに対して対話相手との同室感を与えることができる。また、対話相手の空間の映像を同時に合成表示させることで、相手の空間に没入したかのような感覚を提示し、また自由に対話相手の空間を移動しているような感覚をユーザに提示可能である。
本発明による映像表示のイメージを示す第1の概念図である。 本発明による映像表示のイメージを示す第2の概念図である。 本発明の第1の実施形態による映像コミュニケーションシステムの構成を示すブロック図である。 図3に示す映像コミュニケーションシステムにおける撮像側の装置(3次元画像生成部3)の動作を示すフローチャートである。 テクスチャデータが貼り付けられた3次元モデルデータの一例を示す説明図である。 図3に示す映像コミュニケーションシステムにおける表示側の装置(視点位置検出部4、画像変換部5、映像表示部6)の動作を示すフローチャートである。 図3に示す画像変換部5が行う透視変換の動作を示す概念図である。 本発明の第2の実施形態による映像コミュニケーションシステムの構成を示すブロック図である。 図8に示す映像コミュニケーションシステムにおける撮像側及び表示側の装置(3次元画像生成部3)の動作を示すフローチャートである。 人物領域画像と人物以外の空間領域画像とに分離する動作を示す説明図である。 人物領域画像から顔検出と骨格抽出を行う動作を示す説明図である。 骨格抽出、人物モデルの変形、テクスチャ貼り付け、3次元画像生成の処理動作を示す説明図である。 人物モデルによる3次元画像の大きさ情報の算出方法を説明するための概念図である。 実際に生成される「3次元画像情報」の例を示す概念図である。 図8に示す映像コミュニケーションシステムにおける表示側の装置(視点位置検出部4、画像変換部5、映像表示部6)の動作を示すフローチャートである。 図8に示す画像変換部5が行う透視変換の動作を示す概念図である。 本発明の第3の実施形態による映像コミュニケーションシステムの構成を示すブロック図である。 図17に示す映像コミュニケーションシステムにおける撮像側の装置(3次元画像生成部30)の動作を示すフローチャートである。 実際に生成される「奥行き情報を持つユーザBの3次元画像情報」の例を示す概念図である。
以下、図面を参照して、本発明の実施形態による映像コミュニケーションシステムを説明する。始めに、本実施形態による映像コミュニケーションシステムの動作原理について説明する。本実施形態による映像コミュニケーションシステムは、撮像側の装置と表示側の装置とを備え、撮像側の装置から人物と空間とに分けた3次元画像情報を表示側の装置へ送る。また、表示側の装置においても人物と空間とに分けた3次元画像情報を生成する。表示側の装置では、表示側にいる人物の眼の位置に応じて、撮像側の装置から送られた3次元画像と、自装置側で生成した3次元画像とを合成した画像を2次元変換して表示する。このとき、表示側の装置ではディスプレイがあたかも鏡になったかのように、表示側の装置の人物を映し、更に撮像側の人物をそこに重ね合わせることで、表示側の人物と撮像側の人物とが同じ空間にいるかのような画像を表示する。これにより、表示側の人物と撮像側の人物とが同じ空間(例えば、部屋)にいるような一体感をより現実的にする。
図1及び図2は、本実施形態による映像表示のイメージを示す概念図である。
図1において、ユーザ100が視点を変えると(3軸移動に対応)、映像中の対話相手200と空間300の画像(図1では、説明のため空間を背景のみで表現)を、その視点の変化に応じて2次元ディスプレイ400上に表示することで、対話相手200の見え方があたかも現実的に再現される。
すなわち、ユーザ100が位置P1にて2次元ディスプレイ400に対峙する場合には、対話相手200および空間300を正面から見ているように表示し、ユーザ100が左側の位置P2から見ている場合には、対話相手200に対し向かって左側の横顔や人物以外の空間にある壁300との位置関係(奥行き)を反映し、対話相手200を左側から見ているように表示し、ユーザ100が右側の位置P3から見ている場合には、対話相手200に対し向かって右側の横顔や人物以外の空間にある壁300との位置関係(奥行き)を反映し、対話相手200を右側から見ているように表示する。
さらに、図2に示すように、対話相手200が表示されている2次元ディスプレイ400に、ユーザ100を2次元ディスプレイ400の表示面と対称に表示することで、2次元ディスプレイがあたかも鏡になったかのようにユーザ100と対話相手200とを表示して同じ空間に居るかのような同室感を再現する。
<第1の実施形態>
図3は第1の実施形態による映像コミュニケーションシステムの構成を示すブロック図である。本明細書においては、動画の1フレーム分を「画像」と称し、複数の「画像」を連続して表示して動画とした状態のものを「映像」と称する。本実施形態では、撮影された2次元画像と距離画像から、対話相手の空間を3次元モデル化し、得られた3次元モデルの表面に対して、2次元画像をテクスチャとして貼り付けた3次元画像を生成し、この3次元画像をユーザの視点位置に応じて、ディスプレイ面に投影して表示する方法について説明する。図3に示す映像コミュニケーションシステムは、ユーザ(以下、ユーザA)及び対話相手(以下、ユーザB)のそれぞれに用意され、双方向通信を介して使用される。以下では、ユーザAのディスプレイにユーザA及びユーザB(対話相手)の映像を表示するものとして説明する。以下において、ユーザB側の画像取得部1、距離画像取得部2、および3次元画像生成部3について説明する。ユーザA側の画像取得部1、距離画像取得部2、及び3次元画像生成部3は、ユーザB側の画像取得部1、距離画像取得部2、及び3次元画像生成部3と同じ構成を有しているので、ユーザA側の構成についての説明を省略する。
画像取得部1は、撮影装置(カメラ)からなり、ユーザBの2次元映像を撮影する。ユーザB側の画像取得部1は、ユーザAの視線とユーザBの視線とを合わせるために、ユーザBのディスプレイ(映像表示部:図示略)上に表示されるユーザAの眼位置(眼位置とは、両眼の目頭を結ぶ線分の中点の位置)に、光学的、または、仮想的に、カメラのレンズ中心がくるように配置される。
例えば、ディスプレイとユーザBとの間にハーフミラーを、ディスプレイの平面の法線とハーフミラーの法線のなす角度が45度となるように設置し、カメラを該ハーフミラーの上方または下方に、ハーフミラーからディスプレイまでの距離だけ離して設置することにより、ハーフミラーを介して撮像する手法を用いればよい。
また、ディスプレイを隠さないように、ユーザBのディスプレイの周囲に複数のカメラを配置し、FTV(Free−Viewpoint Television)技術によって、周囲の複数のカメラ画像から、ユーザBのディスプレイ上に表示されるユーザAの視点位置にある仮想視点の映像を生成する手法を用いるようにしてもよい。その他、視線を一致させるために、カメラ位置をできるだけ、ユーザBのディスプレイに表示されたユーザAの眼位置にレンズ中心が来るように配置するようにしてもよい。以後、ユーザBのディスプレイの中心にカメラレンズの中心があるようにカメラが設置されており、カメラの撮像面がディスプレイ面にあると仮定して説明する。
距離画像取得部2は、ユーザBの空間の距離画像を取得する。距離画像取得部2には、例えば、TOFカメラやパターン投射を利用した距離画像取得カメラを用いる。なお、距離画像取得部2は、画像取得部1と同等のカメラを用いてステレオマッチングを行うことにより距離画像を得るようにしてもよい。距離画像は、例えば、X行Y列の2次元配列のデータ形式に、距離画像取得部2からの距離情報を各要素に持つ。
3次元画像生成部3は、距離画像取得部2によって得られた距離画像からユーザBの空間を3次元モデル化し、この3次元モデルに対して、画像取得部1によって撮影された2次元画像をテクスチャとして貼り付けた3次元画像情報を生成して出力する。
視点位置検出部4は、顔認識及びステレオマッチングを用いた画像処理技術や、光学式または磁気式のモーショントラッキング技術等を用いて、ユーザAの視点(眼)位置がどこにあるかを示すユーザAの視点位置V(v,v,v)を検出して出力する。
画像変換部5は、視点位置検出部4によって検出された、ディスプレイ位置に対するユーザAの視点位置と、ユーザBの3次元画像生成部3によって生成されて出力されたユーザBの3次元画像情報と、ユーザAの3次元画像生成部3によって生成されて出力されたユーザAの3次元画像情報とから、ユーザAのディスプレイ面に表示する画像(「ユーザAの視点位置に応じた、ユーザA及びユーザBの2次元画像」)に変換する。このとき、画像変換部5は、ユーザA及びユーザBの3次元画像情報を映像表示部6の表示面に対して対称な3次元画像情報に変換して鏡面対称な3次元画像情報を生成した後に、2次元画像への変換を行う。
映像表示部6は、ディスプレイ装置で構成し、画像変換部5により変換されたユーザAの視点位置に応じた、ユーザA及びユーザBの鏡面対称な2次元画像を表示する。
次に、図3を参照して、図3に示す3次元画像生成部3の詳細な構成を説明する。3次元モデル生成部31は、距離画像取得部2によって取得したユーザBの空間の距離情報から3次元ポリゴンデータあるいは3次元点群データを作成し、3次元モデルデータとして出力する。3次元画像出力部32は、3次元モデルデータで表現される3次元モデルの表面に画像取得部1によって得られた2次元画像をテクスチャとして貼り付けることにより3次元画像情報を得る。
なお、上述した構成において、ユーザA側の画像取得部1、距離画像取得部2、3次元画像生成部3、視点位置検出部4、画像変換部5、及び映像表示部6は表示側装置として設けられている。また、ユーザB側の画像取得部1、距離画像取得部2及び3次元画像生成部3は、撮像側装置として設けられており、通信回線等を介して、3次元画像生成部3により生成された、ユーザBの3次元画像情報を、所定の通信手段、通信回線を介して、ユーザA側の表示側装置に伝送する。
次に、図4を参照して、図3に示す映像コミュニケーションシステムの動作を説明する。図4は、図3に示す映像コミュニケーションシステムにおける撮像側及び表示側の装置の3次元画像生成部3の動作を示すフローチャートである。ここでは、ユーザB側の画像取得部1において撮影した映像から3次元画像情報を生成してユーザA側へ出力する動作を説明する。なお、ユーザA側における処理は、ユーザB側における処理と同様である。
まず、3次元画像生成部3は、画像取得部1によって撮影された「ユーザBの2次元画像」を入力する(ステップS1)。これと並行して、3次元画像生成部3は、距離画像取得部2よって取得したユーザBの空間の距離画像を入力する(ステップS2)。
次に、3次元モデル生成部31は、距離画像取得部2から入力した距離画像から3次元モデルデータを生成して出力する(ステップS3)。3次元モデルデータは、距離画像取得部2によって取得したユーザBの空間の距離情報から3次元ポリゴンデータあるいは3次元点群データを作成し、これを3次元モデルデータとする。これにより、人物(ユーザB)を含む空間の3次元形状データ(3次元モデル)が生成されたことになる。
次に、3次元画像出力部32は、3次元モデル生成部31から出力する3次元モデルデータによって表現される3次元モデルの表面に対して、画像取得部1から入力した2次元画像をテクスチャデータとして貼り付けて3次元画像情報を生成する(ステップS4)。図5は、テクスチャデータが貼り付けられた3次元モデルデータの一例を示す説明図である。図5に示すように、上記処理動作によって、画像取得部1によって撮影された2次元画像をテクスチャデータとした3次元形状を定義した3次元画像情報が生成されたことになる。そして、3次元画像出力部32は、生成された3次元画像情報を画像変換部5に対して伝送する(ステップS5)。
次に、図6を参照して、図3に示す映像コミュニケーションシステムにおける表示側の装置の動作を説明する。図6は、図3に示す映像コミュニケーションシステムにおける表示側の装置(視点位置検出部4、画像変換部5、映像表示部6)の動作を示すフローチャートである。
まず、画像変換部5は、ユーザA側及びユーザB側の3次元画像出力部32から伝送された3次元画像情報を入力する(ステップS21)。続いて、視点位置検出部4は、ユーザAの視点(眼)位置がどこにあるかを示すユーザの視点位置V(v,v,v)を検出し、この視点位置Vを画像変換部5へ出力する(ステップS22)。画像変換部5は、ユーザA側及びユーザB側の3次元画像出力部32から伝送された3次元画像情報を映像表示部6の表示面に対称な3次元画像情報に変換して鏡面対称な3次元画像情報を生成する(ステップS23)。
画像変換部5では、「ディスプレイ位置に対するユーザAの視点位置」に応じて、「ユーザBの鏡面対称な3次元画像情報」及び「ユーザAの鏡面対称な3次元画像情報」を、ユーザAの映像表示部6の画面に表示する映像(「ユーザの視点位置に応じた2次元画像」)へ変換することにより、2次元画像を生成する(ステップS24)。「ユーザの視点位置に応じた2次元画像」は、「ユーザBの鏡面対称な3次元画像情報」及び「ユーザAの鏡面対称な3次元画像情報」を、「ディスプレイ位置に対するユーザAの視点位置」を基点に、ユーザAの映像表示部6の画面に透視投影などの射影変換を行うことで生成される。
図7は、画像変換部5が行う透視変換の動作を示す概念図である。ディスプレイの中心を座標系の原点O(0,0,0)とし、ディスプレイ面の横方向にx軸、縦方向にy軸、ディスプレイ面の法線をz軸とし、ユーザ位置とは逆向きを正の方向とする。ユーザの視点位置をV(v,v,v)(但し、v<0)としたとき、ディスプレイ面上の点D(x,y,z)に投影されるべき、3次元画像情報iの点H(h,h,h)は、次式(1)により算出される。
Figure 2014086774
なお、数式(1)の変換行列式中の座標は、実寸の情報を有する座標系ということを前提にしている。
この処理を、ディスプレイ面上の各画素において行うことにより2次元画像への変換を行う。なお、その他、平行投影といった一般的な射影変換の手法も利用してもよい。
最後に、映像表示部6は、画像変換部5により変換された映像、すなわち、ユーザAの視点位置に応じたユーザA及びユーザBの2次元画像を表示する(ステップS25)。
なお、画像変換部5は、2次元画像を生成する際に、ユーザAの3次元画像情報、又はユーザBの3次元画像情報のいずれかに含まれる空間情報を用いる。例えばユーザAの3次元画像情報に含まれる空間情報を用いた場合、ユーザAが居る空間にユーザBが訪れたような同室感を得ることができる。また、ユーザBの3次元画像に含まれる空間情報を用いた場合、ユーザBが居る空間にユーザAが訪れたような同室感を得ることができる。また、画像変換部5は、2次元画像を生成する際に、ユーザA及びユーザBの3次元画像情報に含まれる空間情報と異なる空間情報を用いて2次元画像を生成するようにしてもよい。この場合、ユーザAとユーザBとが一緒に違う空間に行っているような同室感を得ることができる。
このように、ユーザの視点(眼の位置)に応じて、映像が変化するため、運動視差を実現することができるとともに、距離に応じた人物サイズで対話相手とユーザ自身とが鏡に映ったように表示することから、ユーザが映像中の対話相手との同室感を得ることができる。それにより、対面会話と同様に距離を適度に調節したり、対面会話において距離がもたらす、話しやすさ、緊張感の有無の効果をもたらすことができる。
例えば、ユーザAの3次元画像情報に含まれる人物(ユーザA)及び人物以外の空間と、ユーザBの3次元画像情報に含まれる人物(ユーザB)とを鏡面対称にして1つの2次元画像にする変換を画像変換部5に行わせることにより、ユーザAが居る空間にユーザBが没入(入り込む)した状況を映像表示部6に表示させることができ、あたかも対話相手(ユーザB)がユーザAの空間に来たかのような同室感を得ることができる。
また、ユーザBの3次元画像情報に含まれる空間としてユーザA及びユーザBを表示させるようにしてもよい。これにより、一方のユーザは他方のユーザが居る空間に没入したかのように感じることができる。ユーザが鏡(映像表示部6)越しに他方のユーザの空間を自由に移動しているように表示されるため、当該空間におけるコラボレーション作業を効率的に行うことができる。
また、不図示のユーザB側の映像表示部6にユーザAの3次元画像情報に含まれる空間を用いた2次元画像を表示させ、ユーザA側の映像表示部6にユーザBの3次元画像情報に含まれる空間を用いた2次元画像を表示させることにより、ユーザA及びユーザBが互いに相手が居る空間に行った(没入した)かのような同室感を得ることができる。
また、ユーザA及びユーザBの3次元画像情報に含まれる空間と異なる空間を用いた2次元画像を表示させるようにしてもよい。このとき、ユーザAの映像表示部6に表示させる2次元画像の空間と、ユーザBの映像表示部6に表示させる2次元画像の空間とが異なっていてもよい。
<第2の実施形態>
図8は第2の実施形態による映像コミュニケーションシステムの構成を示すブロック図である。本実施形態では、撮影された2次元画像と距離画像から、対話相手の空間を3次元モデル化し、得られた3次元モデルの表面に対して、2次元画像をテクスチャとして貼り付けた3次元画像を生成し、この3次元画像をユーザの視点位置に応じて、ディスプレイ面に投影して表示する構成について説明する。以下において、ユーザB側の画像取得部1、距離画像取得部2、及び3次元画像生成部3について説明する。ユーザA側の画像取得部1、距離画像取得部2、及び3次元画像生成部3は、ユーザB側の画像取得部1、距離画像取得部2、及び3次元画像生成部3と同じ構成を有しているので、ユーザA側のそれらの構成についての説明を省略する。
図8に示す映像コミュニケーションシステムは、ユーザ(以下、ユーザA)及び対話相手(以下、ユーザB)のそれぞれに用意され、双方向通信を介して使用される。以下では、ユーザAのディスプレイにユーザA及びユーザB(対話相手)の映像を表示するものとして説明する。
画像取得部1は、撮影装置(カメラ)からなり、ユーザBの2次元映像を撮影する。ユーザB側の画像取得部1は、ユーザAの視線とユーザBの視線とを合わせるために、ユーザBのディスプレイ(映像表示部:図示略)上に表示されるユーザAの眼位置(眼位置とは、両眼の目頭を結ぶ線分の中点の位置)に、光学的、または、仮想的に、カメラのレンズ中心がくるように配置される。
例えば、ディスプレイとユーザBとの間にハーフミラーを、ディスプレイの平面の法線とハーフミラーの法線のなす角度が45度となるように設置し、カメラを該ハーフミラーの上方または下方に、ハーフミラーからディスプレイまでの距離だけ離して設置することにより、ハーフミラーを介して撮像する手法を用いればよい。
また、ディスプレイを隠さないように、ユーザBのディスプレイの周囲に複数のカメラを配置し、FTV(Free−Viewpoint Television)技術によって、周囲の複数のカメラ画像から、ユーザBのディスプレイ上に表示されるユーザAの視点位置にある仮想視点の映像を生成する手法を用いるようにしてもよい。その他、視線を一致させるために、カメラ位置をできるだけ、ユーザBのディスプレイに表示されたユーザAの眼位置にレンズ中心が来るように配置するようにしてもよい。以後、ユーザBのディスプレイの中心にカメラレンズの中心があるようにカメラが設置されており、カメラの撮像面がディスプレイ面にあると仮定して説明する。
距離画像取得部2は、ユーザBの空間の距離画像を取得する。距離画像取得部2には、例えば、TOFカメラやパターン投射を利用した距離画像取得カメラを用いる。なお、距離画像取得部2は、画像取得部1と同等のカメラを用いてステレオマッチングを行うことにより距離画像を得るようにしてもよい。距離画像は、例えば、X行Y列の2次元配列のデータ形式に、距離画像取得部2からの距離情報を各要素に持つ。
3次元画像生成部3は、距離画像取得部2によって得られた距離画像からユーザBの空間を3次元モデル化し、この3次元モデルに対して、画像取得部1によって撮影された2次元画像をテクスチャとして貼り付けた3次元画像情報を生成して出力する。
視点位置検出部4は、顔認識及びステレオマッチングを用いた画像処理技術や、光学式または磁気式のモーショントラッキング技術等を用いて、ユーザAの視点(眼)位置がどこにあるかを示すユーザAの視点位置V(v,v,v)を検出して出力する。
画像変換部5は、視点位置検出部4によって検出された、ディスプレイ位置に対するユーザAの視点位置と、ユーザBの3次元画像生成部3によって生成されて出力されたユーザBの3次元画像情報と、ユーザAの3次元画像生成部3によって生成されて出力されたユーザAの3次元画像情報とから、ユーザAのディスプレイ面に表示する画像(「ユーザAの視点位置に応じた、ユーザA及びユーザBの2次元画像」)に変換する。このとき、画像変換部5は、ユーザA及びユーザBの3次元画像情報を映像表示部6の表示面に対して対称な3次元画像情報に変換して鏡面対称な3次元画像情報を生成したのちに、2次元画像への変換を行う。
映像表示部6は、ディスプレイ装置で構成し、画像変換部5により変換されたユーザAの視点位置に応じた、ユーザA及びユーザBの鏡面対称な2次元画像を表示する。
次に、図8を参照して、図8に示す3次元画像生成部3の詳細な構成を説明する。画像バッファ35は、画像取得部1において撮影した画像の少なくとも1フレーム分の記憶領域と、画像処理に用いる作業領域を有する。空間分離部36は、画像バッファ35に記憶されている画像から、人物領域画像と空間領域画像とを分離してそれぞれの画像を画像バッファ35の作業領域に記憶する。顔検出部37は、画像バッファ35に記憶されている人物領域画像、および補助情報として距離画像取得部2で得られた位置情報から顔領域ならびに特徴点の位置、姿勢を検出する。骨格抽出部38は、画像バッファ35に記憶されている人物領域画像から骨格抽出を行って骨格情報を得る。姿勢推定部39は、骨格抽出部38において得られた骨格情報に基づき、人物の姿勢を推定する。テクスチャ抽出部40は、画像バッファ35に記憶されている人物領域画像及び空間領域画像から人物と空間のテクスチャ情報を抽出する。空間モデル生成部41は、距離画像取得部2において取得した距離画像からユーザBの空間のうち、空間に相当する部分の3次元モデルデータである空間モデルを生成する。
人物モデル記憶部42は、一般的な人間の体格の3次元形状データが3次元人物モデルデータとして予め記憶されている。人物テクスチャ情報記憶部43は、人物モデルに対して貼り付けたテクスチャのテクスチャ情報を記憶する。人物モデル生成部44は、人物モデル記憶部42に記憶されている人物モデルを用いて、画像取得部1において撮影した人物に似せた人物モデルを生成する。3次元画像出力部45は、人物モデル生成部44において生成した人物モデル(撮影された人物の3次元形状データ)と、空間モデル生成部41において生成した空間モデル(撮影された空間の3次元形状データ)とから画像取得部1において撮影された2次元画像に対応する3次元画像情報を生成して出力する。
なお、上述した構成において、ユーザA側の画像取得部1、距離画像取得部2、3次元画像生成部3、視点位置検出部4、画像変換部5、及び映像表示部6は表示側装置として設けられている。また、ユーザB側の画像取得部1、距離画像取得部2及び3次元画像生成部3は、撮像側装置として設けられており、通信回線等を介して、3次元画像生成部3により生成された、ユーザBの3次元画像情報を、所定の通信手段、通信回線を介して、ユーザA側の表示側装置に伝送する。
次に、図9を参照して、図8に示す映像コミュニケーションシステムの動作を説明する。図9は、図8に示す映像コミュニケーションシステムにおける撮像側及び表示側の装置の3次元画像生成部3の動作を示すフローチャートである。ここでは、ユーザB側の画像取得部1において撮影した映像をユーザA側へ出力する動作を説明する。なお、ユーザA側における処理は、ユーザB側における処理と同様である。
まず、3次元画像生成部3は、画像取得部1によって撮影された「ユーザBの2次元画像」と、距離画像取得部2において取得した「距離画像」とを入力する(ステップS31)。画像取得部1から入力した画像は、画像バッファ35に記憶する。
次に、空間分離部36は、「距離画像」に基づいて、「ユーザBの2次元画像」を、人物領域画像と人物以外の空間領域画像とに分離する(ステップS32)。人物領域と空間領域の分離には、ディスプレイが据え置きの映像コミュニケーションにおいては、空間が多くの場合に固定であるため、空間差分を利用し、予め空間のみを撮影しておき、それをリファレンスとして差分を取得することで人物領域を抽出する。
図10は、人物領域画像と人物以外の空間領域画像とに分離する動作を示す説明図である。図10に示すように、空間分離部36は、撮影された画像Aを空間領域画像Bと人物領域画像Cに分離する。このとき、単純に人物領域を抜いただけでは空間画像中の人物領域にあたる部分(図10の破線で示した部分)の画像が欠落してしまう。このため、欠落している空間画像の領域を過去の空間画像から補完する。この補完した空間画像を空間領域画像とする。その他、空間が大きく変化しないと仮定し、事前に撮影した空間画像を使用してもよい。または、プライバシー保護の観点から、空間部分を実際とは違う画像と差し替えてもよい。空間分離部36は、分離した空間領域画像Bと人物領域画像Cを画像バッファ35の作業領域に記憶する。
次に、顔検出部37は、画像バッファ35に記憶されている人物領域画像から顔検出処理を行って顔領域画像を切り出す(ステップS33)。そして、顔検出部37は、顔の特徴点である眼、鼻、口、眉などの顔を構成する部位の位置情報を検出し、この顔を構成する部位の位置情報から顔全体の位置情報と、顔が向いている方向の情報を特定する。なおこのとき、距離画像取得部2で得られた距離画像を用いることで、顔検出の精度向上が可能である。具体的には、直前の画像フレーム(1枚以上のフレーム)で取得された、2次元画像中の顔位置に対応する距離を保持しておき、その距離から大幅に外れた箇所は顔領域では無いと判断し、距離が近い画像領域のみを顔が存在する候補とする。顔検出部37は、特定した顔全体の位置情報と、顔が向いている方向の情報とを人物モデル生成部44と姿勢推定部39へ出力する。
次に、骨格抽出部38は、画像バッファ35に記憶されている人物領域画像から骨格抽出を行う(ステップS34)。骨格抽出は、人物領域画像から頭、腕、手、上半身、足などを抽出し、これらに仮想の骨を割り当て、割り当てた骨の位置情報を検出することにより行う。
図11は、人物領域画像から顔検出と骨格抽出を行う動作を示す説明図である。図11に示すように、人物領域画像Cから顔部分を切り出した顔領域画像Eを用いて、顔を構成する部位の位置情報を検出する。また、人物領域画像Cに対して仮想の骨を割り当てることにより、人物の骨格を抽出し、骨格の位置情報Fを検出する。顔検出処理や骨格抽出処理は公知の処理方法を適用することができるため、ここでは処理の詳細な説明を省略する。
次に、骨格抽出部38は、距離画像取得部2から入力した距離画像と画像取得部1が取得した画像の画角情報とから抽出した骨格の実際の大きさ(ユーザBの大きさに相当する)を推定する(ステップS35)。骨格抽出部38は、骨格の位置情報と骨格の実際の大きさ情報とを人物モデル生成部44と姿勢推定部39へ出力する。
次に、姿勢推定部39は、顔全体の位置情報と、顔が向いている方向情報と、骨格の位置情報とから人物(ユーザB)の姿勢を推定する(ステップS36)。これにより、人物(ユーザB)が現時点でとっている姿勢が特定されることになる。姿勢推定部39は、特定した姿勢の情報を人物モデル生成部44へ出力する。姿勢の情報は、骨格を構成する各骨の3次元位置情報によって構成する。
次に、人物モデル生成部44は、人物モデル記憶部42から3次元人物モデルデータを読み出す(ステップS37)。そして、人物モデル生成部44は、顔検出部37から出力された顔の位置情報、顔の向き情報、骨格抽出部38から出力された骨格の実際の大きさ情報、姿勢推定部39から出力された姿勢の情報に基づき、3次元人物モデルデータで定義される仮想の人物の大きさと姿勢を変形する(ステップS38)。これにより、画像取得部1によって撮影した人物(ユーザB)と同じ大きさで同じ姿勢をとっている3次元人物モデルデータが生成されたことになる。
次に、テクスチャ抽出部40は、画像バッファ35に記憶されている人物領域画像を読み出し、この人物領域画像をテクスチャマッピングに用いるテクスチャデータとして人物モデル生成部44へ出力する。これを受けて、人物モデル生成部44は、得られた3次元人物モデルデータに対して、テクスチャ抽出部40から出力されたテクスチャデータを3次元人物モデルデータで表現される人物モデルの表面に対して投影することにより3次元人物モデルデータで表現される人物モデルの表面にテクスチャを貼り付ける(ステップS39)。これにより、画像取得部1において撮影した人物(ユーザB)の3次元画像が生成されたことになる。人物モデル生成部44は、ここで生成した3次元画像情報を3次元画像出力部45へ出力する。
図12は、骨格抽出、人物モデルの変形、テクスチャ貼り付け、3次元画像生成の処理動作を示す説明図である。図12に示すように、人物領域画像から骨格抽出を行うことにより、骨格を示す骨格情報Fが求められ、この骨格情報Fに基づいて、3次元人物モデルデータGが実際に撮影された人物と同じ大きさで同じ姿勢をとっているように変形が行われる。そして、変形後の3次元人物モデルデータGで表現される人物モデルの表面に人物領域画像Cに基づくテクスチャが貼り付けられることにより人物の3次元画像Hが生成されることになる。
次に、人物モデル生成部44は、人物モデルにテクスチャを貼り付けた位置と貼り付けたテクスチャデータと関係付けて人物テクスチャ情報記憶部43に記憶することにより、既に貼り付け処理を行ったテクスチャデータを保持しておく(ステップS40)。これにより、人物モデルの表面にテクスチャが貼り付けられた過去の情報が保持されることになる。
次に、空間モデル生成部41は、画像バッファ35に記憶されている空間領域画像に対応する距離画像から空間に相当する部分の3次元形状データを定義した空間モデルデータを生成する。そして、テクスチャ抽出部40は、画像バッファ35に記憶されている空間領域画像を読み出し、この空間領域画像をテクスチャマッピングに用いるテクスチャデータとして空間モデル生成部41へ出力する。これを受けて、空間モデル生成部41は、生成した空間モデルデータで表現される空間物体の表面にテクスチャ抽出部40から出力されたテクスチャデータを投影することにより3次元空間モデルデータで表現される空間モデルの表面にテクスチャを貼り付ける(ステップS41)。これにより、空間の3次元画像情報が生成されたことになる。
次に、人物モデル生成部44は、ここで生成した人物の3次元画像情報を3次元画像出力部45へ出力する。このとき、人物モデル生成部44は、今回撮影された画像に対する処理においてテクスチャが貼り付けられていない人物モデルの表面には、人物テクスチャ情報記憶部43に記憶されている過去の処理において貼り付けられたテクスチャデータを読み出して貼り付ける。これにより、今回撮影した画像には映っていない箇所の画像も再現することができるようになる。また、空間モデル生成部41は、生成した空間の3次元画像情報を3次元画像出力部45へ出力する。
次に、3次元画像出力部45は、人物領域画像から生成した人物モデルによる3次元画像情報に実寸の大きさ情報を付与する(ステップS42)。図13は、人物モデルによる3次元画像の大きさ情報の算出方法を説明するための概念図である。このとき、生成された人物モデルによる3次元画像αの画像の高さα、幅αは、画像取得部1の画角(縦θ、横θ)、画像取得部1から人物モデルによる3次元画像までの距離D(画像取得部1とディスプレイ(ユーザB側の映像表示部)との位置関係を既知とし、「距離画像」から算出)、カメラズーム率Zを用いて、次式(2)、(3)で算出される。
Figure 2014086774
Figure 2014086774
次に、3次元画像出力部45は、人物モデル生成部44から出力される人物モデルによる3次元画像情報と、空間モデル生成部41から出力される空間モデルによる3次元画像情報とを合成して、人物と空間からなる空間の3次元画像情報を生成する。図14は、テクスチャデータが貼り付けられた人物モデルと空間モデルとを合成して得られた3次元画像情報の一例を示す説明図である。図14に示すように、上記処理動作によって、人物モデルと空間モデルとによりユーザBの空間の3次元形状を定義した3次元画像情報が生成されたことになる。そして、3次元画像出力部45は、生成された3次元画像情報を画像変換部5に対して伝送する(ステップS43)。
次に、図15を参照して、図8に示す映像コミュニケーションシステムにおける表示側の装置の動作を説明する。図15は、図8に示す映像コミュニケーションシステムにおける表示側の装置(視点位置検出部4、画像変換部5、映像表示部6)の動作を示すフローチャートである。
まず、画像変換部5は、ユーザA側及びユーザB側の3次元画像出力部45から伝送された3次元画像情報を入力する(ステップS51)。続いて、視点位置検出部4は、ユーザAの視点(眼)位置がどこにあるかを示すユーザの視点位置V(v,v,v)を検出し、この視点位置Vを画像変換部5へ出力する(ステップS52)。画像変換部5は、ユーザA側及びユーザB側の3次元画像出力部45から伝送された3次元画像情報を映像表示部6の表示面に対称な3次元画像情報に変換して鏡面対称な3次元画像情報を生成する(ステップS53)。
画像変換部5では、「ディスプレイ位置に対するユーザAの視点位置」に応じて、「ユーザBの鏡面対称な3次元画像情報」及び「ユーザAの鏡面対称な3次元画像情報」を、ユーザAの映像表示部6の画面に表示する映像(「ユーザの視点位置に応じた2次元画像」)へ変換することにより、2次元画像を生成する(ステップS54)。「ユーザの視点位置に応じた2次元画像」は、「ユーザBの鏡面対称な3次元画像情報」及び「ユーザAの鏡面対称な3次元画像情報」を、「ディスプレイ位置に対するユーザAの視点位置」を基点に、ユーザAの映像表示部6の画面に透視投影などの射影変換を行うことで生成される。
図16は、画像変換部5が行う透視変換の動作を示す概念図である。ディスプレイの中心を座標系の原点O(0,0,0)とし、ディスプレイ面の横方向にx軸、縦方向にy軸、ディスプレイ面の法線をz軸とし、ユーザ位置とは逆向きを正の方向とする。ユーザの視点位置をV(v,v,v)(但し、v<0)としたとき、ディスプレイ面上の点D(x,y,z)に投影されるべき、人物モデルと空間モデルによる3次元画像情報iの点H(h,h,h)は、次式(4)により算出される。
Figure 2014086774
なお、数式(4)の変換行列式中の座標は、実寸の情報を有する座標系ということを前提にしている。
この処理を、ディスプレイ面上の各画素において行うことにより2次元画像への変換を行う。なお、その他、平行投影といった一般的な射影変換の手法も利用してもよい。
最後に、映像表示部6は、画像変換部5により変換された映像、すなわち、ユーザAの視点位置に応じたユーザA及びユーザBの鏡面対称な2次元画像を表示する(ステップS55)。
なお、画像変換部5は、2次元画像を生成する際に、ユーザAの3次元画像情報、又はユーザBの3次元画像情報のいずれかに含まれる空間物体を用いる。例えばユーザAの3次元画像情報に含まれる空間物体を用いた場合、ユーザAが居る空間にユーザBが訪れたような同室感を得ることができる。また、ユーザBの3次元画像に含まれる空間物体を用いた場合、ユーザBが居る空間にユーザAが訪れたような同室感を得ることができる。また、画像変換部5は、2次元画像を生成する際に、ユーザA及びユーザBの3次元画像情報に含まれる空間物体と異なる空間物体を用いて2次元画像を生成するようにしてもよい。この場合、ユーザAとユーザBとが一緒に違う空間に行っているような同室感を得ることができる。
以上説明したように、ユーザの視点(眼の位置)に応じて、映像が変化するため、運動視差を実現することができるとともに、距離に応じた人物サイズで対話相手とユーザ自身とが鏡に映ったように表示することから、ユーザが映像中の対話相手との同室感を得ることができる。それにより、対面会話と同様に距離を適度に調節したり、対面会話において距離がもたらす、話しやすさ、緊張感の有無の効果をもたらすことができる。
<第3の実施形態>
図17は第3の実施形態による映像コミュニケーションシステムの構成を示すブロック図である。第3の実施形態による映像コミュニケーションシステムでは、撮像された2次元画像から、人物を含む2次元の人物レイヤと、人物以外の背景を含む2次元の背景レイヤとを生成し、人物レイヤと背景レイヤとの奥行きに基づいた3次元画像情報を生成する構成について説明する。以下において、本実施形態における画像取得部1は、第1の実施形態又は第2の実施形態における画像取得部1と同じ構成を有しているので、その説明を省略する。また、ユーザA側の距離情報取得部20及び3次元画像生成部30と、ユーザB側の距離情報取得部20及び3次元画像生成部30とは同じ構成を有しているので、ユーザB側の距離情報取得部20及び3次元画像生成部30について説明し、ユーザA側の距離情報取得部20及び3次元画像生成部30についての説明を省略する。
図17に示す映像コミュニケーションシステムは、ユーザ(以下、ユーザA)及び対話相手(以下、ユーザB)のそれぞれに用意され、双方向通信を介して使用される。以下では、ユーザAのディスプレイにユーザA及びユーザB(対話相手)の映像を表示するものとして説明する。
距離情報取得部20は、
a)複数カメラを用いた顔認識、及びステレオマッチングを用いた画像処理技術
b)光学式、または磁気式のモーショントラッキング技術、
また、映像コミュニケーションにおいて人物がカメラ映像の中央にいることを前提条件とし、
c)カメラのオートフォーカス機能によるフォーカス距離情報取得
などの手法を用いて、ディスプレイ面とユーザBとの距離を示す距離情報を取得する。このとき、「ディスプレイ面とユーザBとの距離」は、ディスプレイ面からユーザBへの法線の長さである。距離情報を取得する手法は、上記手法だけに限らず、他の手法であってもよい。
3次元画像生成部30は、画像取得部1によって撮影された、「ユーザBの2次元画像」、及び距離情報取得部20によって取得された、ディスプレイ面とユーザBとの間の距離にもとづいて、「ユーザBの2次元画像」を、奥行き情報を持つ「ユーザBの3次元画像情報」に変換して出力する。
本実施形態の特徴として、対話相手とユーザ自身とが鏡に映ったように見える画像を用いた映像コミュニケーションにおいては、対話相手とユーザ自身がディスプレイの正面から大きく動かないという前提条件の下、完全な3次元形状を持つ奥行き映像を生成するのではなく、入力された「ユーザBの2次元画像」を、人物領域と背景領域とに分割し、書割のように平面レイヤのまま奥行き情報を付与して多層化する。
人物領域と背景領域の分割には、ディスプレイが据え置きの映像コミュニケーションにおいては、背景が多くの場合に固定であるため、背景差分を利用し、予め背景のみを撮影しておき、それをリファレンスとして差分を取得することで人物を抽出する。また、距離画像センサを用いた距離情報や、温度画像センサによる人物の体温情報、顔認識を併用して領域分割の精度を向上させるようにしてもよい。
具体的な手法として、所定の範囲内に人物が存在し得る(例えば、ディスプレイが設置された部屋の場合には、ディスプレイから部屋の壁までの範囲内)場合には、ディスプレイの所定の位置を基準点とした人物の存在範囲(該基準点から該部屋の壁までの範囲)を規定し、距離画像センサを用いて距離画像を取得し、人物が存在すると規定される範囲の距離を示す画素領域を該距離画像中の人物領域と判定する。例えば、ディスプレイ面から、0〜3mまでの領域は、人物領域と判定し、3m以上の領域は背景領域と判定する。
また、温度画像センサの場合、同様に人物を示す温度範囲を規定して、同様な判定を行う。これらの複数センサから取得された複数の人物領域を候補として、各画素でボーティングして人物領域を最終的に判定する。
具体的には、例えば、画像中のある画素で、各センサを用いた人物領域判定の論理積を取ることで、最終的な判定を行う。顔認識の利用用途は、上記処理などを行った後に、人物領域と判定される領域の候補が複数存在し、その中に人物以外のものが混在していたときに、2次元画像中の領域毎に顔認識を行い、顔抽出された領域のみを人物領域と判定する。これにより、誤って人物領域と判定された領域を排除することが可能であり、より頑健な人物領域抽出が可能となる。
その他、画像中の領域分割には様々な手法が提案されており、それらも利用可能である。また、本実施形態では、2層化についての方式を説明したが、さらに多層化する場合、距離や温度の閾値を細かく設定し、距離画像や、温度画像の分割数を増やすことが考えられる。これにより、多層の書割レイヤを生成することが可能である。
次に、図18を参照して、図17に示す映像コミュニケーションシステムの動作を説明する。図18は、図17に示す映像コミュニケーションシステムにおける撮像側の装置(3次元画像生成部30)の動作を示すフローチャートである。ここでは、ユーザB側の画像取得部1において撮影した映像をユーザA側へ出力する動作を説明する。また、簡単のため、最も単純な構成である2層化の手法について具体的に述べる。
まず、3次元画像生成部30は、画像取得部によって撮影された「ユーザBの2次元画像」と、距離情報取得部20から供給される、「ディスプレイ面とユーザBとの間の距離」を入力する(ステップS61)。
次に、「ディスプレイ面とユーザBとの間の距離」にもとづいて、「ユーザBの2次元画像」を、人物領域とその背景領域とに分割する(ステップS62)。2層化する際、前のレイヤが人物領域、後ろのレイヤが背景領域となる。
次に、2層化された領域のうち、背景領域の画像に基づいて、新たな背景画像を生成する(ステップS63)。単純に1枚の元画像から人物領域を抜いて(減算した)ままだと、背景画像中の人物領域に当たる部分の画像が欠けてしまう。このため、欠落している背景画像の領域を過去の背景画像から補完する。この補完した背景画像が新たな背景領域の画像となる。そのた、背景が大きく変化しないと仮定し、事前に撮影した背景画像を背景レイヤとして使用してもよい。または、プライバシー保護の観点から、背景部分を実際とは違う画像と差し替えてもよい。その他、背景画像に用いる画像に特に制約はなく、一般的に考えられるあらゆる画像が利用可能である。
次に、上記生成された、人物領域の画像、背景画像に実寸の大きさ情報を付与する(ステップS64)。人物領域の画像に対する大きさ情報の算出方法は、図13において説明した大きさ情報の算出方法と同様である。
次に、ディスプレイからの距離情報と実寸情報とを合わせて奥行き情報とし、人物領域の画像と背景画像とに該奥行き情報を付与し、それぞれレイヤ化する(ステップS65)。以降、人物領域の画像を人物レイヤ、背景画像を背景レイヤと呼ぶ。このレイヤ化により、奥行き情報を持つユーザBの3次元画像情報として生成される。このとき、人物レイヤの奥行き位置は、「ディスプレイ面とユーザBとの間の距離」を用いる。背景レイヤの奥行きは、任意の値(ただし、人物レイヤより奥行き位置が遠きこと)を用いる。なお、ステップS63において、背景レイヤの距離情報を取得できていた場合、その距離を用いて値を決めるようにしてもよい。
次に、3次元画像生成部30は、生成した3次元画像情報を画像変換部5に対して伝送する(ステップS66)。
図19は、本実施形態において、実際に生成される「奥行き情報を持つユーザBの3次元画像情報」の例を示す概念図である。図19では、距離1.0mの位置に人物レイヤ、距離3.0mの位置に背景レイヤが配置されている。この奥行きに応じて配置された多層レイヤの情報は、各レイヤの2次元画像データ、各レイヤ面とディスプレイ間の距離、各レイヤの縦・横(α,α)であり、これらの「奥行き情報を持つユーザBの3次元画像情報」が出力される。「奥行き情報を持つユーザBの3次元画像情報」は、各レイヤの2次元画像データと、ディスプレイ面からの距離と、レイヤの縦・横のサイズとを含む。
上述のように、本実施形態による映像コミュニケーションシステムでは、2次元画像から、撮像された人物を含む人物レイヤと、人物以外の背景を含む背景レイヤとを生成し、それらに基づいて3次元画像情報を生成する。したがって、人物や当該人物の空間の3次元形状に基づいた3次元画像情報を生成する場合に比べ、3次元画像情報を生成する際の演算量を抑えることができる。
これにより、対話相手とユーザ自身とが鏡に映ったように表示することからユーザが映像中の対話相手との同室感を得つつ、映像コミュニケーションシステムに要求される演算処理性能を低くすることができ、処理の高速化や装置の低価格化を図ることができる。
なお、図3、図8、図17における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより映像コミュニケーション処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。
撮像側の映像装置と表示側の映像装置との間で、撮像側の映像装置で撮影した映像を表示側の映像装置に伝送することが不可欠な用途に適用できる。
1・・・画像取得部、2・・・距離画像取得部、20・・・距離情報取得部、3・・・3次元画像生成部、30・・・3次元画像生成部、31・・・3次元モデル生成部、32・・・3次元画像出力部、35・・・画像バッファ、36・・・空間分離部、37・・・顔検出部、38・・・骨格抽出部、39・・・姿勢推定部、40・・・テクスチャ抽出部、41・・・空間モデル生成部、42・・・人物モデル記憶部、43・・・人物テクスチャ情報記憶部、44・・・人物モデル生成部、45・・・3次元画像出力部、4・・・視点位置検出部、5・・・画像変換部、6・・・映像表示部

Claims (12)

  1. 撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示する映像コミュニケーションシステムであって、
    前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、
    前記撮像側の人物と人物以外の空間とを含む第1の距離情報を取得する第1の距離情報取得手段と、
    前記第1の距離情報に基づき前記第1の2次元画像に対応する前記撮像側の空間の3次元画像を生成する第1の3次元画像生成手段と、
    前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮影する第2の画像取得手段と、
    前記表示側の人物と人物以外の空間とを含む第2の距離情報を取得する第2の距離情報取得手段と、
    前記第2の距離情報に基づき前記第2の2次元画像に対応する前記表示側の空間の3次元画像を生成する第2の3次元画像生成手段と、
    前記表示側の人物の視点位置を検出する視点検出手段と、
    前記表示側の表示装置の表示面に対して対称な前記第1の3次元画像の人物の画像と、前記表示側の表示装置の表示面に対して対称な前記第2の3次元画像の人物の画像とを前記視点位置に応じて1つの2次元画像に変換する画像変換手段と、
    前記表示側の表示装置に前記変換された2次元画像を表示する表示手段と
    を備えたことを特徴とする映像コミュニケーションシステム。
  2. 撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示する映像コミュニケーションシステムであって、
    前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、
    前記撮像側の人物と人物以外の空間とを含む第1の距離画像を取得する第1の距離画像取得手段と、
    前記第1の距離画像に基づき前記第1の2次元画像に対応する前記撮像側の空間の3次元モデルデータを生成する第1の3次元モデル生成手段と、
    前記第1の3次元モデル生成手段により得られた3次元モデルデータで定義される3次元モデルの表面に対して、前記第1の2次元画像をテクスチャとして貼り付けることにより、前記撮像側の空間の3次元画像を生成する第1の3次元画像生成手段と、
    前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮影する第2の画像取得手段と、
    前記表示側の人物と人物以外の空間とを含む第2の距離画像を取得する第2の距離画像取得手段と、
    前記第2の距離画像に基づき前記第2の2次元画像に対応する前記表示側の空間の3次元モデルデータを生成する第2の3次元モデル生成手段と、
    前記第2の3次元モデル生成手段により得られた3次元モデルデータで定義される3次元モデルの表面に対して、前記第2の2次元画像をテクスチャとして貼り付けることにより、前記表示側の空間の3次元画像を生成する第2の3次元画像生成手段と、
    前記表示側の人物の視点位置を検出する視点検出手段と、
    前記表示側の表示装置の表示面に対して対称な前記第1の3次元画像の人物の3次元モデルデータと、前記表示側の表示装置の表示面に対して対称な前記第2の3次元画像の人物の3次元データモデルとを前記視点位置に応じて1つの2次元画像に変換する画像変換手段と、
    前記表示側の表示装置に前記変換された2次元画像を表示する表示手段と
    を備えたことを特徴とする映像コミュニケーションシステム。
  3. 前記画像変換手段は、
    前記第1の3次元画像の空間の3次元モデルデータを前記2次元画像における空間として用いる
    ことを特徴とする請求項2に記載の映像コミュニケーションシステム。
  4. 前記画像変換手段は、
    前記第2の3次元画像の空間の3次元モデルデータを前記2次元画像における空間として用いる
    ことを特徴とする請求項2に記載の映像コミュニケーションシステム。
  5. 前記画像変換手段は、
    前記第1の3次元画像の空間及び前記第2の3次元画像の空間と異なる空間の3次元モデルデータであって予め定められた3次元モデルデータを前記2次元画像における空間として用いる
    ことを特徴とする請求項2に記載の映像コミュニケーションシステム。
  6. 撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示する映像コミュニケーションシステムであって、
    前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、
    前記撮像側の人物と人物以外の空間とを含む第1の距離画像を取得する第1の距離画像取得手段と、
    3次元人物モデルデータを記憶する人物モデル記憶手段と、
    撮影した前記第1の2次元画像を第1の人物領域画像と第1の空間領域画像に分離する第1の画像分離手段と、
    前記第1の人物領域画像と前記第1の距離画像とから前記撮像側の人物の大きさと姿勢を推定する第1の推定手段と、
    前記第1の推定手段が推定した前記人物の大きさと前記姿勢に基づき、前記人物モデル記憶手段に記憶されている前記3次元人物モデルデータを変形して前記第1の人物領域画像に対応する3次元人物モデルデータを生成し、得られた3次元人物モデルデータで定義される人物モデルの表面に対して、前記第1の人物領域画像をテクスチャとして貼り付けることにより、人物モデルを生成する第1の人物モデル生成手段と、
    前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮影する第2の画像取得手段と、
    前記表示側の人物と人物以外の空間とを含む第2の距離画像を取得する第2の距離画像取得手段と、
    撮影した前記第2の2次元画像を第2の人物領域画像と第2の空間領域画像に分離する第2の画像分離手段と、
    前記第2の人物領域画像と前記第2の距離画像とから前記表示側の人物の大きさと姿勢を推定する第2の推定手段と、
    前記第2の推定手段が推定した前記人物の大きさと前記姿勢に基づき、前記人物モデル記憶手段に記憶されている前記3次元人物モデルデータを変形して前記第2の人物領域画像に対応する3次元人物モデルデータを生成し、得られた3次元人物モデルデータで定義される人物モデルの表面に対して、前記第2の人物領域画像をテクスチャとして貼り付けることにより、人物モデルを生成する第2の人物モデル生成手段と、
    前記表示側の人物の視点位置を検出する視点検出手段と、
    前記表示側の表示装置の表示面に対して対称な人物モデルであって前記第1の人物モデル生成手段が生成した人物モデルと、前記表示側の表示装置の表示面に対して対称な人物モデルであって前記第2の人物モデル生成手段が生成した人物モデルとを前記視点位置に応じて1つの2次元画像に変換する画像変換手段と、
    前記表示側の表示装置に前記変換された2次元画像を表示する表示手段と
    を備えたことを特徴とする映像コミュニケーションシステム。
  7. 前記第1の空間領域画像に対応する前記第1の距離画像から3次元空間モデルデータを生成し、得られた3次元空間モデルデータで定義される空間モデルの表面に対して、前記第1の空間領域画像をテクスチャとして貼り付けることにより空間モデルを生成する第1の空間モデル生成手段をさらに備え、
    前記画像変換手段は、
    前記第1の空間モデル生成手段が生成した前記空間モデルを前記2次元画像における空間として用いる
    ことを特徴とする請求項6に記載の映像コミュニケーションシステム。
  8. 前記第2の空間領域画像に対応する前記第2の距離画像から3次元空間モデルデータを生成し、得られた3次元空間モデルデータで定義される空間モデルの表面に対して、前記第2の空間領域画像をテクスチャとして貼り付けることにより空間モデルを生成する第2の空間モデル生成手段を更に備え、
    前記画像変換手段は、
    前記第2の空間モデル生成手段が生成した前記空間モデルを前記2次元画像における空間として用いる
    ことを特徴とする請求項6に記載の映像コミュニケーションシステム。
  9. 前記画像変換手段は、
    前記第1の3次元画像の空間及び前記第2の3次元画像の空間と異なる空間の3次元モデルデータであって予め定められた3次元モデルデータを前記2次元画像における空間として用いる
    ことを特徴とする請求項6に記載の映像コミュニケーションシステム。
  10. 撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示するために、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離情報を取得する第1の距離情報取得手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮影する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離情報を取得する第2の距離情報取得手段とを備える映像コミュニケーションシステムが行う映像コミュニケーション方法であって、
    前記第1の距離情報に基づき前記第1の2次元画像に対応する前記撮像側の空間の3次元画像を生成する第1の3次元画像生成ステップと、
    前記第2の距離情報に基づき前記第2の2次元画像に対応する前記表示側の空間の3次元画像を生成する第2の3次元画像生成ステップと、
    前記表示側の人物の視点位置を検出する視点検出ステップと、
    前記表示側の表示装置の表示面に対して対称な前記第1の3次元画像の人物の画像と、前記表示側の表示装置の表示面に対して対称な前記第2の3次元画像の人物の画像とを前記視点位置に応じて1つの2次元画像に変換する画像変換ステップと、
    前記表示側の表示装置に前記変換された2次元画像を表示する表示ステップと
    を有することを特徴とする映像コミュニケーション方法。
  11. 撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示するために、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離画像を取得する第1の距離画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮像する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離画像を取得する第2の距離画像取得手段とを備える映像コミュニケーションシステムが行う映像コミュニケーション方法であって、
    前記第1の距離画像に基づき前記第1の2次元画像に対応する前記撮像側の空間の3次元モデルデータを生成する第1の3次元モデル生成ステップと、
    前記第1の3次元モデル生成ステップにより得られた3次元モデルデータで定義される3次元モデルの表面に対して、前記第1の2次元画像をテクスチャとして貼り付けることにより、前記撮像側の空間の3次元画像を生成する第1の3次元画像生成ステップと、
    前記第2の距離画像に基づき前記第2の2次元画像に対応する前記表示側の空間の3次元モデルデータを生成する第2の3次元モデル生成ステップと、
    前記第2の3次元モデル生成ステップにより得られた3次元モデルデータで定義される3次元モデルの表面に対して、前記第2の2次元画像をテクスチャとして貼り付けることにより、前記表示側の空間の3次元画像を生成する第2の3次元画像生成ステップと、
    前記表示側の人物の視点位置を検出する視点検出ステップと、
    前記表示側の表示装置の表示面に対して対称な前記第1の3次元画像の人物の3次元モデルデータと、前記表示側の表示装置の表示面に対して対称な前記第2の3次元画像データの人物の3次元モデルデータとを前記視点位置に応じて1つの2次元画像に変換する画像変換ステップと、
    前記表示側の表示装置に前記変換された2次元画像を表示する表示ステップと
    を有することを特徴とする映像コミュニケーション方法。
  12. 撮像側で撮影した映像と表示側で撮像した映像とを表示側において表示するために、前記撮像側の人物と人物以外の空間とを含む第1の2次元画像を撮影する第1の画像取得手段と、前記撮像側の人物と人物以外の空間とを含む第1の距離画像を取得する第1の距離画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の2次元画像を撮像する第2の画像取得手段と、前記表示側の人物と人物以外の空間とを含む第2の距離画像を取得する第2の距離画像取得手段と、3次元人物モデルデータを記憶する人物モデル記憶手段とを備える映像コミュニケーションシステムが行う映像コミュニケーション方法であって、
    撮影した前記第1の2次元画像を第1の人物領域画像と第1の空間領域画像に分離する第1の画像分離ステップと、
    前記第1の人物領域画像と、前記第1の距離画像とから前記撮像側の人物の大きさと姿勢を推定する第1の推定ステップと、
    前記第1の推定ステップにおいて推定された前記人物の大きさと前記姿勢に基づき、前記人物モデル記憶手段に記憶されている前記3次元人物モデルデータを変形して前記第1の人物領域画像に対応する3次元人物モデルデータを生成し、得られた3次元人物モデルデータで定義される人物モデルの表面に対して、前記第1の人物領域画像をテクスチャとして貼り付けることにより、人物モデルを生成する第1の人物モデル生成ステップと、
    撮影した前記第2の2次元画像を第2の人物領域画像と第2の空間領域画像に分離する第2の画像分離ステップと、
    前記第2の人物領域画像と、前記第2の距離画像とから前記表示側の人物の大きさと姿勢を推定する第2の推定ステップと、
    前記第2の推定ステップにおいて推定された前記人物の大きさと前記姿勢に基づき、前記人物モデル記憶手段に記憶されている前記3次元人物モデルデータを変形して前記第2の人物領域画像に対応する3次元人物モデルデータを生成し、得られた3次元人物モデルデータで定義される人物モデルの表面に対して、前記第1の人物領域画像をテクスチャとして貼り付けることにより、人物モデルを生成する第2の人物モデル生成ステップと、
    前記表示側の人物の視点位置を検出する視点検出ステップと、
    前記表示側の表示装置の表示面に対して対称な人物モデルであって前記第1の人物モデル生成ステップにおいて生成した人物モデルと、前記表示側の表示装置の表示面に対して対称な人物モデルであって前記第2の人物モデル生成ステップにおいて生成した人物モデルとを前記視点位置に応じて1つの2次元画像に変換する画像変換ステップと、
    前記表示側の表示装置に前記変換された2次元画像を表示する表示ステップと
    を有することを特徴とする映像コミュニケーション方法。
JP2012232016A 2012-10-19 2012-10-19 映像コミュニケーションシステム及び映像コミュニケーション方法 Active JP5833525B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012232016A JP5833525B2 (ja) 2012-10-19 2012-10-19 映像コミュニケーションシステム及び映像コミュニケーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012232016A JP5833525B2 (ja) 2012-10-19 2012-10-19 映像コミュニケーションシステム及び映像コミュニケーション方法

Publications (2)

Publication Number Publication Date
JP2014086774A true JP2014086774A (ja) 2014-05-12
JP5833525B2 JP5833525B2 (ja) 2015-12-16

Family

ID=50789490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012232016A Active JP5833525B2 (ja) 2012-10-19 2012-10-19 映像コミュニケーションシステム及び映像コミュニケーション方法

Country Status (1)

Country Link
JP (1) JP5833525B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017195514A1 (ja) * 2016-05-13 2019-03-22 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JP2019512173A (ja) * 2016-01-22 2019-05-09 上海肇觀電子科技有限公司NextVPU (Shanghai) Co., Ltd. マルチメディア情報を表示する方法及び装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092657A (ja) * 2003-09-19 2005-04-07 Hitachi Ltd 画像表示装置および画像表示方法
US20070188594A1 (en) * 2006-01-31 2007-08-16 Fujifilm Corporation Communication system, communication terminal and communication method
JP2011077710A (ja) * 2009-09-29 2011-04-14 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム、及び映像コミュニケーション方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092657A (ja) * 2003-09-19 2005-04-07 Hitachi Ltd 画像表示装置および画像表示方法
US20070188594A1 (en) * 2006-01-31 2007-08-16 Fujifilm Corporation Communication system, communication terminal and communication method
JP2007208458A (ja) * 2006-01-31 2007-08-16 Fujifilm Corp 通信システム、通信端末および通信方法
JP2011077710A (ja) * 2009-09-29 2011-04-14 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム、及び映像コミュニケーション方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019512173A (ja) * 2016-01-22 2019-05-09 上海肇觀電子科技有限公司NextVPU (Shanghai) Co., Ltd. マルチメディア情報を表示する方法及び装置
JPWO2017195514A1 (ja) * 2016-05-13 2019-03-22 ソニー株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JP7074056B2 (ja) 2016-05-13 2022-05-24 ソニーグループ株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP5833525B2 (ja) 2015-12-16

Similar Documents

Publication Publication Date Title
JP5833526B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP5237234B2 (ja) 映像コミュニケーションシステム、及び映像コミュニケーション方法
CN109615703B (zh) 增强现实的图像展示方法、装置及设备
US11887234B2 (en) Avatar display device, avatar generating device, and program
JP2020511718A (ja) 拡張現実データを記録するための手法
JP2004537082A (ja) 仮想現実環境における実時間バーチャル・ビューポイント
JPWO2017094543A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
JP2008140271A (ja) 対話装置及びその方法
JP2012014690A (ja) 3次元拡張現実提供装置及び方法
JP2020065229A (ja) 映像通信方法、映像通信装置及び映像通信プログラム
JP5731462B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2011097447A (ja) コミュニケーションシステム
JP2011113206A (ja) 映像コミュニケーションシステム、及び映像コミュニケーション方法
US20230231983A1 (en) System and method for determining directionality of imagery using head tracking
JP2016048467A (ja) 運動視差再現方法、装置およびプログラム
US20200211275A1 (en) Information processing device, information processing method, and recording medium
JP5759439B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP5833525B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
JP2016192687A (ja) 映像表示システム及び映像表示方法
JP5898036B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
CN111881807A (zh) 基于人脸建模及表情追踪的vr会议控制系统及方法
JP6461394B1 (ja) 画像生成装置及び画像生成プログラム
JP2020005150A (ja) 録画再生装置及びプログラム
JP5520774B2 (ja) コミュニケーション装置、コミュニケーション方法、及びプログラム
JP5485102B2 (ja) コミュニケーション装置、コミュニケーション方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151029

R150 Certificate of patent or registration of utility model

Ref document number: 5833525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150