JP7338626B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7338626B2
JP7338626B2 JP2020531203A JP2020531203A JP7338626B2 JP 7338626 B2 JP7338626 B2 JP 7338626B2 JP 2020531203 A JP2020531203 A JP 2020531203A JP 2020531203 A JP2020531203 A JP 2020531203A JP 7338626 B2 JP7338626 B2 JP 7338626B2
Authority
JP
Japan
Prior art keywords
information
subject
captured image
virtual space
dimensional position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020531203A
Other languages
English (en)
Other versions
JPWO2020017261A1 (ja
Inventor
孝悌 清水
毅 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020017261A1 publication Critical patent/JPWO2020017261A1/ja
Application granted granted Critical
Publication of JP7338626B2 publication Critical patent/JP7338626B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04801Cursor retrieval aid, i.e. visual aspect modification, blinking, colour changes, enlargement or other visual cues, for helping user do find the cursor in graphical user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、VR(Virtual Reality)技術が様々な場面で活用されている。例えば、異なる場所にいるユーザ同士のコミュニケーション支援のために、VR技術が活用されている。
その一例として、下記特許文献1では、講師側の機器から生徒側の機器へ講義資料を配信しつつ、各々の機器において仮想空間内に講義資料に基づく仮想オブジェクトを表示する技術が開示されている。講義資料は、講師側の機器が備える映像入力手段により入力された、リアルタイムに又は即興的に作成又は引用された資料を含む。
特開2009-145883号公報
上記特許文献1における講義資料は、実写VRコンテンツの一例である。実写VRコンテンツとは、実空間を撮像した撮像画像を仮想空間内に配置したVRコンテンツである。例えば、実空間の全天球画像(上下左右全方位の360度パノラマ画像)が仮想空間内に配置された実写VRコンテンツによれば、ユーザは、あたかも当該実空間にいるかのような感覚を得ることができる。
実写VRコンテンツは、典型的には2次元的な撮像画像により構成されるので、触れる等の三次元的な空間インタラクションを実現することは困難である。そのため、例えばユーザが実写VRコンテンツ内の物体に触れたとしても、その触覚はユーザにフィードバックされない。このように、実写VRコンテンツにおいて実現されるインタラクションは、実空間におけるインタラクションとは異なる不自然なものであった。
そこで、本開示では、実写VRコンテンツにおける空間インタラクションをより適切に実現することが可能な仕組みを提案する。
本開示によれば、被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得する取得部と、前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成するコンテンツ構成情報生成部と、を備える情報処理装置が提供される。
また、本開示によれば、被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得する取得部と、前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御する出力制御部と、を備える情報処理装置が提供される。
また、本開示によれば、被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得することと、前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成することと、を備える、プロセッサにより実行される情報処理方法が提供される。
また、本開示によれば、被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得することと、前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御することと、を備える、プロセッサにより実行される情報処理方法が提供される。
また、本開示によれば、コンピュータを、被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得する取得部と、前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成するコンテンツ構成情報生成部、として機能させるためのプログラムが提供される。
また、本開示によれば、コンピュータを、被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得する取得部と、前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御する出力制御部と、として機能させるためのプログラムが提供される。
以上説明したように本開示によれば、実写VRコンテンツにおける空間インタラクションをより適切に実現することが可能な仕組みが提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係るコンテンツ配信システムの構成の一例を示す図である。 第1の実施形態に係る記録装置の概要を説明するための図である。 同実施形態に係る再生装置の概要を説明するための図である。 同実施形態に係る記録装置の機能構成の一例を示すブロック図である。 同実施形態に係るコンテンツ構成情報のフォーマットの一例を示す図である。 同実施形態に係る記録装置により実行される記録処理の流れの一例を示すフローチャートである。 同実施形態に係る再生装置の機能構成の一例を示すブロック図である。 同実施形態に係る再生装置により実行される第1の空間インタラクション処理の流れの一例を示すフローチャートである。 同実施形態に係る第2の空間インタラクションの一例を説明するための図である。 同実施形態に係る再生装置により実行される第2の空間インタラクション処理の流れの一例を示すフローチャートである。 同実施形態に係る再生装置により実行される第2の空間インタラクション処理の流れの一例を示すフローチャートである。 同実施形態に係る視点切り替えオブジェクトに基づく視点切り替えを説明するための図である。 同実施形態に係るユーザ位置の移動及び切り替えの一例を説明するための図である。 図12を示した配置のセンサ装置により撮像された撮像画像を用いたVRコンテンツの視点切り替えの一例を示す図である。 同実施形態に係るユーザ位置の移動及び視点の切り替えの一例を説明するための図である。 同実施形態に係るユーザ位置の移動及び視点の切り替えの一例を説明するための図である。 同実施形態に係る再生装置により実行される視点切り替え処理の流れの一例を示すフローチャートである。 第2の実施形態に係る記録装置の概要を説明するための図である。 同実施形態に係る再生装置の概要を説明するための図である。 同実施形態に係る記録装置の機能構成の一例を示すブロック図である。 同実施形態に係るコンテンツ構成情報のフォーマットの一例を示す図である。 同実施形態に係る記録装置により実行される記録処理の流れの一例を示すフローチャートである。 同実施形態に係る再生装置により実行される第1の空間インタラクション処理の流れの一例を示すフローチャートである。 同実施形態に係る第2の空間インタラクションの一例を説明するための図である。 同実施形態に係る再生装置により実行される第2の空間インタラクション処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.システム構成例
2.第1の実施形態
2.1.概要
2.2.記録装置側の技術的特徴
2.2.1.記録装置の機能構成例
2.2.2.コンテンツ構成情報のフォーマット
2.2.3.記録処理の流れ
2.3.再生装置側の技術的特徴
2.3.1.再生装置の機能構成例
2.3.2.空間インタラクション
2.3.3.視点切り替え
3.第2の実施形態
3.1.概要
3.2.記録装置側の技術的特徴
3.2.1.記録装置の機能構成例
3.2.2.コンテンツ構成情報のフォーマット
3.2.3.記録処理の流れ
3.3.再生装置側の技術的特徴
3.3.1.再生装置の機能構成例
3.3.2.空間インタラクション
4.補足
5.ハードウェア構成例
6.まとめ
<<1.システム構成例>>
図1は、本開示の一実施形態に係るコンテンツ配信システム1の構成の一例を示す図である。図1に示すように、コンテンツ配信システム1は、記録装置10及び再生装置20を含み、記録装置10と再生装置20とはネットワーク30を介して接続される。
記録装置10は、再生装置20において再生されるVRコンテンツのための情報を取得及び記録し、再生装置20へ送信する情報処理装置である。例えば、記録装置10は、実空間を撮像した撮像画像(動画/静止画)及び当該実空間の深度情報を、再生装置20へ送信する。記録装置10は、記録を省略して、取得した情報をリアルタイムに送信してもよい。
動画とは、複数の静止画像(画像データ)及び各々の静止画の再生時刻を含むデータである。動画が再生される際には、再生時刻の順に静止画が連続的に再生される。動画を構成する静止画は、フレームとも称される。動画の表示速度は、フレームレートとも称され、1秒間当たりに表示されるフレームの数(FPS:Frame Per Second)で表される。動画は、画像データの再生と共に再生されるべき音声データを含んでいてもよい。
記録装置10から再生装置20へ送信される撮像画像は、動画であるものとする。
再生装置20は、記録装置10から受信した情報に基づいて、VRコンテンツの再生を制御する情報処理装置である。例えば、再生装置20は、記録装置10から受信した情報に基づいてVRコンテンツを生成し、VRコンテンツを視覚的に出力させると共に、VRコンテンツに対するユーザ操作に対応するフィードバックを出力装置により出力させる。
VRコンテンツとは、仮想空間に各種仮想オブジェクトが配置されたコンテンツである。仮想オブジェクトとは、仮想空間内に配置される仮想的な物体である。仮想オブジェクトには、仮想オブジェクト同士の衝突判定に用いられる要素が付与される。この要素は、コライダーと称される場合がある。コライダーは、仮想オブジェクトに重ね合わせるように配置されて、コライダー同士の衝突判定により仮想オブジェクト同士の衝突判定が行われる。なお、仮想オブジェクトは表示されるが、コライダーは典型的には表示されない(即ち、不可視である)。これは、コライダーが衝突判定に用いられる要素であることに起因する。もちろん、コライダーを表示する設定がなされてもよく、その場合にはコライダーは表示される。
ネットワーク30は、ネットワーク30に接続されている装置から送信される情報の有線又は無線の伝送路である。ネットワーク30は、例えば、インターネット、LAN(Local Area Network)、無線LAN、又はセルラー通信ネットワーク等により実現される。
<<2.第1の実施形態>>
第1の実施形態は、仮想空間内に配置された撮像画像内の実オブジェクトに、当該実オブジェクトの表面の三次元位置情報を対応付けることで、仮想空間における当該実オブジェクトの表面と仮想オブジェクトとの三次元的な空間インタラクションを実現する形態である。
<2.1.概要>
(1)記録装置の概要
図2は、本実施形態に係る記録装置10の記録装置の概要を説明するための図である。図2では、記録装置10による情報の記録対象となる空間の一例が示されている。図2に示すように、本空間では、観客席17にいる大勢の観客の前で、ステージ16上で演者18がパフォーマンスしている。本空間には、記録装置10による記録に関与する装置として、第1のセンサ装置11、及び第2のセンサ装置12(12A及び12B)が設置されている。また、本空間には、モニタ15も配置されている。
・第1のセンサ装置11
第1のセンサ装置11は、VRコンテンツにおいて空間インタラクションの対象となる実オブジェクトを含む、実空間をセンシングする装置である。実オブジェクトとは、実空間に存在する物体である。第1のセンサ装置11は、撮像装置及びデプスセンサを備える。撮像装置は、実空間の実オブジェクト(即ち、被写体)を撮像し、撮像画像を取得する装置である。撮像装置は、例えば単眼カメラ、ステレオカメラ又は赤外線カメラ等により実現される。撮像される画像は、2次元画像、全天球(360度)画像、半天球(180度)画像又はその他の任意の撮像範囲を有する画像である。以下では、撮像装置はステレオカメラにより実現され、立体視することが可能なステレオ全天球画像が撮像されるものとする。また、以下では撮像装置をVRカメラとも称する。デプスセンサは、実空間の実オブジェクトの深度情報を検出する装置である。深度情報とは、センサの光軸方向(奥行き)の測定値である。デプスセンサとしては、例えば、Light Coding、Time of Flight、又はInfrared Depth等の任意の方式のセンサが採用され得る。
第1のセンサ装置11は、例えば、モニタ15の中央に設置されて、比較的近距離から演者18を含むステージ16上をセンシングする。ステージ16及び演者18は、VRコンテンツにおいて空間インタラクションの対象となる実オブジェクトである。
・第2のセンサ装置12
第2のセンサ装置12は、実空間をセンシングする装置である。第2のセンサ装置12は、撮像装置を備える。撮像装置については、第1のセンサ装置11に関し上記説明した通りである。第2のセンサ装置12は、観客席に設置されて、比較的遠距離から演者18を含むステージ16上をセンシングする。
・モニタ15
モニタ15は、再生装置20によるVRコンテンツの提供を受けているユーザの様子を表示する表示装置である。このため、演者18は、実際に目の前にいる観客とネットワーク30越しに自身を鑑賞している観客とを視認しながら、パフォーマンスすることができる。
以上、記録対象の空間に設置される装置について説明した。
記録装置10は、第1のセンサ装置11及び第2のセンサ装置12によるセンシング結果に基づいて、再生装置20側でVRコンテンツを構成するための各種情報を含むコンテンツ構成情報を生成する。そして、記録装置10は、生成したコンテンツ構成情報を再生装置20へ送信する。
なお、第1のセンサ装置11によるセンシング結果は、後述する空間インタラクションが可能なVRコンテンツの生成、及び後述する視点切り替えのために用いられる。第2のセンサ装置12によるセンシング結果は、後述する視点切り替えのために用いられる。
(2)再生装置の概要
図3は、本実施形態に係る再生装置20の概要を説明するための図である。図3では、再生装置20によるVRコンテンツの再生に関与する装置として、HMD(Head Mounted Display)21及びコントローラ22が図示されている。
HMD21は、VRコンテンツを出力する出力装置である。HMD21は、画像を表示可能な表示部がユーザの眼の前に位置するようにして、ユーザの頭部に装着される。そして、HMD21は、VRコンテンツを表示しつつ、ユーザの頭の動きに合わせてVRコンテンツを回転又はズーム等させる。また、HMD21は、VRコンテンツへのユーザ操作に対応する視覚的/聴覚的/嗅覚的なフィードバックを出力する。出力装置は、HMD21の他にも、例えばスマートフォン又はタブレット端末等により実現されてもよい。
コントローラ22は、VRコンテンツに対するユーザ操作を受け付けつつ、ユーザ操作に対応する触覚フィードバックを出力する入出力装置である。図3に示した例では、コントローラ22は、スティック型装置であり、ユーザに把持され操作される。コントローラ22は、スティック型以外にも、例えばグローブ型等の任意の形状で実現され得る。コントローラ22の位置及び姿勢に基づいて、VRコンテンツが操作される。出力され得る触覚フィードバックとしては、例えば振動、電気刺激、又は力覚等が挙げられる。以下では、触覚フィードバックは、振動により実現されるものとする。
なお、本明細書において、位置とは、特に言及しない限り三次元位置であるものとする。また、姿勢とは、特に言及しない限り6自由度(6DoF)の姿勢であるものとする。
以上、再生装置20によるVRコンテンツの再生に関与する装置について説明した。
再生装置20は、記録装置10から受信したコンテンツ構成情報に基づいて、VRコンテンツを生成する。ここで、図2に示した第1のセンサ装置11及び第2のセンサ装置12は、記録対象の空間における視点に対応する。ユーザは、記録対象の空間における視点を自由に選択して、任意の視点から記録対象の空間を見たVRコンテンツの提供を受けることができる。視点の切り替えは、再生するVRコンテンツを切り替えることにより行われる。詳しくは、視点の切り替えは、再生するVRコンテンツの元となるコンテンツ構成情報がどのセンサ装置(第1のセンサ装置11又は第2のセンサ装置12)のセンシング結果に基づいて生成されるか、を切り替えることにより実現される。
本実施形態に係るVRコンテンツでは、仮想オブジェクトのひとつとして、実空間を撮像した撮像画像が仮想空間内に配置され、表示される。さらに、本実施形態に係るVRコンテンツでは、仮想空間内に配置された撮像画像内の実オブジェクトに、当該実オブジェクトの三次元位置を示す三次元位置情報が対応付けられる。これにより、仮想空間内に配置された撮像画像に含まれる実オブジェクトが関与する空間インタラクションを実現することが可能となる。以下、この点について詳しく説明する。
図3に示すように、HMD21は、再生装置20により生成されたVRコンテンツ40を表示する。VRコンテンツ40では、仮想空間に、図2に示したステージ16上の演者18を含む撮像画像が配置され表示されており、且つ、撮像画像内のステージ16及び演者18の各々に三次元位置情報が対応付けられている。
ユーザがコントローラ22を操作すると、実空間におけるコントローラ22の位置及び姿勢に応じて、仮想空間における操作体41の位置及び姿勢が変化する。操作体41は、仮想空間におけるユーザの操作位置を示す仮想オブジェクトである。再生装置20は、仮想空間における操作体41の位置とステージ16又は演者18に対応付けられた三次元位置情報とに基づいて、仮想空間における操作体41とステージ16又は演者18との衝突を判定する。そして、再生装置20は、衝突したと判定した場合には、衝突に対応する視覚的/聴覚的/嗅覚的なフィードバックをHMD21に出力させ、衝突に対応する触覚フィードバックをコントローラ22に出力させる。
このように、本実施形態に係るコンテンツ配信システム1によれば、仮想空間内に配置された撮像画像内の実オブジェクトが関与する空間インタラクションを実現することが可能となる。
<2.2.記録装置側の技術的特徴>
<2.2.1.記録装置の機能構成例>
図4は、本実施形態に係る記録装置10の機能構成の一例を示すブロック図である。図4に示すように、記録装置10は、画像取得部110、ストリーミング処理部120、深度情報取得部130、表面モデル取得部140、コンテンツ構成情報生成部150及び送信部160を含む。
また、図4では第1のセンサ装置11及び第2のセンサ装置12の機能構成の一例も図示されている。図4に示すように、第1のセンサ装置11は、VRカメラ101及びデプスセンサ102を含み、第2のセンサ装置12はVRカメラ101を含む。記録装置10は、ひとつ以上の第1のセンサ装置11、及びひとつ以上の第2のセンサ装置12に接続され得る。
以下、これらの機能構成について説明する。
(1)第1のセンサ装置11
VRカメラ101及びデプスセンサ102に関しては、図2を参照しながら上記説明した通りであるので、説明を省略する。
(2)第2のセンサ装置12
VRカメラ101に関しては、図2を参照しながら上記説明した通りであるので、説明を省略する。
(3)記録装置10
(画像取得部110)
画像取得部110は、第1のセンサ装置11又は第2のセンサ装置12に含まれるVRカメラ101から、実空間の実オブジェクトを含む撮像画像を取得する機能を有する。ここで、撮像画像を取得するとは、撮像画像のデータを受信すること、又はメモリ等の所定の記録媒体に記録された撮像画像データを読み出すこと等を指す。VRカメラ101がステレオカメラである場合、画像取得部110は、左右2枚の撮像画像(左側の撮像画像であるL画像及び右側の撮像画像であるR画像)から成るステレオ画像(ステレオの全天球画像)を、撮像画像として取得する。画像取得部110は、取得した撮像画像をストリーミング処理部120に出力する。
(ストリーミング処理部120)
ストリーミング処理部120は、画像取得部110により取得された撮像画像のストリーミング処理を行う機能を有する。例えば、ストリーミング処理部120は、撮像時刻時順に撮像画像をコンテンツ構成情報生成部150に出力する。
(深度情報取得部130)
深度情報取得部130は、第1のセンサ装置11に含まれるデプスセンサ102から、実空間の実オブジェクトの深度情報を取得する機能を有する。ここでの深度情報とは、例えばデプス画像である。深度情報取得部130は、取得した深度情報を表面モデル取得部140に出力する。
(表面モデル取得部140)
表面モデル取得部140は、深度情報取得部130により取得された深度情報に基づいて、実オブジェクトの表面モデルを取得する機能を有する。実オブジェクトの表面モデルとは、実オブジェクトの表面の点であって、三次元位置情報が対応付けられた点を、複数含む点群の情報を含む三次元モデルデータである。ここでの三次元位置情報とは、デプスセンサ102の位置に基づき設定される原点とデプスセンサ102の姿勢に基づき設定される座標軸とにより定義される、デプスセンサ102の座標系における位置を示す情報である。表面モデルは、実オブジェクトの表面の点群の三次元位置情報(被写体三次元位置情報に相当)であるとも捉えることができる。ここでの点群とは、例えば、深度情報取得部130により取得されたデプス画像における画素を複数含む画素群である。なお、点群の解像度は任意である。撮像画像内の実オブジェクトの解像度よりも、当該実オブジェクトに対応する点群の解像度が低くてもよい。その場合、撮像画像全体を点群で構成する(即ち、撮像画像をポイントクラウドで表現する)場合よりも、伝送データ量を削減することが可能になると共に、ユーザが視認する実オブジェクトの解像度を高くすることが可能となる。もちろん、本技術において、撮像画像がポイントクラウドとして表現されてもよい。
表面モデルは、所定の条件を満たす実オブジェクトの、表面の点群の三次元位置情報であってもよい。所定の条件を満たす実オブジェクトとは、例えば、VRコンテンツにおいて空間インタラクションに関与させる実オブジェクトであり、図2に示した例におけるステージ16及び演者18である。この場合、所定の条件とは、空間インタラクションに関与させる実オブジェクトであることであり、具体的には、動体であること、所定の閾値を超える大きさの面を有すること、又は前景であること等である。例えば、表面モデル取得部140は、デプス画像に画像認識等を適用することで、所定の条件を満たす実オブジェクトを特定する。そして、表面モデル取得部140は、デプス画像から、所定の条件を満たす実オブジェクトの表面の点群を抽出し他を削除することで、所定の条件を満たす実オブジェクトの表面の点群の三次元位置情報から成る表面モデルを取得する。これにより、表面モデルを形成する点の数を、空間インタラクションに関与する実オブジェクトに対応する点に限定して削減することが可能となるので、コンテンツ構成情報の記録装置10から再生装置20への伝送遅延を防止することが可能となる。
表面モデル取得部140は、演者18の手等の、インタラクションの発生が想定される領域を事前に画像認識処理により検出し、伝送遅延の軽減に用いてもよい。例えば、表面モデル取得部140は、インタラクションの発生が想定される領域のみを対象に、表面モデルを生成し、コンテンツ構成情報に記録してもよい。
表面モデル取得部140は、演者18の手以外の体の所定部位等の、インタラクションの発生を避けるべき領域を画像認識処理により事前に検出し、伝送遅延の軽減に用いてもよい。例えば、表面モデル取得部140は、インタラクションの発生を避けるべき領域については、表面モデルの生成対象外としてコンテンツ構成情報に当該部位の表面モデル情報を記録することを禁止してもよい。
表面モデルは、コンテンツ構成情報の伝送速度に応じた数の点の三次元位置情報であってもよい。その場合、表面モデル取得部140は、表面モデルを形成する点群が、伝送速度に応じた所定の粒度になるまで間引く。例えば、表面モデル取得部140は、伝送速度が遅ければ点群から多くの点を間引き、伝送速度が早ければ点群から少ない数の点を間引く。これにより、コンテンツ構成情報の記録装置10から再生装置20への伝送遅延を過不足なく防止することが可能となる。
また、表面モデル取得部140は、点群のノイズを除去してもよい。ここで、ノイズとは、例えば他と著しく離れた点である。点群に含まれる点の数を削減することで、記録装置10から再生装置20への伝送における遅延を軽減することが可能となる。このようにして、実オブジェクトの表面モデルが生成される。
(コンテンツ構成情報生成部150)
コンテンツ構成情報生成部150は、ストリーミング処理部120及び表面モデル取得部140からの出力に基づいて、コンテンツ構成情報を生成する機能を有する。コンテンツ構成情報生成部150は、生成したコンテンツ構成情報を送信部160に出力する。
コンテンツ構成情報は、再生装置20側でVRコンテンツを構成するための各種情報を含む情報である。コンテンツ構成情報生成部150は、撮像画像、及び表面モデル、並びにこれらの情報に基づいて再生装置20側でVRコンテンツを構成するための各種情報をコンテナ化することで、コンテンツ構成情報を生成する。コンテンツ構成情報は、撮像画像、表面モデル、及び撮像画像内の実オブジェクトと表面モデルとを関連付ける仮想空間関連付け情報を含む。仮想空間関連付け情報は、仮想空間内に表示される撮像画像内の実オブジェクトが関与するインタラクションに用いられる情報である。コンテンツ構成情報のフォーマットについては後述する。
コンテンツ構成情報生成部150は、再生装置20側で選択された視点に対応するコンテンツ構成情報を生成する。詳しくは、コンテンツ構成情報生成部150は、再生装置20側で選択された視点に対応するセンサ装置(第1のセンサ装置11又は第2のセンサ装置12)によるセンシング結果に基づいて、コンテンツ構成情報を生成する。
(送信部160)
送信部160は、他の装置に情報を送信する機能を有する。具体的には、送信部160は、コンテンツ構成情報生成部150により生成されたコンテンツ構成情報を、再生装置20に送信する。
<2.2.2.コンテンツ構成情報のフォーマット>
図5は、本実施形態に係るコンテンツ構成情報のフォーマットの一例を示す図である。図5に示すように、コンテンツ構成情報は、VR用画像情報及び空間インタラクション構成情報を含む。図5では、フレーム番号が1からnのフレームの画像及び表面モデルをコンテナ化した、コンテンツ構成情報のフォーマットが示されている。以下、フォーマットについて詳しく説明する。
・VR用画像情報
VR用画像情報は、ストリーミング処理部120から出力される画像とそれに関連する情報とを含む。
VR用画像情報は、フレームごとのL画像(ステレオ画像における左側の画像)とそのフレーム番号、及びフレームごとのR画像(ステレオ画像における右側の画像)とそのフレーム番号を含む。フレーム番号は、画像の撮像時刻に対応する情報であり、仮想空間関連付け情報に相当する。
VR用画像情報は、画像のメタデータを含む。メタデータは、コンテンツIDを含む。コンテンツIDは、VRコンテンツの識別情報である。コンテンツIDは、記録対象の空間における視点を示す情報とも捉えられてもよい。換言すると、コンテンツIDは、撮像画像がどのセンサ装置(VRカメラ101)により撮像されたかを示す情報、即ち撮像画像を撮像したセンサ装置の識別情報であってもよい。このコンテンツIDは、撮像画像と表面モデルとを関連付ける識別情報であり、仮想空間関連付け情報に相当する。
・空間インタラクション構成情報
空間インタラクション構成情報は、フレームごとの表面モデル、表面モデルの属性情報及びフレーム番号を含む。フレームごとの表面モデルとは、フレームごとの画像に含まれる実オブジェクトの表面モデルである。即ち、空間インタラクション構成情報は、フレームごとの画像に含まれる実オブジェクトの表面の複数の点の三次元位置情報を含む。属性情報とは、反発係数、摩擦係数及び法線方向等の、フレームごとの画像に含まれる実オブジェクトの物理係数を示す情報である。属性情報は、表面モデルに含まれる点ごとに設定され得る。フレーム番号は、表面モデルの検出時刻(即ち、深度情報の検出時刻)に対応する情報であり、仮想空間関連付け情報に相当する。ある時刻に撮像された撮像画像のフレーム番号と同一時刻に検出された表面モデルのフレーム番号とは、一致することが望ましい。これにより、撮像画像と表面モデルとの時系列的な同期(以下、タイミング同期とも称する)を確立することが容易になる。
空間インタラクション構成情報は、メタデータを含む。メタデータは、コンテンツID、視点切り替えオブジェクト情報、センサ装置位置姿勢情報、及びフィードバック設定情報を含む。
コンテンツIDは、VRコンテンツの識別情報である。コンテンツIDは、記録対象の空間における視点を示す情報とも捉えられてもよい。換言すると、コンテンツIDは、表面モデルがどのセンサ装置(デプスセンサ102)により検出された深度情報に基づいて生成されたかを示す情報、即ち深度情報を検出したセンサ装置の識別情報であってもよい。このコンテンツIDは、撮像画像と表面モデルとを関連付ける識別情報であり、仮想空間関連付け情報に相当する。
視点切り替えオブジェクト情報は、視点切り替えオブジェクトに関する情報であり、視点切り替えのために用いられる。視点切り替えオブジェクトとは、視点切り替えのためのコライダーが対応付けられる仮想オブジェクトである。視点切り替えオブジェクト情報は、視点切り替えオブジェクトのID、視点切り替えオブジェクトの三次元位置情報、及び視点切り替えオブジェクトに対応付けられるコンテンツIDを含む。このコンテンツIDは、当該視点切り替えオブジェクトに基づく視点の切り替えが行われる場合の、切り替え先のVRコンテンツのコンテンツIDである。
センサ装置位置姿勢情報とは、撮像画像を撮像した撮像装置の座標系及び表面モデル(即ち、深度情報)を検出したセンサの座標系に関する情報であり、仮想空間関連付け情報に相当する。即ち、本実施形態に係るセンサ装置位置姿勢情報とは、VRカメラ101の座標系及びデプスセンサ102の座標系に関する情報である。VRカメラ101の座標系は、VRカメラ101の位置に基づき設定される原点とVRカメラ101の姿勢に基づき設定される座標軸とにより定義される。デプスセンサ102の座標系は、デプスセンサ102の位置に基づき設定される原点とデプスセンサ102の姿勢に基づき設定される座標軸とにより定義される。
センサ装置位置姿勢情報は、これらの座標系を定義する情報である、VRカメラ101及びデプスセンサ102の位置及び姿勢を示す情報を含んでいてもよい。また、センサ装置位置姿勢情報は、VRカメラ101及びデプスセンサ102の位置の差分及び姿勢の差分等の、これらの座標系のずれを示す情報を含んでいてもよい。センサ装置位置姿勢情報は、例えば、VRカメラ101及びデプスセンサ102の設置状況に基づいて、手動で設定されてもよい。また、センサ装置位置姿勢情報は、認識対象物をVRカメラ101で撮像し且つデプスセンサ102でセンシングしたときの、撮像画像における認識対象物の位置及び姿勢と、デプス画像における認識対象物の位置及び姿勢とを比較することで、取得されてもよい。なお、認識対象物としては、所定のチェッカーパターンが付されたパネル又は立方体器具等が挙げられる。
同一の第1のセンサ装置11に含まれるVRカメラ101及びデプスセンサ102であっても、位置及び姿勢にずれが生じ得る。このずれに起因して、再生装置20側でのVRコンテンツの構成時に、仮想空間内に配置された撮像画像内の実オブジェクトと当該実オブジェクトに対応付けられる表面モデルとにずれが生じ得る。この点、センサ装置位置姿勢情報がコンテンツ構成情報に含まれることにより、再生装置20側でずれを補正することが可能となる。
フィードバック設定情報とは、仮想空間内に表示される撮像画像内の実オブジェクトが関与するインタラクションが行われる場合のフィードバック内容を設定する情報である。フィードバック設定情報は、視覚的、触覚的、聴覚的、又は嗅覚的にフィードバックされる内容を設定する情報を含む。詳しくは、フィードバック設定情報は、視覚的にフィードバックされる内容を設定する視覚フィードバック設定情報を含み得る。視覚フィードバック設定情報は、例えば、衝突したときに表示されるべき、衝突したことを示すアイコンを示す情報等を含む。フィードバック設定情報は、触覚的にフィードバックされる内容を設定する触覚フィードバック設定情報を含む。触覚フィードバック設定情報は、例えば、衝突したときに出力されるべき、振動の周波数、振幅及び振動時間を示す情報等を含み得る。フィードバック設定情報は、聴覚的にフィードバックされる内容を設定する聴覚フィードバック設定情報を含み得る。聴覚フィードバック設定情報は、例えば、衝突したときに出力されるべき音を示す情報等を含む。フィードバック設定情報は、嗅覚的にフィードバックされる内容を設定する嗅覚フィードバック設定情報を含み得る。嗅覚フィードバック設定情報は、例えば、衝突したときに出力されるべき、火薬又は香水等の匂いを示す情報を含む。フィードバック設定情報は、仮想空間における視点移動の際にフィードバックされる内容を設定する視点移動設定情報を含む。視点移動設定情報は、例えば、視点切り替え位置を指定する情報、及び視点移動後の視界の回転量を指定する情報を含む。フィードバック設定情報がコンテンツ構成情報に含まれることにより、VRコンテンツの制作者が意図するフィードバックをユーザに提供することが可能となる。
ここで、撮像画像内に空間インタラクションに関与する実オブジェクトが複数含まれる場合、空間インタラクション構成情報は、表面モデル、表面モデルの属性情報、及びメタデータのセットを、実オブジェクト毎に含んでいてもよい。また、空間インタラクション構成情報は、実オブジェクト毎に、フィードバック設定情報を含んでいてもよい。その場合、これらの実オブジェクト毎の情報に対しては、実オブジェクトの識別情報が対応付けられる。
また、フレーム間で表面モデルが流用されてもよい。その場合、空間インタラクション情報は、流用される表面モデル、及び当該表面モデルを流用する期間を識別するための情報を含む。例えば、所定時間の間動かない実オブジェクトがある場合、コンテンツ構成情報生成部150は、当該所定時間の開始フレームに対応付けて表面モデルを記録すると共に、その表面モデルを流用する時間情報(例えば、当該所定時間の終了フレーム)を記録する。これにより、伝送量を削減することができるので、伝送遅延を軽減することが可能となる。
<2.2.3.記録処理の流れ>
図6は、本実施形態に係る記録装置10により実行される記録処理の流れの一例を示すフローチャートである。図6に示すように、まず、画像取得部110は実空間の撮像画像を取得し、深度情報取得部130は深度情報を取得する(ステップS102)。
その後、表面モデル取得部140は、深度情報に基づいて表面モデルを生成する。詳しくは、表面モデル取得部140は、深度情報に基づいて、所定の条件を満たす実オブジェクトの表面を形成する点群(例えば、画素群)を抽出する(ステップS104)。ここでの所定の条件とは、例えば、動体であること、所定の閾値を超える大きさの面を有すること、前景であること、インタラクションの発生が想定される領域であること、及び/又はインタラクションの発生を避けるべき領域でないこと等である。次に、表面モデル取得部140は、点群が所定の粒度になるまで点を間引く(ステップS106)。次いで、表面モデル取得部140は、フレーム単位で点群のノイズを除去する(ステップS108)。このようにして、表面モデル取得部140は、表面モデルを生成する。
そして、コンテンツ構成情報生成部150は、撮像画像と表面モデルとに基づいてコンテンツ構成情報を生成する(ステップS110)。その後、送信部160は、コンテンツ構成情報を再生装置20へ送信する(ステップS112)。
<2.3.再生装置側の技術的特徴>
<2.3.1.再生装置の機能構成例>
図7は、本実施形態に係る再生装置20の機能構成の一例を示すブロック図である。図7に示すように、再生装置20は、受信部210、コンテンツ構成情報解析部220、タイミング同期部230、座標変換部240、仮想オブジェクト制御部250、出力制御部260、及び選択部270を含む。
また、図7では、HMD21及びコントローラ22の機能構成の一例も図示されている。図7に示すように、HMD21は、表示部201、位置姿勢検出部202、音声出力部203及び音声入力部204を含み、コントローラ22は、位置姿勢検出部205及び振動出力部206を含む。
以下、これらの機能構成について説明する。
(1)HMD21
(表示部201)
表示部201は、VRコンテンツを表示する機能を有する。表示部201は、出力制御部260による制御に基づき、VRコンテンツを表示する。例えば、表示部201は、LCD(Liquid Crystal Display)またはOLED(Organic Light-Emitting Diode)等により実現され得る。
(位置姿勢検出部202)
位置姿勢検出部202は、HMD21(即ち、HMD21を装着したユーザの頭部)の位置及び姿勢を検出する機能を有する。例えば、位置姿勢検出部202は、ジャイロセンサ及び加速度センサを含み、角速度に基づいて姿勢を検出し、角速度及び加速度を用いたINS(inertial navigation system)演算により位置を検出する。位置姿勢検出部202は、検出したHMD21の位置及び姿勢を示す情報を、再生装置20の出力制御部260に出力する。
(音声出力部203)
音声出力部203は、VRコンテンツに関する音声を出力する機能を有する。例えば、音声出力部203は、スピーカ又はイヤホン、アンプ及びDAC(Digital Analog Converter)等を含む。音声出力部203は、出力制御部260による制御に基づいて4音声を再生する。
(音声入力部204)
音声入力部204は、ユーザの音声を入力する機能を有する。例えば、音声入力部204は、マイク、マイクアンプ及びADC(Analog Digital Converter)等を含み、ユーザの音声を示すデジタル信号を生成する。音声入力部204は、入力されたユーザの音声を示す情報を、仮想オブジェクト制御部250に出力する。
(2)コントローラ22
(位置姿勢検出部205)
位置姿勢検出部205は、コントローラ22の位置及び姿勢を検出する機能を有する。例えば、位置姿勢検出部205は、ジャイロセンサ及び加速度センサを含み、角速度に基づいて姿勢を検出し、角速度及び加速度を用いたINS(inertial navigation system)演算により位置を検出する。位置姿勢検出部205は、検出したコントローラ22の位置及び姿勢を示す情報を、仮想オブジェクト制御部250に出力する。
(振動出力部206)
振動出力部206は、振動を出力する機能を有する。振動出力部206は、出力制御部260による制御に基づいて振動を出力する。例えば、振動出力部206は、偏心モータ、LRA(Linear Resonant Actuator)又はVCM(Voice Coil Motor)等により実現され得る。
(3)再生装置20
(受信部210)
受信部210は、他の装置から情報を受信する機能を有する。より詳しくは、受信部210は、記録装置10から、コンテンツ構成情報を取得する取得部として機能する。受信部210は、選択中の視点に対応するコンテンツ構成情報、即ち選択中の視点に対応する第1のセンサ装置11又は第2のセンサ装置12によるセンシング結果に基づいて生成されたコンテンツ構成情報を受信する。受信部210は、受信したコンテンツ構成情報を、コンテンツ構成情報解析部220に出力する。
(コンテンツ構成情報解析部220)
コンテンツ構成情報解析部220は、コンテンツ構成情報から各種情報を抽出する機能を有する。例えば、コンテンツ構成情報解析部220は、コンテンツ構成情報からVR用画像情報及び空間インタラクション構成情報を分離及び抽出して、それぞれ出力する。
(タイミング同期部230)
タイミング同期部230は、VR用画像情報に含まれる撮像画像と空間インタラクション構成情報に含まれる表面モデルとのタイミング同期を確立する機能を有する。詳しくは、タイミング同期部230は、撮像画像と、当該撮像画像の撮像時刻と同一時刻を検出時刻とする表面モデルと、を対応付けることで、撮像画像と表面モデルとのタイミング同期を確立する。その際、タイミング同期部230は、撮像画像のフレーム番号と表面モデルのフレーム番号に基づいて、撮像画像と表面モデルとのタイミング同期を確立する。タイミング同期部230は、タイミング同期が確立された撮像画像と表面モデルとを、即ち撮像画像と当該撮像画像の撮像時刻と同一時刻を検出時刻とする表面モデルとを、座標変換部240に出力する。
(座標変換部240)
座標変換部240は、VR用画像情報に含まれる撮像画像と空間インタラクション構成情報に含まれる表面モデルとの座標系の同期を確立する機能を有する。座標変換部240は、表面モデルに対し、センサ装置位置姿勢情報が示すVRカメラ101の座標系とデプスセンサ102の座標系とのずれを補正するための、座標変換処理を適用する。具体的には、座標変換部240は、表面モデルを形成する点群の三次元位置を、VRカメラ101の位置に基づき設定される原点とVRカメラ101の姿勢に基づき設定される座標軸とにより定義される、VRカメラ101の座標系における三次元位置に変換する。これにより、仮想空間内に配置された撮像画像内の実オブジェクトと当該実オブジェクトの表面モデルとの三次元位置を合わせることが可能となる。座標変換部240は、タイミング同期及び座標系の同期が確立された撮像画像と表面モデルとを、出力制御部260及び仮想オブジェクト制御部250に出力する。
(仮想オブジェクト制御部250)
仮想オブジェクト制御部250は、仮想オブジェクトに関する各種制御を行う機能を有する。
・位置及び姿勢の制御
仮想オブジェクト制御部250は、仮想オブジェクトの位置及び姿勢を制御する。詳しくは、仮想オブジェクト制御部250は、仮想オブジェクトの位置及び姿勢を演算する。操作体41に関しては、仮想オブジェクト制御部250は、位置姿勢検出部205から出力されたコントローラ22の位置及び姿勢を示す情報に基づいて、操作体41の位置及び姿勢を演算する。
仮想オブジェクト制御部250は、仮想オブジェクトに関する物理演算を行う。例えば、仮想オブジェクト制御部250は、仮想オブジェクト同士が衝突したり、仮想オブジェクトが投げられたりした場合に、当該仮想オブジェクトの仮想空間での移動を演算して、移動後の仮想オブジェクトの位置及び姿勢を演算する。なお、仮想空間内に配置された撮像画像内の実オブジェクトが関与する物理演算には、当該実オブジェクトに対応付けられた物理係数等の属性情報が加味される。
仮想オブジェクト制御部250は、仮想オブジェクトの位置及び姿勢の演算結果を出力制御部260に出力する。
・コライダーの対応付け
仮想オブジェクト制御部250は、仮想オブジェクトにコライダーを対応付ける。とりわけ、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内の実オブジェクトにコライダーを対応付ける。これにより、仮想空間内に配置された撮像画像内の実オブジェクトと他の仮想オブジェクトとの衝突の検出が可能となる。以下、コライダーの対応付けについて詳しく説明する。
仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像に対し、当該撮像画像とのタイミング同期及び座標系の同期が確立された表面モデルを、対応付ける。より簡易には、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内の実オブジェクトに、当該実オブジェクトの表面モデルを対応付ける。
仮想オブジェクト制御部250は、仮想空間内に配置された表面モデルに、より詳しくは表面モデルを構成する点の各々に、コライダーを対応付ける。詳しくは、仮想オブジェクト制御部250は、コライダーの三次元位置情報として、表面モデルの三次元位置情報を用いる。これにより、仮想空間内に配置された撮像画像内の実オブジェクトの当たり判定が可能となる。
さらに、仮想オブジェクト制御部250は、仮想空間内に配置された表面モデルに、物理係数等の属性情報を対応付ける。これにより、仮想空間内に配置された撮像画像内の実オブジェクトと仮想オブジェクトとの衝突時の感触及び跳ね返り等の表現が可能となる。
・衝突検出
仮想オブジェクト制御部250は、仮想オブジェクト同士の衝突を検出する衝突検出部としての機能も有する。例えば、仮想オブジェクト制御部250は、仮想オブジェクトに対応付けられたコライダー同士の衝突判定により、仮想オブジェクト同士の衝突を検出する。
仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内の実オブジェクトと仮想オブジェクトとの衝突も検出する。その場合、仮想オブジェクト制御部250は、表面モデルと他の仮想オブジェクトの三次元位置情報とに基づいて、仮想空間内に表示された撮像画像内の実オブジェクトと他の仮想オブジェクトとの衝突を検出する。詳しくは、仮想オブジェクト制御部250は、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内の実オブジェクトに対応付けられた表面モデルに対応付けられたコライダーと仮想オブジェクトに対応付けられたコライダーとの衝突を検出する。
仮想オブジェクト制御部250は、仮想オブジェクトの位置及び姿勢の時系列変化に基づいて、衝突時の相対速度、及び衝突角度等の衝突状況に関する情報を取得し得る。
仮想オブジェクト制御部250は、衝突の有無及び衝突状況に関する情報を、出力制御部260に出力する。
・その他
仮想オブジェクト制御部250は、音声入力部204に入力されたユーザの音声指示に基づいて、仮想オブジェクトを制御してもよい。例えば、仮想オブジェクト制御部250は、ユーザの音声を示すテキスト情報から成る仮想オブジェクトを生成して仮想空間内で移動させたり、ユーザに対応するアバターの仮想オブジェクトの口を動かしたりする。
(出力制御部260)
出力制御部260は、コンテンツ構成情報に基づき、仮想空間内に撮像画像を表示する機能を有する。例えば、出力制御部260は、仮想空間内に撮像画像を配置することで、仮想空間内に撮像画像を表示する。
出力制御部260は、位置姿勢検出部202から出力されたHMD21の位置及び姿勢を示す情報に基づいて、仮想空間におけるユーザ位置を移動させたり、視界を回転させたりする。仮想空間におけるユーザ位置の移動は、仮想空間内に配置された撮像画像のズームイン/ズームアウトにより実現され得る。即ち、仮想空間におけるユーザ位置の移動は、ユーザ位置の移動ベクトルとは逆のベクトルに、仮想空間内で撮像画像を移動させることにより実現される。仮想空間における視界の回転は、仮想空間内に配置した撮像画像のうち表示部201に表示させる領域を移動させることにより実現され得る。これらにより、ユーザは、VRコンテンツ内で自由に動き回り、360度ぐるりと回りを見渡す体験を享受することができる。
出力制御部260は、仮想オブジェクトの表示を制御する機能を有する。例えば、出力制御部260は、仮想オブジェクト制御部250により演算された位置及び姿勢で、仮想オブジェクトを表示する。
出力制御部260は、コンテンツ構成情報に基づき、仮想空間内に表示された撮像画像に含まれる実オブジェクトが関与するインタラクションに対応するフィードバックの出力を制御する機能を有する。例えば、出力制御部260は、仮想空間内に表示された撮像画像に含まれる実オブジェクトと他の仮想オブジェクトとの衝突が検出された場合、衝突に対応する視覚的、触覚的、聴覚的及び/又は嗅覚的なフィードバックのユーザに対する出力を制御する。
-視覚フィードバック
出力制御部260は、仮想オブジェクト同士の衝突が検出された場合、表示部201に視覚的なフィードバックを出力させてもよい。例えば、出力制御部260は、仮想空間内に配置された撮像画像内の実オブジェクトに操作体41が衝突した場合に、衝突したことを示す情報を表示部201により出力させる。出力制御部260は、表示部201に出力させる情報を、衝突状況に関する情報に基づいて制御してもよい。衝突した仮想オブジェクトの一方が、仮想空間内に配置された撮像画像内の実オブジェクトである場合、表示部201に出力させる情報は、表面モデルに対応付けられた物理係数及び/又は視覚フィードバック設定情報に基づいて決定される。
-触覚フィードバック
出力制御部260は、仮想オブジェクト同士の衝突が検出された場合、振動出力部206に触覚フィードバックを出力させてもよい。例えば、出力制御部260は、仮想空間内に配置された撮像画像内の実オブジェクトに操作体41が衝突した場合に、衝突したことを示す振動を振動出力部206により出力させる。出力制御部260は、振動出力部206に出力させる振動に関するパラメータを、衝突状況に関する情報に基づいて指定してもよい。振動に関するパラメータとしては、出力させる振動の周波数、振幅及び振動時間等が挙げられる。衝突した仮想オブジェクトの一方が、仮想空間内に配置された撮像画像内の実オブジェクトである場合、振動パラメータは、表面モデルに対応付けられた物理係数及び/又は触覚フィードバック設定情報に基づいて決定される。
-聴覚フィードバック
出力制御部260は、仮想オブジェクト同士の衝突が検出された場合、音声出力部203に聴覚フィードバックを出力させてもよい。例えば、出力制御部260は、仮想空間内に配置された撮像画像内の実オブジェクトに操作体41が衝突した場合に、衝突したことを示す音声を音声出力部203により出力させる。出力制御部260は、音声出力部203に出力させる音声に関するパラメータを、衝突状況に関する情報に基づいて指定してもよい。音声に関するパラメータとしては、再生させる音声の種類、及び音量等が挙げられる。衝突した仮想オブジェクトの一方が、仮想空間内に配置された撮像画像内の実オブジェクトである場合、音声に関するパラメータは、表面モデルに対応付けられた物理係数及び/又は聴覚フィードバック設定情報に基づいて決定される。
-嗅覚フィードバック
出力制御部260は、仮想オブジェクト同士の衝突が検出された場合、図示しない嗅覚出力デバイスに嗅覚フィードバックを出力させてもよい。例えば、出力制御部260は、仮想空間内に配置された撮像画像内の実オブジェクトに操作体41が衝突した場合に、衝突したことを示す匂いを嗅覚出力デバイスにより出力させる。出力制御部260は、嗅覚出力デバイスに出力させる匂いに関するパラメータを、衝突状況に関する情報に基づいて指定してもよい。匂いに関するパラメータとしては、匂いの種類、及び匂いの強さ等が挙げられる。衝突した仮想オブジェクトの一方が、仮想空間内に配置された撮像画像内の実オブジェクトである場合、匂いに関するパラメータは、表面モデルに対応付けられた物理係数及び/又は嗅覚フィードバック設定情報に基づいて決定される。
-補足
出力制御部260は、仮想オブジェクト同士の衝突が検出された後、所定の停止条件が成立するまでの間、視覚/触覚/聴覚/嗅覚フィードバックを出力させてもよい。所定の停止条件とは、例えば、衝突発生後に所定時間が経過すること、又は仮想オブジェクト同士の距離が所定距離を超えること等である。これにより、衝突の余韻をユーザに与えることが可能となる。
このようにして、仮想空間内に配置された撮像画像内の実オブジェクトが関与する視覚的、触覚的、聴覚的又は嗅覚的なインタラクションが実現される。
(選択部270)
選択部270は、視点を選択する(即ち、再生されるVRコンテンツを切り替える)機能を有する。より詳しくは、選択部270は、再生されるVRコンテンツの元となるコンテンツ構成情報を、どのセンサ装置によるセンシング結果に基づいて生成されたコンテンツ構成情報にするかを選択する。視点の選択は、例えばコンテンツIDの選択により行われる。選択部270は、選択結果を示す情報(例えば、コンテンツID)を記録装置10に送信し、受信するコンテンツ構成情報を切り替えてもよい。
<2.3.2.空間インタラクション>
(1)第1の空間インタラクション
第1の空間インタラクションは、仮想空間内に配置された撮像画像内の実オブジェクトとユーザとのインタラクションに関する。本インタラクションについては、図3を参照して上記説明した通りである。詳しくは、再生装置20は、仮想空間内に配置された撮像画像内の実オブジェクト(ステージ16又は演者18)とユーザが操作する操作体41とが衝突した場合に、衝突に対応する触覚フィードバックをコントローラ22により出力させる。このようなインタラクションに関する処理の流れを、図8を参照して説明する。
図8は、本実施形態に係る再生装置20により実行される第1の空間インタラクション処理の流れの一例を示すフローチャートである。図8に示すように、まず、受信部210は、選択中の視点に対応するコンテンツ構成情報を受信する(ステップS202)。次いで、コンテンツ構成情報解析部220は、コンテンツ構成情報からVR用画像情報及び空間インタラクション構成情報を抽出する(ステップS204)。次に、タイミング同期部230は、撮像画像と表面モデルとのタイミング同期を確立し、座標変換部240は、撮像画像と表面モデルとの座標系の同期を確立する(ステップS206)。次いで、出力制御部260は、仮想空間に撮像画像を配置する(ステップS208)。
次に、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像に対し、コライダー及び物理係数を対応付けた表面モデルを重ね合わせて配置する(ステップS210)。次いで、仮想オブジェクト制御部250は、コントローラ22の位置及び姿勢に基づいて、仮想空間における操作体41の位置及び姿勢を制御する(ステップS212)。次に、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内の実オブジェクトと操作体41との衝突有無を判定する(ステップS214)。詳しくは、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像に重ね合わされた表面モデルに対応付けられたコライダーと、操作体41に対応付けられたコライダーとの衝突有無を判定する。衝突していないと判定された場合(ステップS216/NO)、処理は再度ステップS202に戻る。衝突したと判定された場合(ステップS216/YES)、出力制御部260は、衝突に応じたフィードバックを出力する(ステップS218)。詳しくは、出力制御部260は、表面モデルに対応付けられた物理係数及びフィードバック設定情報に基づいて、ユーザへの視覚/触覚/聴覚/嗅覚フィードバックの出力を制御する。その後、処理は再度ステップS202に戻る。
(2)第2の空間インタラクション
第2の空間インタラクションは、仮想空間内に配置された撮像画像内の実オブジェクトと操作体41以外の仮想オブジェクトとのインタラクションに関する。本インタラクションに関して、図9を参照して詳しく説明する。
図9は、本実施形態に係る第2の空間インタラクションの一例を説明するための図である。図9に示したVRコンテンツ40では、仮想空間に、図2に示したステージ16上の演者18を含む撮像画像が配置されており、且つ、撮像画像内のステージ16及び演者18の各々に表面モデルが対応付けられている。ユーザは、コントローラ22を介して、仮想空間において仮想オブジェクトであるボール43の位置に操作体41を合わせて掴み、その後投げる操作を行うことができる。掴む操作が行われると、ボール43が操作体41の子オブジェクトとなり、操作体41がボール43の親オブジェクトとなる。子オブジェクトは、親オブジェクトに連動して動く。投げる操作が行われると、親子関係が解除されて、子オブジェクトは物理演算の結果に従って空中を移動する。ユーザがボール43を掴んで演者18に投げると、ボール43が演者18に衝突して跳ね返る。その際の視覚フィードバックとして、衝突したことを示すアイコン44が表示される。さらに、演者18から跳ね返ったボール43がステージ16に衝突して転がる。その際、出力制御部260は、ステージ16上にボール43の影を表示したり、転がる音を出力したりしてもよい。このようなインタラクションに関する処理の流れを、図10A及び図10Bを参照して説明する。
図10A及び図10Bは、本実施形態に係る再生装置20により実行される第2の空間インタラクション処理の流れの一例を示すフローチャートである。図10Aに示したステップS302~S312に係る処理は、図8に示したステップS202~S212に係る処理と同様である。その後、仮想オブジェクト制御部250は、ボール43と操作体41との衝突有無、及び掴む操作の有無を判定する(ステップS314)。詳しくは、仮想オブジェクト制御部250は、ボール43に対応付けられたコライダーと操作体41に対応付けられたコライダーとの衝突有無を判定し、掴む操作が入力されたか否かを判定する。衝突していない又は掴む操作が行われていないと判定された場合(ステップS316/NO)、処理は再度ステップS302に戻る。
衝突し、且つ掴む操作が行われたと判定された場合(ステップS316/YES)、図10Bに示すように、仮想オブジェクト制御部250は、ボール43を操作体41の子オブジェクトとし、出力制御部260は、ボール43が操作体41に付随して移動する様子を表示する(ステップS318)。次に、仮想オブジェクト制御部250は、ボール43を投げる操作が行われたか否かを判定する(ステップS320)。投げる操作が行われていないと判定された場合(ステップS320/NO)、処理は再度ステップS318に戻る。投げる操作が行われたと判定された場合(ステップS320/YES)、出力制御部260は、仮想オブジェクト制御部250による物理演算の結果に基づいて、投げられたボール43の空中移動を表示する(ステップS322)。次いで、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内の実オブジェクト(ステージ16又は演者18)とボール43との衝突有無を判定する(ステップS324)。衝突していないと判定された場合(ステップS326/NO)、処理は再度ステップS322に戻る。
衝突したと判定された場合(ステップS326/YES)、出力制御部260は、仮想オブジェクト制御部250による物理演算の結果に基づいて、ボール43が転がる様子を表示する(ステップS328)。例えば、仮想オブジェクト制御部250は、衝突したと判定されたコライダーに対応する点の属性情報に基づいて物理演算を行い、出力制御部260は、物理演算の結果に基づいて、ボール43が転がる軌跡を表示する。その際、出力制御部260は、表面モデルに対応づけられた物理係数及びフィードバック設定情報に基づいて、ユーザへの視覚/触覚/聴覚/嗅覚フィードバックの出力を制御してもよい。例えば、出力制御部260は、衝突したことを示すアイコンを表示し、ボールの影を表示し、ボールが転がる音を再生する。その後、処理は再度ステップS302に戻る。
<2.3.3.視点切り替え>
選択部270は、仮想空間におけるユーザ位置に対応するコンテンツ構成情報を、受信部210が取得すべきコンテンツ構成情報として選択する。つまり、選択部270は、仮想空間におけるユーザ位置に応じて、再生されるVRコンテンツを切り替える。選択部270は、視点切り替えオブジェクトに基づいて視点切り替えを実施する。以下、この点について詳しく説明する。
仮想オブジェクト制御部250は、視点切り替えオブジェクト情報に基づいて、仮想空間に視点切り替えオブジェクトを設定する。詳しくは、仮想オブジェクト制御部250は、視点切り替えオブジェクト情報において指定された三次元位置に視点切り替えオブジェクトを配置し、当該視点切り替えオブジェクトにコライダー、コンテンツID及び視点切り替え位置を対応付ける。このコンテンツIDは、当該視点切り替えオブジェクトに基づく視点の切り替えが行われる場合の、切り替え先のVRコンテンツのコンテンツIDである。視点切り替え位置は、仮想空間における所定の位置であり、視点移動設定情報として設定され得る。なお、視点切り替えオブジェクトは、典型的には非表示である。
仮想オブジェクト制御部250は、ユーザの視線と視点切り替えオブジェクトとの衝突を検出する。詳しくは、仮想オブジェクト制御部250は、視点切り替えオブジェクトに対応付けられたコライダーに基づいて、衝突を検出する。ここでのユーザの視線は、眼軸方向であってもよいし、顔の向きであってもよい。前者の場合、仮想オブジェクト制御部250は、ユーザの眼の撮像画像の画像認識結果に基づいて、ユーザの視線を認識する。後者の場合、仮想オブジェクト制御部250は、位置姿勢検出部202による検出結果に基づいて、ユーザの視線を認識する。
出力制御部260は、ユーザの視線と視点切り替えオブジェクトとの衝突が検出された場合、ユーザ位置を移動させる。詳しくは、出力制御部260は、仮想空間におけるユーザ位置を、当該視点切り替えオブジェクトに対応付けられた視点切り替え位置まで連続的に移動させる。この連続的なユーザ位置の移動は、視点切り替え位置に対応する倍率になるまで、仮想空間内に配置された撮像画像をズームイン/ズームアウトすることにより、行われる。なお、視点切り替え位置までのユーザ位置の移動は、首振り等のユーザ操作に基づいて行われてもよい。
そして、選択部270は、仮想空間におけるユーザ位置が視点切り替え位置に到達したことをトリガとして、選択するコンテンツ構成情報を切り替える。詳しくは、選択部270は、仮想空間内に配置された撮像画像のズームイン/ズームアウトの倍率が所定の倍率になった場合に、選択するコンテンツ構成情報を切り替える。選択部270は、到達した視点切り替え位置に対応する視点切り替えオブジェクトに対応付けられたコンテンツIDを、切り替え先のVRコンテンツのコンテンツIDとして選択する。即ち、選択部270は、到達した視点切り替え位置に対応する視点切り替えオブジェクトに対応付けられたコンテンツIDのコンテンツ構成情報を、再生するVRコンテンツを生成する元となるコンテンツ構成情報として選択する。
視点切り替え位置は、切り替え先のコンテンツ構成情報の元となる撮像画像を撮像した撮像装置(即ち、VRカメラ101)の位置に相当する仮想空間内の位置であることが望ましい。詳しくは、仮想空間における視点切り替え位置が、切り替え先のコンテンツ構成情報の元となった撮像画像を撮像したVRカメラ101の位置を仮想空間にマッピングしたときの位置と、一致する又は所定距離以内であることが望ましい。この場合、切り替え前後で、仮想空間に配置された撮像画像内の実オブジェクトまでの距離が同一となるので、切り替え前後で当該実オブジェクトのスケール感は同一となる。これにより、視点切り替えの際に、瞬間的に視点が移動したかのような違和感をユーザに与えることを防止することができる。
視点切り替えオブジェクトに基づく視点切り替えについて、図11を参照して詳しく説明する。
図11は、本実施形態に係る視点切り替えオブジェクトに基づく視点切り替えを説明するための図である。図11に示すように、VRコンテンツ#1が選択中の視点のVRコンテンツであるものとする。即ち、再生装置20は、VRコンテンツ#1を再生しているものとする。VRコンテンツ#1には、VRコンテンツ#2-1、#2-2、#2-3の各々が対応付けられた視点切り替えオブジェクトが配置されている。なお、VRコンテンツに付された「#」の直後の数字は選択された視点のレイヤーを示し、「-」の後の数字は同レイヤーにおけるインデックスである。VRコンテンツ#2-1に対応付けられた視点切り替えオブジェクトに基づく視点切り替えが行われると、再生装置20は、VRコンテンツ#2-1を再生する。VRコンテンツ#2-2に対応付けられた視点切り替えオブジェクトに基づく視点切り替えが行われると、再生装置20は、VRコンテンツ#2-2を再生する。VRコンテンツ#2-3に対応付けられた視点切り替えオブジェクトに基づく視点切り替えが行われると、再生装置20は、VRコンテンツ#2-3を再生する。その後も、同様にして視点の切り替えが行われる。
・具体例
以下、視点の切り替えの具体例について図12~図15を参照して具体的に説明する。
図12は、本実施形態に係るユーザ位置の移動及び切り替えの一例を説明するための図である。図12では、再生装置20により実行されるユーザ位置の移動軌跡及び視点の切り替えの様子並びにユーザの視線を、記録対象の空間にマッピングした様子が図示されている。図12に示すように、演者18がいるステージ16上に第1のセンサ装置11が配置され、観客席17のうちステージ16の近くに第2のセンサ装置12Aが配置され、ステージ16から最も遠くに第2のセンサ装置12Bが配置されている。
図13は、図12を示した配置のセンサ装置により撮像された撮像画像を用いたVRコンテンツの視点切り替えの一例を示す図である。VRコンテンツ40Bは、第2のセンサ装置12Bにより撮像された撮像画像が仮想空間内に配置されたVRコンテンツである。仮想オブジェクト制御部250は、VRコンテンツ40Bにおいて、演者18を包含する三次元位置及び大きさの視点切り替えオブジェクト45Bを配置し、第2のセンサ装置12Aの識別情報をコンテンツIDとして対応付けたものとする。ユーザの視線が視点切り替えオブジェクト45Bに衝突し、且つユーザ位置が視点切り替え位置まで移動した場合、選択部270は、視点切り替えオブジェクト45Bに対応付けられたコンテンツIDに基づく視点の選択を行う。詳しくは、選択部270は、第2のセンサ装置12Aによるセンシング結果に基づいて生成されたコンテンツ構成情報を、再生されるVRコンテンツの元となるコンテンツ構成情報として選択する。その結果、出力制御部260は、第2のセンサ装置12Aにより撮像された撮像画像が仮想空間内に配置されたVRコンテンツ40Aに表示を切り替える。
ここで、仮想空間における視点切り替え位置は、実空間における第2のセンサ装置12Aの位置に相当する位置と一致することが望ましい。この場合、選択部270は、仮想空間におけるユーザ位置が、実空間における第2のセンサ装置12Aの位置に相当する位置に到達したときに、VRコンテンツ40Aへの切り替えを行う。これにより、切り替え前後で、演者18までの距離が同一となるので、切り替え前後で演者18のスケール感は同一となる。従って、視点切り替えの際に、瞬間的に視点が移動したかのような違和感をユーザに与えることを防止することができる。
仮想オブジェクト制御部250は、VRコンテンツ40Aにおいて、演者18を包含する三次元位置及び大きさの視点切り替えオブジェクト45Aを配置し、第1のセンサ装置11の識別情報をコンテンツIDとして対応付けたものとする。ユーザの視線が視点切り替えオブジェクト45Aに衝突し、且つユーザ位置が視点切り替え位置まで移動した場合、選択部270は、視点切り替えオブジェクト45Aに対応付けられたコンテンツIDに基づく視点の選択を行う。詳しくは、選択部270は、第1のセンサ装置11によるセンシング結果に基づいて生成されたコンテンツ構成情報を、再生されるVRコンテンツの元となるコンテンツ構成情報として選択する。その結果、出力制御部260は、第1のセンサ装置11により撮像された撮像画像が仮想空間内に配置されたVRコンテンツに表示を切り替える。
ここで、仮想空間における視点切り替え位置は、実空間における第1のセンサ装置11の位置に相当する位置と一致することが望ましい。この場合、選択部270は、仮想空間におけるユーザ位置が、実空間における第1のセンサ装置11の位置に相当する位置に到達したときに、第1のセンサ装置11により撮像された撮像画像が仮想空間内に配置されたVRコンテンツへの切り替えを行う。これにより、切り替え前後で、演者18までの距離が同一となるので、切り替え前後で演者18のスケール感は同一となる。従って、視点切り替えに起因する違和感をユーザに与えることを防止することができる。
このように、ユーザ位置の移動に伴い視点の切り替えを繰り返すことで、記録対象の空間内を連続的に移動しているかのような体験をユーザに提供することが可能となる。また、視点切り替え位置とVRカメラ101の位置とを一致させることで、視点切り替えに起因する違和感をユーザに与えることを防止して、ユーザ体験の劣化を防止することが可能となる。
・補足
図14は、本実施形態に係るユーザ位置の移動及び視点の切り替えの一例を説明するための図である。図14では、再生装置20により実行されるユーザ位置の移動軌跡及び視点の切り替えの様子並びにユーザの視線を、記録対象の空間にマッピングした様子が図示されている。図14に示すように、演者18がステージ16上にいて、観客席17に第2のセンサ装置12A~12Dが配置されている。
図14に示した例では、第2のセンサ装置12Dを視点とするVRコンテンツにおいて、視点切り替え位置が第2のセンサ装置12Cの位置に設定される。そして、視点切り替え位置である第2のセンサ装置12Cの位置へのユーザの移動に伴い、第2のセンサ装置12Cを視点とするVRコンテンツへの切り替えが行われる。同様にして、第2のセンサ装置12Bを視点とするVRコンテンツへの切り替え、第2のセンサ装置12Aを視点とするVRコンテンツへの切り替えが行われる。ユーザ位置の移動軌跡は、各々の視点間で直線であることが望ましい一方で、図14に示すように、複数の視点間の移動軌跡同士は直線的でなくてもよい。
図15は、本実施形態に係るユーザ位置の移動及び視点の切り替えの一例を説明するための図である。図15では、再生装置20により実行されるユーザ位置の移動軌跡及び視点の切り替えの様子並びにユーザの視線を、記録対象の空間にマッピングした様子が図示されている。図15に示すように、演者18がステージ16上にいて、観客席17に第2のセンサ装置12A及び12Bが配置されている。図15では、図13に示した例と同様に、演者18を包含するように視点切り替えオブジェクトが配置されるものとする。
再生装置20は、第2のセンサ装置12Aを視点とするVRコンテンツを再生していたものとする。そして、図15に示すように、ユーザが演者18に視線を向けながらユーザ位置が後方に移動したものとする。なお、ユーザ位置の後方への移動は、第2のセンサ装置12Aを視点とするVRコンテンツにおいて、仮想空間内に配置された撮像画像をズームアウトすることにより、実現される。ユーザ位置が視点切り替え位置19に移動すると、第2のセンサ装置12Aを視点とするVRコンテンツから第2のセンサ装置12Bを視点とするVRコンテンツへの切り替えが実施される。この場合、視点切り替え位置19から第2のセンサ装置12Aの位置まで、視点が瞬間的に移動したような違和感をユーザに与えかねない。
そこで、視点切り替え位置は、仮想空間に表示された撮像画像内の所定の実オブジェクトまでの距離が、切り替え先のコンテンツ構成情報の元となる撮像画像を撮像した撮像装置(即ち、VRカメラ101)の位置に相当する仮想空間内の位置と同等であることが望ましい。図15に示した例では、視点切り替え位置19と第2のセンサ装置12Bの位置とは、演者18までの距離が同等であることが望ましい。なお、同等とは、同一又はその差が所定範囲内であることを意味する。この場合、切り替え前後で演者18のスケール感は同等となる。そのため、ユーザに与える違和感を軽減することができる。
また、視点切り替え位置19と第2のセンサ装置12Bの位置とは、演者18との角度が異なるので、移動前後で演者18を見る角度が変わってしまい、ユーザに違和感を与えかねない。そこで、出力制御部260は、仮想オブジェクト制御部250によるVRコンテンツの切り替え後、仮想空間内に表示された撮像画像内の所定の実オブジェクトが前記ユーザの視線と衝突するように、仮想空間に撮像画像を配置してもよい。具体的には、出力制御部260は、視点切り替えの際に、ユーザの視線上に(例えば、ユーザの顔の正面に)演者18が位置するように視界を回転させる。これにより、切り替え前後でユーザが演者18を見る角度が変わらなくなるので、ユーザに与える違和感を軽減することができる。なお、移動後の視界の回転量は、視点移動設定情報として設定され得る。
・処理の流れ
続いて、図16を参照して、視点切り替え処理の流れの一例を説明する。
図16は、本実施形態に係る再生装置20により実行される視点切り替え処理の流れの一例を示すフローチャートである。なお、図16に示したフローチャートに基づく処理では、視点切り替えに関与する処理以外については省略されている。
図16に示すように、まず、受信部210は、選択中の視点に対応するコンテンツ構成情報を受信する(ステップS402)。次いで、コンテンツ構成情報解析部220は、コンテンツ構成情報からVR用画像情報及び空間インタラクション構成情報を抽出する(ステップS404)。次いで、出力制御部260は、仮想空間に撮像画像を配置する(ステップS406)。次に、仮想オブジェクト制御部250は、視点切り替えオブジェクト情報に基づいて、仮想空間に視点切り替えオブジェクトを配置する(ステップS408)。
次いで、仮想オブジェクト制御部250は、ユーザの視線が視点切り替えオブジェクトに衝突するか否かを判定する(ステップS410)。衝突しないと判定された場合(ステップS410/YES)、処理は再度ステップS402に戻る。衝突すると判定された場合(ステップS410/YES)、出力制御部260は、ユーザ位置の移動に応じて仮想空間内に配置された撮像画像をズームイン/ズームアウトする(ステップS412)。次に、仮想オブジェクト制御部250は、視点切り替え位置までユーザ位置が移動したか否かを判定する(ステップS414)。移動していないと判定された場合(ステップS414/NO)、処理は再度ステップS402に戻る。移動したと判定された場合(ステップS414/YES)、選択部270は、視点切り替えオブジェクトに対応付けられたコンテンツIDを選択する(ステップS416)。これにより、ステップS402において受信されるコンテンツ構成情報が、新たに選択されたコンテンツIDのコンテンツ構成情報に切り替えられ、視点の切り替えが実現される。その後、処理は再度ステップS402に戻る。
<<3.第2の実施形態>>
第2の実施形態は、仮想空間内に配置された撮像画像内のトラッキング対象物に当該トラッキング対象物の三次元位置情報を対応付けることで、仮想空間内に配置された撮像画像内のトラッキング対象物が関与する空間インタラクションを実現する形態である。第1の実施形態では、実オブジェクトの表面全体に対し三次元位置情報が対応付けられていたのに対し、第2の実施形態では、実オブジェクトのうちトラッキング対象物の三次元位置に対応する1点に三次元位置情報が対応付けられる。例えば、実オブジェクトのうちトラッキング対象物の三次元位置に対応する1点に対応付けられる三次元位置情報は、トラッカーに対応する実オブジェクトの三次元位置に対応する所定の座標系の特定の座標である。
<3.1.概要>
(1)記録装置の概要
図17は、本実施形態に係る記録装置10の記録装置の概要を説明するための図である。図17では、記録装置10による情報の記録対象となる空間の一例が示されている。図17に示すように、本空間では、観客席17にいる大勢の観客の前で、ステージ16上でトラッカー14を装着した演者18が歌っている。本空間には、記録装置10による記録に関与する装置として、第3のセンサ装置13が設置されている。また、本空間には、モニタ15も配置されている。
・第3のセンサ装置13
第3のセンサ装置13は、実空間をセンシングする装置である。第3のセンサ装置13は、撮像装置を備える。撮像装置については、第1のセンサ装置11に関し上記説明した通りである。
さらに、第3のセンサ装置13は、実空間におけるトラッキング対象物の位置及び姿勢を検出するトラッカーセンサを備える。例えば、トラッカーセンサは、演者18が手首に装着しているトラッカー14をトラッキング対象物として、トラッカー14の位置及び姿勢を検出する。トラッカーセンサによるトラッキングには、光学式、レーザー式又は磁気式の任意のトラッキング技術が用いられ得る。
・モニタ15
モニタ15については、第1の実施形態において上記説明した通りである。
以上、記録対象の空間に設置される装置について説明した。
記録装置10は、第3のセンサ装置13によるセンシング結果に基づいて、再生装置20側でVRコンテンツを構成するための各種情報を含むコンテンツ構成情報を生成する。そして、記録装置10は、生成したコンテンツ構成情報を再生装置20へ送信する。
(2)再生装置の概要
図18は、本実施形態に係る再生装置20の概要を説明するための図である。図18では、再生装置20によるVRコンテンツの再生に関与する装置として、HMD21及びコントローラ22が図示されている。HMD21及びコントローラ22については、第1の実施形態において上記説明した通りである。
再生装置20は、記録装置10から受信したコンテンツ構成情報に基づいて、VRコンテンツを生成する。本実施形態に係るVRコンテンツでは、仮想オブジェクトのひとつとして、実空間を撮像した撮像画像が仮想空間内に配置される。さらに、本実施形態に係るVRコンテンツでは、仮想空間内に配置された撮像画像内のトラッカー14に、当該トラッカー14の三次元位置を示す三次元位置情報が対応付けられる。これにより、仮想空間内に配置された撮像画像内の実オブジェクトであるトラッカー14の空間インタラクションを実現することが可能となる。以下、この点について詳しく説明する。
図18に示すように、HMD21は、再生装置20により生成されたVRコンテンツ40を表示する。VRコンテンツ40では、仮想空間に、図17に示したステージ16上でトラッカー14を装着した演者18を含む撮像画像が配置されており、且つ、撮像画像内のトラッカー14に三次元位置情報が対応付けられている。
ユーザがコントローラ22を操作すると、実空間におけるコントローラ22の位置及び姿勢に応じて、仮想空間における操作体41の位置及び姿勢が変化する。操作体41は、仮想空間におけるユーザの操作位置を示す仮想オブジェクトである。再生装置20は、仮想空間における操作体41の位置とトラッカー14に対応付けられた三次元位置情報とに基づいて、仮想空間における操作体41とトラッカー14との衝突を判定する。そして、再生装置20は、衝突したと判定した場合には、衝突に対応する触覚フィードバックをコントローラ22に出力させる。
このように、本実施形態に係るコンテンツ配信システム1によれば、仮想空間内に配置された撮像画像内の実オブジェクトであるトラッキング対象物が関与する空間インタラクションを実現することが可能となる。
<3.2.記録装置側の技術的特徴>
<3.2.1.記録装置の機能構成例>
図19は、本実施形態に係る記録装置10の機能構成の一例を示すブロック図である。図19に示すように、記録装置10は、画像取得部110、ストリーミング処理部120、トラッカー位置取得部170、コンテンツ構成情報生成部150及び送信部160を含む。
また、図19では第3のセンサ装置13の機能構成の一例も図示されている。図19に示すように、第3のセンサ装置13は、VRカメラ101及びトラッカーセンサ103を含む。
以下、これらの構成要素について説明する。ただし、第1の実施形態において説明した構成要素については、第1の実施形態と同様の点については説明を省略し、第1の実施形態と異なる点について説明する。
(1)第3のセンサ装置13
VRカメラ101については第1の実施形態において、トラッカーセンサ103については図17を参照しながら、上記説明した通りである。
(2)記録装置10
(画像取得部110)
画像取得部110については、第1の実施形態において上記説明した通りである。
(ストリーミング処理部120)
ストリーミング処理部120については、第1の実施形態において上記説明した通りである。
(トラッカー位置取得部170)
トラッカー位置取得部170は、第3のセンサ装置13に含まれるトラッカーセンサ103から、実空間のトラッカー14の位置を示す三次元位置情報を取得する機能を有する。ここでの三次元位置情報とは、トラッカーセンサ103の位置に基づき設定される原点とトラッカーセンサ103の姿勢に基づき設定される座標軸とにより定義される、トラッカーセンサ103の座標系における位置を示す情報である。トラッカー14の三次元位置情報は、トラッカー14の1点の三次元位置情報(被写体三次元位置情報に相当)である。トラッカー位置取得部170は、取得したトラッカー14の三次元位置情報をコンテンツ構成情報生成部150に出力する。
(コンテンツ構成情報生成部150)
コンテンツ構成情報生成部150については、第1の実施形態においてした上記説明の、表面モデルをトラッカー14の三次元位置情報に読み替えればよい。
(送信部160)
送信部160については、第1の実施形態において上記説明した通りである。
<3.2.2.コンテンツ構成情報のフォーマット>
図20は、本実施形態に係るコンテンツ構成情報のフォーマットの一例を示す図である。図20に示すように、コンテンツ構成情報は、VR用画像情報及び空間インタラクション構成情報を含む。図20では、フレーム番号が1からnのフレームの画像及びトラッカー14の三次元位置情報をコンテナ化した、コンテンツ構成情報のフォーマットが示されている。
・VR用画像情報
VR用画像情報については、第1の実施形態において上記説明した通りである。
・空間インタラクション構成情報
空間インタラクション構成情報は、フレームごとのトラッカー14の三次元位置情報、トラッカー14の位置姿勢情報の属性情報及びフレーム番号を含む。フレームごとのトラッカー14の三次元位置情報は、フレームごとの画像におけるトラッカー14の位置を示す情報である。属性情報とは、反発係数、摩擦係数及び法線方向等の、空間インタラクションのための物理係数を含む情報である。フレーム番号は、トラッカー14の三次元位置情報の検出時刻に対応する情報であり、仮想空間関連付け情報に相当する。ある時刻に撮像された撮像画像のフレーム番号と同一時刻に検出されたトラッカー14の三次元位置情報のフレーム番号とは、一致することが望ましい。これにより、撮像画像とトラッカー14の三次元位置情報とのタイミング同期を確立することが容易になる。
空間インタラクション構成情報は、メタデータを含む。メタデータは、コンテンツID、視点切り替えオブジェクト情報、センサ装置位置姿勢情報、及びフィードバック設定情報を含む。コンテンツID、視点切り替えオブジェクト情報、及びフィードバック設定情報については、第1の実施形態において上記説明した通りである。
本実施形態に係るセンサ装置位置姿勢情報とは、撮像画像を撮像した撮像装置の座標系及びトラッカー14の三次元位置情報を検出したセンサの座標系に関する情報であり、仮想空間関連付け情報に相当する。即ち、本実施形態に係るセンサ装置位置姿勢情報とは、VRカメラ101の座標系及びトラッカーセンサ103の座標系に関する情報である。トラッカーセンサ103の座標系は、トラッカーセンサ103の位置に基づき設定される原点とトラッカーセンサ103の姿勢に基づき設定される座標軸とにより定義される。
センサ装置位置姿勢情報は、これらの座標系を定義する情報である、VRカメラ101及びトラッカーセンサ103の位置及び姿勢を示す情報を含んでいてもよい。また、センサ装置位置姿勢情報は、VRカメラ101及びトラッカーセンサ103の位置の差分及び姿勢の差分等の、これらの座標系のずれを示す情報を含んでいてもよい。センサ装置位置姿勢情報は、例えば、VRカメラ101及びトラッカーセンサ103の設置状況に基づいて、手動で設定されてもよい。また、センサ装置位置姿勢情報は、トラッカー14をVRカメラ101で撮像し且つトラッカーセンサ103でセンシングしたときの、撮像画像内のトラッカー14の位置及び姿勢と、トラッカーセンサ103により検出されるトラッカー14の位置及び姿勢とを比較することで、取得されてもよい。
同一の第3のセンサ装置13に含まれるVRカメラ101及びトラッカーセンサ103であっても、位置及び姿勢にずれが生じ得る。このずれに起因して、再生装置20側でのVRコンテンツの構成時に、仮想空間内に配置された撮像画像内のトラッカー14の位置及び姿勢と当該トラッカー14に対応付けられるトラッカー14の三次元位置情報とにずれが生じ得る。この点、センサ装置位置姿勢情報がコンテンツ構成情報に含まれることにより、再生装置20側でずれを補正することが可能となる。
ここで、撮像画像内にトラッカー14が複数含まれる場合、空間インタラクション構成情報は、トラッカー14の1点の三次元位置情報、属性情報、及びメタデータのセットを、トラッカー14毎に含んでいてもよい。また、空間インタラクション構成情報は、トラッカー14毎に、フィードバック設定情報を含んでいてもよい。その場合、これらのトラッカー14毎の情報に対しては、トラッカー14の識別情報が対応付けられる。
また、フレーム間でトラッカー14の三次元位置情報が流用されてもよい。その場合、空間インタラクション情報は、流用されるトラッカー14の三次元位置情報、及び当該トラッカー14の三次元位置情報を流用する期間を識別するための情報を含む。例えば、所定時間の間動かないトラッカー14がある場合、コンテンツ構成情報生成部150は、当該所定時間の開始フレームに対応付けてトラッカー14の三次元位置情報を記録すると共に、そのトラッカー14の三次元位置情報を流用する時間情報(例えば、当該所定時間の終了フレーム)を記録する。これにより、伝送量を削減することができるので、伝送遅延を軽減することが可能となる。
<3.2.3.記録処理の流れ>
図21は、本実施形態に係る記録装置10により実行される記録処理の流れの一例を示すフローチャートである。図21に示すように、まず、画像取得部110は実空間の撮像画像を取得し、トラッカー位置取得部170はトラッカー14の三次元位置情報を取得する(ステップS502)。次いで、コンテンツ構成情報生成部150は、撮像画像とトラッカー14の三次元位置情報とに基づいてコンテンツ構成情報を生成する(ステップS504)。その後、送信部160は、コンテンツ構成情報を再生装置20へ送信する(ステップS506)。
<3.3.再生装置側の技術的特徴>
<3.3.1.再生装置の機能構成例>
本実施形態に係る再生装置20は、図7に示した構成要素を同様に有する。各構成要素については、第1の実施形態においてした上記説明の、第1のセンサ装置11及び第2のセンサ装置12を第3のセンサ装置13に、デプスセンサ102をトラッカーセンサ103に、表面モデルをトラッカー14の三次元位置情報に、実オブジェクトをトラッカー14に、それぞれ読み替えればよい。その他、本実施形態に特徴的な点について以下に説明する。
(出力制御部260)
出力制御部260は、トラッカー14の三次元位置情報に基づいて、仮想空間内に表示される撮像画像内のトラッカー14に仮想オブジェクトを重畳して表示する。これにより、演者18が動いてトラッカー14が動いたとしても、トラッカー14の動きに仮想オブジェクトを付随させることが可能となる。
また、出力制御部260は、トラッカー14の三次元位置情報の精度に基づいて、トラッカー14に重畳させる仮想オブジェクトの大きさ及び/又は鮮明度を制御してもよい。例えば、出力制御部260は、トラッカー14の三次元位置情報の精度が悪い場合、仮想オブジェクトのサイズを大きくし、及び/又は仮想オブジェクトをぼかす。これにより、トラッカー14の三次元位置情報の精度が悪く、VRコンテンツにおけるトラッカー14とそれに重畳される仮想オブジェクトとにずれが生じる場合であっても、そのずれを目立たなくすることができる。他方、出力制御部260は、トラッカー14の三次元位置情報の精度が良い場合、仮想オブジェクトのサイズを小さくし、及び/又は仮想オブジェクトを強調してもよい。
(選択部270)
選択部270は、選択候補の視点として、第3のセンサ装置13を選択し得る。即ち、選択部270は、再生されるVRコンテンツの元となるコンテンツ構成情報として、第3のセンサ装置13によるセンシング結果に基づいて生成されたコンテンツ構成情報を選択し得る。
<3.3.2.空間インタラクション>
(1)第1の空間インタラクション
第1の空間インタラクションは、仮想空間内に配置された撮像画像内のトラッカー14とユーザとのインタラクションに関する。本インタラクションについては、図18を参照して上記説明した通りである。詳しくは、再生装置20は、仮想空間内に配置された撮像画像内のトラッカー14とユーザが操作する操作体41とが衝突した場合に、衝突に対応する触覚フィードバックをコントローラ22により出力させる。このようなインタラクションに関する処理の流れを、図22を参照して説明する。
図22は、本実施形態に係る再生装置20により実行される第1の空間インタラクション処理の流れの一例を示すフローチャートである。図22に示すように、まず、受信部210は、コンテンツ構成情報を受信する(ステップS602)。次いで、コンテンツ構成情報解析部220は、コンテンツ構成情報からVR用画像情報及び空間インタラクション構成情報を抽出する(ステップS604)。次に、タイミング同期部230は、撮像画像とトラッカー14の三次元位置情報とのタイミング同期を確立し、座標変換部240は、撮像画像とトラッカー14の三次元位置情報との座標系の同期を確立する(ステップS606)。次いで、出力制御部260は、仮想空間に撮像画像を配置する(ステップS608)。
次に、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内のトラッカー14に、物理係数及びコライダーを対応付ける(ステップS610)。次いで、仮想オブジェクト制御部250は、コントローラ22の位置及び姿勢に基づいて、仮想空間における操作体41の位置及び姿勢を制御する(ステップS612)。次に、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内のトラッカー14と操作体41との衝突有無を判定する(ステップS614)。詳しくは、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内のトラッカー14に対応付けられたコライダーと、操作体41に対応付けられたコライダーとの衝突有無を判定する。衝突していないと判定された場合(ステップS616/NO)、処理は再度ステップS602に戻る。衝突したと判定された場合(ステップS616/YES)、出力制御部260は、衝突に応じたフィードバックを出力する(ステップS618)。詳しくは、出力制御部260は、トラッカー14に対応づけられた物理係数及びフィードバック設定情報に基づいて、ユーザへの視覚/触覚/聴覚/嗅覚フィードバックの出力を制御する。その後、処理は再度ステップS602に戻る。
(2)第2の空間インタラクション
第2の空間インタラクションは、仮想空間内に配置された撮像画像内のトラッカー14に対応付けられた実オブジェクトとユーザとのインタラクションに関する。本インタラクションに関して、図23を参照して詳しく説明する。
図23は、本実施形態に係る第2の空間インタラクションの一例を説明するための図である。図23に示したVRコンテンツ40Aでは、仮想空間に、図2に示したステージ16上でトラッカー14を装着した演者18を含む撮像画像が配置されており、且つ、撮像画像内のトラッカー14に三次元位置情報が対応付けられている。出力制御部260は、トラッカー14の三次元位置情報に基づいて、トラッカー14の三次元位置に対応する実オブジェクトの三次元位置に重畳するように仮想オブジェクトであるプレゼント47を配置する。例えば、図23に示した例では、出力制御部260は、トラッカー14を装着した側の手のひらの位置にプレゼント47を配置する。そのために、まず、仮想オブジェクト制御部250は、トラッカー14に対応する実オブジェクトの三次元位置情報を、トラッカー14の三次元位置情報に所定の位置オフセット情報を加えることで決定する。例えば、出力制御部260は、トラッカー14の装着位置である手首の位置姿勢と、手首に対する手のひらの位置姿勢との差分を、位置オフセット情報として用いる。そして、仮想オブジェクト制御部250は、トラッカー14に対応する実オブジェクトの三次元位置に、コライダーを対応付ける。これにより、トラッカー14を装着した側の手のひらに対する仮想オブジェクトの配置、及び衝突判定が可能となる。演者18が動いてトラッカー14が動いたとしても、トラッカー14の動きにプレゼント47が付随することとなる。ユーザは、コントローラ22を介して、プレゼント47の位置に操作体41を合わせて受け取る操作を行うことができる。受け取る操作が行われると、プレゼント47が操作体41の子オブジェクトとなり、操作体41がボール43の親オブジェクトとなる。そのため、VRコンテンツ40Bに示すように、プレゼント47が操作体41に付随して動くようになる。このようにして、仮想空間内に配置された撮像画像内の演者18とユーザとのプレゼント47の受け渡しのインタラクションが実現される。このようなインタラクションに関する処理の流れを、図24を参照して説明する。
図24は、本実施形態に係る再生装置20により実行される第2の空間インタラクション処理の流れの一例を示すフローチャートである。図24に示したステップS702~S708に係る処理は、図22に示したステップS602~S608に係る処理と同様である。その後、仮想オブジェクト制御部250は、上述した通り位置オフセット情報を用いて、トラッカー14に対応する実オブジェクト(例えば、手のひら)の三次元位置に、物理係数及びコライダーを対応付ける(ステップS710)。次いで、出力制御部260は、仮想空間内に配置された撮像画像内のトラッカー14に対応する実オブジェクトの三次元位置に、プレゼント47を配置する(ステップS712)。次いで、仮想オブジェクト制御部250は、コントローラ22の位置及び姿勢に基づいて、仮想空間における操作体41の位置及び姿勢を制御する(ステップS714)。
その後、仮想オブジェクト制御部250は、トラッカー14に対応する実オブジェクトと操作体41と衝突有無、及び受け取る操作の有無を判定する(ステップS716)。詳しくは、仮想オブジェクト制御部250は、仮想空間内に配置された撮像画像内のトラッカー14に対応する実オブジェクト(例えば、手のひら)に対応付けられたコライダーと、操作体41に対応付けられたコライダーとの衝突有無を判定し、受け取る操作が入力されたか否かを判定する。衝突していない又は受け取る操作が行われていないと判定された場合(ステップS718/NO)、処理は再度ステップS702に戻る。衝突し、且つ受け取る操作が行われたと判定された場合(ステップS718/YES)、出力制御部260は、プレゼント47を操作体41の子オブジェクトとして、プレゼント47が操作体41に付随して移動する様子を表示する(ステップS720)。その際、出力制御部260は、トラッカー14に対応付けられた物理係数及びフィードバック設定情報に基づいて、ユーザへの視覚/触覚/聴覚/嗅覚フィードバックの出力を制御してもよい。その後、処理は再度ステップS702に戻る。
<<4.補足>>
(1)記録側
記録装置10は、第1のセンサ装置11又は第2のセンサ装置12がセンシングに失敗した場合、又はセンシングが途切れる場合には、センシング結果を予測したり、直前のセンシング結果を用いて補間したりしてもよい。また、記録装置10は、デプスセンサ102とトラッカーセンサ103とを組み合わせてコンテンツ構成情報を生成してもよい。即ち、第1の実施形態と第2の実施形態とは、組み合わされてもよい。例えば、記録装置10が生成するコンテンツ構成情報は、表面モデルデータとトラッカーの三次元位置情報の両方を含んでも良い。
(2)再生側
再生装置20は、操作体41による操作量を、ユーザに合わせて調整してもよい。例えば、再生装置20は、実空間におけるコントローラ22の位置の変化量と仮想空間における操作体41の位置の変化量との関係を、ユーザの手の長さに応じて調整する。詳しくは、再生装置20は、手の短いユーザについては、少しのコントローラ22の移動で操作体41を大きく移動させる。他にも、再生装置20は、操作体41が勝手に操作対象に近づくようにしてもよい。
(3)オフセット処理について
上記第2の実施形態において説明したように、トラッカー14に対応する実オブジェクトが空間インタラクションの対象となる場合、位置オフセット情報を用いてトラッカー14に対応する実オブジェクトの三次元位置情報が取得される。かかる処理を、オフセット処理とも称する。
オフセット処理において用いられる、トラッカー14とトラッカー14に対応する実オブジェクトとの位置及び姿勢の関係を示す位置オフセット情報は、記録装置10側で取得されてもよいし、再生装置20側で取得されてもよい。記録装置10側で取得される場合、コンテンツ構成情報生成部150は、トラッカー位置取得部170が取得したトラッカー14の三次元位置情報と、位置オフセット情報とを、コンテンツ構成情報に含めて記録してもよい。即ち、コンテンツ構成情報は、トラッカー14の三次元位置情報、及び位置オフセット情報を含む。そして、再生装置20は、受信したコンテンツ構成情報に含まれるトラッカー14の三次元位置情報及び位置オフセット情報に基づいて、トラッカー14に対応する実オブジェクトの三次元位置情報を取得する。
第2の実施形態においては、記録装置10側ではオフセット処理が行われず、再生装置20側でオフセット処理が行われる例を説明した。しかし、本技術は、かかる例に限定されない。例えば、記録装置10側でオフセット処理が行われ、再生装置20側ではオフセット処理が行われなくてもよい。その場合、コンテンツ構成情報生成部150は、トラッカー位置取得部170が取得したトラッカー14の三次元位置情報に位置オフセット情報を加えることで、トラッカー14に対応する実オブジェクトの三次元位置情報を取得する。そして、コンテンツ構成情報生成部150は、かかる三次元位置情報を、コンテンツ構成情報に含めて記録する。即ち、コンテンツ構成情報は、トラッカー14に対応する実オブジェクトの三次元位置情報を含む。そして、再生装置20は、受信したコンテンツ構成情報に基づいて、トラッカー14に対応する実オブジェクトの三次元位置に、コライダーを対応付ける。
<<5.ハードウェア構成例>>
最後に、図25を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図25は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図25に示す情報処理装置900は、例えば、図4、図7及び図19にそれぞれ示した記録装置10又は再生装置20を実現し得る。本実施形態に係る記録装置10又は再生装置20による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図25に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、電気回路、DSP若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図4又は図19に示す画像取得部110、ストリーミング処理部120、深度情報取得部130、表面モデル取得部140、コンテンツ構成情報生成部150及びトラッカー位置取得部170を形成し得る。また、CPU901は、例えば、図7に示すコンテンツ構成情報解析部220、タイミング同期部230、座標変換部240、仮想オブジェクト制御部250、出力制御部260及び選択部270を形成し得る。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図4又は図19に示す送信部160を形成し得る。また、通信装置913は、例えば、図7に示す受信部210を形成し得る。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<<6.まとめ>>
以上、図1~図25を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、本実施形態に係る記録装置10は、実オブジェクトを含む撮像画像と、実オブジェクトの三次元位置情報を取得する。そして、記録装置10は、撮像画像、実オブジェクトの三次元位置情報、及び仮想空間内に表示される撮像画像内の実オブジェクトが関与するインタラクションに用いられる情報であって、撮像画像内の実オブジェクトと当該実オブジェクトの三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成する。これにより、再生装置20側で、仮想空間内に撮像画像を配置しつつ、当該撮像画像内の実オブジェクトに三次元位置情報を対応付けることができる。再生装置20は、かかる三次元位置情報を参照することで、仮想空間内に表示された撮像画像内の実オブジェクトと他の仮想オブジェクトとの空間インタラクションを実現することが可能となる。詳しくは、再生装置20は、仮想空間内に表示された撮像画像内の実オブジェクトの三次元位置情報と、他の仮想オブジェクトの三次元位置情報とに基づいて、これらの衝突を検出し、衝突に伴うフィードバックを出力することが可能となる。このようにして、実写VRコンテンツにおける空間インタラクションをより適切に実現することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書においてフローチャート及びシーケンス図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得する取得部と、
前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成するコンテンツ構成情報生成部と、
を備える情報処理装置。
(2)
前記仮想空間関連付け情報は、前記撮像画像と前記被写体三次元位置情報とを関連付ける識別情報を含む、前記(1)に記載の情報処理装置。
(3)
前記仮想空間関連付け情報は、前記撮像画像を撮像した撮像装置の座標系及び前記被写体三次元位置情報を検出したセンサの座標系に関する情報を含む、前記(1)又は(2)に記載の情報処理装置。
(4)
前記仮想空間関連付け情報は、前記撮像画像の撮像時刻に対応する情報及び前記被写体三次元位置情報の検出時刻に対応する情報を含む、前記(1)~(3)のいずれか一項に記載の情報処理装置。
(5)
前記コンテンツ構成情報は、前記仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションが行われる場合のフィードバック内容を設定するフィードバック設定情報をさらに含む、前記(1)~(4)のいずれか一項に記載の情報処理装置。
(6)
前記フィードバック設定情報は、視覚的、触覚的、聴覚的又は嗅覚的にフィードバックされる内容を設定する情報を含む、前記(5)に記載の情報処理装置。
(7)
前記フィードバック設定情報は、前記仮想空間内における視点移動の際にフィードバックされる内容を設定する情報を含む、前記(5)又は(6)に記載の情報処理装置。
(8)
前記コンテンツ構成情報は、前記被写体の物理係数を示す情報を含む、前記(1)~(7)のいずれか一項に記載の情報処理装置。
(9)
前記被写体三次元位置情報は、前記被写体の表面の複数の点の三次元位置情報である、前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
前記被写体三次元位置情報は、所定の条件を満たす前記被写体の、表面の複数の点の三次元位置情報である、前記(9)に記載の情報処理装置。
(11)
前記被写体三次元位置情報は、前記コンテンツ構成情報の伝送速度に応じた数の点の三次元位置情報である、前記(9)又は(10)に記載の情報処理装置。
(12)
前記被写体三次元位置情報は、トラッキング対象物の1点の三次元位置情報である、前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得する取得部と、
前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御する出力制御部と、
を備える情報処理装置。
(14)
前記仮想空間関連付け情報は、前記撮像画像と前記被写体三次元位置情報とを関連付ける識別情報を含む、前記(13)に記載の情報処理装置。
(15)
前記仮想空間関連付け情報は、前記撮像画像を撮像した撮像装置の座標系及び前記被写体三次元位置情報を検出したセンサの座標系に関する情報を含む、前記(13)又は(14)に記載の情報処理装置。
(16)
前記仮想空間関連付け情報は、前記撮像画像の撮像時刻に対応する情報及び前記被写体三次元位置情報の検出時刻に対応する情報を含む、前記(13)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記コンテンツ構成情報は、前記仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションが行われる場合のフィードバック内容を設定するフィードバック設定情報をさらに含む、前記(13)~(16)のいずれか一項に記載の情報処理装置。
(18)
前記コンテンツ構成情報は、前記被写体の物理係数を示す情報を含む、前記(13)~(17)のいずれか一項に記載の情報処理装置。
(19)
前記情報処理装置は、
前記被写体三次元位置情報に対し、前記撮像画像を撮像した撮像装置の座標系と前記被写体三次元位置情報を検出したセンサの座標系とのずれを補正するための座標変換処理を適用する座標変換部をさらに備える、前記(13)~(18)のいずれか一項に記載の情報処理装置。
(20)
前記情報処理装置は、
前記撮像画像と前記被写体三次元位置情報とのタイミング同期を確立するタイミング同期部をさらに備える、前記(13)~(19)のいずれか一項に記載の情報処理装置。
(21)
前記出力制御部は、前記仮想空間内に表示された前記撮像画像内の前記被写体と他の仮想オブジェクトとの衝突に対応するフィードバックの出力を制御する、前記(13)~(20)のいずれか一項に記載の情報処理装置。
(22)
前記出力制御部は、前記仮想空間内に表示された前記撮像画像内の前記被写体と前記仮想空間におけるユーザの操作位置を示す仮想オブジェクトとが衝突した場合に、衝突したことを示す触覚フィードバックの出力を制御する、前記(21)に記載の情報処理装置。
(23)
前記情報処理装置は、前記被写体三次元位置情報と前記他の仮想オブジェクトの三次元位置情報とに基づいて、前記仮想空間内に表示された前記撮像画像内の前記被写体と前記他の仮想オブジェクトとの衝突を検出する衝突検出部をさらに備える、前記(21)又は(22)に記載の情報処理装置。
(24)
前記出力制御部は、前記被写体三次元位置情報に基づいて、前記仮想空間内に表示される前記撮像画像内の前記被写体に仮想オブジェクトを重畳する、前記(13)~(23)のいずれか一項に記載の情報処理装置。
(25)
前記出力制御部は、前記被写体三次元位置情報の精度に基づいて、前記被写体に重畳させる仮想オブジェクトの大きさ及び/又は鮮明度を制御する、前記(24)に記載の情報処理装置。
(26)
前記情報処理装置は、前記仮想空間におけるユーザ位置に対応する前記コンテンツ構成情報を、前記取得部が取得すべき前記コンテンツ構成情報として選択する選択部をさらに備える、前記(13)~(25)のいずれか一項に記載の情報処理装置。
(27)
前記選択部は、前記仮想空間におけるユーザ位置が所定の位置に到達したことをトリガとして、選択する前記コンテンツ構成情報を切り替える、前記(26)に記載の情報処理装置。
(28)
前記所定の位置は、切り替え先の前記コンテンツ構成情報の元となる前記撮像画像を撮像した撮像装置の位置に相当する前記仮想空間内の位置である、前記(27)に記載の情報処理装置。
(29)
前記所定の位置は、前記仮想空間内に表示された前記撮像画像内の所定の実オブジェクトまでの距離が、切り替え先の前記コンテンツ構成情報の元となる前記撮像画像を撮像した撮像装置の位置に相当する前記仮想空間内の位置と同等である、前記(27)に記載の情報処理装置。
(30)
前記出力制御部は、前記選択部による切り替え後、前記仮想空間内に表示された前記撮像画像内の所定の実オブジェクトがユーザの視線と衝突するように、前記仮想空間に前記撮像画像を配置する、前記(27)又は(29)に記載の情報処理装置。
(31)
前記出力制御部は、前記仮想空間におけるユーザの視線が所定の仮想オブジェクトに衝突した場合に、前記ユーザ位置を移動させる、前記(27)~(30)のいずれか一項に記載の情報処理装置。
(32)
被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得することと、
前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成することと、
を備える、プロセッサにより実行される情報処理方法。
(33)
被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得することと、
前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御することと、
を備える、プロセッサにより実行される情報処理方法。
(34)
コンピュータを、
被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得する取得部と、
前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成するコンテンツ構成情報生成部、
として機能させるためのプログラム。
(35)
コンピュータを、
被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得する取得部と、
前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御する出力制御部と、
として機能させるためのプログラム。
1 コンテンツ配信システム
10 記録装置
110 画像取得部
120 ストリーミング処理部
130 深度情報取得部
140 表面モデル取得部
150 コンテンツ構成情報生成部
160 送信部
170 トラッカー位置取得部
11 第1のセンサ装置
12 第2のセンサ装置
13 第3のセンサ装置
101 VRカメラ
102 デプスセンサ
103 トラッカーセンサ
14 トラッカー
15 モニタ
16 ステージ
17 観客席
18 演者
19 視点切り替え位置
20 再生装置
210 受信部
220 コンテンツ構成情報解析部
230 タイミング同期部
240 座標変換部
250 仮想オブジェクト制御部
260 出力制御部
270 選択部
22 コントローラ
201 表示部
202 位置姿勢検出部
203 音声出力部
204 音声入力部
205 位置姿勢検出部
206 振動出力部

Claims (33)

  1. 被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得する取得部と、
    前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成するコンテンツ構成情報生成部と、
    を備え、
    前記仮想空間関連付け情報は、前記撮像画像の撮像時刻に対応する情報及び前記被写体三次元位置情報の検出時刻に対応する情報を含む、
    情報処理装置。
  2. 前記仮想空間関連付け情報は、前記撮像画像と前記被写体三次元位置情報とを関連付ける識別情報を含む、請求項1に記載の情報処理装置。
  3. 前記仮想空間関連付け情報は、前記撮像画像を撮像した撮像装置の座標系及び前記被写体三次元位置情報を検出したセンサの座標系に関する情報を含む、請求項1又は2に記載の情報処理装置。
  4. 前記コンテンツ構成情報は、前記仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションが行われる場合のフィードバック内容を設定するフィードバック設定情報をさらに含む、請求項1~3のいずれか1項に記載の情報処理装置。
  5. 前記フィードバック設定情報は、視覚的、触覚的、聴覚的又は嗅覚的にフィードバックされる内容を設定する情報を含む、請求項に記載の情報処理装置。
  6. 前記フィードバック設定情報は、前記仮想空間内における視点移動の際にフィードバックされる内容を設定する情報を含む、請求項4又は5に記載の情報処理装置。
  7. 前記コンテンツ構成情報は、前記被写体の物理係数を示す情報を含む、請求項1~6のいずれか1項に記載の情報処理装置。
  8. 前記被写体三次元位置情報は、前記被写体の表面の複数の点の三次元位置情報である、請求項1~7のいずれか1項に記載の情報処理装置。
  9. 前記被写体三次元位置情報は、所定の条件を満たす前記被写体の、表面の複数の点の三次元位置情報である、請求項に記載の情報処理装置。
  10. 前記被写体三次元位置情報は、前記コンテンツ構成情報の伝送速度に応じた数の点の三次元位置情報である、請求項8又は9に記載の情報処理装置。
  11. 前記被写体三次元位置情報は、トラッキング対象物の1点の三次元位置情報である、請求項1~10のいずれか1項に記載の情報処理装置。
  12. 被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得する取得部と、
    前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御する出力制御部と、
    を備え、
    前記仮想空間関連付け情報は、前記撮像画像の撮像時刻に対応する情報及び前記被写体三次元位置情報の検出時刻に対応する情報を含む、
    情報処理装置。
  13. 前記仮想空間関連付け情報は、前記撮像画像と前記被写体三次元位置情報とを関連付ける識別情報を含む、請求項12に記載の情報処理装置。
  14. 前記仮想空間関連付け情報は、前記撮像画像を撮像した撮像装置の座標系及び前記被写体三次元位置情報を検出したセンサの座標系に関する情報を含む、請求項12又は13に記載の情報処理装置。
  15. 前記コンテンツ構成情報は、前記仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションが行われる場合のフィードバック内容を設定するフィードバック設定情報をさらに含む、請求項12~14のいずれか1項に記載の情報処理装置。
  16. 前記コンテンツ構成情報は、前記被写体の物理係数を示す情報を含む、請求項12~15のいずれか1項に記載の情報処理装置。
  17. 前記情報処理装置は、
    前記被写体三次元位置情報に対し、前記撮像画像を撮像した撮像装置の座標系と前記被写体三次元位置情報を検出したセンサの座標系とのずれを補正するための座標変換処理を適用する座標変換部をさらに備える、請求項12~16のいずれか1項に記載の情報処理装置。
  18. 前記情報処理装置は、
    前記撮像画像と前記被写体三次元位置情報とのタイミング同期を確立するタイミング同期部をさらに備える、請求項12~17のいずれか1項に記載の情報処理装置。
  19. 前記出力制御部は、前記仮想空間内に表示された前記撮像画像内の前記被写体と他の仮想オブジェクトとの衝突に対応するフィードバックの出力を制御する、請求項12~18のいずれか1項に記載の情報処理装置。
  20. 前記出力制御部は、前記仮想空間内に表示された前記撮像画像内の前記被写体と前記仮想空間におけるユーザの操作位置を示す仮想オブジェクトとが衝突した場合に、衝突したことを示す触覚フィードバックの出力を制御する、請求項19に記載の情報処理装置。
  21. 前記情報処理装置は、前記被写体三次元位置情報と前記他の仮想オブジェクトの三次元位置情報とに基づいて、前記仮想空間内に表示された前記撮像画像内の前記被写体と前記他の仮想オブジェクトとの衝突を検出する衝突検出部をさらに備える、請求項19又は20に記載の情報処理装置。
  22. 前記出力制御部は、前記被写体三次元位置情報に基づいて、前記仮想空間内に表示される前記撮像画像内の前記被写体に仮想オブジェクトを重畳する、請求項12~21のいずれか1項に記載の情報処理装置。
  23. 前記出力制御部は、前記被写体三次元位置情報の精度に基づいて、前記被写体に重畳させる仮想オブジェクトの大きさ及び/又は鮮明度を制御する、請求項22に記載の情報処理装置。
  24. 前記情報処理装置は、前記仮想空間におけるユーザ位置に対応する前記コンテンツ構成情報を、前記取得部が取得すべき前記コンテンツ構成情報として選択する選択部をさらに備える、請求項12~23のいずれか1項に記載の情報処理装置。
  25. 前記選択部は、前記仮想空間におけるユーザ位置が所定の位置に到達したことをトリガとして、選択する前記コンテンツ構成情報を切り替える、請求項24に記載の情報処理装置。
  26. 前記所定の位置は、切り替え先の前記コンテンツ構成情報の元となる前記撮像画像を撮像した撮像装置の位置に相当する前記仮想空間内の位置である、請求項25に記載の情報処理装置。
  27. 前記所定の位置は、前記仮想空間内に表示された前記撮像画像内の所定の実オブジェクトまでの距離が、切り替え先の前記コンテンツ構成情報の元となる前記撮像画像を撮像した撮像装置の位置に相当する前記仮想空間内の位置と同等である、請求項25に記載の情報処理装置。
  28. 前記出力制御部は、前記選択部による切り替え後、前記仮想空間内に表示された前記撮像画像内の所定の実オブジェクトがユーザの視線と衝突するように、前記仮想空間に前記撮像画像を配置する、請求項25又は27に記載の情報処理装置。
  29. 前記出力制御部は、前記仮想空間におけるユーザの視線が所定の仮想オブジェクトに衝突した場合に、前記ユーザ位置を移動させる、請求項25~28のいずれか1項に記載の情報処理装置。
  30. 被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得することと、
    前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成することと、
    を備える、プロセッサにより実行される情報処理方法であって、
    前記仮想空間関連付け情報は、前記撮像画像の撮像時刻に対応する情報及び前記被写体三次元位置情報の検出時刻に対応する情報を含む、
    情報処理方法
  31. 被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得することと、
    前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御することと、
    を備える、プロセッサにより実行される情報処理方法であって、
    前記仮想空間関連付け情報は、前記撮像画像の撮像時刻に対応する情報及び前記被写体三次元位置情報の検出時刻に対応する情報を含む、
    情報処理方法。
  32. コンピュータを、
    被写体を含む撮像画像と、前記被写体の三次元位置を示す被写体三次元位置情報を取得する取得部と、
    前記撮像画像、前記被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を生成するコンテンツ構成情報生成部、
    として機能させるためのプログラムであって、
    前記仮想空間関連付け情報は、前記撮像画像の撮像時刻に対応する情報及び前記被写体三次元位置情報の検出時刻に対応する情報を含む、
    プログラム。
  33. コンピュータを、
    被写体を含む撮像画像、前記被写体の三次元位置を示す被写体三次元位置情報、及び仮想空間内に表示される前記撮像画像内の前記被写体が関与するインタラクションに用いられる情報であって、前記撮像画像内の前記被写体と前記被写体三次元位置情報とを関連付ける仮想空間関連付け情報、を含むコンテンツ構成情報を取得する取得部と、
    前記コンテンツ構成情報に基づき、前記仮想空間内に前記撮像画像を表示し、前記仮想空間内に表示された前記撮像画像内の前記被写体が関与するインタラクションに対応するフィードバックの出力を制御する出力制御部と、
    として機能させるためのプログラムであって、
    前記仮想空間関連付け情報は、前記撮像画像の撮像時刻に対応する情報及び前記被写体三次元位置情報の検出時刻に対応する情報を含む、
    プログラム。
JP2020531203A 2018-07-20 2019-06-25 情報処理装置、情報処理方法及びプログラム Active JP7338626B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018136547 2018-07-20
JP2018136547 2018-07-20
PCT/JP2019/025255 WO2020017261A1 (ja) 2018-07-20 2019-06-25 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020017261A1 JPWO2020017261A1 (ja) 2021-08-26
JP7338626B2 true JP7338626B2 (ja) 2023-09-05

Family

ID=69164014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020531203A Active JP7338626B2 (ja) 2018-07-20 2019-06-25 情報処理装置、情報処理方法及びプログラム

Country Status (6)

Country Link
US (1) US11250636B2 (ja)
EP (1) EP3825817A4 (ja)
JP (1) JP7338626B2 (ja)
KR (1) KR20210031894A (ja)
CN (1) CN112424728B (ja)
WO (1) WO2020017261A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021162993A (ja) * 2020-03-31 2021-10-11 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN116457750A (zh) * 2020-12-04 2023-07-18 索尼集团公司 信息处理装置、信息处理方法、程序和信息处理系统
JP7044426B1 (ja) 2021-10-14 2022-03-30 株式会社計数技研 画像合成装置、画像合成方法、及びプログラム
WO2022145414A1 (ja) * 2020-12-28 2022-07-07 株式会社計数技研 画像合成装置、画像合成方法、及びプログラム
JP6959682B1 (ja) * 2020-12-28 2021-11-05 株式会社計数技研 画像合成装置、画像合成方法、及びプログラム
CN117546458A (zh) * 2021-06-30 2024-02-09 索尼集团公司 信息处理装置、信息处理方法和程序
WO2024048195A1 (ja) * 2022-09-02 2024-03-07 株式会社Nttドコモ 表示制御装置
US12002154B1 (en) * 2024-01-22 2024-06-04 Illuscio, Inc. Systems and methods for automatic and dynamic generation of shape-conforming and computationally efficient colliders for point clouds

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293605A (ja) 2005-04-08 2006-10-26 Canon Inc 情報処理方法およびシステム
JP2018014090A (ja) 2016-06-15 2018-01-25 イマージョン コーポレーションImmersion Corporation ケースを介して触覚フィードバックを提供するためのシステム及び方法
JP2018112894A (ja) 2017-01-11 2018-07-19 キヤノン株式会社 システムおよび制御方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7843470B2 (en) 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
JP2009145883A (ja) 2007-11-20 2009-07-02 Rissho Univ 学習システム、記憶媒体及び学習方法
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
JP2014149712A (ja) * 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
KR101845350B1 (ko) * 2013-03-26 2018-05-18 세이코 엡슨 가부시키가이샤 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
US9754167B1 (en) 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US9746984B2 (en) * 2014-08-19 2017-08-29 Sony Interactive Entertainment Inc. Systems and methods for providing feedback to a user while interacting with content
CN105094335B (zh) 2015-08-04 2019-05-10 天津锋时互动科技有限公司 场景提取方法、物体定位方法及其系统
US10212428B2 (en) * 2017-01-11 2019-02-19 Microsoft Technology Licensing, Llc Reprojecting holographic video to enhance streaming bandwidth/quality
CN107015655A (zh) * 2017-04-11 2017-08-04 苏州和云观博数字科技有限公司 博物馆虚拟场景ar体验眼镜装置及其实现方法
JP6298557B1 (ja) * 2017-04-14 2018-03-20 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20190066385A1 (en) * 2017-08-31 2019-02-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293605A (ja) 2005-04-08 2006-10-26 Canon Inc 情報処理方法およびシステム
JP2018014090A (ja) 2016-06-15 2018-01-25 イマージョン コーポレーションImmersion Corporation ケースを介して触覚フィードバックを提供するためのシステム及び方法
JP2018112894A (ja) 2017-01-11 2018-07-19 キヤノン株式会社 システムおよび制御方法

Also Published As

Publication number Publication date
EP3825817A1 (en) 2021-05-26
US20210217248A1 (en) 2021-07-15
US11250636B2 (en) 2022-02-15
CN112424728A (zh) 2021-02-26
CN112424728B (zh) 2024-06-18
KR20210031894A (ko) 2021-03-23
JPWO2020017261A1 (ja) 2021-08-26
WO2020017261A1 (ja) 2020-01-23
EP3825817A4 (en) 2021-09-08

Similar Documents

Publication Publication Date Title
JP7338626B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7095602B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP6344380B2 (ja) 画像処理装置および方法、並びにプログラム
EP2840463A1 (en) Haptically enabled viewing of sporting events
US10996757B2 (en) Methods and apparatus for generating haptic interaction for virtual reality
KR20180077091A (ko) 공간-의존 콘텐츠를 위한 햅틱 효과 생성
CN111045511B (zh) 基于手势的操控方法及终端设备
CN111373347B (zh) 用于虚拟现实内容的提供的装置、方法和计算机程序
US11354871B2 (en) Head-mountable apparatus and methods
WO2019187862A1 (ja) 情報処理装置、情報処理方法、および記録媒体
WO2018216355A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20210191504A1 (en) Information processing device, information processing method, and program
US20230179756A1 (en) Information processing device, information processing method, and program
KR20180017736A (ko) Hmd 및 그 hmd의 제어 방법
US20230154106A1 (en) Information processing apparatus, information processing method, and display apparatus
WO2022075152A1 (ja) 情報処理装置、情報処理方法及び情報配信システム
JP6921204B2 (ja) 情報処理装置および画像出力方法
WO2019144330A1 (zh) 媒体内容发送方法、装置及存储介质
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
WO2021153413A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
WO2022220306A1 (ja) 映像表示システム、情報処理装置、情報処理方法、及び、プログラム
WO2022209129A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R151 Written notification of patent or utility model registration

Ref document number: 7338626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151