WO2022239297A1 - 情報処理装置、情報処理方法、及び記録媒体 - Google Patents

情報処理装置、情報処理方法、及び記録媒体 Download PDF

Info

Publication number
WO2022239297A1
WO2022239297A1 PCT/JP2022/000675 JP2022000675W WO2022239297A1 WO 2022239297 A1 WO2022239297 A1 WO 2022239297A1 JP 2022000675 W JP2022000675 W JP 2022000675W WO 2022239297 A1 WO2022239297 A1 WO 2022239297A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual object
information processing
display
display format
processing device
Prior art date
Application number
PCT/JP2022/000675
Other languages
English (en)
French (fr)
Inventor
泰平 目野
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to CN202280032695.4A priority Critical patent/CN117242770A/zh
Priority to JP2023520765A priority patent/JPWO2022239297A1/ja
Publication of WO2022239297A1 publication Critical patent/WO2022239297A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本技術の一形態に係る情報処理装置は、表示制御部を具備する。前記表示制御部は、仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替える。これにより、高品質な視聴体験を実現することが可能となる。また仮想空間内の空間を維持しつつ仮想オブジェクトを含むコンテンツ作成時の制約をなくすことが可能である。

Description

情報処理装置、情報処理方法、及び記録媒体
 本技術は、画像表示に適用可能な情報処理装置、情報処理方法、及び記録媒体に関する。
 特許文献1には、表示部が立体画像を表示する表示面の下端から上端までの距離、及び実空間における水平面と表示面とがなす角度に応じた領域に、水平面と平行な第1の平面が観察されるように立体画像を表示させる情報処理装置が記載される。これにより、立体画像を観察するユーザの負担を抑制することが図られている(特許文献1の明細書段落[0025]~[0057]図4等)。
国際公開第2018/116580号
 このような立体画像を表示するデバイスにおいて、高品質な視聴体験を実現することが可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、高品質な視聴体験を実現することが可能な情報処理装置、情報処理方法、及び記録媒体を提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、表示制御部を具備する。
 前記表示制御部は、仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替える。
 この情報処理装置では、仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式が切り替えられる。これにより、高品質な視聴体験を実現することが可能となる。
 前記仮想空間は、第1の領域及び第2の領域を含んでもよい。この場合、前記表示制御部は、前記第1の領域に表示される前記仮想オブジェクトの表示形式を切り替えてもよい。
 前記情報処理装置であって、さらに、前記仮想オブジェクトが前記表示形式の切替の対象となるか否かを判定する判定部を具備してもよい。
 前記判定部は、前記位置情報に基づいて、前記仮想オブジェクトが前記第1の領域に存在するか否かを判定し、前記仮想オブジェクトが前記第1の領域に存在する場合、前記仮想オブジェクトを前記表示形式の切替の対象としてもよい。
 前記判定部は、前記位置情報に基づいて、前記仮想オブジェクトが前記第1の領域の境界を横断しているか否かを判定し、前記仮想オブジェクトが前記第1の領域を横断している場合、前記仮想オブジェクトを前記表示形式の切替の対象としてもよい。
 前記判定部は、前記視点情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトにおける前記視点情報が変化したか否かを判定し、前記視点情報が変化した場合、前記仮想オブジェクトを前記表示形式の切替の対象としてもよい。
 前記判定部は、前記位置情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトの前記位置情報が変化したか否かを判定し、前記位置情報が変化した場合、前記仮想オブジェクトを前記表示形式の切替の対象としてもよい。
 前記判定部は、前記視点情報及び前記位置情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトが前記ユーザの視界内に存在しているか否かを判定し、前記仮想オブジェクトが前記ユーザの視界内に存在している場合、前記仮想オブジェクトを前記表示形式の切替の対象としてもよい。
 前記情報処理装置であって、さらに、前記表示形式の切替の対象となった前記仮想オブジェクトに対する前記ユーザの視差を算出する算出部を具備してもよい。
 前記表示制御部は、前記算出部による算出結果に基づいて、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を切り替えてもよい。
 前記仮想オブジェクトは、立体画像及び平面画像を含んでもよい。この場合、前記表示形式の切替は、前記仮想オブジェクトを前記立体画像から前記平面画像への切替、又は前記仮想オブジェクトの前記平面画像から前記立体画像への切替の少なくとも一方を含んでもよい。
 前記表示制御部は、前記表示形式の切替の対象となった前記立体画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えている場合、前記表示形式の切替の対象となった前記仮想オブジェクトを前記立体画像から前記平面画像へ切り替えてもよい。
 前記表示制御部は、前記表示形式の切替の対象となった前記平面画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えている場合、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を維持してもよい。
 前記表示制御部は、前記表示形式の切替の対象となった前記平面画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えていない場合、前記表示形式の切替の対象となった前記仮想オブジェクトを前記平面画像から前記立体画像へ切り替えてもよい。
 前記表示制御部は、前記表示形式の切替の対象となった前記立体画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えていない場合、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を維持してもよい。
 前記判定部は、所定の時間内に前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えたか否かを判定し、前記所定の時間内に前記ユーザの視差の変化量が閾値を超えた場合、前記仮想オブジェクトを前記表示形式の切替の対象としてもよい。
 本技術の一形態に係る情報処理方法は、コンピュータシステムが実行する情報処理方法であって、仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替えることを含む。
 本技術の一形態に係るプログラムを記載した記録媒体は、コンピュータシステムに以下のステップを実行させる。
 仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替えるステップ。
本技術の第1の実施形態に係る画像表示システムを模式的に示す図である。 仮想空間を示す模式図である。 表示形式の切替が行われた仮想オブジェクトの表示例を示す模式図である。 情報処理装置の構成例を示すブロック図である。 表示形式の切替のフローチャートである。 仮想オブジェクトが表示領域を横断している場合を示す模式図である。 ユーザの視点の位置が変化した場合を示す模式図である。 仮想オブジェクトの位置が変化した場合を示す模式図である。 視差計算対象が複数の場合を示す模式図である。 ユーザの視点の位置が変化した場合を示す模式図である。 ユーザの視点の位置が変化した場合を示す模式図である。 完全没入型ヘッドマウントディスプレイ及びビデオシースルー型ヘッドマウントディスプレイの表示形式の切替のフローチャートである。 完全没入型ヘッドマウントディスプレイ及びビデオシースルー型ヘッドマウントディスプレイにおける仮想オブジェクトの2D表示方法を示す模式図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 <第1の実施形態>
 [画像表示システムの構成]
 図1は、本技術の第1の実施形態に係る画像表示システムを模式的に示す図である。図1Aは、画像表示システムの実施環境構成を示す模式図である。図1Bは、仮想オブジェクトの表示遷移図である。
 図1Aに示すように、画像表示システム100は、裸眼立体ディスプレイ(裸眼立体画像表示装置)10及び情報処理装置20を有する。
 裸眼立体ディスプレイ10は、仮想空間内に平面画像及び立体画像を表示可能な画像表示装置である。例えば、裸眼立体ディスプレイ10は、表示部やユーザ検出部(図示せず)等を有する。
 例えば、表示部は、平面画像及び立体画像を表示するディスプレイである。
 例えば、ユーザ検出部は、仮想空間を視認するユーザの視点情報を検出する。視点情報は、ユーザの左目の位置及び右目の位置を含む。それ以外にも、左目の視線方向、右目の視線方向、ユーザの視界、ユーザの姿勢、顔等が視点情報として検出されてもよい。
 また表示部であるディスプレイの姿勢を検出するための加速度センサ、ジャイロセンサ、又は磁気センサ等が搭載されてもよい。またユーザ検出部はカメラ、デプスカメラ、又は人感センサ等で構成されてもよいし、ユーザをトラッキング可能な構成で実現されてもよい。
 情報処理装置20は、CPU21、GPU22、及びHDD又はSSD23を有する。これ以外にも、情報処理装置20は、例えばDSP等のプロセッサ、ROMやRAM等のメモリ、記憶デバイス等、コンピュータの構成に必要なハードウェアを有する。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
 例えばPC等の任意のコンピュータにより、情報処理装置20を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
 本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての表示制御部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 プログラムは、例えば種々の記録媒体を介して情報処理装置20にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
 プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
 情報処理装置20は、ユーザの視点情報と、仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、仮想オブジェクトの表示形式を切り替える。本実施形態では、仮想オブジェクトは、立体画像及び平面画像を含む。すなわち、表示形式の切替とは、仮想オブジェクトの3D表示から2D表示への切替、及び仮想オブジェクトの2D表示から3D表示への切替を含む。
 仮想空間は、立体画像及び平面画像を表示可能な表示部によって表示される空間である。本実施形態では、仮想空間は、表示領域内と表示領域外とに区分される。典型的に、表示領域は、裸眼立体ディスプレイ10の表示部の大きさにより設定される。すなわち、ディスプレイの大きさや角度により設定される(図2参照)。なお、表示領域内及び表示領域外の大きさ(範囲)は任意に設定されてもよい。例えば、裸眼立体ディスプレイ10により表示されるコンテンツに応じて設定されてもよい。
 本実施形態では、情報処理装置20は、表示領域外に表示される仮想オブジェクトの表示形式を切り替える。図1Bに示すように、情報処理装置20は、3D表示されている仮想オブジェクトに対するユーザの視点、又は仮想オブジェクトの位置の変化量が閾値を超えた場合、3D表示されていた仮想オブジェクトを2D表示にする。また情報処理装置20は、3D表示されている仮想オブジェクトに対するユーザの視点、又は仮想オブジェクトの位置の変化量が閾値よりも少ない場合、3D表示を維持する。
 同様に、情報処理装置20は、2D表示されている仮想オブジェクトに対するユーザの視点、又は仮想オブジェクトの位置の変化量が閾値を下回った場合、2D表示されていた仮想オブジェクトを3D表示にする。また情報処理装置20は、2D表示されている仮想オブジェクトに対するユーザの視点、又は仮想オブジェクトの位置の変化量が閾値を超えた場合、2D表示を維持する。
 図2は、仮想空間を示す模式図である。
 図2に示すように、裸眼立体ディスプレイ10の表示面11によって表示される表示領域内12及び表示領域外13が図示される。
 本実施形態では、表示領域内12は、表示面11の大きさにより設定される。すなわち図2では、表示領域内12の体積は、表示面11の短辺A×sinθ、短辺A×cosθ、及び表示面11の長辺Bにより設定される。
 また表示領域外13は、仮想空間内の表示領域内12を除く範囲である。
 図2に示すような裸眼立体ディスプレイ10の場合、ユーザは、表示面11を俯瞰する視聴姿勢になるため、ディスプレイサイズに合わせた空間(表示領域内12)を明示することで立体感を増している。しかし、空間外(表示領域外13)に仮想オブジェクトが表示されると表示領域内12を認識できなくなり立体感が薄れてしまう。すなわちコンテンツ制作時の制約となる。
 また裸眼立体ディスプレイ10の場合、奥行き方向(短辺A×cosθ方向)に複数の仮想オブジェクトが配置される際に瞬間的(例えば1fps)に奥側に視差の大きな仮想オブジェクトが表示されると融像が困難になり二重に表示されるように見えるため、ユーザの酔いの原因になる。
 本発明では、ユーザの視点の位置及び仮想オブジェクトの移動に基づいて、3D表示から2D表示、及び2D表示から3D表示の表示形式の切替を動的に行う。これにより、表示領域内12の空間を維持しつつコンテンツ作成時の制約をなくすことが可能である。
 また本発明では、表示領域外13に表示された視差の閾値を超えた仮想オブジェクトが存在する場合、ユーザの視点の位置に合わせた2D画像として表示領域外13にレンダリングし、表示領域内12の背景テクスチャとして使用することでジオラマ背景のように表示される。これにより、ユーザの視聴体験を損なわれることを防ぐことが可能である。
 図3は、表示形式の切替が行われた仮想オブジェクトの表示例を示す模式図である。図3Aは、裸眼立体ディスプレイ10及び仮想空間を表示面11の長辺方向から見た場合の模式図である。図3Bは、2D及び3Dの描画位置を示す模式図である。
 図3Aに示すように、ユーザ14は、裸眼立体ディスプレイ10及び仮想空間を俯瞰する。図3Aでは、ユーザ14の手前側が表示領域内12を示し、裸眼立体ディスプレイ10の壁面15から奥側が表示領域外13である。また図3Aでは、仮想オブジェクト16が壁面15(表示領域内12の境界)を横断している場合が図示されている。
 この際に、表示領域内12の境界を横断している仮想オブジェクト16に対するユーザ14の視差の変化量が閾値を超えているとする。この場合、図4に後述する表示制御部28は、ユーザ14の視点に応じて、裸眼立体ディスプレイ10の壁面15に表示領域外13に存在する仮想オブジェクト16を図3Bに示すようにリアルタイムで2D投影する。すなわち、ユーザ14は、3D描画領域17と2D描画領域18とに表示された仮想オブジェクト16が、俯瞰図19のように3D表示と2D表示とが違和感なく融合された画面を視認することができる。
 このように、リアルタイムに視差に応じて、仮想オブジェクトの表示形式が切り替えられ、視点位置に追従した2D表示の背景画像が生成されることで、高品質な視聴体験を実現することが可能となる。
 図4は、図1に示す情報処理装置の構成例を示すブロック図である。
 図4に示すように、情報処理装置20は、ユーザ情報取得部24、コンテンツ情報取得部25、判定部26、算出部27、及び表示制御部28を有する。
 ユーザ情報取得部24は、仮想空間を視認するユーザに関する情報を取得する。本実施形態では、ユーザ情報取得部24は、裸眼立体ディスプレイ10に搭載されたユーザ検出部(例えばカメラ等)により取得されたユーザの画像情報から、ユーザの視点情報を取得する。
 ユーザ情報取得部24により取得された目の位置、目線、及び視界等の視点情報は、判定部26及び算出部27に供給される。
 なお、本実施形態では、ユーザの目や仮想オブジェクトの位置は、絶対座標系(ワールド座標系)により規定される座標値(例えばXYZ座標値)、あるいは、所定の点(例えば裸眼立体ディスプレイ10)を基準(原点)としたローカル座標系により規定される座標値(例えばxyz座標値又はuvd座標値)における位置を表す。
 コンテンツ情報取得部25は、裸眼立体ディスプレイ10により表示されるコンテンツに関する情報を取得する。本実施形態では、コンテンツ情報取得部25は、仮想空間内の仮想オブジェクトの位置及び形状を取得する。
 コンテンツ情報取得部25により取得された仮想オブジェクトの位置や形状は、判定部26及び算出部27に供給される。
 判定部26は、仮想オブジェクトが表示形式の切替の対象となるか否かを判定する。本実施形態では、判定部26は、表示領域外に仮想オブジェクトが存在するか否かを判定する。また本実施形態では、判定部26は、表示領域外に存在する仮想オブジェクトに対して種々の判定が行われ、表示形式の切替の対象となるか否かを判定する。具体的な判定方法は以下の4つのパターンに区分される。
 仮想オブジェクトが表示領域内から表示領域外を横断、又は表示領域内から表示領域外へ移動した場合の第1のパターン(図5のステップ104)。
 仮想オブジェクトに対するユーザの視点位置が変化した場合の第2のパターン(図5のステップ106)。
 表示領域外にいる仮想オブジェクトの位置が変化した場合の第3のパターン(図5のステップ108)。
 上記の第1のパターン、第2のパターン、又は第3のパターンの少なくとも2つを含む第4のパターン。
 なお、本実施形態における表示領域内から表示領域外を横断とは、仮想オブジェクトが表示領域内と表示領域外との境界をまたがった状態、かつ仮想オブジェクトが静止した状態を指す。
 判定部26により判定された判定結果は、算出部27に供給される。なお、判定部26による判定はコンテンツ内の各仮想オブジェクトに対して行われる。
 算出部27は、判定部26により表示形式の切替の対象となった仮想オブジェクトに対するユーザの視差を算出する。本実施形態では、算出部27は、仮想オブジェクトの判定結果(第1~4のパターン)に基づいて、ユーザの視差の変化量を算出する。
 算出部27により算出された算出結果は、表示制御部28に供給される。
 表示制御部28は、仮想空間を視認するユーザの視点情報と、仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、仮想オブジェクトの表示形式を切り替える。本実施形態では、表示制御部28は、算出部27により算出された視差の変化量が閾値を超えている場合に、3D表示されていた該仮想オブジェクトを2D表示にする。
 また本実施形態では、表示制御部28は、算出部27により算出された視差の変化量が閾値を超えていない場合に、2D表示されていた該仮想オブジェクトを3D表示にする。
 なお、本実施形態において、表示領域内12は、仮想空間に含まれる第1の領域に相当する。
 なお、本実施形態において、表示領域外は、仮想空間に含まれる第2の領域に相当する。
 なお、本実施形態において、判定部26は、仮想オブジェクトが表示形式の切替の対象となるか否かを判定する判定部に相当する。
 なお、本実施形態において、算出部27は、表示形式の切替の対象となった仮想オブジェクトに対するユーザの視差を算出する算出部に相当する。
 なお、本実施形態において、表示制御部28は、仮想空間を視認するユーザの視点情報と、仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、仮想オブジェクトの表示形式を切り替える表示制御部に相当する。
 図5は、表示形式の切替のフローチャートである。
 図5に示すように、コンテンツが再生されている際に(ステップ101のYES)、判定部26により、表示領域外に仮想オブジェクトが存在しているか否かが判定される(ステップ102)。
 表示領域外に仮想オブジェクトが存在している場合(ステップ102のYES)、判定部26により、ユーザの視点情報に基づいて、仮想オブジェクトがユーザの視界内に存在しているか否かが判定される(ステップ103)。
 仮想オブジェクトがユーザの視界内に存在している場合(ステップ103のYES)、判定部26により、仮想オブジェクトの位置情報に基づいて、仮想オブジェクトが表示領域内の境界を横断しているか否かが判定される(ステップ104)。仮想オブジェクトが表示領域内の境界を横断している場合(ステップ104のYES)、該仮想オブジェクトが視差計算対象に追加される(ステップ105)。
 図6は、仮想オブジェクトが表示領域を横断している場合を示す模式図である。
 図6に示すように、表示領域内30の境界31を仮想オブジェクト(岩32)が横断している。また図6では、表示領域外に仮想オブジェクトである木33、木34、及び岩35が存在するが、これらの仮想オブジェクトは静止しており、かつ、ユーザの視点の位置が変化しない。すなわち、ステップ104、ステップ106及びステップ108の判定により、これらの仮想オブジェクトは視差計算対象に追加されない。
 算出部27は、視差計算対象に追加された岩32の視差の変化量を算出する。表示制御部28は、視差の変化量が閾値以上の場合、3D表示されている岩32を2D表示へと切り替える。すなわち、表示制御部28は、図3に示す俯瞰図19のように岩32の一部を2D表示にする。
 また判定部26により、ユーザの視点情報に基づいて、ユーザの視点の位置が変化したか否かが判定される(ステップ106)。ユーザの視点の位置が変化した場合(ステップ106のYES)、該仮想オブジェクトが視差計算対象に追加される(ステップ107)。
 図7は、ユーザの視点の位置が変化した場合を示す模式図である。
 図7では、点線40に囲まれた仮想オブジェクト(木41)を例に説明をする。すなわち、木41は、表示領域外に存在し、かつ、ユーザ42の視界内に存在している仮想オブジェクトである。もちろんユーザ42の視界内に存在する全ての仮想オブジェクトに対してステップ106の判定が行われてよいし、設定された所定の数の仮想オブジェクトに対してのみ判定が行われてもよい。
 算出部27は、木41におけるユーザ42の視差の変化量を算出する。表示制御部28は、視差の変化量が閾値以上の場合、3D表示されている木41を2D表示へと切り替える。
 また判定部26により、仮想オブジェクトの位置情報に基づいて、仮想オブジェクトの位置が変化したか否かが判定される(ステップ108)。仮想オブジェクトの位置が変化した場合(ステップ108のYES)、該仮想オブジェクトが視差計算対象に追加される(ステップ109)。
 図8は、仮想オブジェクトの位置が変化した場合を示す模式図である。
 図8では、仮想オブジェクト(木50)が移動し、ユーザ51の視点は固定されているものとする。また木50以外の仮想オブジェクトはステップ104、ステップ106及びステップ108の判定に該当しないものとする。
 算出部27は、視差計算対象に追加された木50の視差の変化量を算出する。表示制御部28は、視差の変化量が閾値以上の場合、3D表示されている木50を2D表示へと切り替える。また表示制御部28は、ユーザ51から見た位置(角度)に応じた木50の2D画像を表示する。
 図9は、視差計算対象が複数の場合を示す模式図である。
 図9では、2D表示されている仮想オブジェクト60と、3D表示されている仮想オブジェクト61とが表示されている。
 この際に、ユーザ62が移動したとする。ユーザの視点の位置が変化したことから、判定部26により仮想オブジェクト60及び仮想オブジェクト61が視差計算対象に追加される。表示制御部28は、各仮想オブジェクトの視差の変化量が閾値を超えているか否かに応じて、表示形式を切り替える。また表示制御部28は、2D表示されている仮想オブジェクト60及び新たに2D表示された仮想オブジェクトをユーザ62から見た位置に応じた仮想オブジェクトの2D画像を表示する。
 ステップ104、106、及び108の判定により視差計算対象が存在する場合(ステップ110のYES)、算出部27により視差の変化量が算出される(ステップ111)。
 本実施形態では、視差の変化量は以下の式で表される。
 視差角変化量Δd=|現在の視差角d―前の視差角d'|
 また視差角の求め方は以下の式(数1)で表される。なおθは0<θ<πとする。
Figure JPOXMLDOC01-appb-M000001
 図10は、ユーザの視点の位置が変化した場合を示す模式図である。
 図10に示すように、仮想オブジェクト70が座標(x'、y'、z')から座標(x、y、z)に移動したとする。また左目71の座標を(a、b、c)、右目72の座標を(d、e、f)とし、左目71と右目72の距離をLとする。
 算出部27により、図10の状態から数1の式に従い現在の視差角dと前の視差角d'とが算出される。表示制御部28は、算出された視差角の変化量の絶対値である視差変化量が閾値を超えている場合、仮想オブジェクト70を2D表示にする。
 図11は、ユーザの視点の位置が変化した場合を示す模式図である。
 図11に示すように、左目76が座標(a'、b'、c')から座標(a、b、c)へ移動し、同様に右目77が座標(d'、e'、f')から座標(d、e、f)へ移動したとする。また仮想オブジェクト75の座標を(x、y、z)とする。
 算出部27により、図11の状態から数1の式に従い現在の視差角dと前の視差角d'とが算出される。表示制御部28は、算出された視差角の変化量の絶対値である視差変化量が閾値を超えている場合、仮想オブジェクト75を2D表示にする。
 表示制御部28は、算出部27により算出された視差変化量が閾値を超えている場合(ステップ112のYES)、仮想オブジェクト75を2D表示とする(ステップ113)。この場合、表示制御部28は、ユーザの視点の位置に応じて、背景として仮想オブジェクト75の2D画像を壁面上に描写する。
 表示制御部28は、算出部27により算出された視差変化量が閾値以下の場合(ステップ112のNO)、2D表示される仮想オブジェクトを3D表示へと切り替える、又は3D表示される仮想オブジェクトの表示形式を維持する(ステップ114)。
 以上、本実施形態に係る情報処理装置20は、仮想空間を視認するユーザの視点情報と、仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、仮想オブジェクトの表示形式を切り替える。これにより、高品質な視聴体験を実現することが可能となる。
 従来、裸眼の3D表示ディスプレイである裸眼立体ディスプレイに3DCGオブジェクトを用いたコンテンツを表示する場合に、ユーザは、ディスプレイを俯瞰する視聴姿勢になる。そのため、ディスプレイサイズに合わせた空間を明示することで立体感を増している。しかし、空間外に仮想オブジェクトが表示されると空間を認識できなくなり立体感が薄れてしまう。また裸眼立体ディスプレイの場合、奥行き方向に複数の仮想オブジェクトが配置される際に瞬間的に奥側に視差の大きな仮想オブジェクトが表示されると融像が困難になり二重に表示されるように見えるため、ユーザの酔いの原因になる。
 本技術では、表示領域外に表示された仮想オブジェクトを対象として、それらの仮想オブジェクトに瞬間的に任意の閾値以上の視差が発生した場合に、表示領域外の仮想オブジェクトを2Dで表示領域内の壁面に描画することで視差の変化をなくす。その際に表示領域外の仮想オブジェクトをある固定視点の画像として壁面に表示すると表示領域の内外で見え方に差が生じるため、ユーザの視点位置に応じて表示領域外の仮想オブジェクトをリアルタイムで壁面に描画する。
 すなわち本技術は、表示領域の内外を跨ぐような仮想オブジェクトについては表示領域内の部分は3D表示し、表示領域外の部分は壁面で隠蔽して壁面に投影された画像をユーザに提示する表示形式の切替及び視点位置に応じたリアルタイム2D背景生成を行う。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記の実施形態では、視界内に存在する仮想オブジェクトに対して判定が行われ、視差計算対象に追加された。これに限定されず、表示されている全ての仮想オブジェクトに対して判定及び視差角変化量の算出が行われてもよい。
 上記の実施形態では、ステップ104、ステップ106、及びステップ108の判定により視差計算対象が追加された。これに限定されず、様々な方法により仮想オブジェクトが視差計算対象に追加されてもよい。例えば、裸眼立体ディスプレイ10等の表示デバイスの演算能力や解像度等のスペックに応じ、視差計算対象に追加される数が設定されてもよい。また例えば、視差計算対象に追加される仮想オブジェクトの数が一定数を超えた場合に、視差の変化量を計算せずに仮想オブジェクトが2D表示にされてもよい。
 上記の実施形態では、3D表示ディスプレイとして裸眼立体ディスプレイ10が用いられた。これに限定されず、完全没入型ヘッドマウントディスプレイ(HMD)やビデオシースルー型ヘッドマウントディスプレイが用いられてもよい。
 完全没入型ヘッドマウントディスプレイで仮想空間内の仮想オブジェクトを両目視差を用いて立体映像として表示する場合、視界にある仮想オブジェクト(HMD上に表示されている仮想オブジェクト)のうち視点位置を中心として任意の距離を半径とする領域外の仮想オブジェクトを対象として視差の計算を行う。
 なお、距離の設定はアプリの開発者が設定してもよいし、ユーザ(視聴者)が設定メニュー等を介して設定してもよい。
 またビデオシースルー型ヘッドマウントディスプレイで前面に設置されたステレオカメラから入力された映像を左目及び右目にそれぞれ表示することで両目視差を用いた立体視差を行う場合、視界にある仮想オブジェクト(HMD上に表示されている仮想オブジェクト)のうち視点位置を中心として任意の距離を半径とする領域外の仮想オブジェクトを対象として視差の計算を行う。
 なお、距離の設定はアプリの開発者が設定してもよいし、ユーザ(視聴者)が設定メニュー等を介して設定してもよい。
 図12は、完全没入型ヘッドマウントディスプレイ及びビデオシースルー型ヘッドマウントディスプレイの表示形式の切替のフローチャートである。
 なお、図12に示すステップ201からステップ212は、図5に示すステップ101からステップ112と同様のため説明を省略する。
 視差の変化量が閾値以下の場合(ステップ212のNO)、裸眼立体ディスプレイ10の壁面に相当する2D描画面(ビルボード)が作成される(ステップ213)。本実施形態では、表示制御部28により、視点位置及び視差計算対象である仮想オブジェクトを結ぶ線と表示領域の境界面の交点とを中心とする2D描写面が作成される。
 表示制御部28は、作成された2D描写面に対して、視点位置に応じた3D表示の見え方に適した仮想オブジェクトの2D表示をリアルタイムで2D描写面に投影する(ステップ214)。
 図13は、完全没入型ヘッドマウントディスプレイ及びビデオシースルー型ヘッドマウントディスプレイにおける仮想オブジェクトの2D表示方法を示す模式図である。
 図13に示すように、完全没入型ヘッドマウントディスプレイ又はビデオシースルー型ヘッドマウントディスプレイを装着しているユーザ80と、表示領域81と、仮想オブジェクト82と、2D描写面83とが図示される。
 図13では、ユーザ80(視点位置)を中心に任意の距離Rを半径とする表示領域81が設定されている。また本実施形態では、仮想オブジェクト82が視差計算対象として追加されており、視差変化量が閾値を超えているとする。
 この場合、図12のステップ213に示すように、表示制御部28は、2D描写面83を作成する。本実施形態では、視点位置80及び仮想オブジェクト82を結ぶ線84と表示領域81の境界面の交点85とを中心とする2D描写面83が作成される。
 表示制御部28は、視点位置80に応じた3D表示の見え方に適した仮想オブジェクト82の2D表示をリアルタイムで2D描写面83に投影する。
 なお、2D描写面83は常に視点位置80(ユーザ)の方を向いており、常に視点位置80及び仮想オブジェクト82を結ぶ線84と表示領域81の境界面の交点85を中心とする。また2D描写面83は透過していてもよい。
 各図面を参照して説明した判定部、算出部、表示制御部等の各構成、表示形式の切替フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
 また本技術に係る情報処理装置、情報処理方法、及び記録媒体は、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る情報処理装置、情報処理方法、及び記録媒体の実行は、例えば、仮想オブジェクトの判定、視差角の算出、及び表示形式の切替等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る情報処理装置、情報処理方法、及び記録媒体は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。
 以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)
 仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替える表示制御部
 を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
 前記仮想空間は、第1の領域及び第2の領域を含み、
 前記表示制御部は、前記第1の領域に表示される前記仮想オブジェクトの表示形式を切り替える
 情報処理装置。
(3)(2)に記載の情報処理装置であって、さらに、
 前記仮想オブジェクトが前記表示形式の切替の対象となるか否かを判定する判定部を具備する
 情報処理装置。
(4)(3)に記載の情報処理装置であって、
 前記判定部は、前記位置情報に基づいて、前記仮想オブジェクトが前記第1の領域に存在するか否かを判定し、前記仮想オブジェクトが前記第1の領域に存在する場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
 情報処理装置。
(5)(3)に記載の情報処理装置であって、
 前記判定部は、前記位置情報に基づいて、前記仮想オブジェクトが前記第1の領域の境界を横断しているか否かを判定し、前記仮想オブジェクトが前記第1の領域を横断している場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
 情報処理装置。
(6)(3)に記載の情報処理装置であって、
 前記判定部は、前記視点情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトにおける前記視点情報が変化したか否かを判定し、前記視点情報が変化した場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
 情報処理装置。
(7)(3)に記載の情報処理装置であって、
 前記判定部は、前記位置情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトの前記位置情報が変化したか否かを判定し、前記位置情報が変化した場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
 情報処理装置。
(8)(3)に記載の情報処理装置であって、
 前記判定部は、前記視点情報及び前記位置情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトが前記ユーザの視界内に存在しているか否かを判定し、前記仮想オブジェクトが前記ユーザの視界内に存在している場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
 情報処理装置。
(9)(3)に記載の情報処理装置であって、さらに、
 前記表示形式の切替の対象となった前記仮想オブジェクトに対する前記ユーザの視差を算出する算出部を具備する
 情報処理装置。
(10)(9)に記載の情報処理装置であって、
 前記表示制御部は、前記算出部による算出結果に基づいて、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を切り替える
 情報処理装置。
(11)(9)に記載の情報処理装置であって、
 前記仮想オブジェクトは、立体画像及び平面画像を含み、
 前記表示形式の切替は、前記仮想オブジェクトを前記立体画像から前記平面画像への切替、又は前記仮想オブジェクトの前記平面画像から前記立体画像への切替の少なくとも一方を含む
 情報処理装置。
(12)(11)に記載の情報処理装置であって、
 前記表示制御部は、前記表示形式の切替の対象となった前記立体画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えている場合、前記表示形式の切替の対象となった前記仮想オブジェクトを前記立体画像から前記平面画像へ切り替える
 情報処理装置。
(13)(11)に記載の情報処理装置であって、
 前記表示制御部は、前記表示形式の切替の対象となった前記平面画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えている場合、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を維持する
 情報処理装置。
(14)(11)に記載の情報処理装置であって、
 前記表示制御部は、前記表示形式の切替の対象となった前記平面画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えていない場合、前記表示形式の切替の対象となった前記仮想オブジェクトを前記平面画像から前記立体画像へ切り替える
 情報処理装置。
(15)(11)に記載の情報処理装置であって、
 前記表示制御部は、前記表示形式の切替の対象となった前記立体画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えていない場合、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を維持する
 情報処理装置。
(16)(9)に記載の情報処理装置であって、
 前記判定部は、所定の時間内に前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えたか否かを判定し、前記所定の時間内に前記ユーザの視差の変化量が閾値を超えた場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
 情報処理装置。
(17)
 仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替える
 ことをコンピュータシステムが実行する情報処理方法。
(18)
 仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替えるステップ
 をコンピュータシステムに実行させるプログラムを記載した記録媒体。
 12…表示領域内
 13…表示領域外
 20…情報処理装置
 26…判定部
 27…算出部
 28…表示制御部
 100…画像表示システム

Claims (18)

  1.  仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替える表示制御部
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記仮想空間は、第1の領域及び第2の領域を含み、
     前記表示制御部は、前記第1の領域に表示される前記仮想オブジェクトの表示形式を切り替える
     情報処理装置。
  3.  請求項2に記載の情報処理装置であって、さらに、
     前記仮想オブジェクトが前記表示形式の切替の対象となるか否かを判定する判定部を具備する
     情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記判定部は、前記位置情報に基づいて、前記仮想オブジェクトが前記第1の領域に存在するか否かを判定し、前記仮想オブジェクトが前記第1の領域に存在する場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
     情報処理装置。
  5.  請求項3に記載の情報処理装置であって、
     前記判定部は、前記位置情報に基づいて、前記仮想オブジェクトが前記第1の領域の境界を横断しているか否かを判定し、前記仮想オブジェクトが前記第1の領域を横断している場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
     情報処理装置。
  6.  請求項3に記載の情報処理装置であって、
     前記判定部は、前記視点情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトにおける前記視点情報が変化したか否かを判定し、前記視点情報が変化した場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
     情報処理装置。
  7.  請求項3に記載の情報処理装置であって、
     前記判定部は、前記位置情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトの前記位置情報が変化したか否かを判定し、前記位置情報が変化した場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
     情報処理装置。
  8.  請求項3に記載の情報処理装置であって、
     前記判定部は、前記視点情報及び前記位置情報に基づいて、前記第1の領域に存在する前記仮想オブジェクトが前記ユーザの視界内に存在しているか否かを判定し、前記仮想オブジェクトが前記ユーザの視界内に存在している場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
     情報処理装置。
  9.  請求項3に記載の情報処理装置であって、さらに、
     前記表示形式の切替の対象となった前記仮想オブジェクトに対する前記ユーザの視差を算出する算出部を具備する
     情報処理装置。
  10.  請求項9に記載の情報処理装置であって、
     前記表示制御部は、前記算出部による算出結果に基づいて、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を切り替える
     情報処理装置。
  11.  請求項9に記載の情報処理装置であって、
     前記仮想オブジェクトは、立体画像及び平面画像を含み、
     前記表示形式の切替は、前記仮想オブジェクトを前記立体画像から前記平面画像への切替、又は前記仮想オブジェクトの前記平面画像から前記立体画像への切替の少なくとも一方を含む
     情報処理装置。
  12.  請求項11に記載の情報処理装置であって、
     前記表示制御部は、前記表示形式の切替の対象となった前記立体画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えている場合、前記表示形式の切替の対象となった前記仮想オブジェクトを前記立体画像から前記平面画像へ切り替える
     情報処理装置。
  13.  請求項11に記載の情報処理装置であって、
     前記表示制御部は、前記表示形式の切替の対象となった前記平面画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えている場合、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を維持する
     情報処理装置。
  14.  請求項11に記載の情報処理装置であって、
     前記表示制御部は、前記表示形式の切替の対象となった前記平面画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えていない場合、前記表示形式の切替の対象となった前記仮想オブジェクトを前記平面画像から前記立体画像へ切り替える
     情報処理装置。
  15.  請求項11に記載の情報処理装置であって、
     前記表示制御部は、前記表示形式の切替の対象となった前記立体画像の前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えていない場合、前記表示形式の切替の対象となった前記仮想オブジェクトの表示形式を維持する
     情報処理装置。
  16.  請求項9に記載の情報処理装置であって、
     前記判定部は、所定の時間内に前記仮想オブジェクトに対する前記ユーザの視差の変化量が閾値を超えたか否かを判定し、前記所定の時間内に前記ユーザの視差の変化量が閾値を超えた場合、前記仮想オブジェクトを前記表示形式の切替の対象とする
     情報処理装置。
  17.  仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替える
     ことをコンピュータシステムが実行する情報処理方法。
  18.  仮想空間を視認するユーザの視点情報と、前記仮想空間内に表示される仮想オブジェクトの位置情報とに基づいて、前記仮想オブジェクトの表示形式を切り替えるステップ
     をコンピュータシステムに実行させるプログラムを記載した記録媒体。
PCT/JP2022/000675 2021-05-11 2022-01-12 情報処理装置、情報処理方法、及び記録媒体 WO2022239297A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280032695.4A CN117242770A (zh) 2021-05-11 2022-01-12 信息处理装置、信息处理方法和记录介质
JP2023520765A JPWO2022239297A1 (ja) 2021-05-11 2022-01-12

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021080232 2021-05-11
JP2021-080232 2021-05-11

Publications (1)

Publication Number Publication Date
WO2022239297A1 true WO2022239297A1 (ja) 2022-11-17

Family

ID=84028121

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/000675 WO2022239297A1 (ja) 2021-05-11 2022-01-12 情報処理装置、情報処理方法、及び記録媒体

Country Status (3)

Country Link
JP (1) JPWO2022239297A1 (ja)
CN (1) CN117242770A (ja)
WO (1) WO2022239297A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069413A1 (ja) * 2011-11-10 2013-05-16 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2017078890A (ja) * 2015-10-19 2017-04-27 株式会社コロプラ 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
WO2017203818A1 (ja) * 2016-05-23 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018116580A1 (ja) * 2016-12-19 2018-06-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069413A1 (ja) * 2011-11-10 2013-05-16 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2017078890A (ja) * 2015-10-19 2017-04-27 株式会社コロプラ 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
WO2017203818A1 (ja) * 2016-05-23 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018116580A1 (ja) * 2016-12-19 2018-06-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
CN117242770A (zh) 2023-12-15
JPWO2022239297A1 (ja) 2022-11-17

Similar Documents

Publication Publication Date Title
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
US9904056B2 (en) Display
EP3712840A1 (en) Method and system for generating an image of a subject in a scene
US11350156B2 (en) Method and apparatus for implementing video stream overlays
US11190756B2 (en) Head-mountable display system
CN112513712A (zh) 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
JPWO2017183346A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
GB2481366A (en) 3D interactive display and pointer control
US8749547B2 (en) Three-dimensional stereoscopic image generation
JP2017016577A (ja) 情報処理装置、その制御方法及びプログラム
TW201919390A (zh) 顯示系統以及顯示方法
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
JPWO2019044188A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2010259017A (ja) 表示装置、表示方法、および表示プログラム
US9628770B2 (en) System and method for stereoscopic 3-D rendering
US20190259211A1 (en) Image display system, image display device, control method therefor, and program
WO2022239297A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
EP4207067A1 (en) Apparatus and method for virtual reality
JP2019032713A (ja) 情報処理装置、情報処理方法及びプログラム
KR101473234B1 (ko) 신체 트래킹에 기반한 영상 디스플레이 방법 및 시스템
JP6613099B2 (ja) 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム
JP6562371B1 (ja) 表示装置、表示処理装置、および表示処理プログラム
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
TWI812548B (zh) 生成並排三維影像的方法及電腦裝置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22807004

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18556363

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2023520765

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE