JP2024034133A - 提供装置および提供方法 - Google Patents

提供装置および提供方法 Download PDF

Info

Publication number
JP2024034133A
JP2024034133A JP2022138179A JP2022138179A JP2024034133A JP 2024034133 A JP2024034133 A JP 2024034133A JP 2022138179 A JP2022138179 A JP 2022138179A JP 2022138179 A JP2022138179 A JP 2022138179A JP 2024034133 A JP2024034133 A JP 2024034133A
Authority
JP
Japan
Prior art keywords
user
space
real
virtual space
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022138179A
Other languages
English (en)
Inventor
啓伸 常峰
Hironobu Tokimine
睦 山本
Mutsumi Yamamoto
克己 綿貫
Katsumi Watanuki
勝行 金子
Katsuyuki Kaneko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022138179A priority Critical patent/JP2024034133A/ja
Priority to PCT/JP2023/024589 priority patent/WO2024048060A1/ja
Publication of JP2024034133A publication Critical patent/JP2024034133A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想空間を提供する際の違和感を低減すること。【解決手段】提供装置は、ユーザが存在する実空間の実オブジェクトの、実空間の位置情報を取得する実空間情報取得部と、仮想空間に存在する仮想オブジェクトの、仮想空間の位置情報を取得する仮想空間情報取得部と、実空間において実オブジェクトに対してユーザが所定の動作を行ったか否かを判定するユーザ動作判定部と、実空間の位置情報と仮想空間の位置情報とを整合させ、実空間においてユーザが実オブジェクトに対して所定の動作を行ったとユーザ動作判定部が判定した場合に、実空間と仮想空間との間の状態を示す遷移映像を生成し、ユーザに対して仮想空間を提供する前に遷移映像を含む遷移空間を提供する仮想空間提供部と、を備える。【選択図】図3

Description

本発明は、提供装置および提供方法に関する。
ヘッドマウントディスプレイ(HMD:Head Mount Display)などのウェアラブルデバイスを用いて、AR(Augmented Reality)空間や、VR(Virtual Reality)空間などの仮想空間を提供する技術が知られている。例えば、特許文献1には、高品質のバーチャルリアリティ体験を提供することのできる技術が開示されている。
特開2019-8513号公報
ユーザに仮想空間を提供する場合、ユーザが視認する映像は急激に変化する。このため、ユーザが視認する映像が実空間から仮想空間に移行した際に違和感を与える可能性がある。
本発明は、仮想空間を提供する際の違和感を低減することのできる提供装置および提供方法を提供することを目的とする。
本発明の提供装置は、ユーザが存在する実空間の実オブジェクトの、前記実空間の位置情報を取得する実空間情報取得部と、仮想空間に存在する仮想オブジェクトの、前記仮想空間の位置情報を取得する仮想空間情報取得部と、前記実空間において前記実オブジェクトに対して前記ユーザが所定の動作を行ったか否かを判定するユーザ動作判定部と、前記実空間の位置情報と前記仮想空間の位置情報とを整合させ、前記実空間において前記ユーザが前記実オブジェクトに対して所定の動作を行ったと前記ユーザ動作判定部が判定した場合に、前記実空間と前記仮想空間との間の状態を示す遷移映像を生成し、前記ユーザに対して前記仮想空間を提供する前に前記遷移映像を含む遷移空間を提供する仮想空間提供部と、を備える。
本発明の提供方法は、ユーザが存在する実空間の実オブジェクトの、前記実空間の位置情報を取得するステップと、仮想空間に存在する仮想オブジェクトの、前記仮想空間の位置情報を取得するステップと、前記実空間において前記実オブジェクトに対して前記ユーザが所定の動作を行ったか否かを判定するステップと、前記実空間の位置情報と前記仮想空間の位置情報とを整合させ、前記実空間において前記ユーザが前記実オブジェクトに対して所定の動作を行ったと判定された場合に、前記実空間と前記仮想空間との間の状態を示す遷移映像を生成し、前記ユーザに対して前記仮想空間を提供する前に前記遷移映像を含む遷移空間を提供するステップと、を含む。
本発明によれば、仮想空間を提供する際の違和感を低減することができる。
図1は、実施形態に係る実空間と仮想空間の概要を説明するための図である。 図2は、実施形態に係る提供システムの構成例を示す図である。 図3は、実施形態に係る提供装置の構成例を示すブロック図である。 図4は、実施形態に係る提供装置の仮想空間の提供処理の流れを示すフローチャートである。 図5は、実施形態に係る提供装置の仮想空間の提供を終了する処理の流れを示すフローチャートである。 図6は、実施形態の変形例に係る提供装置の構成例を示すブロック図である。 図7は、実施形態の変形例に係る提供装置の仮想空間の提供処理の流れを示すフローチャートである。
以下、添付図面を参照して、本発明に係る実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[実施形態]
図1を用いて、実施形態に係る実空間と仮想空間の概要について説明する。図1は、実施形態に係る実空間と仮想空間の概要を説明するための図である。
本実施形態において、提供装置10は、ユーザUに対して仮想空間を提供する。提供装置10は、画像を表示することでユーザUに対して仮想空間を提供する。提供装置10は、例えば、ユーザUの頭部に装着されるヘッドマウントディスプレイである。
図1に示す例では、ユーザUが実際に存在する現実の空間を実空間100とし、提供装置10が提供する仮想の空間を仮想空間200とする。提供装置10は、実空間100におけるユーザUの視線および体の動きを含む動作に応じて、仮想空間200用の画像を表示する。提供装置10は、ユーザUが仮想空間200でユーザアバターAUとして動作していることを模擬して、仮想空間200用の画像を表示する。本実施形態では、提供装置10は、実空間100においてユーザUが窓110および机120等の実オブジェクトに対して所定の動作を取った場合に、実空間100と仮想空間200との間の遷移映像を表示させた後に、仮想空間200用の画像を表示する。これにより、ユーザUは、ユーザU自身が仮想空間200内に存在していると認識することができる。本実施形態において、仮想空間200は、AR空間であってもよいし、VR空間であってもよいし、MR(Mixed Reality)空間であってもよい。
(提供システム)
図2を用いて、実施形態に係る提供システムの構成例について説明する。図2は、実施形態に係る提供システムの構成例を示す図である。
図2に示すように、提供システム1は、提供装置10と、情報処理装置12とを含む。提供装置10と、情報処理装置12とは、有線または無線のネットワークNを介して、通信可能に接続されている。ネットワークNは、例えば、インターネット網であるが、これに限定されない。
本実施形態では、提供システム1は、ユーザUに仮想空間200を提供する。図1に示す例では、ユーザUが提供装置10を装着しており、提供装置10は、仮想空間200におけるユーザアバターAUの視野範囲Rの仮想空間200の画像を、仮想空間200用の画像としてユーザUに提供する。なお、情報処理装置12は、ユーザUとは異なる複数の他のユーザに対して仮想空間200を提供してもよい。すなわち、仮想空間200は、複数のユーザで共有できる空間であってもよい。仮想空間を共有するユーザの数は、任意であってよい。
情報処理装置12は、仮想空間200用の情報の情報処理を行う装置である。情報処理装置12は、提供装置10と情報の送受信を行って、仮想空間200用の画像の画像処理を行うサーバといえる。例えば、情報処理装置12は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの演算装置と、RAM(Random Access Memory)又はROM(Read Only Memory)などの記憶装置とを有する。情報処理装置12は、コンピュータであり、記憶装置からプログラム(ソフトウェア)を読み出して実行することで、処理を実行する。
(提供装置)
図3を用いて、実施形態に係る提供装置の構成例について説明する。図3は、実施形態に係る提供装置の構成例を示すブロック図である。
図3に示すように、提供装置10は、入力部20と、出力部22と、記憶部24と、通信部26と、検出部28と、制御部30と、を備える。
入力部20は、提供装置10に対する各種の入力操作を受け付ける。入力部20は、受け付けた入力操作に応じた操作信号を制御部30に出力する。入力部20は、例えば、ボタン、スイッチ、マイクなどを含む。
出力部22は、各種の情報を出力する。出力部22は、例えば、各種の映像を表示する表示部を含む。表示部は、例えば、液晶ディスプレイ、有機EL(Electro-Luminescence)などを含むディスプレイである。出力部22は、例えば、各種の音声を出力するスピーカ、イヤホンジャックなどを含む。
記憶部24は、各種の情報を記憶している。記憶部24は、制御部30の演算内容、およびプログラム等の情報を記憶する。記憶部24は、例えば、RAMと、ROMのような主記憶装置、HDD(Hard Disk Drive)等の外部記憶装置とのうち、少なくとも1つ含む。
通信部26は、提供装置10と、外部の装置との間の通信を実行する通信モジュールである。通信部26は、例えば、提供装置10と、情報処理装置12との間の通信を実行する。
検出部28は、実空間100におけるユーザUの各種の状態と、提供装置10の周囲とを検出するセンサである。検出部28は、実空間100におけるユーザUの位置と、ユーザUの姿勢と、提供装置10の周囲とを検出するセンサである。
検出部28は、例えば、位置センサ、加速度センサ、ジャイロセンサ、ステレオカメラ、およびToF(Time of Flight)センサなどを含む。位置センサは、実空間におけるユーザUの位置を検出する。加速度センサは、実空間100におけるユーザUの動きを検出する。ジャイロセンサは、実空間100におけるユーザUの姿勢を検出する。ステレオカメラおよびToFセンサは、実空間における提供装置10の周囲を検出する。検出部28は、例えば、ユーザUの頭、手、腰、足などに装着される。
検出部28は、実空間100おけるユーザUの位置と、ユーザUの姿勢と、提供装置10の周囲の実空間100に存在する物体とを検出可能であれば、これらに限定されない。検出部28は、例えば、LiDAR(Light Detection And Ranging)で実空間100に存在する物体を検出してもよい。検出部28は、例えば、カメラで撮像した実空間100の画像を用いてユーザUの位置および姿勢を検出してもよい。検出部28は、位置センサとしてGPS(Global Positioning System)やビーコンなどを用いてもよい。
制御部30は、提供装置10の各部を制御する。制御部30は、例えば、CPUやMPUなどの情報処理装置と、RAM又はROMなどの記憶装置とを有する。制御部30は、本発明に係る提供装置10の動作を制御するプログラムを実行する。制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部30は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。
制御部30は、実空間情報取得部40と、仮想空間情報取得部42と、位置情報取得部44と、ユーザ動作判定部46と、仮想空間提供部48と、を備える。
実空間情報取得部40は、実空間100に存在する実オブジェクトに関する情報を取得する。実オブジェクトは、実空間100に存在する物体をいう。図1に示す例では、窓110および机120が実オブジェクトの一種である。実オブジェクトに関する情報は、実空間100における、ユーザUと実オブジェクトとの相対位置関係を示す相対位置情報と、実オブジェクトの絶対位置情報を示す絶対位置情報とを含む。実オブジェクトに関する情報は、実オブジェクトの形状に関する情報、実オブジェクトの種類に関する情報を含む。
実空間情報取得部40は、検出部28を制御して、検出部28に提供装置10の周囲の物体を検出させる。実空間情報取得部40は、検出部28による検出結果に基づいて、公知の技術を用いて検出した物体から複数の特徴点および領域を抽出する。実空間情報取得部40は、抽出した特徴点および領域に基づいて、実オブジェクトに関する情報を取得する。実空間情報取得部40が実オブジェクトに関する情報を取得する方法は、これに限定されない。例えば、ユーザUの部屋の家具の位置や形状の情報などが、実オブジェクトに関する情報として予め設定されており、実空間情報取得部40は、設定された実オブジェクトに関する情報を取得してもよい。
実空間情報取得部40によって取得される対象となる実オブジェクトの種類は任意であってよい。本実施形態において、実空間情報取得部40は、実空間において動かない物体(例えば窓110や机120など)についての位置情報および形状情報を、実オブジェクトの情報として取得する。
仮想空間情報取得部42は、仮想空間200に存在する仮想オブジェクトに関する情報を取得する。仮想オブジェクトは、仮想空間200に存在する物体をいう。図1に示す例では、仮想窓210および仮想机220が仮想オブジェクトの一種である。仮想オブジェクトに関する情報は、仮想空間200における、ユーザアバターAUと仮想オブジェクトとの相対位置関係を示す相対位置情報と、仮想オブジェクトの絶対位置情報を示す絶対位置情報とを含む。仮想オブジェクトに関する情報は、仮想オブジェクトの形状に関する情報、仮想オブジェクトの種類に関する情報を含む。
位置情報取得部44は、ユーザ位置情報を取得する。ユーザ位置情報は、実空間情報取得部40が取得した実オブジェクトに関する情報と、仮想空間情報取得部42が取得した仮想オブジェクトに関する情報とに基づいて設定された、仮想空間200におけるユーザアバターAUの位置を示す情報である。
本実施形態では、位置情報取得部44は、実オブジェクトとユーザUの位置関係に基づいて算出した、仮想オブジェクトと仮想空間200におけるユーザアバターAUの位置関係によってユーザ位置情報を設定する。具体的には、位置情報取得部44は、仮想空間200におけるユーザアバターAUに対する仮想オブジェクトの位置が、実空間100におけるユーザUに対する実オブジェクトの位置に対応するように、ユーザ位置情報を設定する。言い換えれば、ユーザ位置情報が示す仮想空間200におけるユーザアバターAUの位置は、仮想オブジェクトからユーザアバターAUまでの向きおよび距離が、実空間100における実オブジェクトからユーザUまでの向きおよび距離に対応するように、設定される。
ユーザ動作判定部46は、実空間100において、ユーザUが実オブジェクトに対して所定の動作を行ったか否かを判定する。ユーザ動作判定部46は、例えば、ユーザUの実オブジェクトに対する着目度を判定する。実オブジェクトに対する着目度は、実オブジェクトを注視している時間や、実オブジェクトを所定の間隔で繰り返し見た回数などにより算出される。ユーザ動作判定部46は、実オブジェクトを注視している時間が長いほど、および実オブジェクトを所定の間隔で繰り返し見た回数が多いほど、着目度を高く算出する。ユーザ動作判定部46は、ユーザUの実オブジェクトに対する着目度が所定の閾値を超えているか否かを判定する。ユーザ動作判定部46は、例えば、ユーザUが実オブジェクトに対して手をかざしたか否かを判定する。ユーザ動作判定部46は、例えば、ユーザUが実オブジェクトに所定距離以内に近づいた状態で、その実オブジェクトに対して手をかざしたか否かを判定する。実空間100における所定の動作は、これらに限定されず、その他の動作が含まれてよい。実空間100における所定の動作は、予めユーザUが任意に設定することができる。
ユーザ動作判定部46は、仮想空間200において、ユーザアバターAUが仮想オブジェクトに対して所定の動作を行ったか否かを判定する。ユーザ動作判定部46は、例えば、ユーザアバターAUの仮想オブジェクトに対する着目度を判定する。仮想オブジェクトに対する着目度は、仮想オブジェクトを注視している時間や、仮想オブジェクトを所定の間隔で繰り返し見た回数などにより算出される。ユーザ動作判定部46は、仮想オブジェクトを注視している時間が長いほど、および仮想オブジェクトを所定の間隔で繰り返し見た回数が多いほど、着目度を高く算出する。ユーザ動作判定部46は、ユーザアバターAUの仮想オブジェクトに対する着目度が所定の閾値を超えているか否かを判定する。ユーザ動作判定部46は、例えば、ユーザアバターAUが仮想オブジェクトに対して手をかざしたか否かを判定する。ユーザ動作判定部46は、例えば、ユーザアバターAUが仮想オブジェクトに所定距離以内に近づいた状態で、その仮想オブジェクトに対して手をかざしたか否かを判定する。仮想空間200における所定の動作は、これらに限定されず、その他の動作が含まれてよい。仮想空間200における所定の動作は、予めユーザUが任意に設定することができる。
仮想空間提供部48は、ユーザ位置情報に基づいて、ユーザUに仮想空間200を提供する。仮想空間提供部48は、ユーザ位置情報が示す位置を仮想空間200におけるユーザアバターAUの位置に設定して、ユーザUに仮想空間200を提供する。具体的には、仮想空間提供部48は、実空間100におけるユーザUの位置および向きの情報を取得し、実空間100におけるユーザUの位置および向きを、仮想空間200の座標系においてユーザ位置情報が示すユーザアバターAUの視点の位置および向きに換算する。仮想空間提供部48は、算出したユーザUの視点の位置および姿勢から仮想空間200を視認した場合の仮想空間200の画像を、仮想空間200用の画像として出力部22に出力させる。
仮想空間提供部48は、ユーザ動作判定部46によるユーザUの動作の判定結果に基づいて、ユーザUに仮想空間200を提供する。仮想空間提供部48は、ユーザUが所定の動作を行ったと判定された場合に、ユーザUに仮想空間200を提供する。仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザUの机120に対する着目度が所定の閾値を超えたと判定された場合に、ユーザUに仮想空間200を提供する。仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザUの机120に対する着目度が所定の閾値を超え、かつユーザUが机120に手をかざしたと判定された場合に、ユーザUに仮想空間200を提供する。
本実施形態において、実空間100におけるユーザUの位置と姿勢とは、仮想空間200におけるユーザアバターAUの視点の位置と姿勢とに反映される。このため、実空間100でユーザUが移動した場合、仮想空間200におけるユーザアバターAUの視点の位置姿勢も移動する。この場合、実空間100におけるユーザUの移動量と、仮想空間200におけるユーザアバターAUの視点の移動量とは、対応付けられることが好ましい。
仮想空間提供部48は、仮想オブジェクトに重畳するように、実オブジェクトを示す画像を、仮想空間200内で表示させてもよい。仮想空間提供部48は、仮想オブジェクトの形状情報と実オブジェクトの形状情報とに基づき、仮想オブジェクトに重畳するように、実オブジェクトを示す画像を、仮想空間200内で表示させてもよい。例えば、仮想空間提供部48は、仮想オブジェクトの大きさが実オブジェクトの大きさよりも大きい場合に、仮想オブジェクトに重畳するように、実オブジェクトを示す画像を、仮想空間200内に表示させてよい。この場合、出力部22は、実空間100を透過しつつ仮想空間200の画像を表示するAR空間を提供するものであってもよいし、仮想空間200の画像と、実オブジェクトを示す画像とを、重畳して表示させてもよい。また、仮想オブジェクトのうち、実オブジェクトと重なっていない部分は、仮想空間200の画像から削除したり、実オブジェクトと関連付けられていない領域として情報提示したりしてもよい。
本実施形態では、仮想空間提供部48は、仮想空間200を提供する前に、実空間100と仮想空間200との間の状態を示す遷移映像を含む遷移空間をユーザUに提供する。仮想空間提供部48は、仮想空間200を提供する前に、実空間100の実オブジェクトと仮想空間200の仮想オブジェクトとの間の状態を示す遷移映像を含む遷移空間をユーザUに提供する。遷移映像は、例えば、実空間100の映像を50%、仮想空間200の映像を50%の割合で含む映像であるが、これに限定されない。仮想空間提供部48は、例えば、遷移映像として、机120に対して机120と同一の大きさおよび形状の3Dの机をARで重畳させて出力部22に表示させる。この場合、仮想空間提供部48は、ユーザUが3Dの机の引き出しを開けた場合に、仮想空間200の表示領域を徐々に大きくして、仮想空間200に吸い込まれるような体験を起こす。この時、仮想空間提供部48は、仮想空間200の映像だけでなく、仮想空間200の音声も実空間100の音声に重畳して出力部22に出力させる。仮想空間提供部48は、ユーザUが仮想空間200に移行した後は、仮想空間200の映像および仮想空間200の音声のみを出力部22に出力させる。
仮想空間提供部48は、実オブジェクトの種類に応じた遷移映像を出力部22に表示させてもよい。仮想空間提供部48は、例えば、実オブジェクトがマンホールである場合には、マンホールが柔らかいチューブのように伸びてきて、ユーザUの体が小さくなってチューブに入れるような体験を起こす遷移映像を出力部22に表示させてもよい。仮想空間提供部48は、例えば、実オブジェクトがビルの窓の場合は、梯子やエスカレータが現れて窓へ向かって上っている体験を起こす遷移映像を出力部22に表示させてもよい。
仮想空間提供部48は、ユーザ動作判定部46によるユーザアバターAUの動作の判定結果に基づいて、仮想空間200の提供を終了し、ユーザUを実空間100に戻す。仮想空間提供部48は、ユーザアバターAUが所定の動作を行ったと判定された場合に、ユーザUを実空間100に戻す。仮想空間提供部48は、仮想空間200から実空間100に戻る前に、仮想空間200と実空間100との間の遷移映像をユーザUに提供する。仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザアバターAUの仮想机220に対する着目度が所定の閾値を超えたと判定された場合に、ユーザUを実空間100に戻す。仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザアバターAUの仮想机220に対する着目度が所定の閾値を超え、かつユーザアバターAUが仮想机220に手をかざしたと判定された場合に、ユーザUを実空間100に戻す。
仮想空間提供部48は、実空間100に戻るための出口を仮想空間200に表示させてもよい。この場合、仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザアバターAUの出口に対する着目度が所定の閾値を超えたと判定された場合に、ユーザUを実空間100に戻す。仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザアバターAUの出口に対する着目度が所定の閾値を超え、かつユーザアバターAUが出口に手をかざしたと判定された場合に、ユーザUを実空間100に戻す。
仮想空間提供部48は、仮想空間200から実空間100に戻る前に、仮想空間200と実空間100との間の遷移映像をユーザUに提供する。仮想空間提供部48は、例えば、実空間100への出口の表示領域を徐々に大きくして、実空間100に吸い込まれるような体験を起こす。この時、仮想空間提供部48は、実空間100の映像だけでなく、実空間100の音声も仮想空間200の音声に重畳して出力部22に出力させる。
(提供装置の処理)
図4を用いて、実施形態に係る提供装置の処理内容について説明する。図4は、実施形態に係る提供装置の仮想空間の提供処理の流れを示すフローチャートである。
図4に示す処理は、提供装置10がユーザに対して、仮想空間200を提供する処理である。具体的には、図4は、ユーザUが部屋で提供装置10を着用し、仮想空間200内で花火を見る例の処理を示す。
実空間情報取得部40は、提供装置10の周囲に存在する実オブジェクトに関する情報を取得する(ステップS10)。具体的には、実空間情報取得部40は、検出部28に検出させた提供装置10の周囲に存在する実オブジェクトに関する情報を検出部28から取得する。そして、ステップS12に進む。
仮想空間情報取得部42は、仮想空間に存在する仮想オブジェクトに関する情報を取得する(ステップS12)。具体的には、仮想空間情報取得部42は、通信部26を介して、情報処理装置12から仮想オブジェクトに関する情報を取得する。そして、ステップS14に進む。
位置情報取得部44は、仮想空間におけるユーザの位置を示すユーザ位置情報を取得する(ステップS14)。そして、ステップS16に進む。
ユーザ動作判定部46は、ユーザUが実空間100で所定の動作を行ったか否かを判定する(ステップS16)。例えば、ユーザ動作判定部46は、ユーザが部屋に入るために部屋の扉に手を触れた場合に、実空間100で所定の動作を行ったと判定する。ユーザが実空間で所定の動作を行ったと判定された場合(ステップS16;Yes)、ステップS18に進む。ユーザが実空間で所定の動作を行ったと判定されない場合(ステップS16;No)、ステップS16の処理を繰り返す。
ステップS16でYesと判定された場合、仮想空間提供部48は、ユーザUに対して遷移空間を提供する(ステップS18)。例えば、仮想空間提供部48は、ユーザ動作判定部46によりユーザUが部屋の扉に手を触れたと判定されると、扉の向こうから聞こえてくるような花火の音を出力部22に出力させる。そして、仮想空間提供部48は、ユーザ動作判定部46によりユーザUが部屋に入り窓110に視線を向けたと判定されると、窓110に薄っすらとした花火の映像を重畳して出力部22に表示させる。そして、ステップS20に進む。
仮想空間提供部48は、ユーザUに対して仮想空間を提供する(ステップS20)。具体的には、仮想空間提供部48は、実空間100のユーザUの位置情報と、仮想空間200のユーザアバターAUの位置情報とを整合させた仮想空間をユーザUに対して提供する。仮想空間提供部48は、例えば、仮想空間200において、高い位置にある仮想窓210から梯子が伸びてくる映像を出力部22に出力させる。仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザアバターAUが梯子に手をかけたと判定されると、ユーザアバターAUが梯子を昇っている映像を出力部22に出力させる。この際、仮想空間提供部48は、梯子を昇るに連れて仮想窓210の外から聞こえてくる花火の音を大きくして出力部22に出力させる。仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザアバターAUが仮想窓210を開けたと判定されると、仮想窓210の外には晴れた日の夜の景色の中で、花火が上がっている映像を出力部22に出力させる。この際、仮想空間提供部48は、花火の音を鮮明にして出力部22に出力させる。そして、仮想空間提供部48は、例えば、ユーザ動作判定部46によりユーザアバターAUが仮想窓210から視線を外して周りを見渡していると判定されると、高い位置から部屋を見渡しているような映像を出力部22に表示させる。そして、図4の処理を提供する。
図5を用いて、実施形態に係る提供装置の処理内容について説明する。図5は、実施形態に係る提供装置の仮想空間の提供を終了する処理の流れを示すフローチャートである。
ユーザ動作判定部46は、ユーザアバターAUが仮想空間200で所定の動作を行ったか否かを判定する(ステップS30)。例えば、ユーザ動作判定部46は、ユーザアバターAUが仮想窓210を閉めて、梯子を見た場合に、ユーザアバターAUが仮想空間200で所定の動作を行ったと判定する。ユーザアバターAUが仮想空間200で所定の動作を行ったと判定された場合(ステップS30;Yes)、ステップS32に進む。ユーザアバターAUが仮想空間200で所定の動作を行ったと判定されない場合(ステップS30;No)、ステップS30の処理を繰り返す。
ステップS30でYesと判定された場合、仮想空間提供部48は、ユーザUに対して遷移空間を提供する(ステップS32)。例えば、仮想空間提供部48は、ユーザ動作判定部46によりユーザUが梯子に手をかけたと判定されると、梯子を降りる映像を出力部22に出力させる。そして、仮想空間提供部48は、ユーザ動作判定部46によりユーザUが仮想窓210に視線を向けたと判定されると、仮想窓210の方から花火の音が聞こえ、仮想窓210に薄っすらとした花火の映像を重畳して出力部22に表示させる。そして、ステップS34に進む。
仮想空間提供部48は、ユーザに対して仮想空間200の提供を終了する(ステップS34)。具体的には、仮想空間提供部48は、花火の映像の出力および花火の音声の出力を終了させるとともに、出力部22に仮想空間200の表示を停止させる。そして、図5の処理を終了する。
上述のとおり、実施形態は、ユーザに対して仮想空間を提供する前に、実空間と仮想空間との間の状態を示す遷移空間を提供する。これにより、実施形態は、仮想空間が提供された際の、実空間から仮想空間に切り替わる際の映像の急激な変化による違和感を低減することができる。また、実施形態は、仮想空間が提供された際の、実空間から仮想空間に切り替わる際の音声による急激な変化による聴覚上の違和感も低減することができる。
[実施形態の変形例]
図6を用いて、実施形態の変形例に係る提供装置の構成例について説明する。図6は、実施形態の変形例に係る提供装置の構成例を示すブロック図である。
図6に示すように、提供装置10Aは、制御部30Aがイベント検出部50と、報知部52とを備える点で、図3に示す提供装置10と異なる。
イベント検出部50は、実空間100において、ユーザUに対して発生するイベントを検出する。イベント検出部50は、仮想空間提供部48がユーザUに対して仮想空間200を提供している際に、実空間100において、ユーザUに対して発生するイベントを検出する。イベント検出部50は、例えば、実空間100において、ユーザUと実オブジェクトとが接触する可能性があることをイベントとして検出する。
イベント検出部50は、例えば、ユーザUと、検出部28が検出した実オブジェクトとの距離に基づいて、イベントを検出する。イベント検出部50は、例えば、ユーザUと、実オブジェクトとの間の距離が閾値以下である場合に、ユーザUに対してイベントが発生したことを検出する。イベント検出部50は、例えば、実オブジェクトの種類に応じて、距離の閾値を変更してもよい。イベント検出部50は、例えば、実オブジェクトがユーザUに接近する動体である場合には実オブジェクトが静止体である場合よりも、距離の閾値を長くしてよい。イベント検出部50は、例えば、実オブジェクトが動体である場合には、検出部28が検出した実オブジェクトの速度情報に基づいて、距離の閾値を変更してもよい。イベント検出部50は、例えば、実オブジェクトの移動速度が速いほど、距離の閾値を長くしてよい。
イベント検出部50は、イベントを検出した場合、検出したイベントの危険レベルを判定してもよい。危険レベルは、イベントを報知する緊急性の高さの度合いをいう。イベント検出部50は、例えば、ユーザUと検出された実オブジェクトが接触した場合に、ユーザUが怪我をする可能性が高いほど危険レベルを高く判定する。イベント検出部50は、例えば、ユーザUと検出された実オブジェクトが接触した場合に、ユーザUが大きな怪我をする可能性が高いほど危険レベルを高く判定する。イベント検出部50は、例えば、「高」、「中」、「低」などのように段階的に危険レベルを判定してよい。イベント検出部50は、例えば、「1」、「2」、「3」などのように数値で危険レベルを判定してよい。
イベント検出部50は、例えば、検出された実オブジェクトの種類に応じて危険レベルを判定してよい。イベント検出部50は、例えば、実オブジェクトがイスなどの家具である場合には危険レベルを低く判定し、実オブジェクトが走行している車両などである場合には危険レベルを高く判定してよい。
イベント検出部50は、例えば、検出された実オブジェクトの大きさに応じて危険レベルを判定してよい。イベント検出部50は、例えば、実オブジェクトの大きさが小さいほど危険レベルを低く判定し、実オブジェクトの大きさが大きいほど危険レベルを高く判定してよい。
イベント検出部50は、例えば、検出された実オブジェクトの移動速度に応じて危険レベルを判定してよい。イベント検出部50は、例えば、実オブジェクトの移動速度が遅いほど危険レベルを低く判定し、実オブジェクトの移動速度が速いほど危険レベルを高く判定してよい。
報知部52は、イベント検出部50がイベントを検出すると、ユーザUに対してイベントが検出されたことを報知する。報知部52は、例えば、イベント検出部50がイベントを検出すると、出力部22を制御して、報知音および報知映像などを出力させることで、ユーザUに対してイベントが検出されたことを報知する。
報知部52は、イベント検出部50が検出したイベントの危険レベルに応じて報知の方法を変更してよい。報知部52は、例えば、危険レベルが高いほど報知の強度を強くしてよい。報知部52は、例えば、危険レベルが高いほど報知音を大きくして出力部22に出力させてもよい。報知部52は、例えば、危険レベルが高いほど報知映像を目立つ態様で出力部22に出力させてもよい。
(提供装置の処理)
図7を用いて、実施形態の変形例に係る提供装置の処理内容について説明する。図7は、実施形態の変形例に係る提供装置の仮想空間の提供処理の流れを示すフローチャートである。
図7に示す処理は、提供装置10AがユーザUに対して仮想空間200を提供している際に実行される処理である。
イベント検出部50は、実空間100でユーザUに対するイベントを検出したか否かを判定する(ステップS40)。具体的には、イベント検出部50は、検出部28が検出した、ユーザUと実オブジェクトとの間の距離が所定の閾値以下である場合に、ユーザUに対するイベントを検出する。ユーザUに対するイベントが検出された場合(ステップS40;Yes)、ステップS42に進む。ユーザUに対するイベントが検出されない場合(ステップS40;No)、ステップS46に進む。
ステップS40でYesと判定された場合、イベント検出部50は、検出したイベントの危険レベルを判定する(ステップS42)。具体的には、イベント検出部50は、検出した実オブジェクトの種類や移動速度に基づいて、危険レベルを判定する。そして、ステップS44に進む。
報知部52は、危険レベルに応じた報知を行う(ステップS44)。具体的には、報知部52は、出力部22を制御して、危険レベルに応じた報知音または報知映像を出力させる。そして、ステップS46に進む。
制御部30Aは、処理を終了するか否かを判定する(ステップS46)。具体的には、制御部30Aは、仮想空間提供部48がユーザUに対して仮想空間200の提供を終了した場合に、処理を終了すると判定する。処理を終了すると判定された場合(ステップS46;Yes)、図7の処理を終了する。処理を終了すると判定されない場合(ステップS46;No)、ステップS40に進む。
実施形態の変形例では、ユーザに対して仮想空間が提供されているときに、実空間で実オブジェクトとの接触の可能性をイベントとして検出し、イベントが検出された場合にイベントが検出されたことをユーザに報知する。これにより、実施形態の変形例は、仮想空間を体験しているユーザの安全性を向上させることができる。
なお、実施形態および実施形態の変形例では、提供装置10および提供装置10Aは、ユーザUの頭部に装着されるヘッドマウントディスプレイであるものとして説明したが、本発明はこれに限定されない。提供装置10および提供装置10Aは、例えば、実オブジェクト、スクリーン、および実空間などに映像を投影する投影装置であってもよい。この場合、提供装置10または提供装置10Aは、例えば、実空間などに映像を投影することによって、ユーザUに対して仮想空間を提供してよい。
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。なお、この分散・統合による構成は動的に行われてもよい。
以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
1 提供システム
10,10A 提供装置
12 情報処理装置
20 入力部
22 出力部
24 記憶部
26 通信部
28 検出部
30 制御部
40 実空間情報取得部
42 仮想空間情報取得部
44 位置情報取得部
46 ユーザ動作判定部
48 仮想空間提供部
50 イベント検出部
52 報知部

Claims (5)

  1. ユーザが存在する実空間の実オブジェクトの、前記実空間の位置情報を取得する実空間情報取得部と、
    仮想空間に存在する仮想オブジェクトの、前記仮想空間の位置情報を取得する仮想空間情報取得部と、
    前記実空間において前記実オブジェクトに対して前記ユーザが所定の動作を行ったか否かを判定するユーザ動作判定部と、
    前記実空間の位置情報と前記仮想空間の位置情報とを整合させ、前記実空間において前記ユーザが前記実オブジェクトに対して所定の動作を行ったと前記ユーザ動作判定部が判定した場合に、前記実空間と前記仮想空間との間の状態を示す遷移映像を生成し、前記ユーザに対して前記仮想空間を提供する前に前記遷移映像を含む遷移空間を提供する仮想空間提供部と、
    を備える、提供装置。
  2. 前記仮想空間提供部は、前記実オブジェクトの種類に応じた前記遷移映像を生成する、
    請求項1に記載の提供装置。
  3. 前記所定の動作は、前記実オブジェクトに対して注視する動作および手をかざす動作の少なくとも一方を含む、
    請求項1または2に記載の提供装置。
  4. 前記ユーザ動作判定部は、前記仮想空間において前記仮想オブジェクトに対して前記ユーザが所定の動作を行ったか否かを判定し、
    前記仮想空間提供部は、前記仮想空間において前記ユーザが前記仮想オブジェクトに対して所定の動作を行ったと前記ユーザ動作判定部が判定した場合に、前記ユーザに対して前記実空間を提供する前に前記遷移映像を提供する、
    請求項1または2に記載の提供装置。
  5. ユーザが存在する実空間の実オブジェクトの、前記実空間の位置情報を取得するステップと、
    仮想空間に存在する仮想オブジェクトの、前記仮想空間の位置情報を取得するステップと、
    前記実空間において前記実オブジェクトに対して前記ユーザが所定の動作を行ったか否かを判定するステップと、
    前記実空間の位置情報と前記仮想空間の位置情報とを整合させ、前記実空間において前記ユーザが前記実オブジェクトに対して所定の動作を行ったと判定された場合に、前記実空間と前記仮想空間との間の状態を示す遷移映像を生成し、前記ユーザに対して前記仮想空間を提供する前に前記遷移映像を含む遷移空間を提供するステップと、
    を含む、提供方法。
JP2022138179A 2022-08-31 2022-08-31 提供装置および提供方法 Pending JP2024034133A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022138179A JP2024034133A (ja) 2022-08-31 2022-08-31 提供装置および提供方法
PCT/JP2023/024589 WO2024048060A1 (ja) 2022-08-31 2023-07-03 提供装置および提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022138179A JP2024034133A (ja) 2022-08-31 2022-08-31 提供装置および提供方法

Publications (1)

Publication Number Publication Date
JP2024034133A true JP2024034133A (ja) 2024-03-13

Family

ID=90099513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022138179A Pending JP2024034133A (ja) 2022-08-31 2022-08-31 提供装置および提供方法

Country Status (2)

Country Link
JP (1) JP2024034133A (ja)
WO (1) WO2024048060A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
JP2019175323A (ja) * 2018-03-29 2019-10-10 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
US11615596B2 (en) * 2020-09-24 2023-03-28 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Also Published As

Publication number Publication date
WO2024048060A1 (ja) 2024-03-07

Similar Documents

Publication Publication Date Title
CN110413105B (zh) 虚拟环境内的虚拟对象的有形可视化
US10311640B2 (en) Method and apparatus for providing virtual space, and non-transitory computer readable data storage medium storing program causing computer to perform method
JP2022140779A (ja) 広範囲同時遠隔ディジタル提示世界
US8934015B1 (en) Experience sharing
KR102340665B1 (ko) 프라이버시 스크린
JP2023542847A (ja) 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP6984645B2 (ja) 画像処理装置、画像処理方法、および画像システム
US11836282B2 (en) Method and device for surfacing physical environment interactions during simulated reality sessions
US11314396B2 (en) Selecting a text input field using eye gaze
US11709370B2 (en) Presentation of an enriched view of a physical setting
US10628114B2 (en) Displaying images with integrated information
US20210014468A1 (en) Information processing apparatus, information processing method, and recording medium
CN116710878A (zh) 情境感知扩展现实系统
WO2022196387A1 (ja) 画像処理装置、画像処理方法及びプログラム
US20190347864A1 (en) Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression
US11195320B2 (en) Feed-forward collision avoidance for artificial reality environments
US11474595B2 (en) Display device and display device control method
CN113821337A (zh) 基于参与度分数改变与媒体对象相关联的资源利用率
WO2024048060A1 (ja) 提供装置および提供方法
US11726562B2 (en) Method and device for performance-based progression of virtual content
CN112119451A (zh) 信息处理装置、信息处理方法和程序
CN113534951A (zh) 用于扩展现实的虚拟锚定系统和方法
US20240104861A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
EP4124053A1 (en) Display system and method
US20240119643A1 (en) Image processing device, image processing method, and computer-readable storage medium