JP2023048014A - 表示装置、表示装置の制御方法およびプログラム - Google Patents
表示装置、表示装置の制御方法およびプログラム Download PDFInfo
- Publication number
- JP2023048014A JP2023048014A JP2021157245A JP2021157245A JP2023048014A JP 2023048014 A JP2023048014 A JP 2023048014A JP 2021157245 A JP2021157245 A JP 2021157245A JP 2021157245 A JP2021157245 A JP 2021157245A JP 2023048014 A JP2023048014 A JP 2023048014A
- Authority
- JP
- Japan
- Prior art keywords
- user
- space
- virtual
- real
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 22
- 230000009471 action Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 8
- 238000001514 detection method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000010365 information processing Effects 0.000 description 10
- 230000006399 behavior Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】仮想空間においてユーザの行動を自然なものにする。【解決手段】表示装置は、ユーザが実在する実空間におけるオブジェクトである実オブジェクトの、前記実空間における位置の情報と、前記実オブジェクトと前記ユーザとの、前記実空間における位置関係の情報を取得する実オブジェクト情報取得部と、仮想空間におけるオブジェクトである仮想オブジェクトの、前記仮想空間における位置の情報を取得する仮想オブジェクト情報取得部と、前記実オブジェクトと前記仮想オブジェクトの位置及び姿勢を合わせ、前記実空間における位置関係の情報に基づいて、前記仮想オブジェクトと前記仮想空間における前記ユーザとの前記仮想空間における位置関係を算出し、前記仮想空間における位置関係に基づいて、前記仮想空間における前記ユーザの位置を示すユーザ位置情報を取得するユーザ位置取得部と、を含む。【選択図】図7
Description
本発明は、表示装置、表示装置の制御方法およびプログラムに関する。
昨今、情報機器が大きな進化をしている。そして、このような情報機器としては、その代表例であるスマートフォンだけでなく、ユーザに装着される所謂ウエラブルデバイスなども普及してきた。ウェアラブルデバイスとしては、視覚情報を提供するHMD(Head Mount Display)があり、AR(Augumented Reality)用や、VR(Virtual Reality)用などに用いられる。例えば特許文献1には、予め決められたARマーカーを用いてHMDの出力部に表示されるオブジェクトの位置を調整するものが開示されている。
ウエラブルデバイスがユーザに仮想空間を提供するとき、ユーザは仮想空間内における自分の位置を自由に決定することができる。しかし、実空間と仮想空間とにおけるオブジェクトに対するユーザの位置が一致しない場合、仮想空間におけるユーザの行動が不自然となってしまうおそれがある。
本発明は、上記課題を鑑み、仮想空間におけるユーザの行動が不自然となることを抑制可能な表示装置、表示装置の制御方法およびプログラムを提供することを目的とする。
本発明の一態様にかかる表示装置は、ユーザが実在する実空間におけるオブジェクトである実オブジェクトの、前記実空間における位置の情報と、前記実オブジェクトと前記ユーザとの、前記実空間における位置関係の情報を取得する実オブジェクト情報取得部と、仮想空間におけるオブジェクトである仮想オブジェクトの、前記仮想空間における位置の情報を取得する仮想オブジェクト情報取得部と、前記実オブジェクトと前記仮想オブジェクトの位置及び姿勢を合わせ、前記実空間における位置関係の情報に基づいて、前記仮想オブジェクトと前記仮想空間における前記ユーザとの前記仮想空間における位置関係を算出し、前記仮想空間における位置関係に基づいて、前記仮想空間における前記ユーザの位置を示すユーザ位置情報を取得するユーザ位置取得部と、を含む。
本発明の一態様にかかる表示装置の制御方法は、ユーザが実在する実空間におけるオブジェクトである実オブジェクトの、前記実空間における位置の情報と、前記実オブジェクトと前記ユーザとの、前記実空間における位置関係の情報を取得するステップと、仮想空間におけるオブジェクトである仮想オブジェクトの、前記仮想空間における位置の情報を取得するステップと、前記実オブジェクトと前記仮想オブジェクトの位置及び姿勢を合わせ、前記実空間における位置関係の情報に基づいて、前記仮想オブジェクトと前記仮想空間における前記ユーザとの前記仮想空間における位置関係を算出し、前記仮想空間における位置関係に基づいて、前記仮想空間における前記ユーザの位置を示すユーザ位置情報を取得するステップと、を含む。
本発明の一態様にかかるプログラムは、ユーザが実在する実空間におけるオブジェクトである実オブジェクトの、前記実空間における位置の情報と、前記実オブジェクトと前記ユーザとの、前記実空間における位置関係の情報を取得するステップと、仮想空間におけるオブジェクトである仮想オブジェクトの、前記仮想空間における位置の情報を取得するステップと、前記実オブジェクトと前記仮想オブジェクトの位置及び姿勢を合わせ、前記実空間における位置関係の情報に基づいて、前記仮想オブジェクトと前記仮想空間における前記ユーザとの前記仮想空間における位置関係を算出し、前記仮想空間における位置関係に基づいて、前記仮想空間における前記ユーザの位置を示すユーザ位置情報を取得するステップと、をコンピュータに実行させる。
本発明によれば、仮想空間においてユーザの行動を自然なものにすることができる。
以下に、本発明の実施形態を図面に基づいて詳細に説明する。なお、以下に説明する実施形態により本発明が限定されるものではない。
(実空間と仮想空間)
図1は、実空間と仮想空間の一例を説明する模式図である。本実施形態に係る表示装置10は、画像を表示する表示装置である。図1に示すように、表示装置10は、ユーザUの頭部に装着される、いわゆるHMD(Head Mount Display)である。表示装置10は、画像を表示することで、ユーザUに仮想空間を提供する。図1に示すように、ユーザUが実際に存在する現実空間を実空間SRとし、表示装置10がユーザUに提供する仮想の空間を仮想空間SVとする。この場合、表示装置10は、実空間SRでのユーザUの動作(視線)に応じて、仮想空間SV用の画像を表示する。すなわち、ユーザUがユーザUVとして仮想空間SVで動作していることを模擬して、仮想空間SV用の画像を表示する。そのため、ユーザUは、自身が仮想空間SV内に存在していると認識することができる。なお、ここでの仮想空間SVは、MR(Mixed Reality)、すなわちユーザUが存在する場所から離れた実在の場所を再現した空間であってもよいし、実際に存在しない仮想の空間、すなわちVR(Virtual Reality)であってもよい。以下、実空間SRの座標系における、水平方向に沿った一方向を方向XRとし、水平方向に沿って方向XRに直交する方向を方向YRとし、鉛直方向を方向ZRとする。また、仮想空間SVの座標系における、水平方向に沿った一方向を方向XVとし、水平方向に沿って方向XVに直交する方向を方向YVとし、鉛直方向を方向ZVとする。
図1は、実空間と仮想空間の一例を説明する模式図である。本実施形態に係る表示装置10は、画像を表示する表示装置である。図1に示すように、表示装置10は、ユーザUの頭部に装着される、いわゆるHMD(Head Mount Display)である。表示装置10は、画像を表示することで、ユーザUに仮想空間を提供する。図1に示すように、ユーザUが実際に存在する現実空間を実空間SRとし、表示装置10がユーザUに提供する仮想の空間を仮想空間SVとする。この場合、表示装置10は、実空間SRでのユーザUの動作(視線)に応じて、仮想空間SV用の画像を表示する。すなわち、ユーザUがユーザUVとして仮想空間SVで動作していることを模擬して、仮想空間SV用の画像を表示する。そのため、ユーザUは、自身が仮想空間SV内に存在していると認識することができる。なお、ここでの仮想空間SVは、MR(Mixed Reality)、すなわちユーザUが存在する場所から離れた実在の場所を再現した空間であってもよいし、実際に存在しない仮想の空間、すなわちVR(Virtual Reality)であってもよい。以下、実空間SRの座標系における、水平方向に沿った一方向を方向XRとし、水平方向に沿って方向XRに直交する方向を方向YRとし、鉛直方向を方向ZRとする。また、仮想空間SVの座標系における、水平方向に沿った一方向を方向XVとし、水平方向に沿って方向XVに直交する方向を方向YVとし、鉛直方向を方向ZVとする。
(表示システム)
図2は、本実施形態に係る表示システムの模式図である。図2に示すように、本実施形態に係る表示システム1は、表示装置10と情報処理装置12とを含む。本実施形態では、表示システム1は、ユーザUに仮想空間SVを提供する。図1の例では、ユーザUが表示装置10を装着しており、表示装置10は、仮想空間SVにおけるユーザUVの視野範囲V内の仮想空間SVでの画像を、仮想空間SV用の画像としてユーザUに提供する。なお、仮想空間SV内におけるアバターの数(すなわち共通の仮想空間SVが提供されるユーザUの数)は、任意であってよい。また、図2や、以降の図でも、仮想空間SVは、鉛直方向上方から見た2次元平面で表されているが、仮想空間SVは3次元空間であってよい。
図2は、本実施形態に係る表示システムの模式図である。図2に示すように、本実施形態に係る表示システム1は、表示装置10と情報処理装置12とを含む。本実施形態では、表示システム1は、ユーザUに仮想空間SVを提供する。図1の例では、ユーザUが表示装置10を装着しており、表示装置10は、仮想空間SVにおけるユーザUVの視野範囲V内の仮想空間SVでの画像を、仮想空間SV用の画像としてユーザUに提供する。なお、仮想空間SV内におけるアバターの数(すなわち共通の仮想空間SVが提供されるユーザUの数)は、任意であってよい。また、図2や、以降の図でも、仮想空間SVは、鉛直方向上方から見た2次元平面で表されているが、仮想空間SVは3次元空間であってよい。
情報処理装置12は、仮想空間SV用の情報の情報処理を行う装置である。情報処理装置12は、ユーザUの表示装置10と情報の送受信を行って、仮想空間SV用の画像の画像処理を行うサーバといえる。例えば、情報処理装置12は、CPU(Central Processing Unit)などの演算回路を含む演算装置と、記憶部とを含むコンピュータであり、記憶部からプログラム(ソフトウェア)を読み出して実行することで、処理を実行する。
(表示装置)
図3は、本実施形態に係る表示装置の模式的なブロック図である。表示装置10は、コンピュータであるともいえ、図3に示すように、入力部20と、表示部22と、記憶部24と、通信部26と、実空間検出部28と、制御部30とを備える。入力部20は、ユーザUによる操作を受け付ける機構であり、例えばHMDに設けられるコントローラやマイクなどであってよい。表示部22は、画像を表示するディスプレイである。表示部22は、画像を出力することで、ユーザUに仮想空間SVを提供する。表示装置10は、表示部22以外にも、例えば音声を出力するスピーカなど、情報を出力する装置を備えていてよい。
図3は、本実施形態に係る表示装置の模式的なブロック図である。表示装置10は、コンピュータであるともいえ、図3に示すように、入力部20と、表示部22と、記憶部24と、通信部26と、実空間検出部28と、制御部30とを備える。入力部20は、ユーザUによる操作を受け付ける機構であり、例えばHMDに設けられるコントローラやマイクなどであってよい。表示部22は、画像を表示するディスプレイである。表示部22は、画像を出力することで、ユーザUに仮想空間SVを提供する。表示装置10は、表示部22以外にも、例えば音声を出力するスピーカなど、情報を出力する装置を備えていてよい。
記憶部24は、制御部30の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。記憶部24が記憶する制御部30用のプログラムは、表示装置10が読み取り可能な記録媒体に記憶されていてもよい。
通信部26は、外部の装置と通信を行う通信モジュールであり、例えばアンテナなどである。表示装置10は、無線通信で情報処理装置12などの外部の装置と通信を行うが、有線通信でもよく、通信方式は任意であってよい。
実空間検出部28は、実空間SRにおけるユーザUの位置と、ユーザUの姿勢と、表示装置10(ユーザU)の周囲とを検出するセンサである。ユーザUの位置とは、XR-YR平面において、ユーザUの初期位置を原点としたユーザUの位置をいう。ユーザUの初期位置とは、表示装置10が起動した時点での実空間SR内の位置であり、すなわち、表示装置10の使用時におけるユーザUの最初の位置であるといえる。ユーザUの姿勢とは、XR-YR平面と表示装置10の向く方向(ユーザUの顔が向く方向)とがなす角の大きさをいう。実空間検出部28は、例えば、加速度センサによってユーザUの位置を検出し、ジャイロセンサによってユーザUの姿勢を検出し、ステレオカメラやToF(Time of Flight)カメラなどの3Dカメラによって表示装置10(ユーザU)の周囲を検出する。ただし、実空間検出部28は、実空間SRにおけるユーザUの位置と、ユーザUの姿勢と、表示装置10(ユーザU)の周囲の実空間SRに存在する物体とを検出可能であれば、この構成に限られない。例えば、実空間検出部28は、実空間SRに存在する物体について、LIDAR(Light Detection And Ranging)で検出してもよく、また、ユーザUの姿勢について、カメラで撮像した実空間SRの画像を用いて検出してもよい。
制御部30は、演算装置であり、例えばCPU(Central Processing Unit)などの演算回路を含む。制御部30は、実オブジェクト情報取得部40と、仮想オブジェクト情報取得部42と、ユーザ位置取得部44と、提供部46とを含む。制御部30は、記憶部24からプログラム(ソフトウェア)を読み出して実行することで、実オブジェクト情報取得部40と仮想オブジェクト情報取得部42とユーザ位置取得部44と提供部46とを実現して、それらの処理を実行する。なお、制御部30は、1つのCPUによってこれらの処理を実行してもよいし、複数のCPUを備えて、それらの複数のCPUで、処理を実行してもよい。また、実オブジェクト情報取得部40と仮想オブジェクト情報取得部42とユーザ位置取得部44と提供部46との処理の少なくとも一部を、ハードウェア回路で実現してもよい。
(実オブジェクト取得部)
実オブジェクト情報取得部40は、実オブジェクトORの情報を取得する。実オブジェクトORとは、実空間SRの座標系において表示装置10(ユーザU)の周囲に存在する物体を指す。実オブジェクトORの情報は、実空間SRにおける、ユーザUと実オブジェクトORとの位置関係を示す情報(実オブジェクトORの相対位置情報)と、実空間SRにおける、実オブジェクトORの位置を示す情報(実オブジェクトORの絶対位置情報)とを含む。また、実オブジェクトORの情報は、実空間SRにおける実オブジェクトORの形状を示す情報(実オブジェクトORの形状情報)も含むことが好ましい。本実施形態では、実オブジェクト情報取得部40は、実空間検出部28を制御して、実空間検出部28に表示装置10(ユーザU)の周囲の物体を検出させる。そして、実オブジェクト情報取得部40は、公知の技術によって、実空間検出部28による検出結果から、検出した物体における複数の特徴点及び領域を抽出し、その抽出結果に基づいて、実オブジェクトORの情報として取得する。ただし、実オブジェクトORの情報の取得方法は、実空間検出部28に検出されることに限られない。例えばユーザUの部屋の家具の位置や形状の情報などが、実オブジェクトORの情報として予め設定されており、実オブジェクト情報取得部40は、設定された実オブジェクトORの情報を取得してもよい。
実オブジェクト情報取得部40は、実オブジェクトORの情報を取得する。実オブジェクトORとは、実空間SRの座標系において表示装置10(ユーザU)の周囲に存在する物体を指す。実オブジェクトORの情報は、実空間SRにおける、ユーザUと実オブジェクトORとの位置関係を示す情報(実オブジェクトORの相対位置情報)と、実空間SRにおける、実オブジェクトORの位置を示す情報(実オブジェクトORの絶対位置情報)とを含む。また、実オブジェクトORの情報は、実空間SRにおける実オブジェクトORの形状を示す情報(実オブジェクトORの形状情報)も含むことが好ましい。本実施形態では、実オブジェクト情報取得部40は、実空間検出部28を制御して、実空間検出部28に表示装置10(ユーザU)の周囲の物体を検出させる。そして、実オブジェクト情報取得部40は、公知の技術によって、実空間検出部28による検出結果から、検出した物体における複数の特徴点及び領域を抽出し、その抽出結果に基づいて、実オブジェクトORの情報として取得する。ただし、実オブジェクトORの情報の取得方法は、実空間検出部28に検出されることに限られない。例えばユーザUの部屋の家具の位置や形状の情報などが、実オブジェクトORの情報として予め設定されており、実オブジェクト情報取得部40は、設定された実オブジェクトORの情報を取得してもよい。
図4は、実空間の一例を示す模式図である。図4は、実空間SRをZR方向から見た場合の平面図の一例である。実オブジェクト情報取得部40は、実オブジェクトORの相対位置情報と、実オブジェクトORの形状情報とを、実オブジェクトORの情報として取得する。すなわち、実オブジェクト情報取得部40は、ユーザUの位置に対して実空間SRにおける実オブジェクトORが占める位置を示す情報を、実オブジェクトORの情報として取得するともいえる。
実オブジェクト情報取得部40によって取得される対象となる実オブジェクトORの種類は任意であってよいが、本実施形態においては、実オブジェクト情報取得部40は、実空間SRにおいて動かない物体(例えば机や壁など)を実オブジェクトORとして、実空間SRにおいて動かない物体についての位置情報及び形状情報を、実オブジェクトORの情報として取得する。本実施形態では、実オブジェクト情報取得部40は、実空間SRの情報に基づき、平面を持ちかつユーザUが動かすことができない実オブジェクトORの情報を取得してよい。この場合、実オブジェクト情報取得部40は、取得する実オブジェクトORの候補を表示部22に表示させ、候補とされた実オブジェクトORのうちから、ユーザUによって入力部20を通じて指定された実オブジェクトORを抽出して、抽出した実オブジェクトORの情報を取得してもよい。ただし、実オブジェクトORは、実空間SRの情報に基づき設定されることに限られない。例えばユーザUの部屋のレイアウト情報など、実オブジェクトORの位置が予め設定されており、実オブジェクト情報取得部40は、設定された実オブジェクトORの位置の情報を取得してもよい。
本実施形態では、実オブジェクト情報取得部40は、実空間SRにおける所定の範囲内の空間である実ローカル空間LR内にある実オブジェクトORの情報を取得する。すなわち、本実施形態では、実空間SRのうちの実ローカル空間LRの範囲内にある物体を実オブジェクトORとして抽出して、実オブジェクト情報取得部40は、実ローカル空間LR内にある実オブジェクトORの情報を取得する。実オブジェクト情報取得部40は、実ローカル空間LRにおける、ユーザUの座標と実オブジェクトORの座標との差を、実オブジェクトORの相対位置情報として取得する。実ローカル空間LRとは、実空間SRのうちで、実空間検出部28によって検出される、ユーザUの初期位置を原点とした範囲の空間を指し、実空間SRにおいてユーザUが行動することが想定されている空間であるといえる。すなわち、例えば、ユーザUが実空間で歩くなど移動した場合、実ローカル空間LRにおけるユーザUの座標が変化する。このとき、実オブジェクト情報取得部40は、変化した実ローカル空間LRにおけるユーザUの座標に基づいて、実オブジェクトORのユーザUに対する位置関係の情報を更新する。
なお、図4は、あくまで一例であり、実ローカル空間LR、実オブジェクトORの形状や大きさは、図4の例に限られず任意であってよい。
(仮想オブジェクト情報取得部)
仮想オブジェクト情報取得部42は、仮想オブジェクトOVの情報を取得する。仮想オブジェクトOVとは、仮想空間SV内で存在する仮想の物体であり、仮想空間SVの座標系における仮想空間SV用の画像として表示される対象物である。仮想オブジェクトOVの情報は、仮想空間SVにおける仮想オブジェクトOVの位置を示す情報(仮想オブジェクトOVの位置情報)を含む。仮想オブジェクト情報取得部42は、公知の技術によって、仮想オブジェクトOVにおける複数の特徴点及び領域を抽出し、その抽出結果を、仮想オブジェクトOVの情報として取得する。仮想オブジェクト情報取得部42は、仮想空間SVの原点座標に対する仮想オブジェクトOVの位置(座標)を、仮想オブジェクトOVの位置情報として取得してもよいし、仮想空間SVにおけるユーザUVの初期設定位置に対する仮想オブジェクトOVの位置(座標)を、仮想オブジェクトOVの位置情報として取得してもよい。なお、仮想空間SVにおけるユーザUVの初期設定位置とは、仮想空間SVにおけるユーザUVのデフォルトの位置として予め設定されている位置である。仮想オブジェクト情報取得部42は、例えば、通信部26を介して、情報処理装置12から、仮想オブジェクトOVの情報を取得する。なお、本実施形態では、仮想空間SVは、実空間SRにおけるユーザUの周囲の環境に応じて構築されるものではなく、実空間SRにおけるユーザUの周囲の環境に関係なく、予め設定されるものである。仮想空間SVにおける仮想オブジェクトOVの位置も、ユーザUVの初期設定位置と同様に、予め設定されることとなる。
仮想オブジェクト情報取得部42は、仮想オブジェクトOVの情報を取得する。仮想オブジェクトOVとは、仮想空間SV内で存在する仮想の物体であり、仮想空間SVの座標系における仮想空間SV用の画像として表示される対象物である。仮想オブジェクトOVの情報は、仮想空間SVにおける仮想オブジェクトOVの位置を示す情報(仮想オブジェクトOVの位置情報)を含む。仮想オブジェクト情報取得部42は、公知の技術によって、仮想オブジェクトOVにおける複数の特徴点及び領域を抽出し、その抽出結果を、仮想オブジェクトOVの情報として取得する。仮想オブジェクト情報取得部42は、仮想空間SVの原点座標に対する仮想オブジェクトOVの位置(座標)を、仮想オブジェクトOVの位置情報として取得してもよいし、仮想空間SVにおけるユーザUVの初期設定位置に対する仮想オブジェクトOVの位置(座標)を、仮想オブジェクトOVの位置情報として取得してもよい。なお、仮想空間SVにおけるユーザUVの初期設定位置とは、仮想空間SVにおけるユーザUVのデフォルトの位置として予め設定されている位置である。仮想オブジェクト情報取得部42は、例えば、通信部26を介して、情報処理装置12から、仮想オブジェクトOVの情報を取得する。なお、本実施形態では、仮想空間SVは、実空間SRにおけるユーザUの周囲の環境に応じて構築されるものではなく、実空間SRにおけるユーザUの周囲の環境に関係なく、予め設定されるものである。仮想空間SVにおける仮想オブジェクトOVの位置も、ユーザUVの初期設定位置と同様に、予め設定されることとなる。
図5は、仮想空間の一例を示す模式図である。図5は、仮想空間SVをZV方向から見た場合の平面図の一例である。
また、仮想オブジェクトOVの情報は、仮想空間SVにおける仮想オブジェクトOVの形状を示す情報(仮想オブジェクトOVの形状情報)も含むことが好ましい。本実施形態では、仮想オブジェクト情報取得部42は、実オブジェクトORの形状情報と仮想オブジェクトOVの形状情報とに基づき、仮想オブジェクトOVを抽出する。例えば、仮想オブジェクト情報取得部42は、仮想空間SV内の仮想オブジェクトOVの候補のうちから、実オブジェクトの形状と類似した形状の仮想オブジェクトOVを抽出し、抽出した仮想オブジェクトOVの情報を取得する。実オブジェクトに類似する仮想オブジェクトOVの抽出方法は任意であってよいが、例えば、仮想オブジェクト情報取得部42は、仮想オブジェクトOVの候補のうちで、平面の方向と高さと面積とが、実オブジェクトORに備わる平面の方向と高さと面積との偏差が最小となる仮想オブジェクトOV(例えば、実オブジェクトORが机ならば、仮想空間SV内で水平方向の面を有し、机と高さが最も近いオブジェクト)を抽出して、その仮想オブジェクトOVの情報を取得する。また、仮想オブジェクトOVの形状情報を入力すると実オブジェクトへの類似度を算出可能なAI(Artificial Interigence)モデルに、候補となる仮想オブジェクトOVの形状情報を入力することで、実オブジェクトに類似する仮想オブジェクトOVを抽出してもよい。このとき、仮想オブジェクト情報取得部42は、取得する仮想オブジェクトOVの候補を表示部22に表示させ、ユーザUが入力部20を通じて選択した仮想オブジェクトOVの情報を取得してもよい。仮想オブジェクトOVの抽出方法はこれに限られず、例えば、仮想空間SVを設定する際に、予め抽出されてよいし、例えば仮想空間SVにおけるユーザUVの位置に基づき、仮想オブジェクト情報取得部42が抽出してもよい。
本実施形態では、仮想オブジェクト情報取得部42は、仮想空間SVにおける所定の範囲内の空間である仮想ローカル空間LV内にある仮想オブジェクトOVの情報を取得する。すなわち、本実施形態では、仮想空間SVのうちの仮想ローカル空間LVの範囲内にある仮想の物体を仮想オブジェクトOVとして抽出して、仮想オブジェクト情報取得部42は、仮想ローカル空間LV内にある仮想オブジェクトOVの情報を取得する。仮想オブジェクト情報取得部42は、仮想ローカル空間LVにおける仮想オブジェクトOVの座標を、仮想オブジェクトOVの位置情報として取得する。なお、仮想ローカル空間LVとは、仮想空間SVにおいて実ローカル空間LRと対応した空間を指し、実ローカル空間LRにおけるユーザUと同じ位置にユーザUVが存在する。より具体的には、例えば、ユーザUが実空間SR(実ローカル空間LR)で歩くなど実ローカル空間LRにおけるユーザUの位置と方向とが変化したとき、仮想ローカル空間LVにおいてもユーザUVの位置と方向を同様に変化させることで、実空間SRと同じ動作を仮想空間SVにおいても実現している。仮想ローカル空間LVは、仮想空間SVに対して十分に小さく、仮想空間SVにおいて自由に移動と回転とをさせることが可能である。より具体的には、例えば、ユーザUが入力部20を用いてユーザUVの移動を入力したり、仮想空間SV上の乗り物に乗ったりした場合には、仮想空間SVにおいてユーザUVごと仮想ローカル空間LVの位置と方向と変化させることで、実空間SR(実ローカル空間LV)におけるユーザUVの位置を固定したまま、ユーザUVを仮想空間SV内で移動させることができる
なお、図5はあくまで一例であり、仮想空間SV、仮想ローカル空間LV、仮想オブジェクトOVの形状や大きさは、図5の例に限られず任意であってよい。また、仮想オブジェクト情報取得部42は、仮想オブジェクトOVの位置の情報を記憶部24から取得してもよい。
(ユーザ位置取得部)
ユーザ位置取得部44は、ユーザ位置情報を取得する。ユーザ位置情報とは、実オブジェクト情報取得部40が取得した実オブジェクトORの情報と、仮想オブジェクト情報取得部42が取得した仮想オブジェクトOVの情報とに基づき設定された、仮想空間SVにおけるユーザUVの位置を示す情報である。なお、本実施形態においては、ユーザ位置取得部44は、自身でユーザ位置情報を設定することで、ユーザ位置情報を取得するが、それに限られず、例えば他の機器が設定したユーザ位置情報や、記憶部24に予め記憶されたユーザ位置情報を取得してもよい。
ユーザ位置取得部44は、ユーザ位置情報を取得する。ユーザ位置情報とは、実オブジェクト情報取得部40が取得した実オブジェクトORの情報と、仮想オブジェクト情報取得部42が取得した仮想オブジェクトOVの情報とに基づき設定された、仮想空間SVにおけるユーザUVの位置を示す情報である。なお、本実施形態においては、ユーザ位置取得部44は、自身でユーザ位置情報を設定することで、ユーザ位置情報を取得するが、それに限られず、例えば他の機器が設定したユーザ位置情報や、記憶部24に予め記憶されたユーザ位置情報を取得してもよい。
本実施形態では、ユーザ位置取得部44は、実オブジェクトORとユーザUの位置関係に基づいて算出した、仮想オブジェクトOVと仮想空間SVにおけるユーザUVの位置関係によってユーザ位置情報を設定する。より具体的には、ユーザ位置取得部44は、仮想空間SV(仮想ローカル空間LV)におけるユーザUVに対する仮想オブジェクトOVの位置が、実空間SR(実ローカル空間LR)におけるユーザUに対する実オブジェクトORの位置に対応するように、ユーザ位置情報を設定する。言い換えれば、ユーザ位置情報が示す仮想空間SVにおけるユーザUVの位置は、仮想オブジェクトOVからユーザUVまでの向き及び距離が、実空間SRにおける実オブジェクトORからユーザUまでの向き及び距離に対応するように(より好ましくは一致するように)、設定される。以下、ユーザ位置情報の具体的な設定方法について説明する。
図6は、仮想空間に対して実ローカル空間を重畳させた一例を示す模式図である。本実施形態では、ユーザ位置情報は、仮想オブジェクトOVを含む仮想空間SVに対してユーザUVを含む仮想ローカル空間LVを重畳するための情報であり、言い換えれば、仮想空間SVにおける仮想ローカル空間LVの位置と方向との情報である。すなわち、ユーザ位置情報とは、実ローカル空間LRの座標系を、仮想ローカル空間LVを介して、仮想空間SVの座標系に変換するための値ともいえる。図6の例では、仮想ローカル空間LVにおける、水平方向に沿った一方向を方向Xとし、水平方向に沿って方向Xに直交する方向を方向Yとし、鉛直方向を方向Zとしている。
本実施形態では、ユーザ位置情報は、図6の例に示すように、仮想ローカル空間LV上で実オブジェクトORに対応する範囲と、仮想空間SV上の仮想オブジェクトOVが占める範囲とが重なるという条件で設定される。より具体的には、ユーザ位置情報は、公知の技術によって実空間SRにおけるユーザUに対する実オブジェクトOR上の特徴点または範囲と、仮想空間SVにおけるユーザUVに対する仮想オブジェクトOVの特徴点または範囲とが重なるという条件で設定される。なお、図6の例では、仮想空間SVにおいて、仮想ローカル空間LVの位置及び向きを移動させる例を示しているが、それに限られず、仮想ローカル空間LVの位置及び向きを固定させつつ、仮想空間SVの位置及び向きを移動させて設定されてもよい。また、ユーザUに対する実オブジェクトOR上の特徴点または範囲と、ユーザUVに対する仮想オブジェクトOVの特徴点または範囲とを重ねるとは、特徴点や範囲が厳密に同一になることに限られず、特徴点や範囲が近似的に合わせられることを指してよい。
本実施形態では、ユーザ位置情報は、仮想ローカル空間LV上で実オブジェクトORの特徴点または範囲と、仮想空間SV上の仮想オブジェクトOVの特徴点または範囲とが重なるという所定の条件に基づき、仮想空間SVにおける仮想ローカル空間LVの位置および向きが設定される。より詳しくは、ユーザ位置情報は、所定の条件を満たす仮想空間SVにおける仮想ローカル空間LVの位置および向きのうち、所定の方法で位置と向きを抽出し、仮想空間SVの座標系と実空間SRの座標系との対応関係として設定される。また、実オブジェクトORの特徴点または範囲と、仮想オブジェクトOVの特徴点または範囲とが一致しない場合、ユーザ位置情報は、所定の条件を満たす位置と方向のうち、例えば、仮想空間SVにおいてユーザUVの初期設定位置からの変位が最小になるものに設定される。この仮想ローカル空間LVの位置および向きを抽出する方法はこれに限られず、ユーザUの入力部20を通じた操作によって設定されてもよい。
また、ユーザ位置取得部44は、ユーザUが所定の条件を満たす動作を行ったときに、ユーザ位置情報を取得してよい。すなわち本実施形態では、ユーザ位置取得部44は、ユーザUが所定の条件を満たす動作を行ったことをトリガとして、ユーザ位置情報を設定する。この場合、仮想ローカル空間LVの位置は、仮想空間SV内で固定され、仮想空間SVにおけるユーザUVに対する仮想オブジェクトOVの位置が、実空間SRにおけるユーザUに対する実オブジェクトORの位置に対応するように設定される。所定の条件を満たすユーザUの動作は、任意の動作でよく、例えば、ユーザUが入力部20に所定の操作を行うこと、所定の実オブジェクトORに接触したり体重をかけたりするなどの行動を行うこと、想空間SV上の乗り物に乗ったりする等のユーザUが仮想空間SV内で行う行動などが挙げられる。
仮想空間SVにおいて、複数のユーザUVが配置される場合、それぞれのユーザUの表示装置10は、複数の実ローカル空間上の実オブジェクトORの位置に対して、ユーザ数より少ない数の仮想オブジェクトOVの位置を対応させてもよい。複数のユーザUVが1つの仮想オブジェクトOVを共有する場合(例えば、会議等により同じ仮想空間SV上の複数のユーザUVが1つの机を共有する場合)、それぞれの仮想ローカル空間LVは、それぞれの仮想ローカル空間LVで実オブジェクトORの特徴点または範囲と、仮想空間SV上の仮想オブジェクトOVの特徴点または範囲が重なるように仮想空間SV上に配置される。
以上の説明では、ユーザ位置情報は、仮想ローカル空間LV上で実オブジェクトORの特徴点または範囲と、仮想空間SV上の仮想オブジェクトOVの特徴点または範囲とが2次元で重なるという条件で設定されていたが、2次元に限られない。例えば、ユーザ位置情報は、仮想ローカル空間LV上で実オブジェクトORの特徴点または範囲と、仮想空間SV上の仮想オブジェクトOVの特徴点または範囲とが3次元で重なるという条件で設定してもよい。
(提供部)
提供部46は、ユーザ位置情報に基づいて、ユーザUに仮想空間SVを提供する。提供部46は、ユーザ位置情報が示す位置を仮想空間SVにおけるユーザUVの位置に設定して、ユーザUに仮想空間SVを提供する。具体的には、提供部46は、実空間SRにおけるユーザUの位置及び向きの情報を取得し、実空間SRにおけるユーザUの位置及び向きを、仮想空間SVの座標系においてユーザ位置情報が示すユーザUVの視点の位置及び向きに換算する。提供部46は、算出したユーザUの視点の位置及び姿勢から仮想空間SVを視認した場合の仮想空間SVの画像を、仮想空間SV用の画像として表示部22に表示させる。
提供部46は、ユーザ位置情報に基づいて、ユーザUに仮想空間SVを提供する。提供部46は、ユーザ位置情報が示す位置を仮想空間SVにおけるユーザUVの位置に設定して、ユーザUに仮想空間SVを提供する。具体的には、提供部46は、実空間SRにおけるユーザUの位置及び向きの情報を取得し、実空間SRにおけるユーザUの位置及び向きを、仮想空間SVの座標系においてユーザ位置情報が示すユーザUVの視点の位置及び向きに換算する。提供部46は、算出したユーザUの視点の位置及び姿勢から仮想空間SVを視認した場合の仮想空間SVの画像を、仮想空間SV用の画像として表示部22に表示させる。
このように、実空間SRにおけるユーザUの位置と姿勢とは、仮想空間SVにおけるユーザUVの視点の位置と姿勢とに反映される。従って、実空間SRでユーザUが移動した場合、仮想空間SVにおけるユーザUVの視点の位置姿勢も移動する。この場合、実空間SRにおけるユーザUの移動量と、仮想空間SVにおけるユーザUVの視点の移動量とは、対応付けられることが好ましい。より詳しくは、ユーザ位置情報を設定する際に、実ローカル空間LRに対する仮想ローカル空間LVの大きさを変化させていた場合、仮想ローカル空間LVの大きさの変化度合いを、移動量に反映させることが好ましい。具体的には、実ローカル空間LRに対する仮想ローカル空間LVの大きさを変化させた割合(縮尺率)を、変化割合とすると、提供部46は、ユーザUが実空間SRで移動した移動量に対して、変化割合の逆数倍だけの移動量を、ユーザUの視点が仮想空間SVで移動したとして、仮想空間SV用の画像を表示部22に表示させる。すなわち、提供部46は、ユーザUが実空間SRで移動した移動量に対して変化割合の逆数倍だけの移動量だけ移動した視点からの仮想空間SVの画像を、表示部22に表示させる。例えば、ユーザ位置情報を設定する際に仮想ローカル空間LVの大きさを2倍にした場合には、提供部46は、ユーザUが実空間SRで移動した移動量に対して1/2倍だけの移動量だけ移動した視点からの仮想空間SVの画像を、表示部22に表示させる。
ここで、提供部46は、仮想オブジェクトOVに重畳するように、実オブジェクトORを示す画像を、仮想空間SV内で表示させてもよい。提供部46は、仮想オブジェクトOVの形状情報と実オブジェクトORの形状情報とに基づき、実オブジェクトORを示す画像を仮想空間SVに表示するかを判断し、表示すると判断した場合に、仮想オブジェクトOVに重畳するように、実オブジェクトORを示す画像を、仮想空間SV内で表示させてもよい。例えば、提供部46は、仮想オブジェクトOVの大きさが実オブジェクトORの大きさよりも大きい場合に、仮想オブジェクトOVに重畳するように、実オブジェクトORを示す画像を、仮想空間SV内に表示させてよい。この場合、表示部22は、実空間SRを透過しつつ仮想空間SVの画像を表示するAR(Augumented Reality)を提供するものであってもよいし、仮想空間SVの画像と、実オブジェクトORを示す画像とを、重畳して表示させてもよい。また、仮想オブジェクトOVのうち、実オブジェクトORと重なっていない部分は、仮想空間SVの画像から削除したり、実オブジェクトORと関連付けられていない領域として情報提示したりしても良い。
(フローチャート)
図7は、本実施形態にかかるフローチャートである。ユーザUが所定の動作を行った場合(ステップS10:Yes)、実オブジェクト情報取得部40は、実空間検出部28を通じて、実オブジェクトORの情報を取得する(ステップS12)。仮想オブジェクト情報取得部42は、情報処理装置12から、仮想オブジェクトOVの情報を取得する(ステップS14)。そして、ユーザ位置取得部44は、実オブジェクトORの情報と仮想オブジェクトOVの情報とに基づき、ユーザ位置情報を設定する(ステップS16)。提供部46は、ユーザ位置情報が示す位置を仮想空間SVにおけるユーザUVの位置に設定して、ユーザUに仮想空間SVを提供する(ステップS20)。一方、ユーザUが所定の動作を行なわなかった場合(ステップS10:No)、ユーザ位置取得部44は、初期設定位置を仮想空間SVにおけるユーザUVの位置に設定して、ユーザUに仮想空間SVを提供する(ステップS18)。
図7は、本実施形態にかかるフローチャートである。ユーザUが所定の動作を行った場合(ステップS10:Yes)、実オブジェクト情報取得部40は、実空間検出部28を通じて、実オブジェクトORの情報を取得する(ステップS12)。仮想オブジェクト情報取得部42は、情報処理装置12から、仮想オブジェクトOVの情報を取得する(ステップS14)。そして、ユーザ位置取得部44は、実オブジェクトORの情報と仮想オブジェクトOVの情報とに基づき、ユーザ位置情報を設定する(ステップS16)。提供部46は、ユーザ位置情報が示す位置を仮想空間SVにおけるユーザUVの位置に設定して、ユーザUに仮想空間SVを提供する(ステップS20)。一方、ユーザUが所定の動作を行なわなかった場合(ステップS10:No)、ユーザ位置取得部44は、初期設定位置を仮想空間SVにおけるユーザUVの位置に設定して、ユーザUに仮想空間SVを提供する(ステップS18)。
なお、本実施形態では、ユーザUに用いられる表示装置10が、ユーザ位置情報を設定していたが、ユーザ位置情報を設定する主体は表示装置10に限られず、情報処理装置12によって行われてもよい。この場合、情報処理装置12は、表示装置10から実オブジェクトORの情報を取得し、実オブジェクトORの情報と、自身で設定した仮想オブジェクトOVの情報とから、ユーザ位置情報を設定する。表示装置10のユーザ位置取得部44は、情報処理装置12から、ユーザ位置情報を取得する。
ここで、仮想空間SVにおいては、実空間SRにおけるユーザUの動きが、仮想空間SVにおけるユーザUVの動きに反映される。しかし、例えば実空間SRにおけるレイアウトと関係なく仮想空間SVが設定される場合などにおいては、仮想空間SVにおけるユーザUの動きが不自然となる場合がある。例えば、ユーザUが実空間SRにおいて机の前に座った場合、仮想空間SVにおいてはその場所に机が無い場合には、仮想空間SV内の他のユーザからは、ユーザUVが何もない場所で座っているように視認されることがある。それに対し、本実施形態によれば、仮想空間SVにおけるユーザUVの位置を適切に設定することで、実空間SRにおけるユーザUに対する実オブジェクトORの位置と、仮想空間SVのいけるユーザUVに対する仮想オブジェクトOVの位置とを、対応させることができる。このことにより、仮想空間SVにおいてユーザUVの行動(例えば、仮想オブジェクトOVである机の前にユーザUVが座る行動)を自然に見せることができる。また、これにより、実空間SRにおいてユーザUは実オブジェクトORと同じように仮想オブジェクトOVを扱う行動(例えば、仮想オブジェクトOVである机を視認しながら実空間SRで物を置く行動)ができるので、仮想空間SVにおいてユーザUの行動を自然なものにすることができる。
(ユーザ位置情報の設定方法の他の例)
本実施形態では、ユーザ位置情報は、実ローカル空間LRにおけるユーザUの座標と実オブジェクトORの座標との差と、仮想空間SVにおける仮想オブジェクトOVの座標とに基づいて、仮想空間SVにおける仮想ローカル空間LVの位置と方向を調節することで設定されることを説明したが、ユーザ位置情報の設定方法はこれに限られない。以下、他の例を説明する。
本実施形態では、ユーザ位置情報は、実ローカル空間LRにおけるユーザUの座標と実オブジェクトORの座標との差と、仮想空間SVにおける仮想オブジェクトOVの座標とに基づいて、仮想空間SVにおける仮想ローカル空間LVの位置と方向を調節することで設定されることを説明したが、ユーザ位置情報の設定方法はこれに限られない。以下、他の例を説明する。
例えば、実オブジェクト情報取得部40は、ユーザUを原点とした実オブジェクトORの相対座標を、実オブジェクトORのユーザUに対する位置関係の情報として取得してもよい。この場合、実空間SRにおいてユーザUが動いた場合、実オブジェクトORの相対座標が変化することとなる。
また、仮想オブジェクト情報取得部42は、ユーザUVを原点とした仮想オブジェクトOVの相対座標を、仮想オブジェクトOVの位置の情報として取得してもよい。この場合、仮想空間SVにおいてユーザUVが動いた場合、仮想オブジェクトOVの相対座標が変化することとなる。
ユーザUを原点とした実オブジェクトORの相対座標が取得されている場合、ユーザ位置情報は、ユーザUVを原点とした仮想オブジェクトOVの相対座標を、ユーザUを原点とした実オブジェクトORの相対座標に直接対応させることで設定されてもよい。
(本発明の効果)
各実施形態に記載の表示装置、表示装置の制御方法、およびプログラムは、例えば以下のように把握される。
各実施形態に記載の表示装置、表示装置の制御方法、およびプログラムは、例えば以下のように把握される。
第1の態様の表示装置は、ユーザUが実在する実空間SRにおけるオブジェクトである実オブジェクトORの、実空間SRにおける位置の情報と、実オブジェクトORとユーザUとの、実空間SRにおける位置関係の情報を取得する実オブジェクト情報取得部40と、仮想空間SVにおけるオブジェクトである仮想オブジェクトOVの、仮想空間SVにおける位置の情報を取得する仮想オブジェクト情報取得部42と、実オブジェクトORと仮想オブジェクトOVの位置及び姿勢を合わせ、実空間SRにおける位置関係の情報に基づいて、仮想オブジェクトOVと仮想空間SVにおけるユーザUVとの仮想空間SVにおける位置関係を算出し、仮想空間SVにおける位置関係に基づいて、仮想空間SVにおけるユーザUVの位置を示すユーザ位置情報を取得するユーザ位置取得部44と、を含む。この構成によれば、ユーザUに対する実オブジェクトORの位置と、ユーザUVに対する仮想オブジェクトOVの位置とを一致させることができる。したがって、仮想空間SVにおいてユーザUの行動を自然なものにすることができる。
第2の態様の表示装置は、ユーザ位置情報に基づいて、ユーザUに仮想空間SVを提供する提供部46を含み、提供部46は、仮想オブジェクトOVに重畳するように、実オブジェクトORを示す画像を、仮想空間SV内で表示させる。これにより、実オブジェクトORと仮想オブジェクトOVとの大きさが異なる場合でも、ユーザUは実オブジェクトORの範囲を仮想空間SV内で認識することができるため、仮想空間SVにおいてユーザUの行動をより自然なものにすることができる。
第3の態様の表示装置は、仮想オブジェクト情報取得部42は、実オブジェクトORの形状と仮想オブジェクトOVの形状とに基づき、仮想オブジェクトOVを抽出する。これにより、実オブジェクトORに類似した仮想オブジェクトOVを基準にすることで、ユーザUVの位置をより適切に設定することができるため、仮想空間SVにおいてユーザUの行動をより自然なものにすることができる。
第4の態様の表示装置は、ユーザ位置取得部44は、ユーザUが所定の条件を満たす動作を行ったときに、ユーザ位置情報を取得する。これにより必要に応じて仮想空間SVにおけるユーザUVの位置を適切に設定することができるため、仮想空間SVにおいてユーザUの行動をより自然なものにすることができる。
第5の態様の表示装置の制御方法は、ユーザUが実在する実空間SRにおけるオブジェクトである実オブジェクトORの、実空間SRにおける位置の情報と、実オブジェクトORとユーザUとの、実空間SRにおける位置関係の情報を取得するステップと、仮想空間SVにおけるオブジェクトである仮想オブジェクトOVの、仮想空間SVにおける位置の情報を取得するステップと、実オブジェクトORと仮想オブジェクトOVの位置及び姿勢を合わせ、実空間SRにおける位置関係の情報に基づいて、仮想オブジェクトOVと仮想空間SVにおけるユーザUVとの仮想空間SVにおける位置関係を算出し、仮想空間SVにおける位置関係に基づいて、仮想空間SVにおけるユーザUVの位置を示すユーザ位置情報を取得するステップと、を含む。
第6の態様のプログラムは、ユーザUが実在する実空間SRにおけるオブジェクトである実オブジェクトORの、実空間SRにおける位置の情報と、実オブジェクトORとユーザUとの、実空間SRにおける位置関係の情報を取得するステップと、仮想空間SVにおけるオブジェクトである仮想オブジェクトOVの、仮想空間SVにおける位置の情報を取得するステップと、実オブジェクトORと仮想オブジェクトOVの位置及び姿勢を合わせ、実空間SRにおける位置関係の情報に基づいて、仮想オブジェクトOVと仮想空間SVにおけるユーザUVとの仮想空間SVにおける位置関係を算出し、仮想空間SVにおける位置関係に基づいて、仮想空間SVにおけるユーザUVの位置を示すユーザ位置情報を取得するステップと、をコンピュータに実行させる。
以上、本発明の実施形態を説明したが、これら実施形態の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能であり、各実施形態の構成を組み合わせることも可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
1 表示システム
10 表示装置
12 情報処理装置
20 入力部
22 表示部
24 記憶部
26 通信部
28 実空間検出部
30 制御部
40 実オブジェクト情報取得部
42 仮想オブジェクト情報取得部
44 ユーザ位置取得部
46 提供部
LR 実ローカル空間
LV 仮想ローカル空間
OR 実オブジェクト
OV 仮想オブジェクト
SR 実空間
SV 仮想空間
U,UV ユーザ
V 視野範囲
10 表示装置
12 情報処理装置
20 入力部
22 表示部
24 記憶部
26 通信部
28 実空間検出部
30 制御部
40 実オブジェクト情報取得部
42 仮想オブジェクト情報取得部
44 ユーザ位置取得部
46 提供部
LR 実ローカル空間
LV 仮想ローカル空間
OR 実オブジェクト
OV 仮想オブジェクト
SR 実空間
SV 仮想空間
U,UV ユーザ
V 視野範囲
Claims (6)
- ユーザが実在する実空間におけるオブジェクトである実オブジェクトの、前記実空間における位置の情報と、前記実オブジェクトと前記ユーザとの、前記実空間における位置関係の情報を取得する実オブジェクト情報取得部と、
仮想空間におけるオブジェクトである仮想オブジェクトの、前記仮想空間における位置の情報を取得する仮想オブジェクト情報取得部と、
前記実オブジェクトと前記仮想オブジェクトの位置及び姿勢を合わせ、前記実空間における位置関係の情報に基づいて、前記仮想オブジェクトと前記仮想空間における前記ユーザとの前記仮想空間における位置関係を算出し、前記仮想空間における位置関係に基づいて、前記仮想空間における前記ユーザの位置を示すユーザ位置情報を取得するユーザ位置取得部と、
を含む、
表示装置。 - 前記ユーザ位置情報に基づいて、前記ユーザに仮想空間を提供する提供部を含み、
前記提供部は、前記仮想オブジェクトに重畳するように、前記実オブジェクトを示す画像を、前記仮想空間内で表示させる、
請求項1に記載の表示装置。 - 前記仮想オブジェクト情報取得部は、前記実オブジェクトの形状と前記仮想オブジェクトの形状とに基づき、前記仮想オブジェクトを抽出する、
請求項1または請求項2に記載の表示装置。 - 前記ユーザ位置取得部は、前記ユーザが所定の条件を満たす動作を行ったときに、前記ユーザ位置情報を取得する、
請求項1から請求項3のいずれか1項に記載の表示装置。 - ユーザが実在する実空間におけるオブジェクトである実オブジェクトの、前記実空間における位置の情報と、前記実オブジェクトと前記ユーザとの、前記実空間における位置関係の情報を取得するステップと、
仮想空間におけるオブジェクトである仮想オブジェクトの、前記仮想空間における位置の情報を取得するステップと、
前記実オブジェクトと前記仮想オブジェクトの位置及び姿勢を合わせ、前記実空間における位置関係の情報に基づいて、前記仮想オブジェクトと前記仮想空間における前記ユーザとの前記仮想空間における位置関係を算出し、前記仮想空間における位置関係に基づいて、前記仮想空間における前記ユーザの位置を示すユーザ位置情報を取得するステップと、
を含む、
表示装置の制御方法。 - ユーザが実在する実空間におけるオブジェクトである実オブジェクトの、前記実空間における位置の情報と、前記実オブジェクトと前記ユーザとの、前記実空間における位置関係の情報を取得するステップと、
仮想空間におけるオブジェクトであ仮想オブジェクトの、前記仮想空間における位置の情報を取得するステップと、
前記実オブジェクトと前記仮想オブジェクトの位置及び姿勢を合わせ、前記実空間における位置関係の情報に基づいて、前記仮想オブジェクトと前記仮想空間における前記ユーザとの前記仮想空間における位置関係を算出し、前記仮想空間における位置関係に基づいて、前記仮想空間における前記ユーザの位置を示すユーザ位置情報を取得するステップと、 をコンピュータに実行させる、
プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021157245A JP2023048014A (ja) | 2021-09-27 | 2021-09-27 | 表示装置、表示装置の制御方法およびプログラム |
CN202280061597.3A CN117940963A (zh) | 2021-09-27 | 2022-09-13 | 显示装置、显示装置的控制方法以及程序 |
PCT/JP2022/034215 WO2023048018A1 (ja) | 2021-09-27 | 2022-09-13 | 表示装置、表示装置の制御方法およびプログラム |
EP22872772.3A EP4411659A1 (en) | 2021-09-27 | 2022-09-13 | Display device, method for controlling display device, and program |
US18/608,972 US20240221240A1 (en) | 2021-09-27 | 2024-03-19 | Display device, method of controlling display device, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021157245A JP2023048014A (ja) | 2021-09-27 | 2021-09-27 | 表示装置、表示装置の制御方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023048014A true JP2023048014A (ja) | 2023-04-06 |
Family
ID=85720641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021157245A Pending JP2023048014A (ja) | 2021-09-27 | 2021-09-27 | 表示装置、表示装置の制御方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240221240A1 (ja) |
EP (1) | EP4411659A1 (ja) |
JP (1) | JP2023048014A (ja) |
CN (1) | CN117940963A (ja) |
WO (1) | WO2023048018A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5111210B2 (ja) * | 2008-04-09 | 2013-01-09 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP6332281B2 (ja) * | 2013-12-17 | 2018-05-30 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6981340B2 (ja) | 2018-03-29 | 2021-12-15 | 富士通株式会社 | 表示制御プログラム、装置、及び方法 |
JP7447602B2 (ja) | 2020-03-25 | 2024-03-12 | 株式会社Jvcケンウッド | コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム |
-
2021
- 2021-09-27 JP JP2021157245A patent/JP2023048014A/ja active Pending
-
2022
- 2022-09-13 EP EP22872772.3A patent/EP4411659A1/en active Pending
- 2022-09-13 CN CN202280061597.3A patent/CN117940963A/zh active Pending
- 2022-09-13 WO PCT/JP2022/034215 patent/WO2023048018A1/ja active Application Filing
-
2024
- 2024-03-19 US US18/608,972 patent/US20240221240A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240221240A1 (en) | 2024-07-04 |
WO2023048018A1 (ja) | 2023-03-30 |
EP4411659A1 (en) | 2024-08-07 |
CN117940963A (zh) | 2024-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112148118B (zh) | 生成物理环境中的人的姿势信息 | |
US8462198B2 (en) | Animation generation systems and methods | |
JP5472056B2 (ja) | 表示システム、表示処理装置、表示方法、および表示プログラム | |
JP2006249618A (ja) | 仮想試着装置 | |
JP6739847B2 (ja) | 画像表示制御装置および画像表示制御用プログラム | |
JPWO2014016987A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
CN111373347B (zh) | 用于虚拟现实内容的提供的装置、方法和计算机程序 | |
WO2021096630A1 (en) | Co-located pose estimation in a shared artificial reality environment | |
JP2005256232A (ja) | 3dデータ表示方法、装置、およびプログラム | |
CN106980378B (zh) | 虚拟显示方法和系统 | |
JP2016198180A (ja) | 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム | |
JP2021527252A (ja) | 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア | |
JP2021135776A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2022121443A (ja) | 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ | |
US11474595B2 (en) | Display device and display device control method | |
US10902554B2 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
WO2023048018A1 (ja) | 表示装置、表示装置の制御方法およびプログラム | |
WO2020144848A1 (ja) | オーサリング装置、オーサリング方法、及びオーサリングプログラム | |
US20220405996A1 (en) | Program, information processing apparatus, and information processing method | |
JP2022019501A (ja) | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム | |
WO2022202205A1 (ja) | 表示装置、表示装置の制御方法及びプログラム | |
US20220044351A1 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
WO2016065401A1 (en) | An improved computer system and method for user navigation in a virtual environment | |
JP2000353252A (ja) | 映像重畳方法、映像重畳装置及び映像重畳プログラムを記録した記録媒体 | |
GB2575932A (en) | Method and system for providing at least a portion of content having six degrees of freedom motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240910 |