JP7547504B2 - 表示装置および表示方法 - Google Patents
表示装置および表示方法 Download PDFInfo
- Publication number
- JP7547504B2 JP7547504B2 JP2022567991A JP2022567991A JP7547504B2 JP 7547504 B2 JP7547504 B2 JP 7547504B2 JP 2022567991 A JP2022567991 A JP 2022567991A JP 2022567991 A JP2022567991 A JP 2022567991A JP 7547504 B2 JP7547504 B2 JP 7547504B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- target
- display
- display device
- hmd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/273—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional [3D] objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Description
図1等を用いて、本発明の実施の形態1の表示装置および表示方法について説明する。実施の形態1の表示装置は、仮想オブジェクト表示装置であり、ヘッドマウント情報処理装置(HMDと記載する)に適用した場合を示す。実施の形態1の表示方法は、実施の形態1の表示装置で実行されるステップを有する方法である。
図1は、実施の形態1の表示装置であるヘッドマウント情報処理装置(HMD)1の構成概要および表示例を示す。図1では、ユーザU1が頭部にHMD1を装着した状態での外観の模式構成を示す。また図1では、ユーザU1がHMD1によって視界範囲101に表示される3次元的なオブジェクトの画像を見る様子を示す。また図1では、視界範囲101でのオブジェクトの表示態様の変更の例を示す。(a)は変更前の表示例であり、「A」「B」のオブジェクトにおいて遮蔽妨害関係がある場合を示す。(b)は変更後の表示例であり、「A」「B」のオブジェクトにおいて遮蔽妨害関係が一時的に解消されている状態を示す。
ユーザU1が注視を望むオブジェクトである目標オブジェクトを指定・判断・確定するための手段として、実施の形態1では、図1の2つの視線方向104,105から算出できる3次元空間内での注視点106を用いる。HMD1は、例えば、注視点106の位置に対して最も近いオブジェクトを目標オブジェクトと判断することができる。この手段は、これに限定されず、様々な手段が適用できる。他の手段は、リモートコントローラ等によるポインタ、音声入力、手によるジェスチャの認識等が挙げられる。ポインタを用いる場合、ユーザU1は、表示面に表示されるポインタを、リモートコントローラ等によって操作する。HMD1は、視界範囲101内で、ポインタが位置するオブジェクト、あるいはさらにポインタのオン操作によって指定されたオブジェクトを、目標オブジェクトとして判断してもよい。音声入力の場合、ユーザU1は、表示されるオブジェクトを識別する情報を、音声で入力する。HMD1は、入力された音声を認識し、例えば「B」と認識した場合、「B」のオブジェクト102を目標オブジェクトとして判断してもよい。
図2を用いて、用語等について補足説明する。図2の(A)は、「オブジェクト」の分類を示す。実施の形態1では、HMD1が表示面11に表示するオブジェクトとして、大別して2種類のオブジェクトがある。その2種類のオブジェクトを、「個別実体オブジェクト」と「仮想オブジェクト」と記載する。これらのオブジェクトは、遮蔽妨害関係を構成し得る要素である。実施の形態1のHMD1では、これらのオブジェクトは、表示面11に対応する視界範囲101において3次元配置できるオブジェクトである。すなわち、これらのオブジェクトは、ユーザU1の視点から視界範囲101を見た奥行き方向において、前後にも配置できるオブジェクトである。前後に配置されたオブジェクト同士が重なることで、遮蔽妨害関係となる場合がある。
図3~図8は、HMD1の表示面11に対応する視界範囲101における表示例として、表示態様変更の各種の例を示す。
図3の(A)は、図1の(a)のような「A」「B」のオブジェクトの遮蔽妨害関係がある場合に、表示態様変更として、前側の妨害オブジェクトである「A」のオブジェクト103の透過度(言い換えると透明度)をアップする調整を行う例である。これにより、妨害オブジェクトが透けることで、一部遮蔽されている目標オブジェクトである「B」のオブジェクト102の目標視認範囲107内を視認しやすくする。これにより、ユーザU1は、目標オブジェクトの目標視認範囲107の全容を視認可能になる。本例では、HMD1は、前側の妨害オブジェクトであるオブジェクト103の画像領域のうち、後側の目標視認範囲107を遮蔽している部分103Xだけ、透過度をアップ調整して透明に近づける場合を示す。この透過度アップ調整により、視認妨害の程度を軽減できる。
図5は、他の表示態様変更の例を示す。図5の(a)から(b)への変更は、妨害オブジェクトである「A」のオブジェクト103を縮小して、透過度アップ調整をした場合を示す。「A」のオブジェクト103は、変更後、オブジェクト103bに置き換えられている。このように、HMD1は、目標オブジェクトに対し妨害オブジェクトを小さくするようにサイズを変更する。これにより、妨害オブジェクトによる視認妨害の程度を一層軽減できる。また、妨害オブジェクトの縮小のみとしてもよく、目標視認範囲を確認しやすくなる効果は得られる。同様に、他の方式として、図5の(a)から(c)への変更は、「A」の妨害オブジェクトに対し、「B」の目標オブジェクトの方を拡大する変更を行う場合を示す。「B」のオブジェクト102は、変更後、拡大されたオブジェクト102cに置き換えられている。この場合でも、目標視認範囲を確認しやすくなる効果が得られる。
図6は、妨害オブジェクトではなく目標オブジェクトの方の表示態様を変更する例を示す。例えば、目標オブジェクトが仮想オブジェクトであり、妨害オブジェクトが目標オブジェクトよりもユーザU1の視認違和感等の観点から、透過度アップ調整や表示位置変更に適してない仮想オブジェクトまたは個別実体オブジェクトであるとする。この場合には、図6等に示すような目標オブジェクトの表示態様の変更が有用である。
図8は、さらに他の表示態様変更の方式として、オブジェクトの移動ではなく、複製オブジェクトの表示の方式を示す。(a)から(b)への変更では、HMD1は、妨害オブジェクトである「A」のオブジェクト103によって一部遮蔽されている目標オブジェクトである「B」のオブジェクト102については、そのままの表示とする。さらに、HMD1は、「B」のオブジェクト102の複製オブジェクト102rを生成して空いている位置(例えば左側の位置)に表示する。また、HMD1は、複製オブジェクト102rの表示とともに、ユーザU1に対し複製であることを伝える情報を表示してもよい。HMD1は、複製オブジェクト102rの目標視認範囲107rの全容が見える状態にする。これにより、ユーザU1は、移動後の注視点106rで、複製オブジェクト102rの目標視認範囲107rの全容を視認できる。これは、元のオブジェクト102の目標視認範囲107の全容の視認と等しい。この方式の場合、ユーザU1は、複製オブジェクトを利用した目標オブジェクトの全容の視認と共に、元の「B」のオブジェクト102と「C」のオブジェクト103との配置関係もそのまま維持して把握できる。
HMD1は、オブジェクト間の遮蔽妨害関係がある場合に、上記例のようにオブジェクトの表示態様の変更を一時的に行う。この際に、HMD1は、ユーザU1に対し、一時的に表示態様変更が行われている状態であることをわかりやすく伝えるようにGUI等で出力を行ってもよい。例えば、HMD1は、表示面に表示態様変更中の旨の画像を表示してもよい。図3の(B)の画像130はその例である。また例えば、HMD1は、オブジェクトの表示位置を変更する際に、アニメーションやエフェクト等を用いて、変更している状態を表現してもよいし、変更後のオブジェクトを特定の色等で表示してもよい。
図9は、実施の形態1のHMD1の基本動作を説明するための主な処理フローを示す。図9のフローは、ステップS1~S8を有する。ステップS1で、HMD1は、図1のユーザU1の両眼の視線(104,105)の検出に基づいて、ユーザU1が空間内で注視している注視点106を検出する。HMD1は、検出した注視点106の位置に基づいて、ユーザU1が視認しようとしている所望のオブジェクトであると推定される目標オブジェクトを判断・確定する。HMD1は、3次元の空間内での各オブジェクトの位置および注視点106の位置を把握しているので、それらの位置を比較し、例えば注視点106の位置に最も近い位置にあるオブジェクトを、目標オブジェクトとして判断・確定できる。なおここでは注視点106を用いて目標オブジェクトを確定しているが、変形例については後述する。
図10は、実施の形態1の表示装置であるHMD1の機能ブロック構成例を示す。なお他のタイプの表示装置の場合にも基本的に構成は同様である。この構成例では、構成要素が1つの装置に実装されているが、これに限らず、一部の構成部分が別の装置に分かれて実装されてもよい。
実施の形態1のHMD1は、外界の実体物の配置データ(言い換えると空間データ)を、図1の情報サーバ120等の外部装置から通信で取得して利用してもよい。この配置データは、3次元空間内での個別実体オブジェクトの配置(位置や形状等を含む)がわかるデータである。この配置データは、例えば、地図上の空間内で、各種の施設等を個別実体オブジェクトとして含むデータである。また、この配置データは、個別実体オブジェクト毎に属性情報や関連情報(例えば施設の名称や説明等)を有してもよい。他の例では、この配置データは、建築物の空間内で、壁や配置物等の個別実体オブジェクトを含むデータである。このような配置データがある場合、一般に、3次元空間での各物体同士の重なり等の関係が把握しやすい。そのため、HMD1では、配置データを用いて、視界範囲での実体物の境界の判断がより容易となり、個別実体オブジェクトの切り出しや認識がより容易となる。
図10のプロセッサ410による処理に基づいて実現される各構成部として、仮想オブジェクト生成処理部411、注視点検出処理部412、目標オブジェクト目標視認範囲識別処理部413、妨害オブジェクト判別処理部414、オブジェクトカテゴリー処理部415、およびオブジェクト表示態様制御処理部416を有する。
図11以降を用いて、実施の形態1での処理や表示の詳細を説明する。図11は、HMD1の視界範囲101での表示例を示し、個別実体オブジェクト、仮想オブジェクト、および目標視認範囲の例を模式的に示す。図11の(A)では、実体物の例として、ユーザU1が例えば高所から見る風景があり、この中にタワー508やビル500等が含まれている。HMD1は、この風景から、個別実体オブジェクトとして、例えばタワー508等を認識する。ビデオシースルー型の場合、HMD1は、風景の画像から、タワー508の部分を個別実体オブジェクトとして切り出す。光学シースルー型の場合、HMD1は、風景から、タワー508の部分を個別実体オブジェクトとして認識する。タワー508等の認識の際に前述の配置データを利用してもよい。
実施の形態1では、表示態様変更の制御に用いるオブジェクトの属性として、オブジェクトを3つのカテゴリーに分類する。図2の(C)には、3つのカテゴリーを示す。第1カテゴリーは、表示態様変更に対する制限度が最も高く、表示態様変更によって違和感が生じるオブジェクト、または個別実体オブジェクトである。表示形態変更によって違和感が生じるオブジェクトとしては、例えば実体物に仮想オブジェクトが固定されているもの、あるいは実体物に仮想オブジェクトが組み込み加工されて一体変形されたもの等が挙げられる。また、光学シースルー型の場合、実体物や個別実体オブジェクトは、表示態様変更が困難であるため、第1カテゴリーとされる。個別実体オブジェクトに仮想オブジェクトが固定あるいは組み込み加工される例としては、AR(拡張現実)やビデオゲームにおいて、実物の壁(対応する個別実体オブジェクト)の一部に穴が仮想オブジェクトとして表現されて固定あるいは組み込み加工されている場合が挙げられる。この壁と穴は、分離せずに一体として扱うべきなので、関連オブジェクトとして一体とし、制限度が最も高い第1カテゴリーとされる。
ここで、実体物が実体物を遮蔽する場合(図2の第1パターン)の処理例を説明する。HMD1は、まず、遮蔽されている後側の実体物の部分の外観情報が無い場合には、遮蔽が無い、として処理する。この場合、遮蔽妨害関係が生じないので、表示態様変更も生じない。図9のフローで言えば、例外処理として、ステップS3で、遮蔽が無い(N)として扱われる。また、HMD1は、遮蔽されている後側の実体物の部分の外観情報がある場合、例えば前述の配置データからその外観情報が得られる場合には、遮蔽が有る、として処理する。図9のフローで言えば、ステップS3で、遮蔽が有る(Y)として扱われる。すなわち、HMD1は、後側の実体物の部分に対応する個別実体オブジェクトを目標オブジェクトとする。この場合、HMD1は、表示態様変更として、例えば図8と同様に、その目標オブジェクトである個別実体オブジェクトの外観を複製した複製オブジェクトを生成してその複製オブジェクトを空いている位置に表示する。これにより、ユーザU1は、複製オブジェクトを見ることで、遮蔽されている実体物の部分を視認できる。
図13等を用いて、実施の形態1のHMD1の動作例を説明する。図13は、図11等の動作例についての処理フローを示す。図13は、図9に対し、より詳細な処理例であり、ステップS601~S613を有する。図13は、特に図9のステップS2,S4の詳細を示す。ステップS601で、HMD1は、注意点検出処理部412により、ユーザU1の注視点を検出し、注視点に位置するオブジェクトが有るかを判断する。注視点に位置するオブジェクトが有る場合、言い換えると所定の距離範囲内にある1つのオブジェクトが決まる場合(Y)には、ステップS602で、HMD1は、そのオブジェクトを目標オブジェクトとして確定する。
図14は、第2パターンの場合の動作例を示す。(a)の変更前の状態で、遮蔽妨害関係として、目標オブジェクトは第1カテゴリーの個別実体オブジェクトであるタワー508であり、妨害オブジェクトは第3カテゴリーの仮想オブジェクトである案内地図504である。注視点507が位置するタワー508の目標視認範囲509は、案内地図504によって一部遮蔽されている。この場合に、HMD1は、制限度が低くカテゴリーが下位である方の案内地図504を変更対象として、例えば透過度アップ調整を行う。これにより、(b)の変更後の状態では、案内地図504が透明になって目標オブジェクトであるタワー508の目標視認範囲509の全容が視認できる状態となる。
図16は、第3パターンの場合の動作例を示す。図16は、図14等とは逆の場合であり、目標オブジェクトは第3カテゴリーの仮想オブジェクトである案内地図504であり、妨害オブジェクトは第1カテゴリーの個別実体オブジェクトであるタワー508である。(a)で、注視点502がある案内地図504の目標視認範囲506は、タワー508によって一部遮蔽されている。この場合、HMD1は、(b)のように、カテゴリーが下位である方の案内地図504をタワー508の外の位置に移動させ、目標視認範囲506内にタワー508が重ならない状態にする。これにより、遮蔽するものが全くない状態で、目標オブジェクトである案内地図504の目標視認範囲506の全容を視認できる状態となる。
図17は、第4パターンの場合の動作例を示す。目標オブジェクトは、第2カテゴリーの仮想オブジェクトである説明パネル503であり、妨害オブジェクトは、第3カテゴリーの仮想オブジェクトである案内地図504である。(a)で、説明パネル503の目標視認範囲505は、案内地図504によって一部遮蔽されている。この場合、HMD1は、(b)のように、カテゴリーが下位である方の案内地図504の透過度アップ調整を行う。これにより、案内地図504が透明になって、目標オブジェクトである説明パネル503の目標視認範囲505の全容を視認できる状態となる。
図19は、他の動作例を示す。図19は、図17の場合とは逆の場合であり、目標オブジェクトが第3カテゴリーの仮想オブジェクトである案内地図504であり、妨害オブジェクトが第2カテゴリーの仮想オブジェクトである説明パネル503である。(a)で、案内地図504の目標視認範囲506は、説明パネル503に一部遮蔽されている。この場合、HMD1は、カテゴリーが下位である方の案内地図504を移動させて、目標視認範囲506内に説明パネル503や他のオブジェクトが重ならない位置に変更する。これにより、遮蔽するものが全くない状態で、目標オブジェクトである案内地図504の目標視認範囲506の全容を視認できる状態となる。
上記のように、実施の形態1によれば、3次元配置の仮想オブジェクトを表示できるHMD1において、ユーザU1が視認したい実体物や仮想オブジェクト等のオブジェクトの視認範囲に対し他のオブジェクトによる遮蔽等による視認妨害がある場合に、表示態様変更によって、その視認妨害を解消または軽減でき、ユーザU1がオブジェクトの全容を好適に視認することができる。かつ、そのような機能をユーザの手間が少なく使い勝手良く実現できる。実施の形態1によれば、オブジェクト間に遮蔽妨害関係があった場合でも、ユーザは、注視を望む目標オブジェクトの目標視認範囲の全容を好適に視認できる。実施の形態1によれば、遮蔽妨害関係に応じて自動的に表示態様変更を行ってユーザの視認を支援できるので、ユーザの手間も少なく使い勝手良くそのような機能を実現できる。
実施の形態1の変形例として以下も可能である。HMD1は、視線に基づいて目標オブジェクトを判断する際に、視線方向の動きが所定の閾値以下となった場合に、ユーザU1が注視したい目標オブジェクトがあると判断してもよい。これにより、意図しない急速な目の動きによる誤処理を除外し、目標オブジェクトをより正確に特定可能である。誤処理は、注視点が短時間にオブジェクトに位置した場合にそのオブジェクトを誤って目標オブジェクトとしてしまうことが挙げられる。
図20等を用いて、実施の形態2について説明する。実施の形態2は、実施の形態1に対する追加の機能として以下を有する。視界範囲において、目標オブジェクトの候補となるオブジェクト(目標候補オブジェクトと記載する場合がある)が、他のオブジェクトである仮想オブジェクトまたは個別実体オブジェクトによって遮蔽されていてユーザから存在が分からない場合があり得る。この機能は、そのような場合に、その目標候補オブジェクトの存在を確認できる機能である。
図20は、実施の形態2での動作例の説明図である。図20では、あるオブジェクト(目標候補オブジェクト)が実体物に遮蔽されている場合の表示態様変更の例を示す。(a)は変更前の状態を示す。視界範囲101において、個別実体オブジェクトであるタワー508と、仮想オブジェクトである説明パネル1213とが表示されている。また、注視点1201の方向に位置するオブジェクトとして、タワー508と、そのタワー508に遮蔽されることで隠れて見えない仮想オブジェクトである案内地図1202(点線で示す)とがある。すなわち、見えない目標候補オブジェクトとして、案内地図1202がある。この場合、HMD1は、(b)のように、視線方向にあるオブジェクト(508,1202)に関する表示態様を変更する。本例では、HMD1は、目標候補オブジェクトである案内地図1202の少なくとも一部が、タワー508による遮蔽から外れて見える状態となるように、案内地図1202の表示位置を移動する。(b)で、変更後の案内地図1203は、少なくとも一部がユーザU1から見える状態である。HMD1は、目標候補オブジェクトに対応する表示範囲の全てが見える状態に変更してもよい。また、HMD1は、目標候補オブジェクトに対応する表示範囲のうち所定の割合の部分が見える状態となるようにしてもよい。これにより、ユーザU1は、案内地図1202の存在を認識・確認できる。これにより、ユーザU1は、注視点(移動後の注視点1201b)を用いて、案内地図1202を目標オブジェクトとして選択可能となる。
図23は、実施の形態2でのHMD1の上記目標候補オブジェクトの存在確認の機能に係わる処理フローを示す。図23のフローは、前述のフローに対し異なる部分として、ステップS1100~S1104を有する。この部分は、図9のステップS2に対する前処理として行われる。
上記のように、実施の形態2によれば、隠れて見えない目標候補オブジェクトがある場合にも、一種の表示態様変更によって、存在確認ができ、ユーザU1が目標オブジェクトとして選択可能となる。なお、HMD1の機能としてユーザU1の1つの視線方向しか検出できない場合、奥行き方向の注視点の判断は難しい。この場合、実施の形態2では、表示面において隠れているオブジェクトを見えるように表示態様変更する、すなわち表示面において奥行き方向には1つのオブジェクトしかない状態にすることで、1つの視線方向しかなくても、その視線方向にあるオブジェクトを目標オブジェクトとして確定することができる。
以上では、HMD1は、各オブジェクトの表示態様変更に関して、制限度(言い換えると許容度)に関するカテゴリー、および視認価値(言い換えると重要度)といったパラメータを参照して制御内容を決定する場合を説明した。上記カテゴリーにおける制限度や許容度は、オブジェクト毎に表示態様変更に関する制限や許容の度合いを表す属性情報の1つである。オブジェクト毎のデータにおいて、属性情報の1つとして、そのような制限度または許容度、カテゴリー、あるいは他の情報が設定されていてもよい。また、オブジェクト毎の属性情報の他の情報の例として、オブジェクト毎の視認価値や重要度、あるいは優先度等が設定されていてもよい。これらのパラメータは、HMD1または外部装置がデータとして管理・保持してもよい。
図25等を用いて、実施の形態3について説明する。実施の形態3は、共有ユーザ間での共有オブジェクトに関する表示態様変更を行う機能を有する。
図25は、実施の形態3のHMD1の動作例についての説明図である。図25では、HMD1を各々装着した複数(例えば二人)のユーザ(U1,U2)がいる。第1ユーザU1はHMD1Aを使用し、第2ユーザU2はHMD1Bを使用している。これらのユーザ(U1,U2)間で、仮想オブジェクトである「A」のオブジェクト103および「B」のオブジェクト102を共有する。ユーザU1,U2は、それらの仮想オブジェクトを共有する共有ユーザである。「A」「B」のオブジェクトは、それぞれ、共有ユーザ(U1,U2)によって共有される共有オブジェクトである。共有ユーザ(U1,U2)のHMD1(1A.1B)間では、前述の近距離無線通信によって、共有のための通信2500を行う。
上記のような場合に、HMD1は、共有ユーザの共有オブジェクトに関する表示態様変更を行う。まず、図27は、図25の第1例に対応した変更例を示す。(a)は、第1ユーザU1から視界範囲101Aの画像を見た状態として、表示態様の変更前の状態を示し、(c)は、変更後の状態を示す。(b)は、第2ユーザU2から視界範囲101Bの画像を見た状態として、表示態様の変更前の状態を示し、(d)は、変更後の状態を示す。(a)で、第1ユーザU1のHMD1Aは、第2ユーザU2のHMD1Bとの通信2500に基づいて、視界範囲101Aにおいて、マーク情報m2を生成し表示する。このマーク情報m2は、第2ユーザU2がどのオブジェクトを見ているか、すなわち第2ユーザU2の注視点P2が位置する目標オブジェクトがどれか、を表す画像である。例えば、第2ユーザU2のHMD1Bは、目標オブジェクトが「B」であることを伝える情報をHMD1Aに送信し、第1ユーザU1のHMD1Aは、目標オブジェクトが「A」であることを伝える情報をHMD1Bに送信する。HMD1Aは、HMD1Bからの情報に応じて、マーク情報m2として例えば第2ユーザU2を表す番号「2」のマークを生成し、第2ユーザU2の目標オブジェクトである「B」のオブジェクトの付近に表示する。これにより、第1ユーザU1は、共有ユーザである第2ユーザU2がどの共有オブジェクトを見ているかを認識できる。
図28は、他の表示例を示す。(a)は、図25の第1例、および図27の(a)と同様に、第1ユーザU1が前側の「A」のオブジェクトを見ている状態を示す。(b)は、図27の(b)と同様に、第2ユーザU2が後側の「B」のオブジェクトを見ている状態を示す。(a)の場合に、HMD1Aは、(c)のように、表示態様を変更する。HMD1Aは、第1ユーザU1の「A」の目標オブジェクト、および第2ユーザU2の「B」の目標オブジェクトの表示についてはそのままとし、遮蔽されている「B」のオブジェクトの全容についても確認できるように、「B」のオブジェクトの複製オブジェクト102rを生成して、何ら遮蔽されない空いている位置に表示する。複製オブジェクト102rを表示する位置は、特に、第2ユーザU2がいる方向(本例では右側)に対応させるように決めると、より好ましい。また、複製オブジェクト102rにも、共有ユーザ注視オブジェクトを表すマーク情報m2を付けて表示してもよい。これにより、第1ユーザU1は、「A」の目標オブジェクトだけでなく、第2ユーザU2の「B」の目標オブジェクトの全容についても併せて確認できる。
図29は、他の表示例として、共有ユーザ(U1,U2)が同じ共有オブジェクト(例えば「B」のオブジェクト102)を見ている場合の表示態様変更の例を示す。(a)は、第1ユーザU1から見た状態であり、(c)は、第2ユーザU2から見た状態である。(a)で、第1ユーザU1は、後側の「B」のオブジェクトを、「A」のオブジェクトの右側から見ている。「B」の目標オブジェクトは、「A」のオブジェクトによって一部遮蔽されている。(c)で、第2ユーザU2は、後側の「B」のオブジェクトを、「A」のオブジェクトの左側から見ている。「B」の目標オブジェクトは、「A」のオブジェクトによって一部遮蔽されている。(a)の状態で、HMD1Aは、「B」のオブジェクトに、第2ユーザU2も見ていることを表すマーク情報m2を表示する。(c)の状態で、HMD1Bは、「B」のオブジェクトに、第1ユーザU1も見ていることを表すマーク情報m1を表示する。(b),(d)は、それぞれの表示態様変更後の例である。(b)は、妨害オブジェクトである「A」のオブジェクトの表示位置を例えば左側の位置へ変更する例である。(d)は、妨害オブジェクトである「A」のオブジェクトの表示位置を例えば右側の位置へ変更する例である。
上記のように、実施の形態3によれば、共有ユーザの共有オブジェクトに対し、各ユーザのHMD1毎にそれぞれ適した表示態様変更の表示が行われる。これにより、各ユーザは、それぞれ、オブジェクト間の遮蔽による視認妨害を解消または軽減しつつ、視認に何ら混乱を生じず、共有オブジェクトを確実に視認できる。実施の形態3では、共有ユーザ間において少なくとも一方のHMD1で、共有ユーザ注視オブジェクトを表すマークの表示とともに、視認および遮蔽妨害の関係に応じた表示態様変更が行われる。この表示態様変更の際には、前述の遮蔽妨害関係、制限度や視認価値だけでなく、共有ユーザがどの共有オブジェクトを視認しているかという視認関係も考慮されて、方式や詳細が決定される。例えば、図27の例では、第1ユーザU1のHMD1A側を考えた場合、第1ユーザU1が見ている前側の「A」の目標オブジェクトと、第2ユーザU2が見ている後側の「B」のオブジェクトとの関係で、第1に優先されるべきは、「A」の目標オブジェクトの全容の表示である。(a)の状態では、全容が視認できるので、前述の実施の形態1の場合には、表示態様変更が不要である。「B」のオブジェクトは妨害オブジェクトではないが、共有ユーザが見ている目標オブジェクトである。そのため、実施の形態3の場合には、「B」のオブジェクトについても全容が確認できるように、表示態様変更が可能である。その変更の際には、例えば「A」と「B」の両方のオブジェクトの全容が視認できるように、方式や詳細が選択される。例えば、(e)の透過度調整の方式の場合、「A」の目標オブジェクトの一部が一時的に透明になってやや見えにくくなるので、より好適な方式として、(c)の表示位置移動や、図28の(c)の複製表示の方式が選択されてもよい。
実施の形態3では、共有ユーザ注視オブジェクトを表すマーク情報は、注視点とは別のものとした。マーク情報は、共有ユーザが注視するオブジェクトの目標視認範囲のうち、他のオブジェクトによって遮蔽される領域以外の領域に表示される。遮蔽される領域に表示されると、注視先が前後のどちらのオブジェクトであるかが不明となるので、このような表示とすることで明確にできる。また、共有ユーザのHMD1間では、常時に相互通信を行って略リアルタイムで表示状態(マーク情報を含む)を更新してもよいし、定期的に通信を行って定期的に表示状態を更新してもよい。
図31は、他の変形例における表示例を示す。(a)は、第1ユーザU1から見た状態であり、前述の図27の(a)と同様である。第1ユーザU1は、前側の「A」の目標オブジェクトを見ている。(b)は、第2ユーザU2から見た状態である。第2ユーザU2は、後側の「B」のオブジェクトを、第1ユーザU1の視線方向とは異なる視線方向、例えば90度異なる方向から見ている。ここで、「B」の共有オブジェクトについて、第1ユーザU1から見た形状や箇所と、第2ユーザU2から見た形状や箇所とは異なっている。(b)では、第2ユーザU2から見た「A」「B」のオブジェクトの側面を「A#」「B#」として図示している。
図32等を用いて、実施の形態4について説明する。実施の形態4では、目標オブジェクト確定方法の変形例を示す。前述の実施の形態では、ユーザの視線からの注視点の検出によって目標オブジェクトを判断・確定していた。変形例では、各オブジェクトに付して表示したタグに対するユーザからの選択入力操作を受け付ける。これにより、HMDは目標オブジェクトを確定する。
図33は、実施の形態4での変形例の表示装置または情報処理装置としてスマートフォンに適用した例を示す。図33では、スマートフォン700の表示面での表示例として、各オブジェクトにタグを付して表示する例を示す。スマートフォン700の場合でも、オブジェクト間の遮蔽妨害関係は、奥行き方向の位置を考慮した3次元配置を前提に考える。そのため、前述の各実施の形態の表示態様変更等の方式を同様に適用可能である。スマートフォン700の機能ブロック構成は、図示しないが、図10の構成と基本的に同様である。スマートフォン700では、視線検出や注視点検出については行わず、他の操作入力手段を用いる。スマートフォン700では、他の手段(例えばカメラ部431)を用いて視線検出や注視点検出を実現してもよい。スマートフォン700では、実体物(対応する個別実体オブジェクト)については、搭載されたカメラ(カメラ部431)による撮影画像として表示される。スマートフォン700の場合におけるタグ選択入力受付方法や他の操作入力としては、音声入力等の他に、表示面のタッチパネルに対するタップ等による選択入力も可能である。
図34を用いて、実施の形態5について説明する。前述の実施の形態では、奥行き方向での2つのオブジェクトの遮蔽妨害関係として、前側にあるオブジェクトが後側にあるオブジェクトを遮蔽して妨害する場合を示した。そして、このような遮蔽妨害関係の場合に、少なくとも目標オブジェクトを視認しやすくするように表示態様を変更する例を示した。表示態様を変更する対象となるオブジェクトの関係は、上記のような遮蔽妨害関係以外にも存在する。
Claims (13)
- 画像を表示する表示デバイスと、
前記画像の表示を制御するプロセッサと、
を備え、
前記表示デバイスに、オブジェクトとして、外界の実体物から切り出した個別実体オブジェクトと3次元配置される仮想オブジェクトとのうち少なくとも前記仮想オブジェクトを表示し、
ユーザの注視点を算出し、前記注視点の位置に対して最も近い前記オブジェクトを目標オブジェクトとして確定し、
前記目標オブジェクトと表示上の関連性が高い前記オブジェクトを、前記目標オブジェクトに対する関連オブジェクトとして設定し、
前記目標オブジェクトの画像領域と前記関連オブジェクトの画像領域とを1つに合わせた画像領域を目標視認範囲として設定し、
前記目標視認範囲の少なくとも一部を遮蔽する前記オブジェクトを妨害オブジェクトとして検出し、
前記妨害オブジェクトがある場合、前記目標視認範囲の視認に対する前記妨害オブジェクトによる妨害を解消または低減するように、前記目標視認範囲と前記妨害オブジェクトとのうち少なくとも一方のオブジェクトの表示態様の変更を行う、
表示装置。 - 請求項1記載の表示装置において、
前記目標オブジェクトと前記妨害オブジェクトとにおいて、前記オブジェクトの前記表示態様の変更に関する制限や許容の度合いを表す属性を比較して、少なくとも前記表示態様の変更を行う対象となるオブジェクトを決定する、
表示装置。 - 請求項1記載の表示装置において、
前記表示態様の変更は、表示位置の移動、透過度の調整、縮小または拡大、あるいは、複製オブジェクトの表示である、
表示装置。 - 請求項1記載の表示装置において、
前記ユーザの視線方向において前記オブジェクトとして複数のオブジェクトが重なる場合、それらのオブジェクトのうち視認価値が最も高いオブジェクトを前記目標オブジェクトとして確定する、
表示装置。 - 請求項1記載の表示装置において、
前記表示デバイスに対応付けられた視界範囲内において前記オブジェクトとして複数のオブジェクトがある場合に、
前記ユーザによる入力操作で指定されたオブジェクトを前記目標オブジェクトとして確定する、
表示装置。 - 請求項1記載の表示装置において、
前記目標視認範囲の少なくとも一部を遮蔽する前記オブジェクトを前記妨害オブジェクトとして検出する、
表示装置。 - 請求項1記載の表示装置において、
前記ユーザの視線方向において前記オブジェクトとして複数のオブジェクトが重なっており、前側のオブジェクトによって後側のオブジェクトが遮蔽されて隠れて見えない場合に、前記後側のオブジェクトを目標候補オブジェクトとして、少なくとも一部が遮蔽されずに見える状態となるように、前記表示態様の変更を行う、
表示装置。 - 請求項7記載の表示装置において、
前記表示態様の変更は、表示位置の移動、透過度の調整、縮小または拡大、あるいは、複製オブジェクトの表示である、
表示装置。 - 請求項1記載の表示装置において、
複数のユーザの各ユーザが前記表示装置を使用し、前記複数のユーザを共有ユーザとして、前記オブジェクトを共有オブジェクトとして使用する場合で、自分を第1ユーザ、他者を第2ユーザとした場合において、
前記第1ユーザの第1表示装置と前記第2ユーザの第2表示装置との通信に基づいて、
前記第1ユーザの前記第1表示装置は、前記第2ユーザが前記目標オブジェクトとして注視している前記共有オブジェクトに対し、前記第2ユーザが前記目標オブジェクトとして注視していることを表すマーク情報を表示する、
表示装置。 - 請求項9記載の表示装置において、
前記第1ユーザの前記第1表示装置は、前記第2ユーザが前記目標オブジェクトとして注視している前記共有オブジェクトの少なくとも一部が他のオブジェクトによって遮蔽されている場合に、前記第2ユーザの前記目標オブジェクトの全容が見える状態になるように、前記オブジェクトの表示態様の変更を行う、
表示装置。 - 請求項10記載の表示装置において、
前記第2ユーザの前記目標オブジェクトの全容が見える状態になるように、前記オブジェクトの表示態様の変更を行う際に、前記第2ユーザの前記目標オブジェクトの全容として前記第2ユーザから視認した状態を表示する、
表示装置。 - 請求項1記載の表示装置において、
前記表示デバイスに対応付けられた視界範囲において、前記オブジェクトとして第1オブジェクトと第2オブジェクトとが前記ユーザの視線方向に重なる場合または近傍に配置されている場合において、
前記第1オブジェクトと前記第2オブジェクトとの輝度の差を検出し、
前記輝度の差が閾値以上に大きい場合に、前記輝度が大きい方を前記妨害オブジェクトとして検出する、
表示装置。 - 画像を表示する表示デバイスと、前記画像の表示を制御するプロセッサと、を備える表示装置における表示方法であって、
前記表示デバイスに、オブジェクトとして、外界の実体物から切り出した個別実体オブジェクトと3次元配置される仮想オブジェクトとのうち少なくとも前記仮想オブジェクトを表示するステップと、
ユーザの注視点を算出し、前記注視点の位置に対して最も近い前記オブジェクトを目標オブジェクトとして確定するステップと、
前記目標オブジェクトと表示上の関連性が高い前記オブジェクトを、前記目標オブジェクトに対する関連オブジェクトとして設定するステップと、
前記目標オブジェクトの画像領域と前記関連オブジェクトの画像領域とを1つに合わせた画像領域を目標視認範囲として設定するステップと、
前記目標視認範囲の少なくとも一部を遮蔽する前記オブジェクトを妨害オブジェクトとして検出するステップと、
前記妨害オブジェクトがある場合、前記目標視認範囲の視認に対する前記妨害オブジェクトによる妨害を解消または低減するように、前記目標視認範囲と前記妨害オブジェクトとのうち少なくとも一方のオブジェクトの表示態様の変更を行うステップと、
を有する、表示方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024146593A JP7743585B2 (ja) | 2020-12-10 | 2024-08-28 | 表示装置および表示方法 |
| JP2025149714A JP2025178262A (ja) | 2020-12-10 | 2025-09-10 | 表示装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2020/046148 WO2022123750A1 (ja) | 2020-12-10 | 2020-12-10 | 表示装置および表示方法 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024146593A Division JP7743585B2 (ja) | 2020-12-10 | 2024-08-28 | 表示装置および表示方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2022123750A1 JPWO2022123750A1 (ja) | 2022-06-16 |
| JP7547504B2 true JP7547504B2 (ja) | 2024-09-09 |
Family
ID=81973475
Family Applications (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022567991A Active JP7547504B2 (ja) | 2020-12-10 | 2020-12-10 | 表示装置および表示方法 |
| JP2024146593A Active JP7743585B2 (ja) | 2020-12-10 | 2024-08-28 | 表示装置および表示方法 |
| JP2025149714A Pending JP2025178262A (ja) | 2020-12-10 | 2025-09-10 | 表示装置 |
Family Applications After (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024146593A Active JP7743585B2 (ja) | 2020-12-10 | 2024-08-28 | 表示装置および表示方法 |
| JP2025149714A Pending JP2025178262A (ja) | 2020-12-10 | 2025-09-10 | 表示装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US12579773B2 (ja) |
| JP (3) | JP7547504B2 (ja) |
| CN (1) | CN116601591A (ja) |
| WO (1) | WO2022123750A1 (ja) |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022113973A (ja) * | 2021-01-26 | 2022-08-05 | セイコーエプソン株式会社 | 表示方法、表示装置、及び、プログラム |
| FR3123984A1 (fr) * | 2021-06-14 | 2022-12-16 | Airbus Operations (S.A.S.) | Procédé de localisation d’au moins un point d’une pièce réelle sur une maquette numérique |
| WO2023281755A1 (ja) * | 2021-07-09 | 2023-01-12 | シャープNecディスプレイソリューションズ株式会社 | 表示制御装置、表示制御方法、及びプログラム |
| JP2024037439A (ja) * | 2022-09-07 | 2024-03-19 | コニカミノルタ株式会社 | メガネ型表示装置及びプログラム |
| JP2024068986A (ja) * | 2022-11-09 | 2024-05-21 | 株式会社Nttドコモ | 表示制御装置 |
| JPWO2024154322A1 (ja) * | 2023-01-20 | 2024-07-25 | ||
| WO2026004881A1 (ja) * | 2024-06-27 | 2026-01-02 | 本田技研工業株式会社 | 走行情報再現プログラムおよび走行情報再現方法 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000353249A (ja) | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実空間における指示表示及び指示表示方法 |
| JP2011242934A (ja) | 2010-05-17 | 2011-12-01 | Ntt Docomo Inc | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 |
| JP2014071663A (ja) | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | ヘッドマウントディスプレイ、それを作動させる方法およびプログラム |
| JP2017055851A (ja) | 2015-09-14 | 2017-03-23 | 株式会社コーエーテクモゲームス | 情報処理装置、表示制御方法、及び表示制御プログラム |
| WO2017104198A1 (ja) | 2015-12-14 | 2017-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| JP2018005005A (ja) | 2016-07-04 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6972734B1 (en) | 1999-06-11 | 2005-12-06 | Canon Kabushiki Kaisha | Mixed reality apparatus and mixed reality presentation method |
| JP4527853B2 (ja) * | 2000-07-28 | 2010-08-18 | 株式会社バンダイナムコゲームス | ゲームシステム及び情報記憶媒体 |
| US9448404B2 (en) | 2012-11-13 | 2016-09-20 | Qualcomm Incorporated | Modifying virtual object display properties to increase power performance of augmented reality devices |
| KR20150037254A (ko) * | 2013-09-30 | 2015-04-08 | 엘지전자 주식회사 | 착용형 디스플레이 디바이스 및 레이어 제어 방법 |
| JP5825328B2 (ja) | 2013-11-07 | 2015-12-02 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
| US20160239985A1 (en) * | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
| WO2016203792A1 (ja) * | 2015-06-15 | 2016-12-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
| US10311644B2 (en) * | 2016-12-14 | 2019-06-04 | II Jonathan M. Rodriguez | Systems and methods for creating and sharing a 3-dimensional augmented reality space |
| WO2019087513A1 (ja) * | 2017-10-31 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
| DE102019116834B4 (de) * | 2019-06-21 | 2021-01-28 | RE'FLEKT GmbH | Augmentierte Fotoaufnahme |
| US10967267B2 (en) * | 2019-08-06 | 2021-04-06 | Roblox Corporation | Changing a camera view in an electronic game |
| JP7424121B2 (ja) * | 2020-03-10 | 2024-01-30 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
-
2020
- 2020-12-10 JP JP2022567991A patent/JP7547504B2/ja active Active
- 2020-12-10 US US18/256,332 patent/US12579773B2/en active Active
- 2020-12-10 WO PCT/JP2020/046148 patent/WO2022123750A1/ja not_active Ceased
- 2020-12-10 CN CN202080107845.4A patent/CN116601591A/zh active Pending
-
2024
- 2024-08-28 JP JP2024146593A patent/JP7743585B2/ja active Active
-
2025
- 2025-09-10 JP JP2025149714A patent/JP2025178262A/ja active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000353249A (ja) | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実空間における指示表示及び指示表示方法 |
| JP2011242934A (ja) | 2010-05-17 | 2011-12-01 | Ntt Docomo Inc | オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法 |
| JP2014071663A (ja) | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | ヘッドマウントディスプレイ、それを作動させる方法およびプログラム |
| JP2017055851A (ja) | 2015-09-14 | 2017-03-23 | 株式会社コーエーテクモゲームス | 情報処理装置、表示制御方法、及び表示制御プログラム |
| WO2017104198A1 (ja) | 2015-12-14 | 2017-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| JP2018005005A (ja) | 2016-07-04 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| CN116601591A (zh) | 2023-08-15 |
| JPWO2022123750A1 (ja) | 2022-06-16 |
| JP2024161159A (ja) | 2024-11-15 |
| US20240104883A1 (en) | 2024-03-28 |
| US12579773B2 (en) | 2026-03-17 |
| JP2025178262A (ja) | 2025-12-05 |
| JP7743585B2 (ja) | 2025-09-24 |
| WO2022123750A1 (ja) | 2022-06-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7547504B2 (ja) | 表示装置および表示方法 | |
| US12405759B2 (en) | Gaze-based user interactions | |
| US12182322B2 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
| US12256211B2 (en) | Immersive augmented reality experiences using spatial audio | |
| CN107408026B (zh) | 信息处理设备、信息处理方法和计算机程序 | |
| US20210004081A1 (en) | Information processing apparatus, information processing method, and program | |
| JP7781214B2 (ja) | ヘッドマウントディスプレイ | |
| CN115698923A (zh) | 信息处理装置、信息处理方法和程序 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230606 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240319 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240520 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240718 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240730 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240828 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7547504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |