JP7052845B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP7052845B2 JP7052845B2 JP2020156705A JP2020156705A JP7052845B2 JP 7052845 B2 JP7052845 B2 JP 7052845B2 JP 2020156705 A JP2020156705 A JP 2020156705A JP 2020156705 A JP2020156705 A JP 2020156705A JP 7052845 B2 JP7052845 B2 JP 7052845B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- display area
- real object
- displayed
- position corresponding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/004—Annotating, labelling
Description
<<1.概要>>
<<2.構成>>
<<3.動作>>
<<4.インジケーションの具体例>>
<4-1.第一の具体例>
<4-2.第二の具体例>
<4-3.第三の具体例>
<4-4.第四の具体例>
<4-5.第五の具体例>
<4-6.第六の具体例>
<4-7.第七の具体例>
<4-8.第八の具体例>
<<5.変形例>>
<5-1.変形例1>
<5-2.変形例2>
<5-3.変形例3>
<<6.ハードウェア構成例>>
<<7.むすび>>
近年のAR技術においては、表示装置として、透過型の表示部を有するシースルーディスプレイが利用されることが多い。シースルーディスプレイの表示領域は物理的な制約等により限定されるため、ユーザが視認可能な範囲のうち、一部の領域にしか重畳表示を行うことが出来ない場合がある。
以上、本実施形態による情報処理装置1の概要を説明した。続いて、図2を参照して、本開示の一実施形態による情報処理装置1の構成について説明する。図2は、本実施形態による情報処理装置1の構成を示すブロック図である。図1に示すように、情報処理装置1は、撮像部110、画像認識部120、表示形態選択部130、表示制御部140、記憶部150、及び表示部160を備える。
以上、本開示の一実施形態に係る情報処理装置1の構成例について説明した。続いて、図3~6を参照して、本実施形態に係る情報処理装置1の動作例、特に表示形態の選択に係る処理について説明する。図3は、本実施形態に係る情報処理装置1の動作例を説明するためのフローチャート図である。
以上、本実施形態に係る情報処理装置1の構成、及び動作について説明した。以下では、図実オブジェクトが第一の視野範囲A14内で、かつ第二の視野範囲A12外に存在する場合(図3に示すS20においてYESかつS30においてNO)に、表示部160に表示されるインジケーションの具体例をいくつか挙げて説明する。
図7は、本実施形態に係るインジケーションの第一の具体例を説明するための説明図である。図7に示すように、本具体例において表示部160の表示領域A12には、コンテンツC22、及びインジケーションN22、N24が表示されている。
図8は、本実施形態に係るインジケーションの第二の具体例を説明するための説明図である。本具体例において、表示部160の表示領域A12には、コンテンツC22、及びインジケーションN34~N44が表示されている。
上述した第二の具体例では、距離に応じた表示条件の一例として、インジケーションの大きさが用いられていたが、本実施形態に係る距離に応じた表示条件は、インジケーションの大きさに限定されない。以下では、第三の具体例として、インジケーションが距離に応じた他の表示条件で表示される例を説明する。
図10は、本実施形態に係るインジケーションの第四の具体例を説明するための説明図である。本具体例において、表示部160の表示領域A12には、コンテンツC22、及びインジケーションN100が表示されている。図11は、図10に示すインジケーションN100の拡大図である。
図12は、本実施形態に係るインジケーションの第五の具体例を説明するための説明図である。本具体例において、表示部160の表示領域A12には、コンテンツC22、及びインジケーションN200が表示されている。図13は、図12に示すインジケーションN200の拡大図である。
図14は、本実施形態に係るインジケーションの第六の具体例を説明するための説明図である。本具体例において、表示部160の表示領域A12には、コンテンツC22、及びインジケーションN302~N308が表示されている。
図15は、本実施形態に係るインジケーションの第七の具体例を説明するための説明図である。図15左において、表示部160の表示領域A12には、人物キャラクタであるコンテンツC400が表示されている。図15右において、当該コンテンツC400に関連付けられた実オブジェクトは表示領域A12外に存在し、表示部160の表示領域A12には、当該コンテンツC400の存在を示すインジケーションN400が表示されている。
図16は、本実施形態に係るインジケーションの第八の具体例を説明するための説明図である。本具体例において、表示部160の表示領域A12には、不図示の非表示コンテンツ、及びユーザから当該コンテンツの位置への方向を示すインジケーションN500が表示されている。本具体例に係るインジケーションは、図16に示すインジケーションN500のように矢印であってもよい。
以上、本開示の一実施形態を説明した。以下では、本実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本実施形態に適用されてもよいし、組み合わせで本実施形態に適用されてもよい。また、各変形例は、本実施形態で説明した構成に代えて適用されてもよいし、本実施形態で説明した構成に対して追加的に適用されてもよい。
上記実施形態の図4では、実オブジェクトR12の付近に、当該実オブジェクトR12に関連付けられたコンテンツC12が仮想オブジェクトとして表示される例を示したが、本実施形態は上記に限定されない。例えば、実オブジェクトとコンテンツの関連をより明確化する演出が行われてもよい。以下、変形例1として、図17,18を参照して、実オブジェクトとコンテンツの関連をより明確化する演出が行われる例を説明する。図17、18は、本変形例について説明するための説明図である。
また、上記実施形態では、第一の視野範囲を求めるための人間の視野角は、所定の値が用いられる、またはユーザの入力により得られる例を説明したが、本開示は係る例に限定されない。例えば、情報処理装置1がセンサを備え、センシングすることで得られるユーザの状況、またはユーザ周囲の状況に基づいて、人間の視野角に特定されてもよい。情報処理装置1は、例えば、マイク、GPS(Global Positioning System)センサ、加速度センサ、視覚(視線、注視点、焦点、瞬目等)センサ、生体情報(心拍、体温、血圧、脳波等)センサ、ジャイロセンサ、照度センサ等の各種センサを備えてもよい。
また、上記実施形態では、情報処理装置1が撮像部110を備え、撮像部110により取得された撮像画像に基づく画像認識により、実オブジェクト情報が取得される例を説明したが、本開示は係る例に限定されない。
以上、本開示の各実施形態を説明した。上述した表示形態選択処理、表示制御処理等の情報処理は、ソフトウェアと、以下に説明する情報処理装置1のハードウェアとの協働により実現される。
以上、説明したように、本開示の実施形態によれば、ユーザの視野範囲と、実オブジェクトの位置関係に応じた、ユーザへの情報提示を行うことが可能である。
(1)
ユーザの第一の視野範囲、前記第一の視野範囲に含まれる第二の視野範囲、及び実オブジェクトの位置関係に応じて、複数の表示形態から一の表示形態を選択する表示形態選択部と、
選択された前記表示形態に応じて、前記実オブジェクトに関連付けられた仮想オブジェクトの表示部への表示を制御する表示制御部と、
を備える、情報処理装置。
(2)
前記第二の視野範囲は、前記表示部の表示領域に含まれて前記ユーザが視認可能な範囲である、前記(1)に記載の情報処理装置。
(3)
前記表示形態選択部は、前記実オブジェクトが、前記第一の視野範囲内で、かつ前記第二の視野範囲外に存在する場合に、前記実オブジェクトに関連付けられたコンテンツの存在を示すインジケーションが表示される前記表示形態を選択する、前記(2)に記載の情報処理装置。
(4)
前記インジケーションは、前記コンテンツの位置に応じた位置に表示される、前記(3)に記載の情報処理装置。
(5)
前記インジケーションは、前記表示領域の周縁部に表示される、前記(3)または(4)に記載の情報処理装置。
(6)
前記インジケーションは、当該インジケーションが存在を示すコンテンツの数に応じた表示条件で表示される、前記(3)~(5)のいずれか一項に記載の情報処理装置。
(7)
前記インジケーションは、前記ユーザ、または前記表示領域から前記コンテンツの位置までの距離に応じた表示条件で表示される、前記(3)~(6)のいずれか一項に記載の情報処理装置。
(8)
前記表示条件は、インジケーションの強度、輝度、色、数、大きさのうち少なくとも一つに関する条件を含む、前記(6)または(7)に記載の情報処理装置。
(9)
前記インジケーションは、前記ユーザから前記コンテンツの位置への方角をさらに示す、前記(3)~(8)のいずれか一項に記載の情報処理装置。
(10)
前記インジケーションは、前記ユーザから見た前記コンテンツの相対位置をさらに示す、前記(3)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記インジケーションは、前記コンテンツの一部を含む、前記(3)~(10)のいずれか一項に記載の情報処理装置。
(12)
前記インジケーションは、前記コンテンツを示すアイコンを含む、前記(3)~(11)のいずれか一項に記載の情報処理装置。
(13)
前記インジケーションは、前記ユーザから前記コンテンツの位置への方向をさらに示す、前記(3)~(12)のいずれか一項に記載の情報処理装置。
(14)
前記表示形態選択部は、前記実オブジェクトが、前記第一の視野範囲の外に存在する場合に、前記実オブジェクトに関連付けられた前記仮想オブジェクトが表示されない前記表示形態を選択する、前記(1)~(13)のいずれか一項に記載の情報処理装置。
(15)
前記表示形態選択部は、前記実オブジェクトが、前記第二の視野範囲の中に存在する場合に、前記実オブジェクトに関連付けられたコンテンツが表示される前記表示形態を選択する、前記(1)~(14)のいずれか一項に記載の情報処理装置。
(16)
前記第一の視野範囲は前記ユーザが視認可能な範囲である、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記情報処理装置は、前記表示部をさらに備え、
前記表示部は、透過型ディスプレイである、前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
前記情報処理装置は、透過型HMDである、前記(17)に記載の情報処理装置。
(19)
ユーザの第一の視野範囲、前記第一の視野範囲に含まれる第二の視野範囲、及び実オブジェクトの位置関係に応じて、複数の表示形態から一の表示形態を選択することと、
選択された前記表示形態に応じて、前記実オブジェクトに関連付けられた仮想オブジェクトの表示部への表示をプロセッサが制御することと、を含む情報処理方法。
(20)
コンピュータに、
ユーザの第一の視野範囲、前記第一の視野範囲に含まれる第二の視野範囲、及び実オブジェクトの位置関係に応じて、複数の表示形態から一の表示形態を選択する表示形態選択機能と、
選択された前記表示形態に応じて、前記実オブジェクトに関連付けられた仮想オブジェクトの表示部への表示を制御する表示制御機能と、を実現させるためのプログラム。
110 撮像部
120 画像認識部
130 表示形態選択部
140 表示制御部
150 記憶部
160 表示部
A12 第二の視野範囲
A14 第一の視野範囲
U1 ユーザ
Claims (21)
- 実オブジェクトに対応する位置と、表示領域との位置関係に応じて、前記実オブジェクトに関連する仮想オブジェクトの表示を制御する表示制御部を備え、
前記表示制御部は、
前記実オブジェクトに対応する位置が前記表示領域外にある場合、前記仮想オブジェクトを第一の表示形態で表示させ、前記実オブジェクトに対応する位置が前記表示領域内にある場合、第二の表示形態で表示させ、前記実オブジェクトに対応する位置が前記表示領域内から前記表示領域外に移動する場合、または前記実オブジェクトに対応する位置が前記表示領域外から前記表示領域内に移動する場合の内、少なくとも一方の場合、前記仮想オブジェクトを起点としたアニメーション表示を制御する、
情報処理装置。 - 前記表示制御部は、前記表示領域内に、前記仮想オブジェクトとユーザの相対位置を示すインジケーションを更に表示する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記実オブジェクトに対応する位置が前記表示領域外にある場合、ユーザから見た前記実オブジェクトに対応する位置の相対位置情報を含む仮想オブジェクトの表示を制御する、請求項1に記載の情報処理装置。
- 前記相対位置情報は、ユーザから見た前記実オブジェクトに対応する位置の方角を含む、請求項3に記載の情報処理装置。
- 前記表示制御部は、前記実オブジェクトに対応する位置が前記表示領域の右外側に位置する場合、前記仮想オブジェクトを前記表示領域の右側周縁部に表示し、前記実オブジェクトに対応する位置が前記表示領域の左外側に位置する場合、前記仮想オブジェクトを前記表示領域の左側周縁部へ表示する、請求項1に記載の情報処理装置。
- 前記表示制御部は、地図アプリケーションにおいて、GPSセンサにより取得される位置情報に基づいて前記仮想オブジェクトの表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記実オブジェクトに対応する位置が前記表示領域外から前記表示領域内に移動する場合、前記第一の表示形態で表示される前記仮想オブジェクトを起点とした前記アニメーション表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記第一の表示形態で表示される前記仮想オブジェクトを起点とし、前記第二の表示形態で表示される前記仮想オブジェクトがポップアップする表示制御を行う、請求項7に記載の情報処理装置。
- 前記表示制御部は、前記実オブジェクトに対応する位置が前記表示領域内から前記表示領域外に移動する場合、前記第二の表示形態で表示される前記仮想オブジェクトを起点とした前記アニメーション表示を制御する、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記第二の表示形態で表示される前記仮想オブジェクトを起点とし、前記第一の表示形態で表示される前記仮想オブジェクトがポップアップする表示制御を行う、請求項9に記載の情報処理装置。
- 実オブジェクトに対応する位置と、表示領域との位置関係に応じて、前記実オブジェクトに関連する仮想オブジェクトの表示を制御することと、
前記実オブジェクトに対応する位置が前記表示領域外にある場合、前記仮想オブジェクトを第一の表示形態で表示し、前記実オブジェクトに対応する位置が前記表示領域内にある場合、第二の表示形態で表示し、前記実オブジェクトに対応する位置が前記表示領域内から前記表示領域外に移動する場合、または前記実オブジェクトに対応する位置が前記表示領域外から前記表示領域内に移動する場合の内、少なくとも一方の場合、前記仮想オブジェクトを起点としたアニメーション表示することと、
を含む情報処理方法。 - コンピュータに、
実オブジェクトに対応する位置と、表示領域との位置関係に応じて、前記実オブジェクトに関連する仮想オブジェクトの表示を制御する機能と、
前記実オブジェクトに対応する位置が前記表示領域外にある場合、前記仮想オブジェクトを第一の表示形態で表示させ、前記実オブジェクトに対応する位置が前記表示領域内にある場合、第二の表示形態で表示させ、前記実オブジェクトに対応する位置が前記表示領域内から前記表示領域外に移動する場合、または前記実オブジェクトに対応する位置が前記表示領域外から前記表示領域内に移動する場合の内、少なくとも一方の場合、前記仮想オブジェクトを起点としたアニメーション表示を制御する機能と、
を実現させるためのプログラム。 - 前記表示領域内に、前記仮想オブジェクトとユーザの相対位置を示すインジケーションを更に表示する、請求項12に記載のプログラム。
- 前記実オブジェクトに対応する位置が前記表示領域外にある場合、ユーザから見た前記実オブジェクトに対応する位置の相対位置情報を含む仮想オブジェクトの表示を制御する、請求項12に記載のプログラム。
- 前記相対位置情報は、ユーザから見た前記実オブジェクトに対応する位置の方角を含む、請求項14に記載のプログラム。
- 前記実オブジェクトに対応する位置が前記表示領域の右外側に位置する場合、前記仮想オブジェクトを前記表示領域の右側周縁部に表示し、前記実オブジェクトに対応する位置が前記表示領域の左外側に位置する場合、前記仮想オブジェクトを前記表示領域の左側周縁部へ表示する、請求項12に記載のプログラム。
- 地図アプリケーションにおいて、GPSセンサにより取得される位置情報に基づいて前記仮想オブジェクトの表示を制御する、請求項12に記載のプログラム。
- 前記実オブジェクトに対応する位置が前記表示領域外から前記表示領域内に移動する場合、前記第一の表示形態で表示される前記仮想オブジェクトを起点とした前記アニメーション表示を制御する、請求項12に記載のプログラム。
- 前記第一の表示形態で表示される前記仮想オブジェクトを起点とし、前記第二の表示形態で表示される前記仮想オブジェクトがポップアップする表示制御を行う、請求項18に記載のプログラム。
- 前記実オブジェクトに対応する位置が前記表示領域内から前記表示領域外に移動する場合、前記第二の表示形態で表示される前記仮想オブジェクトを起点とした前記アニメーション表示を制御する、請求項12に記載のプログラム。
- 前記第二の表示形態で表示される前記仮想オブジェクトを起点とし、前記第一の表示形態で表示される前記仮想オブジェクトがポップアップする表示制御を行う、請求項20に記載のプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015241166 | 2015-12-10 | ||
JP2015241166 | 2015-12-10 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017554966A Division JP6766824B2 (ja) | 2015-12-10 | 2016-10-24 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021007020A JP2021007020A (ja) | 2021-01-21 |
JP7052845B2 true JP7052845B2 (ja) | 2022-04-12 |
Family
ID=59013045
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017554966A Active JP6766824B2 (ja) | 2015-12-10 | 2016-10-24 | 情報処理装置、情報処理方法、及びプログラム |
JP2020156705A Active JP7052845B2 (ja) | 2015-12-10 | 2020-09-17 | 情報処理装置、情報処理方法、及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017554966A Active JP6766824B2 (ja) | 2015-12-10 | 2016-10-24 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10489981B2 (ja) |
EP (1) | EP3389020B1 (ja) |
JP (2) | JP6766824B2 (ja) |
CN (1) | CN108292448B (ja) |
WO (1) | WO2017098822A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6440910B2 (ja) * | 2016-07-29 | 2018-12-19 | 三菱電機株式会社 | 表示装置、表示制御装置および表示制御方法 |
US10401954B2 (en) * | 2017-04-17 | 2019-09-03 | Intel Corporation | Sensory enhanced augmented reality and virtual reality device |
US11080931B2 (en) * | 2017-09-27 | 2021-08-03 | Fisher-Rosemount Systems, Inc. | Virtual x-ray vision in a process control environment |
CN107918955A (zh) * | 2017-11-15 | 2018-04-17 | 百度在线网络技术(北京)有限公司 | 增强现实方法和装置 |
US20210020142A1 (en) * | 2018-03-20 | 2021-01-21 | Sony Corporation | Information processing device, information processing method, and program |
US10860165B2 (en) | 2018-09-26 | 2020-12-08 | NextVPU (Shanghai) Co., Ltd. | Tracking method and apparatus for smart glasses, smart glasses and storage medium |
KR102242719B1 (ko) * | 2018-09-26 | 2021-04-23 | 넥스트브이피유 (상하이) 코포레이트 리미티드 | 스마트 안경 추적 방법과 장치, 및 스마트 안경과 저장 매체 |
JP6656477B1 (ja) * | 2018-12-07 | 2020-03-04 | 三菱電機株式会社 | 入力表示制御装置、入力表示制御方法及び入力表示システム |
KR102107340B1 (ko) * | 2019-05-08 | 2020-05-07 | 이현주 | 디스플레이 내 객체표시 방법 |
US11178384B2 (en) * | 2019-07-10 | 2021-11-16 | Nintendo Co., Ltd. | Information processing system, storage medium, information processing apparatus and information processing method |
EP4116937A4 (en) * | 2020-03-06 | 2023-08-02 | Sony Group Corporation | DEVICE, METHOD AND PROGRAM FOR INFORMATION PROCESSING |
WO2023223750A1 (ja) * | 2022-05-18 | 2023-11-23 | 株式会社Nttドコモ | 表示装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013105466A (ja) | 2011-11-16 | 2013-05-30 | Konami Digital Entertainment Co Ltd | 表示装置、表示方法、ならびに、プログラム |
WO2014162824A1 (ja) | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009037835B4 (de) * | 2009-08-18 | 2012-12-06 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer realen Umgebung |
US10133342B2 (en) * | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
EP2983138A4 (en) * | 2013-04-04 | 2017-02-22 | Sony Corporation | Display control device, display control method and program |
US9129430B2 (en) * | 2013-06-25 | 2015-09-08 | Microsoft Technology Licensing, Llc | Indicating out-of-view augmented reality images |
KR102292192B1 (ko) * | 2014-02-17 | 2021-08-23 | 엘지전자 주식회사 | 증강 현실 이미지를 디스플레이 하는 디스플레이 시스템 및 그 제어 방법 |
-
2016
- 2016-10-24 US US15/770,346 patent/US10489981B2/en active Active
- 2016-10-24 WO PCT/JP2016/081487 patent/WO2017098822A1/ja active Application Filing
- 2016-10-24 JP JP2017554966A patent/JP6766824B2/ja active Active
- 2016-10-24 CN CN201680070771.5A patent/CN108292448B/zh active Active
- 2016-10-24 EP EP16872722.0A patent/EP3389020B1/en active Active
-
2020
- 2020-09-17 JP JP2020156705A patent/JP7052845B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013105466A (ja) | 2011-11-16 | 2013-05-30 | Konami Digital Entertainment Co Ltd | 表示装置、表示方法、ならびに、プログラム |
WO2014162824A1 (ja) | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
Non-Patent Citations (1)
Title |
---|
笠原 俊一 他,JackIn:一人称視点と対外離脱視点を融合した人間による人間のオーグメンテーションの枠組み,情報処理学会 論文誌(ジャーナル),日本,情報処理学会,2015年04月15日,Vol.56 No.4 [online],pp.1248~1257 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017098822A1 (ja) | 2018-10-04 |
JP6766824B2 (ja) | 2020-10-14 |
EP3389020B1 (en) | 2020-07-15 |
EP3389020A4 (en) | 2018-11-07 |
US20180315246A1 (en) | 2018-11-01 |
CN108292448B (zh) | 2023-02-28 |
CN108292448A (zh) | 2018-07-17 |
US10489981B2 (en) | 2019-11-26 |
EP3389020A1 (en) | 2018-10-17 |
WO2017098822A1 (ja) | 2017-06-15 |
JP2021007020A (ja) | 2021-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052845B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
EP3433705B1 (en) | Displaying three-dimensional virtual objects based on field of view | |
CN108780360B (zh) | 虚拟现实导航 | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP6359099B2 (ja) | ユーザインターフェースナビゲーション | |
EP3518080A1 (en) | Human-body-gesture-based region and volume selection for hmd | |
KR20180122637A (ko) | 물리적 환경의 시각 이미지들의 가상 현실에의 통합을 위한 공간 관계들 | |
EP3327544B1 (en) | Apparatus, associated method and associated computer readable medium | |
US10614590B2 (en) | Apparatus for determination of interference between virtual objects, control method of the apparatus, and storage medium | |
KR20160106629A (ko) | 시선 추적을 갖는 타겟 위치결정 | |
US20180190019A1 (en) | Augmented reality user interface visibility | |
US20200202161A1 (en) | Information processing apparatus, information processing method, and program | |
CN110673718B (zh) | 用于显示系统的基于聚焦的调试和检查 | |
WO2017169273A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2017004356A (ja) | 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 | |
US11508150B2 (en) | Image processing apparatus and method of controlling the same | |
US20200143774A1 (en) | Information processing device, information processing method, and computer program | |
US20220301264A1 (en) | Devices, methods, and graphical user interfaces for maps | |
WO2017169272A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6713591B1 (ja) | 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 | |
CN116648683A (zh) | 用于选择对象的方法和系统 | |
CN112578983A (zh) | 手指取向触摸检测 | |
JP2018097477A (ja) | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201016 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201016 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220314 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7052845 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |