JP2022098268A - 情報処理装置及びプログラム - Google Patents
情報処理装置及びプログラム Download PDFInfo
- Publication number
- JP2022098268A JP2022098268A JP2020211704A JP2020211704A JP2022098268A JP 2022098268 A JP2022098268 A JP 2022098268A JP 2020211704 A JP2020211704 A JP 2020211704A JP 2020211704 A JP2020211704 A JP 2020211704A JP 2022098268 A JP2022098268 A JP 2022098268A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- information processing
- button
- virtual image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 70
- 230000008859 change Effects 0.000 claims description 30
- 238000000034 method Methods 0.000 description 70
- 238000012545 processing Methods 0.000 description 58
- 238000010586 diagram Methods 0.000 description 42
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 210000004556 brain Anatomy 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000002834 transmittance Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000009434 installation Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000003825 pressing Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000007423 decrease Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000007667 floating Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000000845 cartilage Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- JCYWCSGERIELPG-UHFFFAOYSA-N imes Chemical group CC1=CC(C)=CC(C)=C1N1C=CN(C=2C(=CC(C)=CC=2C)C)[C]1 JCYWCSGERIELPG-UHFFFAOYSA-N 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
請求項2に記載の発明は、前記ボタンは、選択ボタンである、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記選択ボタンは、前記端末による動作の実行の可否の選択用である、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記実行の可否の対象は、前記端末のシステム構成に変更を伴う動作である、請求項3に記載の情報処理装置である。
請求項5に記載の発明は、前記選択ボタンは、前記表示デバイスに表示されている情報に対する同意又は不同意の選択用である、請求項2に記載の情報処理装置である。
請求項6に記載の発明は、前記ボタンは、決定ボタンである、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記決定ボタンは、動作の開始を指示する、請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記プロセッサは、開始した動作の進行の状況を表す情報を、前記仮想の画像として現実の空間内に配置する、請求項3、4又は7に記載の情報処理装置である。
請求項9に記載の発明は、前記プロセッサは、前記表示デバイス上に複数のコンテンツが表示されている場合、前記ボタンが関連する特定のコンテンツを特定する情報を、前記仮想の画像として現実の空間内に配置する、請求項1に記載の情報処理装置である。
請求項10に記載の発明は、前記情報は、前記特定のコンテンツの上空の現実の空間内に配置される、請求項9に記載の情報処理装置である。
請求項11に記載の発明は、前記ボタンは、アプリケーションに紐付けられたアイコンである、請求項1に記載の情報処理装置である。
請求項12に記載の発明は、前記アプリケーションは、メッセージアプリであり、前記アイコンは、メッセージの受信の通知用である、請求項11に記載の情報処理装置である。
請求項13に記載の発明は、前記プロセッサは、予め定めた第1の条件を満たす場合、前記端末の前記表示デバイスに表示されているカーソルを、前記仮想の画像としての現実の空間内への配置に切り替える、請求項1に記載の情報処理装置である。
請求項14に記載の発明は、前記プロセッサは、予め定めた第2の条件を満たす場合、前記仮想の画像として現実の空間内に配置されている前記カーソルを、前記表示デバイスによる表示に切り替える、請求項13に記載の情報処理装置である。
請求項15に記載の発明は、前記プロセッサは、前記ボタンの操作が確認されない状態で予め定めた事象が検知された場合、アラームを出力する請求項1に記載の情報処理装置である。
請求項16に記載の発明は、前記予め定めた事象は、自装置の電源をオフする操作、前記端末の電源をオフする操作、装着されている自端末を身体から取り外す操作、接続を解除する操作、自端末と当該端末との距離が閾値を超える場合、及び、現実の空間内に配置されている前記仮想の画像が前記表示デバイスの手前側の位置から外れた場合のうちのいずれか1つである、請求項15に記載の情報処理装置である。
請求項17に記載の発明は、前記プロセッサは、前記ボタンの操作が確認されない状態のまま解除された前記端末との接続が再開された場合、当該ボタンを前記仮想の画像として現実の空間内に再配置する、請求項1に記載の情報処理装置である。
請求項18に記載の発明は、前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たさない場合、現実の空間内への前記仮想の画像の配置を停止する、請求項1に記載の情報処理装置である。
請求項19に記載の発明は、現実の空間内への前記仮想の画像の配置を停止する場合、前記プロセッサは、現実の空間内から当該仮想の画像を徐々にフェードアウトする、請求項18に記載の情報処理装置である。
請求項20に記載の発明は、現実の空間内への前記仮想の画像の配置を停止する場合、前記プロセッサは、当該仮想の画像の配置を停止する前に停止を示唆するアラームを出力する、請求項18又は19に記載の情報処理装置である。
請求項21に記載の発明は、前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たさない場合でも、事前の設定があるときは、現実の空間内への当該仮想の画像の配置を継続する、請求項18に記載の情報処理装置である。
請求項22に記載の発明は、前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たした場合、現実の空間内への前記仮想の画像の配置を再開させる、請求項1に記載の情報処理装置である。
請求項23に記載の発明は、現実の空間内への前記仮想の画像の配置を再開する場合、前記プロセッサは、現実の空間内に当該仮想の画像を徐々にフェードインする、請求項22に記載の情報処理装置である。
請求項24に記載の発明は、現実の空間内への前記仮想の画像の配置を再開する場合、前記プロセッサは、当該仮想の画像の配置を再開する前に再開を示唆するアラームを出力する、請求項22又は23に記載の情報処理装置である。
請求項25に記載の発明は、前記プロセッサは、現実の空間内への配置が停止されている前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たす場合でも、事前の設定があるときは、現実の空間内への当該仮想の画像の配置の停止を継続する、請求項22に記載の情報処理装置である。
請求項26に記載の発明は、カメラを更に有し、前記プロセッサは、前記カメラが撮像する範囲に前記表示デバイスが含まれる場合、予め定めたタイミングで、当該表示デバイスに表示されている画面を撮像して保存する、請求項1に記載の情報処理装置である。
請求項27に記載の発明は、仮想の画像を現実の空間内に配置するデバイスを制御するコンピュータに、物理的な表示デバイスを有する外部の端末と自端末とが接続している状態において、当該表示デバイスの手前側に前記仮想の画像を配置する機能と、前記仮想の画像として、前記端末の動作を指示するボタンを配置する機能と、を実現させるためのプログラムである。
請求項2記載の発明によれば、選択ボタンの表示をユーザに気付き易くできる。
請求項3記載の発明によれば、選択を要する操作の存在にユーザを気付き易くできる。
請求項4記載の発明によれば、重要性の高い操作の存在にユーザを気付き易くできる。
請求項5記載の発明によれば、重要性の高い操作の存在にユーザを気付き易くできる。
請求項6記載の発明によれば、決定ボタンの表示をユーザに気付き易くできる。
請求項7記載の発明によれば、決定を要する操作の存在をユーザに気付き易くできる。
請求項8記載の発明によれば、開始した動作の進行の状況の確認を容易にできる。
請求項9記載の発明によれば、表示デバイス上に複数のコンテンツが表示されていても、ボタンに関連するコンテンツの特定が容易になる。
請求項10記載の発明によれば、ユーザの誤解を低減できる。
請求項11記載の発明によれば、操作が可能なアイコンの存在をユーザに気付き易くできる。
請求項12記載の発明によれば、受信されたメッセージの存在をユーザに気付き易くできる。
請求項13記載の発明によれば、表示デバイス上から仮想の画像としてのカーソルを移動することで、ユーザによるボタン操作を促進できる。
請求項14記載の発明によれば、ボタンが操作されない場合にも、表示デバイス上の操作を可能にできる。
請求項15記載の発明によれば、操作が終わっていないボタンの存在をユーザに気付き易くできる。
請求項16記載の発明によれば、操作が終わっていないボタンの操作を促すことができる。
請求項17記載の発明によれば、操作が終わっていないボタンの存在をユーザに気付き易くできる。
請求項18記載の発明によれば、表示デバイスとの連携が不要な状況では仮想の画像の配置を停止できる。
請求項19記載の発明によれば、仮想の画像の配置の停止を現実の空間内で視認される態様の変化から予告できる。
請求項20記載の発明によれば、仮想の画像の配置の停止を予告できる。
請求項21記載の発明によれば、ボタンの存在をユーザに気付き易くできる。
請求項22記載の発明によれば、表示デバイスとの連携が可能な状況では仮想の画像の配置を再開できる。
請求項23記載の発明によれば、仮想の画像の配置の再開を現実の空間内で視認される態様の変化から予告できる。
請求項24記載の発明によれば、仮想の画像の配置の再開を予告できる。
請求項25記載の発明によれば、重要性が低いボタンや即時性が高いイベントの存在については再開させない設定にできる。
請求項26記載の発明によれば、情報処理装置に設けられているカメラを活用して表示デバイスの画面を記録できる。
請求項27記載の発明によれば、仮想の画像が表示デバイスの手前側に並べて配置される場合における仮想の画像と表示デバイスとの連携を実現できる。
<実施の形態1>
<システムの全体構成>
図1は、実施の形態1で想定する情報処理システム1の使用例を説明する図である。
図1に示す情報処理システム1は、相互に接続されたコンピュータ10とxRデバイス20とで構成されている。ここで「接続された」とは、通信が可能な状態をいう。
コンピュータ10には、ディスプレイ11と、キーボード12と、カメラ13と、タッチパッド14とが設けられている。ディスプレイ11は、物理的な表示デバイスの一例であり、様々な情報が表示される。
図1の場合、xRデバイス20は、ユーザUが頭部に装着するメガネ型のデバイスである。本実施の形態におけるxRデバイス20はカメラを有し、撮像される画像を通じて現実の空間を認識する機能を有している。
カメラ付きのxRデバイス20は、ARグラスやMRグラスとも呼ばれる。本実施の形態におけるxRデバイス20は、カメラを有していないスマートグラスでもよい。
AR画像は、2次元の画像でも、3次元の画像でもよい。図1の場合、1つのAR画像が空中に配置されているが、複数のAR画像を空中に配置してもよい。複数のAR画像を空中に配置する場合、各AR画像は、ユーザUから見て左右に並べて配置してもよいし、奥行方向に並べて配置してもよい。
本実施の形態では、ディスプレイ11の手前側にAR画像を配置する。換言すると、ユーザUから見ると、AR画像とディスプレイ11とが少なくとも一部で重なるように視認される。
本実施の形態では、xRデバイス20として、メガネ型のデバイスについて説明するが、帽子のように頭部に被るヘッドマウント型のデバイスでもよい。
図2は、コンピュータ10のハードウェア構成の一例を説明する図である。
図2に示すコンピュータ10は、データ処理部100と、ディスプレイ11と、キーボード12と、カメラ13と、タッチパッド14と、ハードディスクドライブ(すなわち「HDD」)15と、マイク16と、スピーカ17と、通信モジュール18とを有している。
ディスプレイ11の表面には、ディスプレイ11の視認を妨げない透光性を有するタッチセンサが取り付けられていてもよい。タッチセンサを取り付けたディスプレイ11は、タッチパネルとも呼ばれる。タッチセンサには、例えば静電容量式のフィルムセンサが用いられる。
カメラ13は、ディスプレイ11の枠体等に取り付けられており、コンピュータ10を操作するユーザUやディスプレイ11の前方の風景の撮像に使用される。もっとも、カメラ13は、コンピュータ10に対して着脱が可能でもよい。
カメラ13には、例えばCMOS(=Complementary Metal Oxide Semiconductor)イメージセンサやCCD(=Charge-Coupled Device)イメージセンサを使用する。
ハードディスクドライブ15は、磁気ディスクを記録媒体とする補助記憶装置である。本実施の形態では、補助記憶装置としてハードディスクドライブ15を使用するが、不揮発性の書き換えが可能な半導体メモリを使用してもよい。ハードディスクドライブ15には、オペレーションシステムやアプリケーションプログラムがインストールされる。
また、アプリケーションプログラムを「アプリケーション」や「アプリ」ともいう。
また、ハードディスクドライブ15には、コンピュータ10で処理するデータファイルが記憶される。
スピーカ17は、電子信号を音に変換するデバイスである。スピーカ17は、例えばアラーム音やガイダンスの出力にも使用される。
通信モジュール18は、例えばWifi(登録商標)、Bluetooth(登録商標)、イーサネット(登録商標)等により外部の機器と通信する。本実施の形態におけるコンピュータ10とxRデバイス20は、Bluetoothにより接続されている。
プロセッサ101は、例えばCPU(=Central Processing Unit)で構成される。プロセッサ101は、プログラムの実行を通じて各種の機能を実現する。
ROM102とRAM103は、いずれも半導体メモリである。ROM102には、BIOS(=Basic Input Output System)等が記憶されている。RAM103は、プログラムの実行に使用される主記憶装置として用いられる。
図3は、xRデバイス20のハードウェア構成の一例を説明する図である。
図3に示すxRデバイス20は、データ処理部200と、ARモジュール21と、カメラ22と、マイク23と、スピーカ24と、慣性センサ25と、測位センサ26と、バイブレータ27と、通信モジュール28とを有している。
ARモジュール21は、現実には存在しないAR画像をユーザUに視認させる体験を実現するモジュールであり、光学部品と電子部品で構成される。
この他、ARモジュール21には、ユーザUの眼の前方に小型のディスプレイを配置し、カメラ22で撮像された画像とAR画像を合成した画像をディスプレイに表示する方式がある。
スピーカ24は、電気信号を音に変換して出力するデバイスである。なお、スピーカ24は、骨伝導スピーカや軟骨伝導スピーカでもよい。
なお、スピーカ24は、ワイヤレスイヤホンのように、xRデバイス20とは独立したデバイスでもよい。
慣性センサ25は、例えば6軸センサで構成される。6軸センサは、3軸の加速度センサと3軸の角速度センサで構成される。慣性センサ25の出力により、xRデバイス20を装着しているユーザUの頭部の動きが推定される。
また、測位センサ26として、屋内用の測位モジュールを別途設けてもよい。屋内用の測位モジュールには、例えばBLE(=Bluetooth Low Energy)ビーコンを受信して自端末の位置を測位するモジュール、WiFi(登録商標)信号を受信して自端末の位置を測位するモジュール、自律航法により自端末の位置を測位するモジュール、IMES信号を受信して自端末の位置を測位するモジュールがある。
通信モジュール28には、例えばWifi(登録商標)、Bluetooth(登録商標)、イーサネット(登録商標)等により外部の機器と通信する。本実施の形態におけるコンピュータ10とxRデバイス20は、Bluetoothにより接続されている。
プロセッサ201は、例えばCPUで構成される。プロセッサ201は、プログラムの実行を通じて各種の機能を実現する。
ROM202とRAM203は、いずれも半導体メモリである。ROM202には、BIOS等が記憶される。RAM203は、プログラムの実行に使用される主記憶装置である。
フラッシュメモリ204は、オペレーティングシステムやファームウェア、プログラムやデータファイルの記録に用いられる。フラッシュメモリ204は、補助記憶装置として用いられる。
図4に示すARモジュール21は、導光板211と、マイクロディスプレイ212と、映像光L2が入力される回折格子213Aと、映像光L2が出力される回折格子213Bとを有している。
これにより、ユーザUの眼Eには、外光L1と映像光L2が同時に入射される。その結果、ユーザUは、図4に吹き出しで示すように、コンピュータ10の手前側にAR画像が存在するように視認する。
図5は、実施の形態1におけるコンピュータ10とxRデバイス20との連携により実行される処理動作の一例を説明する図である。
本実施の形態で使用するコンピュータ10とxRデバイス20は、それぞれ単独で動作することが可能である。
xRデバイス20についても、コンピュータ10と連携していない場合にも、単独での動作が可能である。例えばxRデバイス20を装着したユーザは、コンピュータ10がオフ状態でも、現実の空間内にAR画像を視認することが可能である。
図5に示す処理動作は、それぞれが単独でも動作可能であることを前提としている。
本実施の形態の場合、ユーザUの視線の方向は、装着されたxRデバイス20に設けられているカメラ22(図3参照)が撮像する範囲の中央が位置する方向と仮定する。もっとも、「中央」は、点ではなく予め定めた面積を有してよい。ユーザUは、関心がある方向に顔を向ける傾向があるためである。
xRデバイス20の装着は、例えば側頭部や鼻の部分に配置した接触センサにより検知が可能である。
ステップ2で否定結果が得られた場合、xRデバイス20は、ステップ1の判定に戻る。
なお、ステップ2の判定とステップ1の判定の順番を入れ替えてもよい。ステップ2の判定をステップ1よりも先に実行する場合、xRデバイス20は、ステップ2で否定結果が得られている間、ステップ2の判定が繰り返される。
この他、動作を指示するボタンには、デスクトップ、タスクバー、スタートメニュー等に表示される特定のファイルやアプリケーションに紐付けられたショートカットアイコン、通知用のアイコン等がある。
また、通知用のアイコンには、電子メールやショートメッセージ(以下「メッセージアプリ」ともいう)等がメッセージの受信時にディスプレイ11に表示するアイコン等がある。
もっとも、ディスプレイ11による表示からAR画像による提示に移動するボタンは、動作を指示するボタンの全てではなく、予め定めた種類のボタンに限定してもよい。
例えば選択に用いるボタン(以下「選択ボタン」ともいう)や決定に用いるボタン(以下「決定ボタン」ともいう)だけを移動の対象とし、他のボタンはディスプレイ11による表示を継続してもよい。なお、ボタンの移動は、該当するボタンを含むダイアログボックスの移動を含む。
本実施の形態の場合、「実行の可否」の選択には、コンピュータ10のシステム構成に変更を伴う動作が含まれる。この例には、プログラムのインストール、アンインストール、ダウンロード、アップロードがある。
本実施の形態の場合、決定ボタンには、確認用のボタン(以下「確認ボタン」ともいう)も含む。なお、確認ボタンでも選択肢を含む場合は、選択ボタンに含まれる。
次に、xRデバイス20は、受信したボタンの画像をAR画像としてディスプレイ11の手前側の空間に配置する(ステップ5)。
「手前側」とは、図1に例示したように、コンピュータ10のディスプレイ11とxRデバイス20の間の空間をいう。本実施の形態では、同空間のうち、xRデバイス20を装着しているユーザUから見たAR画像が、ディスプレイ11と重なって見える範囲をいう。
因みに、ディスプレイ11のうちユーザUから見てAR画像と重ならない領域にはカーソルCの表示を可能にしてもよい。
従って、AR画像がユーザUに提示されている場合も、キーボード12等を操作して、テキストの入力やウェブ画像の閲覧等を行える。
本実施の形態のxRデバイス20とコンピュータ10は、AR画像が配置される現実の空間内の座標を共有している。
すなわち、コンピュータ10は、ディスプレイ11に対するボタンの表示を停止した後も、AR画像に含まれるボタンに対するユーザの指示を検知したか否かを判定する(ステップ6)。
ステップ6で肯定結果が得られた場合、コンピュータ10は、操作の検知をxRデバイス20に通知する(ステップ7)。
もっとも、検知された指示とは関係のないボタンについては、AR画像としての提示を継続してもよい。この他、受け付けた動作の実行に伴う情報の提示、各種のアラームの提示に関係するAR画像の提示は継続してもよい。
<例1>
図6は、ディスプレイ11の手前側にAR画像を配置するモードがオフの場合における見え方の一例を説明する図である。
図6には、図1との対応部分に対応する符号を付して示している。なお、図6に示す見え方は、xRデバイス20とコンピュータ10とが接続されていない場合も同じである。
図中の吹き出しは、xRデバイス20を装着しているユーザが脳内で認識している空間の様子を表している。ユーザが脳内で認識している空間の様子は、物理的に実在する現実の空間と同じである。
因みに、ディスプレイ11上には、文書DとカーソルCが表示されている。文書Dはコンテンツの一例である。
図7に示す見え方は、ステップ1(図5参照)及びステップ2(図5参照)の両方で肯定結果が得られた場合に相当する。
図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。図7の場合、現実の空間には存在しないAR画像が存在するように認識される。
図7に示すダイアログボックスは、例えば当事者間での合意が求められる文書Dがディスプレイ11に表示されている場合を想定する。
図7の場合、ユーザUがマウス30を操作すると、AR画像内のカーソルCが移動し、「はい」又は「いいえ」のボタンに位置を合わせた状態で左クリックの操作があると、「はい」又は「いいえ」に対応する処理がコンピュータ10で実行される。
もっとも、AR画像の透過の度合いを低くして、ディスプレイ11の表示の内容が透けて見えないようにすることも、ARモジュール21(図3参照)の方式によっては可能である。
このAR画像の配置は、ユーザが「はい」又は「いいえ」のボタンを操作するまで継続される。
特に、本実施の形態の場合におけるAR画像は、ディスプレイ11よりもユーザUに近い空中に配置されるので、ダイアログボックスの出現に気づきやすい。
また、AR画像がディスプレイ11の手前側に配置され続けると、AR画像が配置される位置やサイズによっても、ディスプレイ11の視認性が低下するので、心理的にもボタンの操作をユーザに促すことが可能になる。
図8は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図8には、図7との対応部分に対応する符号を付して示している。
図8の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図8に示すダイアログボックスは、コンピュータ10で処理の対象となる文書Dのファイルを開く処理を実行する前に、ユーザUに提示される。
また、文書Dは、レントゲンやCT画像等の医療系のデータ、ゲーム系のアプリケーションのデータ、地図データでもよい。
図9は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図9には、図7との対応部分に対応する符号を付して示している。
図9の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図9に示すダイアログボックスは、プログラムのダウンロードが開始される前に、ユーザUに提示される。
ダウンロードの実行中も、ユーザUは、コンピュータ10を用いて他の作業が可能である。従って、ダウンロードの開始に必要なボタンを含むAR画像をディスプレイ11の手前側に配置してユーザUに操作を促すことにより、ダウンロード中の時間を他の作業に割り当てることが可能になる。
なお、他の作業の終了後に、ダウンロードが開始されていなかったことに気づく場合、その時点からダウンロードを開始する必要があり、時間の無駄が発生する。
図10の場合、ボタンの操作は終わっているので、カーソルCがディスプレイ11上に表示されている。
図10の場合、AR画像には、「ダウンロードしています」とのテキスト、ダウンロードの進捗の状態を示す棒グラフ、「約5分かかります」とのテキストが含まれている。ここでの時間は、残り時間でもダウンロードに要する全体の時間でもよい。なお、時間は目安でもよい。回線の混み具合によって通信の速度が変化するためである。また、残り時間は、進捗の状況や通信の速度に応じて逐次変更される。
図10に示すAR画像は、ディスプレイ11上にも専用のダイアログボックスとして表示が可能であるが、AR画像としてユーザUに提示することで、ディスプレイ11上での画像の重なりが少なくなり、ディスプレイ11に表示される画像の視認性や作業性が向上される。
また、ダウンロードに関連する情報がAR画像としてディスプレイ11の手前側に配置されることで、ダウンロードの進行の確認が容易になる。
図11は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図11には、図9との対応部分に対応する符号を付して示している。
図11の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
プログラムのインストールの場合も、ダウンロードの場合と同じく、インストールの開始後にインストールの進捗の状態を示す棒グラフやインストールに要する残り時間等の情報を提示してもよい。
図12は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図12には、図7との対応部分に対応する符号を付して示している。
図12の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図12に示すAR画像に含まれるボタンは1つだけである。換言すると、ここでのAR画像は、決定ボタンを含むダイアログボックスの一例である。
図12に示すダイアログボックスは、コンピュータ10で処理の対象となる文書Dのファイルを開く処理を実行する前等に、ユーザUに提示される。
ただし、本例の場合には、動作の開始の指示に用いるボタンが1つだけである点で、「はい」ボタンと「いいえ」ボタンが用意される例4とは異なる。
図13は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図13には、図7との対応部分に対応する符号を付して示している。
図13の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
換言すると、図13に示すAR画像は、文書Dの内容への同意と不同意を選択するための選択肢に対応するボタンと、その選択後の動作の実行を選択するための選択肢に対応するボタンとを含んでいる。
また、本実施の形態における「同意」には、承認や承諾も含まれる。
図14は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図14には、図7との対応部分に対応する符号を付して示している。
図14の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
多くの場合、システム側からの同意の要求は、ユーザが特定の文書Dに対して特定の操作を行うことで発生するが、類似する文書Dが複数表示されている場合、同意が要求される文書Dの区別がつかなくなる可能性がある。
本例は、そのような場合を想定し、同意が要求される文書Dを指し示す矢印をAR画像として配置する。矢印は、例えば対象とする文書Dの上空に配置される。
また、領域により特定する方法であれば、「ディスプレイ11が上下2段に分割され、各段が3つの領域に分割される場合、上段真ん中の領域の文書」等により位置が特定される。
また、座標により特定する方法であれば、「左上隅がx=○○、y=△△で特定される文書」等により位置が特定される。
また、矢印以外の方法で、対象とする文書Dを指し示すことも可能である。例えば星や二重丸等の記号を配置してもよいし、対象とする文書Dを枠で囲んでもよい。
この他、矢印は、ディスプレイ11の外側の空間に配置してもよい。図14では、ディスプレイ11の枠に重なるように矢印が配置されている。
なお、同意の対象である文書Dを明示する方法は、AR画像を用いる場合だけでなく、xRデバイス20と連携するコンピュータ10によるディスプレイ11への表示を通じて実現することも可能である。例えば図14の例であれば、ディスプレイ11のうち右端の文書Dの上の領域に矢印を表示することも可能である。
本例のように、同意が要求される文書Dを明示する情報を、別途、AR画像として提示することにより、ディスプレイ11上に複数の文書Dが表示されている状態でも、ユーザUは、同意が求められている文書Dを容易に特定することが可能である。
本例では、xRデバイス20を装着したユーザが、作業中に顔の向きを変更した場合におけるAR画像の配置の変化について説明する。
図15は、コンピュータ10の作業中にユーザがディスプレイ11の左外側に顔を向けた場合のAR画像の配置の変化を説明する図である。(A)はユーザUがディスプレイ11を見ている場合の配置を示し、(B)はユーザUがディスプレイ11の左外側を見ている場合の配置を示す。
図15には、図6との対応部分に対応する符号を付して示す。
図15の場合、AR画像は、ディスプレイ11と重ならない位置に移動する。換言すると、ディスプレイ11が存在しない空気中に、AR画像が浮かぶように視認される。
図16の場合も、AR画像は、ディスプレイ11と重ならない位置に移動する。換言すると、ディスプレイ11が存在しない空気中に、AR画像が浮かぶように視認される。
換言すると、AR画像の寸法が小さい等の理由で、作業中にはAR画像の存在に気づかなかった場合や作業中に操作の必要性を失念した場合にも、顔の向きを変えた時点に、AR画像の存在に気づき易くなる。結果的に、選択や同意の操作等の実行漏れが少なくなる。
本実施の形態では、特定の条件を満たすことを条件に、AR画像の配置の停止や他の位置への移動を許可する場合について説明する。
なお、実施の形態2で使用する情報処理システム1の構成は図1と同じである。
図17は、実施の形態2で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はコンピュータ10とxRデバイス20の連携により実行される処理動作の一例を示し、(B)はAR画像の移動等を示す。図17には、図6との対応部分に対応する符号を付して示している。
コンピュータ10は、ボタンの操作を受け付けない状態が予め定めた時間以上経過したか否かを判定する(ステップ11)。ここでのボタンは、AR画像に含まれるボタンである。
予め定めた時間は、初期値として与えられてもよいし、ユーザUが自由に設定してもよい。予め定めた時間として例えば3分を用いる。
ステップ11で肯定結果が得られた場合、コンピュータ10は、AR画像の配置の停止を指示する(ステップ12)。もっとも、図17(B)に示すように、コンピュータ10は、ディスプレイ11の背後へのAR画像の移動を指示してもよい。
指示を受け付けたxRデバイス20は、AR画像の配置を停止する(ステップ13)。この場合、ディスプレイ11の手前側の現実の空間からはAR画像が消滅する。この結果、ディスプレイ11の観察が容易になる。
もっとも、図17(B)に示す例では、AR画像の上部が、ディスプレイ11の上辺よりも上方に位置している。このため、ユーザUは、作業に集中しつつも、選択や同意等を要するボタンを含むAR画像の存在を忘れずに済む。
結果的に、作業が一段落した時点で、AR画像に対する操作の再開が可能になる。
予め定めた操作には、例えばディスプレイ11に表示される再表示用のアイコン又は移動用のアイコンの操作、文書Dが表示されている領域上にカーソルCを移動させた状態でのマウスのダブルクリック等を使用する。
そこで、AR画像の配置を停止等した後も、その処理の実行から予め定めた時間が経過すると、ユーザUの指示がなくても、ディスプレイ11の手前側にAR画像が再配置されるようにしてもよい。
また、ユーザUによる文書Dへの作業が終了すると、例えば保存が指示されると、ディスプレイ11の手前側にAR画像が再配置されるようにしてもよい。
本実施の形態では、ユーザUの指示により、AR画像とディスプレイ11の間で、カーソルCの配置を切り替える場合について説明する。
図18は、実施の形態3で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はAR画像内のカーソルCをディスプレイ11側に移動させる処理動作の一例を示し、(B)はユーザUの操作例を示す。図18には、図6との対応部分に対応する符号を付して示している。
図18(A)の場合、コンピュータ10は、左ボタンを押しながら、マウス30を前進させたか否かを判定する(ステップ21)。前進とは、AR画像が配置されている位置からディスプレイ11が設けられている方向を表し、ユーザUを基準とした表現では奥方向となる。換言すると、前進とは、ユーザUから遠ざかる方向である。
なお、左ボタンを押す操作は一例であり、特定のキー操作とマウス30の前進とを条件としてもよい。
また、キーボード12(図1参照)に配置された特定のキーの操作を条件としてもよい。例えばシフトキーを押しながら上向きの矢印キーの操作を条件としてもよい。
この他、ステップ21では、ユーザUがAR画像に含まれるボタンに対応する選択等の保留や再検討を指示したことを条件として判定してもよい。
ステップ21の判定で使用する条件は、予め定めた第2の条件の一例である。
ステップ21で肯定結果が得られた場合、コンピュータ10は、xRデバイス20に対し、ディスプレイ11へのカーソルCの移動を指示する(ステップ22)。
また、コンピュータ10は、ディスプレイ11にカーソルCを表示する(ステップ23)。
一方、xRデバイス20は、コンピュータ10からの指示に基づいて、AR画像からカーソルCを消去する(ステップ24)。
カーソルCがAR画像からディスプレイ11側に移動することで、ユーザUは、ディスプレイ11に表示されている文書Dに対する操作を再開することが可能になる。例えばAR画像に含まれるボタンに対する操作を保留にしたまま、文書Dに対する操作が可能になる。
図19(A)に示す処理動作は、図5に示す処理動作とは独立に実行される。
なお、左ボタンを押す操作は一例であり、特定のキー操作とマウス30の後進とを条件としてもよい。
また、キーボード12(図1参照)に配置された特定のキーの操作を条件としてもよい。例えばシフトキーを押しながら下向きの矢印キーの操作を条件としてもよい。
この他、ステップ31では、ユーザUがAR画像に含まれるボタンに対応する選択等の再開を指示したことを条件として判定してもよい。
ステップ31の判定で使用する条件は、予め定めた第1の条件の一例である。
ステップ31で肯定結果が得られた場合、コンピュータ10は、ディスプレイ11上からカーソルCを消去する(ステップ32)。
続いて、コンピュータ10は、xRデバイス20に対し、AR画像へのカーソルの移動を指示する(ステップ33)。
図19(B)に示す処理は、ステップ33及びステップ34に対応する。
カーソルCがディスプレイ11からAR画像側に移動することで、ユーザUは、AR画像に含まれるボタンの操作を自分の意思で再開することが可能になる。
図20は、実施の形態3で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はAR画像内のカーソルCをディスプレイ11側に移動させる手法の他の例を示し、(B)はユーザUの操作例を示す。図20には、図18との対応部分に対応する符号を付して示している。図20には、図6との対応部分に対応する符号を付して示している。
予め定めた時間には、例えば3分がある。因みに、実施の形態2の場合には、AR画像自体の配置を停止等しているが、本実施の形態では、カーソルCの移動のみを想定する。
カーソルCがコンピュータ10のディスプレイ11側に移動することで、ユーザは、AR画像に含まれるボタンの操作を保留した状態のまま、ディスプレイ11に表示されている画面に対する操作が可能になる。
本実施の形態では、AR画像に含まれるボタンの操作を音声により行う場合について説明する。
図21は、実施の形態4で想定する指示の一例を説明する図である。図21には、図6との対応部分に対応する符号を付して示している。
図21の場合、ユーザUは、「合意します。」と声を出している。この音声は、コンピュータ10のマイク16(図2参照)やxRデバイス20のマイク23(図3参照)により取得される。既存の音声認識の技術により、指示の内容が解析される。
また、本実施の形態の場合に、ディスプレイ11上に表示されているカーソルCをAR画像側に移動させる操作を行わなくても、指示を入力することが可能である。
本実施の形態では、AR画像に含まれるボタンをジェスチャにより操作する場合について説明する。
図22は、実施の形態5で想定する指示の一例を説明する図である。図22には、図6との対応部分に対応する符号を付して示している。
なお、ジェスチャによる操作を受け付ける条件として、右手の人差指が指定されていない場合には、他の指を用いて操作してもよいし、鉛筆やボールペン等の筆記具、指示棒その他の棒状の部材によるボタンの操作を検知してもよい。言うまでもないが、指示に用いる物体は、例示の物体に限らない。
本実施の形態では、xRデバイス20に設けられているカメラ22で撮像された画像の解析により、空中における指先の座標と空中に配置したボタンの座標との関係を特定したり、ボタンの操作を検知する。もっとも、LiDARに代表される三次元スキャナを用いて、xRデバイス20から指先までの距離や座標を測定し、その測定の結果を使用してボタンの操作を検知してもよい。
また、空中に配置されるAR画像やAR画像に含まれるボタンの位置の情報がxRデバイス20からコンピュータ10に与えられている場合には、コンピュータ10に設けられているカメラ13で撮像された画像の解析により、空中における指先の座標と空中に配置したボタンの座標との関係を特定し、ボタンの操作を検知してもよい。
本実施の形態の場合、空中に配置されたボタンの多様な操作が実現される。
本実施の形態では、コンピュータ10(図1参照)の動作を指示するボタンが、メッセージアプリによるメッセージの受信を通知するアイコンである場合について説明する。
図23は、実施の形態6におけるコンピュータ10とxRデバイス20との連携により実行される処理動作の一例を説明する図である。
ステップ42で否定結果が得られた場合、コンピュータ10は、通知用のアイコン等に対応するアプリケーションの画像をディスプレイ11に展開する(ステップ49)。この場合、通知用のアイコン等はAR画像として空中に配置されることはないので、ユーザUは、ディスプレイ11上に展開されたメッセージアプリでメッセージの内容を確認する。
コンピュータ10から通知を受けたxRデバイス20は、通知用のアイコン等の画像をAR画像としてディスプレイ11の手前側の空間に配置する(ステップ45)。
経験的にも、作業に集中している場合や通知用のアイコン等がポップアップ表示された時にディスプレイ11を見ていない場合、通知用のアイコン等が表示されたことに気づかないことがある。
しかし、AR画像が空中に出現することで、ディスプレイ11に表示されていたときよりも目立ち、ユーザUに気づかれ易くなる。
ステップ46で否定結果が得られている間、コンピュータ10は、ステップ46の判定を繰り返す。
一方、ステップ46で肯定結果が得られた場合、コンピュータ10は、操作の検知をxRデバイス20に通知する(ステップ47)と共に、通知用のアイコン等に対応するアプリケーションの画像をディスプレイ11に展開する(ステップ49)。
なお、通知を受けたxRデバイス20は、AR画像の配置を停止する(ステップ48)。
この場合、ユーザUは、メッセージの受信と同時に、メッセージの受信に気づくことが可能になる。
図24は、ステップ42(図23参照)で否定結果が得られた場合のユーザインタフェースの例を示す図である。図25は、ステップ42(図23参照)で肯定結果が得られた場合のユーザインタフェースの例を示す図である。図24と図25のいずれも、図6との対応部分に対応する符号を付して示している。
一方、図25の例では、ディスプレイ11の前方にAR画像が飛び出して配置されるため、ユーザUは、アイコンの出現に気づき易くなる。結果的に、ユーザUは、アイコンの出現を見落とさずに済む。
本実施の形態では、AR画像が空中に配置されている状態で電源をオフする操作があった場合に使用されるユーザインタフェースについて説明する。
図26は、実施の形態7で使用する処理動作の一例を説明する図である。(A)はxRデバイス20の電源がオフされる場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。
なお、図26の例では、xRデバイス20の電源をオフする操作を検知の対象としているが、連携中のコンピュータ10の電源をオフする操作を検知の対象としてもよいし、xRデバイス20とコンピュータ10のうちいずれか一方の電源をオフする操作を検知の対象としてもよい。
ステップ51で肯定結果が得られた場合、xRデバイス20は、コンピュータとの連携を伴うAR画像に対する操作の待機中か否かを判定する(ステップ52)。換言すると、xRデバイス20は、コンピュータ10の動作を指示するボタンを含むAR画像の表示中か否かを判定する。
一方、ステップ52で肯定結果が得られた場合、xRデバイス20は、アラームを出力する(ステップ53)。
ここでのアラームは、処理待ちのイベントの存在をユーザに通知し、電源オフの操作を取り消す機会を与える目的で実行される。
アラームの出力は、音を用いる方法、振動を用いる方法、音声を用いる方法、新たなAR画像を追加で配置する方法、既存のAR画像中にテキストを追加する方法、既存のAR画像の輝度や色調を変化させる方法、これらの任意の複数を組み合わせる方法等が考えられる。
この種のアラームが出力されることにより、操作待ちのイベントが残っている状態で電源をオフする操作が実行された場合でも、操作待ちのイベントの存在をユーザUに気づかせることが可能になる。また、間に合えば、電源をオフする操作を取り消すことが可能になる。
図26の場合には、xRデバイス20が、ステップ51及び52の両方を判定しているが、ステップ51とステップ52の両方又はいずれか一方を、コンピュータ10が判定してもよい。
本実施の形態では、アラームが出力される他の使用例について説明する。
図27は、実施の形態8で使用する処理動作の一例を説明する図である。(A)はxRデバイス20がユーザUから取り外される場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。
図27(A)の場合、xRデバイス20は、自装置の取り外しか否かを判定している(ステップ61)。本実施の形態の場合、xRデバイス20の取り外しは、ユーザUの頭部からの取り外しである。自装置の取り外しは、予め定めた事象の一例である。
なお、xRデバイス20の装着は、ユーザUの側頭部や鼻根部に接触する部分に配置されたセンサにより検知する。なお、ここでのセンサには、例えば圧力を検知する感圧センサ、体温を検知する温度センサを使用する。
ステップ62の内容は、図26におけるステップ52と同じである。
ステップ62で否定結果が得られた場合、xRデバイス20は、アラームを出力しない。なお、コンピュータ10とxRデバイス20の接続は維持される。もっとも、取り外した段階で、接続を一時的に解除することも可能である。
アラームの出力は、音を用いる方法、振動を用いる方法、音声を用いる方法、新たなAR画像を追加で配置する方法、既存のAR画像中にテキストを追加する方法、既存のAR画像の輝度や色調を変化させる方法、これらの任意の複数を組み合わせる方法等が考えられる。
図27の場合には、xRデバイス20が、ステップ61及び62の両方を判定しているが、ステップ61とステップ62の両方又はいずれか一方を、コンピュータ10が判定してもよい。
本実施の形態では、アラームが出力される他の使用例について説明する。
図28は、実施の形態9で使用する処理動作の一例を説明する図である。(A)はxRデバイス20とコンピュータ10との位置の関係が予め定めた条件を満たす場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。
図28(A)の場合、自装置とディスプレイ11との距離が閾値を超えたか否かを判定している(ステップ71)。
閾値は、予め定められており、ユーザUによる指定や調整も可能である。ディスプレイ11の寸法にも依存するが、例えば閾値として1mを使用する。
ステップ71で肯定結果が得られた場合、xRデバイス20は、コンピュータ10との連携を伴うAR画像に対する操作の待機中か否かを判定する(ステップ72)。
ステップ72で否定結果が得られた場合、xRデバイス20は、アラームを出力しない。なお、コンピュータ10とxRデバイス20の接続は維持される。
一方、ステップ72で肯定結果が得られた場合、xRデバイス20は、アラームを出力する(ステップ73)。ここでのアラームは、処理待ちのイベントの存在をユーザに通知し、ディスプレイ11に近づく機会を与える目的で実行される。
図28(B)は、「ブブー」等のアラーム音を出力する例を表している。出力するアラームは、アラーム音を用いる他、振動を用いる場合、音声を用いる場合、新たなAR画像を追加で配置する場合、既存のAR画像中にテキストを追加する場合、既存のAR画像の輝度や色調を変化させる場合、これらの任意の複数を組み合わせる場合等が考えられる。
図28の場合には、xRデバイス20が、ステップ71及び72の両方を判定しているが、ステップ71とステップ72の両方又はいずれか一方を、コンピュータ10が判定してもよい。
xRデバイス20がコンピュータ10から1m以内の距離で使用される図29(A)の場合、AR画像は、設定の範囲内で最も明確に視認される状態である。なお、最も明確に視認される状態は、xRデバイス20の性能上の上限の意味ではない。あくまでも、設定の範囲内における上限の意味である。
さらに、xRデバイス20とコンピュータ10との距離が2mを超えると、図29(C)に示すように、AR画像の透過率は更に上昇する又は出力が更に低下する。これにより、AR画像の視認性は徐々に低下する。
その後、xRデバイス20とコンピュータ10との距離が2mを超えると、図29(D)に示すように、アラームの出力後にAR画像の出力が停止される。なお、図29(D)では、アラームの例として、「AR画像の出力を終了します。」との音声が例示されている。ここでのアラームは、AR画像の配置の停止を示唆する。
また、図29の例では、AR画像の寸法が同じであるが、距離が遠ざかるほど、AR画像の寸法が小さくなってもよい。
また、図29に示すように、AR画像を徐々にフェードアウトするのではなく、予め定めた距離を超えると、AR画像の配置を停止してもよい。
また、予め定めた条件を満たす場合でも、ユーザがフェードアウトの機能を用いない設定としている場合やフェードアウトの対象から除外する設定がある場合等においては、AR画像の配置を継続してもよい。これらの例には、合意やインストールなどの重要度が高いと設定された情報や特定の相手からのメッセージや着信の受信の通知がある。
また、表示されているAR画像の表示のサイズが徐々に小さくなる効果を組み合わせてもよいし、AR画像の表示の濃さはそのままに、AR画像の表示のサイズが徐々に小さくなる効果だけを採用してもよい。さらに、AR画像の表示のサイズが徐々に小さくなる場合には、表示中のAR画像の中心位置に向かって表示のサイズを徐々に小さくしてもよいし、表示中のAR画像の1つの端部に向かって表示のサイズを徐々に小さくしてもよい。ここでの中心位置は、ディスプレイ11の中心位置と同じでもよい。
xRデバイス20がコンピュータ10から2m以上の距離で使用される図30(A)の場合、AR画像は空中には出力されていない。
その後、xRデバイス20がコンピュータ10から2m以内1m以上に近づくと、図30(C)に示すように、AR画像の透過率が徐々に降下する又は出力レベルが徐々に上昇する。すなわち、xRデバイス20がコンピュータ10との距離が近づくに連れて、徐々にAR画像は濃くなる。
図30の例では、xRデバイス20がコンピュータ10との距離に応じて、ユーザに視認されるAR画像が徐々にフェードインしているが、段階的に見え方が切り替わってもよい。
また、図30に示すように、AR画像を徐々にフェードインするのではなく、予め定めた距離を超えると、AR画像が出現してもよい。
図30に例示した距離の関係は、予め定めた条件の一例である。なお、AR画像を配置する前におけるアナウンスの出力は任意である。すなわち、アナウンスの出力なしに、AR画像を配置してもよい。
具体的には、AR画像がディスプレイ11に対して上下方向又は水平方向について近づくほど、AR画像がフェードインするように変化してもよい。
本実施の形態では、コンピュータ10とxRデバイス20との接続が再開される場合に、AR画像に含まれるボタンの操作待ちのイベントが検知される場合に使用されるユーザインタフェースについて説明する。
因みに、本実施の形態の前提である接続の解除は、例えばコンピュータ10とxRデバイス20のいずれかの電源がオフされた場合、ユーザUの指示で接続が切断された場合、コンピュータ10とxRデバイス20の距離が通信可能な範囲を超えた場合、通信可能な範囲内でもコンピュータ10とxRデバイス20とが予め定めた条件を満たさなくなった場合がある。電源のオフには、スリープ状態への移行も含まれるものとする。
図31(A)の場合、xRデバイス20は、コンピュータとの接続の再開か否かを判定している(ステップ81)。
一方、ステップ81で肯定結果が得られた場合、xRデバイス20は、待機中のままコンピュータとの接続が解除された操作の履歴があるか否かを判定する(ステップ82)。
ステップ82で否定結果が得られた場合、xRデバイス20は、接続の再開に伴う本処理を終了する。
ステップ83で否定結果が得られた場合、xRデバイス20は、接続の再開に伴う本処理を終了する。
図31(B)の場合、実施の形態1で説明したように、AR画像がディスプレイ11に対して手前側に再配置される。換言すると、接続が再開すると同時に、空中にAR画像が出現する。このAR画像の出現により、ユーザUは、操作待ちの処理が残っていることに気づき、処理を完了させることが可能になる。
本実施の形態では、コンピュータ10(図1参照)の動作を指示するボタンを、ディスプレイ11(図1参照)への表示を行うことなく、最初からAR画像として提示する場合について説明する。
図32は、実施の形態11におけるコンピュータ10とxRデバイス20との連携により実行される処理動作の一例を説明する図である。図32には、図5との対応部分に対応する符号を付して示している。
ステップ91で否定結果が得られている間、コンピュータ10は、ステップ91の判定を繰り返す。
本実施の形態の場合、コンピュータ10は、ディスプレイ11にボタンを表示することを要しないので、図5の場合のように、ボタンの表示を停止することはない。
以後の処理は、図5と同じである。
本実施の形態では、予め定めたボタンを含むダイアログボックスをディスプレイ11(図1参照)とAR画像の両方によりユーザUに提示する場合について説明する。
図33は、実施の形態12におけるダイアログボックスの見え方の一例を説明する図である。図33には、図6との対応部分に対応する符号を付して示している。
図33の例では、ディスプレイ11に表示されるダイアログボックスの寸法とAR画像の寸法とが同等であるが、ディスプレイ11上に表示されるダイアログボックスが他の画像の背後に隠れる場合等においては、ダイアログボックスがAR画像としても空中に配置されることで、ユーザUによるダイアログボックスの見落としのリスクが少なく済む。
本実施の形態では、予め定めたボタンをAR画像として常時空中に配置する場合について説明する。
図34は、実施の形態13におけるダイアログボックスの見え方の一例を説明する図である。図34には、図6との対応部分に対応する符号を付して示している。
図34の場合、予め定めたボタンで構成されるAR画像が、ディスプレイ11を用いた作業を妨げない位置に常に配置される。
図34の場合には、ディスプレイ11の下辺に沿うようにAR画像としてのアイコンが配列されている。もっとも、AR画像としてのアイコンを配置する位置は、ディスプレイ11の外縁部に限らず、ディスプレイ11の外側の空間でもよい。
本実施の形態では、xRデバイス20のカメラ22(図3参照)を使用した機能について説明する。
図35は、実施の形態14におけるxRデバイス20の使用例を説明する図である。(A)は時点T1におけるスクリーンショットST1の撮像例を示し、(B)は時点T2におけるスクリーンショットST2の撮像例を示す。
例えば図35(A)の場合、ディスプレイ11に表示されている文書D1の画像がスクリーンショットST1として撮像され、コンピュータ10に転送される。もっとも、スクリーンショットST1はxRデバイス20に記憶されるようにしてもよい。
ここで、スクリーンショットの撮像は、例えば1分毎のように予め定めた周期で実行してもよいし、ユーザUにより指示されたタイミングで実行してもよいし、ディスプレイ11に表示されている文書Dの変化が検知された場合でもよい。
コンピュータ10による文書Dのバックアップは、文書毎に実行されるが、スクリーンショットであれば、複数の文書Dが関連する作業の様子も記録される。
本実施の形態では、複数台のコンピュータ10とxRデバイス20の連携について説明する。
図36は、実施の形態15で使用する情報処理システム1Aの使用例を説明する図である。図36には、図1との対応部分に対応する符号を付して示している。
図36の場合、AさんがxRデバイス20を装着してコンピュータ10Aを操作している。また、サポートスタッフ等であるBさんがコンピュータ10Bを操作している。
図36の場合、コンピュータ10Aとコンピュータ10Bは、ネットワーク50を通じて接続されている。
図36の場合、Aさんは、ディスプレイ11に表示されている画面の操作についてBさんから指導を受けている。図36の場合、コンピュータ10Aのディスプレイ11の表示は、Bさんが操作するコンピュータ10Bと同期していない。
Bさんがコンピュータ10Bのディスプレイ11上でカーソルCを移動させると、その様子は、Aさんが装着しているxRデバイス20により、Aさんが操作するコンピュータ10の手前側にAR画像として提示される。すなわち、AR画像内のカーソルCは、Bさんの操作の通り移動する。
この手法は、BさんによるカーソルCの移動を受動的に確認する場合に比して学習効果の向上が期待される。なぜなら、コンピュータ10Aに対する操作は、あくまでもAさんの主体的な行動を伴うためである。
また、コンピュータ10Aに対するAさんの操作の内容は、ネットワーク50を通じて、コンピュータ10Bを操作するBさんにより確認されるので、Aさんの操作に対するBさんからのフィードバックも可能である。例えば間違った操作の指摘を受けることが可能である。このフィードバックもAさんの学習効果を高めるのに効果的である。
本実施の形態も、複数台のコンピュータ10とxRデバイス20の連携について説明する。
図37は、実施の形態16で使用する情報処理システム1Bの使用例を説明する図である。図37には、図36との対応部分に対応する符号を付して示している。
図37のAさんは、装着しているxRデバイス20により空中に浮かぶように提示されるAR画像を通じてコンピュータ10Aで行われている作業の様子を確認する。
本実施の形態は、xRデバイス20と遠隔地のコンピュータ10との連携について説明する。
図38は、実施の形態17で使用する情報処理システム1Cの使用例を説明する図である。図38には、図36との対応部分に対応する符号を付して示している。
なお、Aさんの位置は、xRデバイス20の測位センサ26(図3参照)の出力がネットワーク50を通じてコンピュータ10Bに与えられている。
なお、実施の形態15~実施の形態17のいずれの場合も、Bさんはコンピュータ10Bを操作しているが、いずれの場合もBさんがxRデバイス20を装着していてもよい。
図39は、実施の形態18におけるxRデバイス20の使用例を説明する図である。(A)はAさんがBさんに出会う前の状態を示し、(B)はAさんがBさんに出会った後の状態を示す。図39には、図1との対応部分に対応する符号を付して示している。
図39(A)の場合、Aさんは、AR画像を視認している。AさんがBさんと出会った後もAR画像の出力を続ける設定では、AR画像がBさんの顔に重なって邪魔になる場合やBさんとの会話に集中できない場合がある。また、Bさんとの会話中もAR画像が提示されることがBさんに対して失礼になる場合もある。
なお、本実施の形態におけるBさんは、対面して会話する相手を想定する。従って、カメラ22(図3参照)で撮像された画像やマイク23(図3参照)で取得された音声より対面して会話する相手に該当しないと判定された場合には、眼の前を通行人が横切る等してもAR画像の出力は停止されないようにする。
図40は、実施の形態19におけるxRデバイス20Aの使用例を説明する図である。
図40の場合、AさんがxRデバイス20Aを装着し、BさんがAさんと会話している。図40に示すxRデバイス20Aは、会話の相手方であるBさんに見えるように、Aさんの自己紹介文等の表示が可能になっている。
本実施の形態で使用するxRデバイス20Aの場合、導光板211の面上に、光の透過率を画素単位で制御可能なフィルム状のデバイスが貼り付けられている。ここでのフィルム状のデバイスは、一対の透明電極膜の間に液晶物質を封入した構造を有している。液晶物質の配向を画素単位で制御することにより、光の透過率が画素単位で変化する。この特性により文字を表示する。
図42は、実施の形態20で使用する情報処理システム1Dの構成例を説明する図である。図42には、図1との対応部分に対応する符号を付して示している。
本実施の形態の場合、AR画像は、空中画像として現実の空間中に提示される。空中画像も現実の空間に配置される仮想の画像の一例である。空中画像は、空中に浮かび上がるように形成される。空中画像の形成には、空中画像形成装置60が用いられる。
例えば空中像の形成にハーフミラーを用いる方法、ビームスプリッタを用いる方法、微小なミラーアレイを用いる方法、微小なレンズアレイを用いる方法、視差バリアを用いる方法、プラズマ発光を用いる方法等がある。これらの方式によって生成される空中画像は、通り抜けることが可能である。
平面形状の例には、円形、多角形、人の形、動物の形、電化製品の形、果物の形等がある。ここでの人や動物は、仮想のキャラクタや生物でもよい。
空中に形成される空中画像は、立体の表面を規定する像に限らず、立体の表面を規定する像とその内部に対応する像の両方で構成されてもよい。換言すると、空中画像は、ボクセルデータにより表現されてもよい。
本実施の形態における空中画像は、静止画像でもよいし、動画像でもよい。
(1)以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば外部機器が画像を用紙に印刷するプリンタや立体像を形成する3次元プリンタである場合、各プリンタによる出力が終了するまでの時間等をAR画像として提示してもよい。また、各プリンタによるスプールが終了するまでの時間等をAR画像として提示してもよい。
また、前述した各実施の形態におけるプロセッサの動作は、1つのプロセッサが単独で実行してもよいが、物理的に離れた位置に存在する複数のプロセッサが協働して実行してもよい。また、プロセッサにおける各動作の実行の順序は、前述した各実施の形態に記載した順序のみに限定されるものでなく、個別に変更してもよい。
Claims (27)
- 仮想の画像を現実の空間内に配置するデバイスを制御するプロセッサを有し、
前記プロセッサは、
物理的な表示デバイスを有する外部の端末と自装置とが接続している場合において、当該表示デバイスの手前側に前記仮想の画像が配置されるとき、
前記仮想の画像として、前記端末の動作を指示するボタンを配置する
情報処理装置。 - 前記ボタンは、選択ボタンである、
請求項1に記載の情報処理装置。 - 前記選択ボタンは、前記端末による動作の実行の可否の選択用である、
請求項2に記載の情報処理装置。 - 前記実行の可否の対象は、前記端末のシステム構成に変更を伴う動作である、
請求項3に記載の情報処理装置。 - 前記選択ボタンは、前記表示デバイスに表示されている情報に対する同意不同意の選択用である、
請求項2に記載の情報処理装置。 - 前記ボタンは、決定ボタンである、
請求項1に記載の情報処理装置。 - 前記決定ボタンは、動作の開始を指示する、
請求項6に記載の情報処理装置。 - 前記プロセッサは、開始した動作の進行の状況を表す情報を、前記仮想の画像として現実の空間内に配置する、
請求項3、4又は7に記載の情報処理装置。 - 前記プロセッサは、前記表示デバイス上に複数のコンテンツが表示されている場合、前記ボタンが関連する特定のコンテンツを特定する情報を、前記仮想の画像として現実の空間内に配置する、
請求項1に記載の情報処理装置。 - 前記情報は、前記特定のコンテンツの上空の現実の空間内に配置される、
請求項9に記載の情報処理装置。 - 前記ボタンは、アプリケーションに紐付けられたアイコンである、
請求項1に記載の情報処理装置。 - 前記アプリケーションは、メッセージアプリであり、前記アイコンは、メッセージの受信の通知用である、請求項11に記載の情報処理装置。
- 前記プロセッサは、予め定めた第1の条件を満たす場合、前記端末の前記表示デバイスに表示されているカーソルを、前記仮想の画像としての現実の空間内への配置に切り替える、
請求項1に記載の情報処理装置。 - 前記プロセッサは、予め定めた第2の条件を満たす場合、前記仮想の画像として現実の空間内に配置されている前記カーソルを、前記表示デバイスによる表示に切り替える、
請求項13に記載の情報処理装置。 - 前記プロセッサは、前記ボタンの操作が確認されない状態で予め定めた事象が検知された場合、アラームを出力する
請求項1に記載の情報処理装置。 - 前記予め定めた事象は、自装置の電源をオフする操作、前記端末の電源をオフする操作、装着されている自端末を身体から取り外す操作、接続を解除する操作、自端末と当該端末との距離が閾値を超える場合、及び、現実の空間内に配置されている前記仮想の画像が前記表示デバイスの手前側の位置から外れた場合のうちのいずれか1つである、
請求項15に記載の情報処理装置。 - 前記プロセッサは、前記ボタンの操作が確認されない状態のまま解除された前記端末との接続が再開された場合、当該ボタンを前記仮想の画像として現実の空間内に再配置する、
請求項1に記載の情報処理装置。 - 前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たさない場合、現実の空間内への前記仮想の画像の配置を停止する、
請求項1に記載の情報処理装置。 - 現実の空間内への前記仮想の画像の配置を停止する場合、前記プロセッサは、現実の空間内から当該仮想の画像を徐々にフェードアウトする、
請求項18に記載の情報処理装置。 - 現実の空間内への前記仮想の画像の配置を停止する場合、前記プロセッサは、当該仮想の画像の配置を停止する前に停止を示唆するアラームを出力する、
請求項18又は19に記載の情報処理装置。 - 前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たさない場合でも、事前の設定があるときは、現実の空間内への当該仮想の画像の配置を継続する、
請求項18に記載の情報処理装置。 - 前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たした場合、現実の空間内への前記仮想の画像の配置を再開させる、
請求項1に記載の情報処理装置。 - 現実の空間内への前記仮想の画像の配置を再開する場合、前記プロセッサは、現実の空間内に当該仮想の画像を徐々にフェードインする、
請求項22に記載の情報処理装置。 - 現実の空間内への前記仮想の画像の配置を再開する場合、前記プロセッサは、当該仮想の画像の配置を再開する前に再開を示唆するアラームを出力する、
請求項22又は23に記載の情報処理装置。 - 前記プロセッサは、現実の空間内への配置が停止されている前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たす場合でも、事前の設定があるときは、現実の空間内への当該仮想の画像の配置の停止を継続する、
請求項22に記載の情報処理装置。 - カメラを更に有し、
前記プロセッサは、前記カメラが撮像する範囲に前記表示デバイスが含まれる場合、予め定めたタイミングで、当該表示デバイスに表示されている画面を撮像して保存する、
請求項1に記載の情報処理装置。 - 仮想の画像を現実の空間内に配置するデバイスを制御するコンピュータに、
物理的な表示デバイスを有する外部の端末と自端末とが接続している状態において、当該表示デバイスの手前側に前記仮想の画像を配置する機能と、
前記仮想の画像として、前記端末の動作を指示するボタンを配置する機能と、
を実現させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020211704A JP2022098268A (ja) | 2020-12-21 | 2020-12-21 | 情報処理装置及びプログラム |
US17/323,403 US11500510B2 (en) | 2020-12-21 | 2021-05-18 | Information processing apparatus and non-transitory computer readable medium |
CN202110706594.8A CN114648623A (zh) | 2020-12-21 | 2021-06-24 | 信息处理装置、信息处理方法以及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020211704A JP2022098268A (ja) | 2020-12-21 | 2020-12-21 | 情報処理装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022098268A true JP2022098268A (ja) | 2022-07-01 |
Family
ID=81991886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020211704A Pending JP2022098268A (ja) | 2020-12-21 | 2020-12-21 | 情報処理装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11500510B2 (ja) |
JP (1) | JP2022098268A (ja) |
CN (1) | CN114648623A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023017615A (ja) * | 2021-07-26 | 2023-02-07 | 富士フイルムビジネスイノベーション株式会社 | 情報処理システム及びプログラム |
US11748965B2 (en) * | 2021-09-28 | 2023-09-05 | Htc Corporation | Virtual image display system and virtual image display method |
US11726587B2 (en) * | 2021-11-03 | 2023-08-15 | Htc Corporation | Virtual image display system and pointing direction control method of control device thereof |
US11983812B2 (en) * | 2022-05-31 | 2024-05-14 | Dish Network L.L.C. | Marker-based representation of real objects in virtual environments |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100208033A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
JP5263049B2 (ja) | 2009-07-21 | 2013-08-14 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
US9696795B2 (en) * | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10198620B2 (en) * | 2015-07-06 | 2019-02-05 | Accenture Global Services Limited | Augmented reality based component replacement and maintenance |
EP3367213A4 (en) * | 2015-10-22 | 2019-04-17 | LG Electronics Inc. | MOBILE DEVICE AND CONTROL PROCESS THEREFOR |
EP3206122A1 (en) | 2016-02-10 | 2017-08-16 | Nokia Technologies Oy | An apparatus and associated methods |
CN108227191A (zh) * | 2016-12-22 | 2018-06-29 | 乐金显示有限公司 | 增强现实装置 |
JP2019125986A (ja) | 2018-01-19 | 2019-07-25 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US10504290B2 (en) * | 2018-05-04 | 2019-12-10 | Facebook Technologies, Llc | User interface security in a virtual reality environment |
-
2020
- 2020-12-21 JP JP2020211704A patent/JP2022098268A/ja active Pending
-
2021
- 2021-05-18 US US17/323,403 patent/US11500510B2/en active Active
- 2021-06-24 CN CN202110706594.8A patent/CN114648623A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN114648623A (zh) | 2022-06-21 |
US11500510B2 (en) | 2022-11-15 |
US20220197480A1 (en) | 2022-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110933355B (zh) | 一种用于显示相机用户界面的方法、电子设备和存储介质 | |
US9454288B2 (en) | One-dimensional to two-dimensional list navigation | |
US9811154B2 (en) | Methods to pan, zoom, crop, and proportionally move on a head mountable display | |
JP2022098268A (ja) | 情報処理装置及びプログラム | |
JP2023517073A (ja) | コンピュータ生成体験を提供するためのデバイス、方法、及びグラフィカルユーザインタフェース | |
JP7382972B2 (ja) | 頭部装着型画像ディスプレイデバイスのための入力を提供するための方法および装置 | |
US9507426B2 (en) | Using the Z-axis in user interfaces for head mountable displays | |
KR20170129509A (ko) | 헤드 마운티드 디스플레이 장치 및 그것의 제어방법 | |
KR20170126295A (ko) | 헤드 마운티드 디스플레이 장치 및 그것의 제어방법 | |
US20150193098A1 (en) | Yes or No User-Interface | |
EP4277238A1 (en) | User interfaces for managing shared-content sessions | |
CN113728301B (zh) | 用于在2d屏幕上操纵3d对象的设备、方法和图形用户界面 | |
CN116195275A (zh) | 用于选择可穿戴音频输出设备的音频输出模式的系统、方法和图形用户界面 | |
US11699412B2 (en) | Application programming interface for setting the prominence of user interface elements | |
US20240281110A1 (en) | Electronic device for displaying icon, its operation method, and non-transitory storage medium | |
US20160299641A1 (en) | User Interface for Social Interactions on a Head-Mountable Display | |
US20240080543A1 (en) | User interfaces for camera management | |
KR102400085B1 (ko) | 크리에이티브 카메라 | |
KR102357342B1 (ko) | 크리에이티브 카메라 | |
WO2023040562A1 (zh) | 信息显示方法、近眼显示设备以及电子设备 | |
WO2024196579A1 (en) | Techniques for receiving user information and/or device fit information | |
CN116909385A (zh) | 手部接合区 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240903 |