JP2022098268A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2022098268A
JP2022098268A JP2020211704A JP2020211704A JP2022098268A JP 2022098268 A JP2022098268 A JP 2022098268A JP 2020211704 A JP2020211704 A JP 2020211704A JP 2020211704 A JP2020211704 A JP 2020211704A JP 2022098268 A JP2022098268 A JP 2022098268A
Authority
JP
Japan
Prior art keywords
image
display
information processing
button
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020211704A
Other languages
English (en)
Inventor
賢吾 得地
Kengo Tokuchi
孝浩 岡安
Takahiro Okayasu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Priority to JP2020211704A priority Critical patent/JP2022098268A/ja
Priority to US17/323,403 priority patent/US11500510B2/en
Priority to CN202110706594.8A priority patent/CN114648623A/zh
Publication of JP2022098268A publication Critical patent/JP2022098268A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】仮想の画像が表示デバイスの手前側に並べて配置される場合における仮想の画像と表示デバイスとの連携を実現する。【解決手段】情報処理装置は、仮想の画像を現実の空間内に配置するデバイスを制御するプロセッサを有し、プロセッサは、物理的な表示デバイスを有する外部の端末と自装置とが接続している場合において、表示デバイスの手前側に仮想の画像が配置されるとき、仮想の画像として、端末の動作を指示するボタンを配置する。【選択図】図7

Description

本発明は、情報処理装置及びプログラムに関する。
今日、現実の世界と仮想の視覚情報とが合成された仮想の世界を視認させる技術がある。この種の技術は、拡張現実(すなわちAR:Augmented Reality)や複合現実(すなわちMR:Mixed Reality)と呼ばれる。
特許第5263049号公報
拡張現実や複合現実等の体験を可能とするデバイス(以下「xRデバイス」という)の普及に伴い、今後は、物理的な表示デバイスに表示される画面(以下「実画面」という)とxRデバイスにより表示される仮想の画像の両方を同時に見る機会も増えると予想される。例えば仮想の画像を、表示デバイスの手前側に並べて表示する使い方も予想される。
本発明は、仮想の画像が表示デバイスの手前側に並べて配置される場合における仮想の画像と表示デバイスとの連携を実現することを目的とする。
請求項1に記載の発明は、仮想の画像を現実の空間内に配置するデバイスを制御するプロセッサを有し、前記プロセッサは、物理的な表示デバイスを有する外部の端末と自装置とが接続している場合において、当該表示デバイスの手前側に前記仮想の画像が配置されるとき、前記仮想の画像として、前記端末の動作を指示するボタンを配置する情報処理装置である。
請求項2に記載の発明は、前記ボタンは、選択ボタンである、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記選択ボタンは、前記端末による動作の実行の可否の選択用である、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記実行の可否の対象は、前記端末のシステム構成に変更を伴う動作である、請求項3に記載の情報処理装置である。
請求項5に記載の発明は、前記選択ボタンは、前記表示デバイスに表示されている情報に対する同意又は不同意の選択用である、請求項2に記載の情報処理装置である。
請求項6に記載の発明は、前記ボタンは、決定ボタンである、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記決定ボタンは、動作の開始を指示する、請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記プロセッサは、開始した動作の進行の状況を表す情報を、前記仮想の画像として現実の空間内に配置する、請求項3、4又は7に記載の情報処理装置である。
請求項9に記載の発明は、前記プロセッサは、前記表示デバイス上に複数のコンテンツが表示されている場合、前記ボタンが関連する特定のコンテンツを特定する情報を、前記仮想の画像として現実の空間内に配置する、請求項1に記載の情報処理装置である。
請求項10に記載の発明は、前記情報は、前記特定のコンテンツの上空の現実の空間内に配置される、請求項9に記載の情報処理装置である。
請求項11に記載の発明は、前記ボタンは、アプリケーションに紐付けられたアイコンである、請求項1に記載の情報処理装置である。
請求項12に記載の発明は、前記アプリケーションは、メッセージアプリであり、前記アイコンは、メッセージの受信の通知用である、請求項11に記載の情報処理装置である。
請求項13に記載の発明は、前記プロセッサは、予め定めた第1の条件を満たす場合、前記端末の前記表示デバイスに表示されているカーソルを、前記仮想の画像としての現実の空間内への配置に切り替える、請求項1に記載の情報処理装置である。
請求項14に記載の発明は、前記プロセッサは、予め定めた第2の条件を満たす場合、前記仮想の画像として現実の空間内に配置されている前記カーソルを、前記表示デバイスによる表示に切り替える、請求項13に記載の情報処理装置である。
請求項15に記載の発明は、前記プロセッサは、前記ボタンの操作が確認されない状態で予め定めた事象が検知された場合、アラームを出力する請求項1に記載の情報処理装置である。
請求項16に記載の発明は、前記予め定めた事象は、自装置の電源をオフする操作、前記端末の電源をオフする操作、装着されている自端末を身体から取り外す操作、接続を解除する操作、自端末と当該端末との距離が閾値を超える場合、及び、現実の空間内に配置されている前記仮想の画像が前記表示デバイスの手前側の位置から外れた場合のうちのいずれか1つである、請求項15に記載の情報処理装置である。
請求項17に記載の発明は、前記プロセッサは、前記ボタンの操作が確認されない状態のまま解除された前記端末との接続が再開された場合、当該ボタンを前記仮想の画像として現実の空間内に再配置する、請求項1に記載の情報処理装置である。
請求項18に記載の発明は、前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たさない場合、現実の空間内への前記仮想の画像の配置を停止する、請求項1に記載の情報処理装置である。
請求項19に記載の発明は、現実の空間内への前記仮想の画像の配置を停止する場合、前記プロセッサは、現実の空間内から当該仮想の画像を徐々にフェードアウトする、請求項18に記載の情報処理装置である。
請求項20に記載の発明は、現実の空間内への前記仮想の画像の配置を停止する場合、前記プロセッサは、当該仮想の画像の配置を停止する前に停止を示唆するアラームを出力する、請求項18又は19に記載の情報処理装置である。
請求項21に記載の発明は、前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たさない場合でも、事前の設定があるときは、現実の空間内への当該仮想の画像の配置を継続する、請求項18に記載の情報処理装置である。
請求項22に記載の発明は、前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たした場合、現実の空間内への前記仮想の画像の配置を再開させる、請求項1に記載の情報処理装置である。
請求項23に記載の発明は、現実の空間内への前記仮想の画像の配置を再開する場合、前記プロセッサは、現実の空間内に当該仮想の画像を徐々にフェードインする、請求項22に記載の情報処理装置である。
請求項24に記載の発明は、現実の空間内への前記仮想の画像の配置を再開する場合、前記プロセッサは、当該仮想の画像の配置を再開する前に再開を示唆するアラームを出力する、請求項22又は23に記載の情報処理装置である。
請求項25に記載の発明は、前記プロセッサは、現実の空間内への配置が停止されている前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たす場合でも、事前の設定があるときは、現実の空間内への当該仮想の画像の配置の停止を継続する、請求項22に記載の情報処理装置である。
請求項26に記載の発明は、カメラを更に有し、前記プロセッサは、前記カメラが撮像する範囲に前記表示デバイスが含まれる場合、予め定めたタイミングで、当該表示デバイスに表示されている画面を撮像して保存する、請求項1に記載の情報処理装置である。
請求項27に記載の発明は、仮想の画像を現実の空間内に配置するデバイスを制御するコンピュータに、物理的な表示デバイスを有する外部の端末と自端末とが接続している状態において、当該表示デバイスの手前側に前記仮想の画像を配置する機能と、前記仮想の画像として、前記端末の動作を指示するボタンを配置する機能と、を実現させるためのプログラムである。
請求項1記載の発明によれば、仮想の画像が表示デバイスの手前側に並べて配置される場合における仮想の画像と表示デバイスとの連携を実現できる。
請求項2記載の発明によれば、選択ボタンの表示をユーザに気付き易くできる。
請求項3記載の発明によれば、選択を要する操作の存在にユーザを気付き易くできる。
請求項4記載の発明によれば、重要性の高い操作の存在にユーザを気付き易くできる。
請求項5記載の発明によれば、重要性の高い操作の存在にユーザを気付き易くできる。
請求項6記載の発明によれば、決定ボタンの表示をユーザに気付き易くできる。
請求項7記載の発明によれば、決定を要する操作の存在をユーザに気付き易くできる。
請求項8記載の発明によれば、開始した動作の進行の状況の確認を容易にできる。
請求項9記載の発明によれば、表示デバイス上に複数のコンテンツが表示されていても、ボタンに関連するコンテンツの特定が容易になる。
請求項10記載の発明によれば、ユーザの誤解を低減できる。
請求項11記載の発明によれば、操作が可能なアイコンの存在をユーザに気付き易くできる。
請求項12記載の発明によれば、受信されたメッセージの存在をユーザに気付き易くできる。
請求項13記載の発明によれば、表示デバイス上から仮想の画像としてのカーソルを移動することで、ユーザによるボタン操作を促進できる。
請求項14記載の発明によれば、ボタンが操作されない場合にも、表示デバイス上の操作を可能にできる。
請求項15記載の発明によれば、操作が終わっていないボタンの存在をユーザに気付き易くできる。
請求項16記載の発明によれば、操作が終わっていないボタンの操作を促すことができる。
請求項17記載の発明によれば、操作が終わっていないボタンの存在をユーザに気付き易くできる。
請求項18記載の発明によれば、表示デバイスとの連携が不要な状況では仮想の画像の配置を停止できる。
請求項19記載の発明によれば、仮想の画像の配置の停止を現実の空間内で視認される態様の変化から予告できる。
請求項20記載の発明によれば、仮想の画像の配置の停止を予告できる。
請求項21記載の発明によれば、ボタンの存在をユーザに気付き易くできる。
請求項22記載の発明によれば、表示デバイスとの連携が可能な状況では仮想の画像の配置を再開できる。
請求項23記載の発明によれば、仮想の画像の配置の再開を現実の空間内で視認される態様の変化から予告できる。
請求項24記載の発明によれば、仮想の画像の配置の再開を予告できる。
請求項25記載の発明によれば、重要性が低いボタンや即時性が高いイベントの存在については再開させない設定にできる。
請求項26記載の発明によれば、情報処理装置に設けられているカメラを活用して表示デバイスの画面を記録できる。
請求項27記載の発明によれば、仮想の画像が表示デバイスの手前側に並べて配置される場合における仮想の画像と表示デバイスとの連携を実現できる。
実施の形態1で想定する情報処理システムの使用例を説明する図である。 コンピュータのハードウェア構成の一例を説明する図である。 xRデバイスのハードウェア構成の一例を説明する図である。 ARモジュールの概念的な構成の一例を説明する図である。 実施の形態1におけるコンピュータとxRデバイスとの連携により実行される処理動作の一例を説明する図である。 ディスプレイの手前側にAR画像を配置するモードがオフの場合における見え方の一例を説明する図である。 ディスプレイの手前側にAR画像を配置するモードがオンの場合における見え方の一例を説明する図である。 ディスプレイの手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。 ディスプレイの手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。 ダウンロードに関連して配置されるAR画像の一例を説明する図である。 ディスプレイの手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。 ディスプレイの手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。 ディスプレイの手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。 ディスプレイの手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。 コンピュータの作業中にユーザがディスプレイの左外側に顔を向けた場合のAR画像の配置の変化を説明する図である。(A)はユーザがディスプレイを見ている場合の配置を示し、(B)はユーザがディスプレイの左外側を見ている場合の配置を示す。 コンピュータの作業中にユーザがディスプレイの上方に顔を向けた場合のAR画像の配置の変化を説明する図である。(A)はユーザがディスプレイを見ている場合の配置を示し、(B)はユーザがディスプレイの上方を見ている場合の配置を示す。 実施の形態2で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はコンピュータとxRデバイスの連携により実行される処理動作の一例を示し、(B)はAR画像の移動等を示す。 実施の形態3で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はAR画像内のカーソルをディスプレイ側に移動させる処理動作の一例を示し、(B)はユーザの操作例を示す。 実施の形態3で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はディスプレイに表示されているカーソルをAR画像内に移動させる処理動作の一例を示し、(B)はユーザの操作例を示す。 実施の形態3で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はAR画像内のカーソルをディスプレイ側に移動させる手法の他の例を示し、(B)はユーザの操作例を示す。 実施の形態4で想定する指示の一例を説明する図である。 実施の形態5で想定する指示の一例を説明する図である。 実施の形態6におけるコンピュータとxRデバイスとの連携により実行される処理動作の一例を説明する図である。 ステップ42で否定結果が得られた場合のユーザインタフェースの例を示す図である。 ステップ42で肯定結果が得られた場合のユーザインタフェースの例を示す図である。 実施の形態7で使用する処理動作の一例を説明する図である。(A)はxRデバイスの電源がオフされる場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。 実施の形態8で使用する処理動作の一例を説明する図である。(A)はxRデバイスがユーザから取り外される場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。 実施の形態9で使用する処理動作の一例を説明する図である。(A)はxRデバイスとコンピュータとの位置の関係が予め定めた条件を満たす場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。 実施の形態9におけるAR画像の出力の変化を説明する図である。(A)はxRデバイスとコンピュータとの距離が閾値より短い場合におけるAR画像の出力例を示し、(B)~(D)はxRデバイスとコンピュータとの距離が遠ざかるのに伴い徐々にフェードアウトされる様子を示す。 実施の形態9におけるAR画像の出力の変化の他の例を説明する図である。(A)はxRデバイスとコンピュータとの距離が閾値より長い場合におけるAR画像の出力例を示し、(B)~(D)はxRデバイスとコンピュータとの距離が近づくにつれて徐々にフェードインされる様子を示す。 実施の形態10で使用する処理動作の一例を説明する図である。(A)はxRデバイスの接続が再開される場合に実行される処理動作の例を示し、(B)は想定する場面を説明する図である。 実施の形態11におけるコンピュータとxRデバイスとの連携により実行される処理動作の一例を説明する図である。 実施の形態12におけるダイアログボックスの見え方の一例を説明する図である。 実施の形態13におけるダイアログボックスの見え方の一例を説明する図である。 実施の形態14におけるxRデバイスの使用例を説明する図である。(A)は時点T1におけるスクリーンショットT1の撮像例を示し、(B)は時点T2におけるスクリーンショットT2の撮像例を示す。 実施の形態15で使用する情報処理システムの使用例を説明する図である。 実施の形態16で使用する情報処理システムの使用例を説明する図である。 実施の形態17で使用する情報処理システムの使用例を説明する図である。 実施の形態18におけるxRデバイスの使用例を説明する図である。(A)はAさんがBさんに出会う前の状態を示し、(B)はAさんがBさんに出会った後の状態を示す。 実施の形態19におけるxRデバイスの使用例を説明する図である。 実施の形態19で使用するxRデバイスの概念的な構成の一例を説明する図である。 実施の形態20で使用する情報処理システムの構成例を説明する図である。
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<システムの全体構成>
図1は、実施の形態1で想定する情報処理システム1の使用例を説明する図である。
図1に示す情報処理システム1は、相互に接続されたコンピュータ10とxRデバイス20とで構成されている。ここで「接続された」とは、通信が可能な状態をいう。
図1の場合、コンピュータ10には、1台のxRデバイス20が接続されているが、複数台のxRデバイス20が接続されていてもよい。また、複数台のコンピュータ10に1台のxRデバイス20が接続されてもよいし、複数台のコンピュータ10と複数台のxRデバイス20が接続されてもよい。
図1の場合、コンピュータ10は、ノート型であるが、デスクトップ型でも、タブレット型でもよく、スマートフォンでもよい。ここでのコンピュータ10は、xRデバイス20に対する「外部の端末」の一例である。
コンピュータ10には、ディスプレイ11と、キーボード12と、カメラ13と、タッチパッド14とが設けられている。ディスプレイ11は、物理的な表示デバイスの一例であり、様々な情報が表示される。
図1の場合、ディスプレイ11には文書Dが表示されている。また、ポインティングデバイスとしてのマウス30が用いられる。
図1の場合、xRデバイス20は、ユーザUが頭部に装着するメガネ型のデバイスである。本実施の形態におけるxRデバイス20はカメラを有し、撮像される画像を通じて現実の空間を認識する機能を有している。
カメラ付きのxRデバイス20は、ARグラスやMRグラスとも呼ばれる。本実施の形態におけるxRデバイス20は、カメラを有していないスマートグラスでもよい。
xRデバイス20は、現実の空間には実在していない仮想の画像(以下「AR画像」ともいう)を現実の空間内に配置する「情報処理装置」の一例である。
AR画像は、2次元の画像でも、3次元の画像でもよい。図1の場合、1つのAR画像が空中に配置されているが、複数のAR画像を空中に配置してもよい。複数のAR画像を空中に配置する場合、各AR画像は、ユーザUから見て左右に並べて配置してもよいし、奥行方向に並べて配置してもよい。
因みに、AR画像は、現実の空間内の任意の位置に配置が可能である。例えばAR画像は、ディスプレイ11と同一面上に配置することも可能であれば、ディスプレイ11よりも手前側、ディスプレイ11よりも奥側、ディスプレイ11の外側にも配置が可能である。本実施の形態の場合、ディスプレイ11の外側とは、ユーザUの視線の方向について、ディスプレイ11と重ならい空間をいう。
本実施の形態では、ディスプレイ11の手前側にAR画像を配置する。換言すると、ユーザUから見ると、AR画像とディスプレイ11とが少なくとも一部で重なるように視認される。
図1では、破線で囲んだ吹き出しにより、xRデバイス20を装着しているユーザUが認識している空間の状態を表現する。ユーザUには、ディスプレイ11と重なるように配置されたAR画像が視認されている。
本実施の形態では、xRデバイス20として、メガネ型のデバイスについて説明するが、帽子のように頭部に被るヘッドマウント型のデバイスでもよい。
<コンピュータの構成>
図2は、コンピュータ10のハードウェア構成の一例を説明する図である。
図2に示すコンピュータ10は、データ処理部100と、ディスプレイ11と、キーボード12と、カメラ13と、タッチパッド14と、ハードディスクドライブ(すなわち「HDD」)15と、マイク16と、スピーカ17と、通信モジュール18とを有している。
ディスプレイ11には、例えば有機EL(=Electro Luminescent)ディスプレイや液晶ディスプレイが用いられる。
ディスプレイ11の表面には、ディスプレイ11の視認を妨げない透光性を有するタッチセンサが取り付けられていてもよい。タッチセンサを取り付けたディスプレイ11は、タッチパネルとも呼ばれる。タッチセンサには、例えば静電容量式のフィルムセンサが用いられる。
キーボード12は、コンピュータ10に対する操作の入力に用いられる。
カメラ13は、ディスプレイ11の枠体等に取り付けられており、コンピュータ10を操作するユーザUやディスプレイ11の前方の風景の撮像に使用される。もっとも、カメラ13は、コンピュータ10に対して着脱が可能でもよい。
カメラ13には、例えばCMOS(=Complementary Metal Oxide Semiconductor)イメージセンサやCCD(=Charge-Coupled Device)イメージセンサを使用する。
ユーザUが装着するxRデバイス20がスマートグラスの場合でも、カメラ13で撮像された画像を処理して、ユーザUがコンピュータ10の前方に位置すること、ディスプレイ11を見ていること等を検出することが可能である。ユーザUの視線の方向は、例えば眼を撮像した画像内の白眼や黒眼の位置により推定することが可能である。
タッチパッド14は、ポインティングデバイスであり、マウス30と同じく、カーソル等の移動に使用される。
ハードディスクドライブ15は、磁気ディスクを記録媒体とする補助記憶装置である。本実施の形態では、補助記憶装置としてハードディスクドライブ15を使用するが、不揮発性の書き換えが可能な半導体メモリを使用してもよい。ハードディスクドライブ15には、オペレーションシステムやアプリケーションプログラムがインストールされる。
以下では、オペレーションシステムやアプリケーションプログラムを区別せずプログラムという。
また、アプリケーションプログラムを「アプリケーション」や「アプリ」ともいう。
また、ハードディスクドライブ15には、コンピュータ10で処理するデータファイルが記憶される。
マイク16は、音を電気信号に変換するデバイスである。マイク16を通じて取得されたオーディオデータは、ハードディスクドライブ15等に記録される他、音声による操作や入力にも使用される。
スピーカ17は、電子信号を音に変換するデバイスである。スピーカ17は、例えばアラーム音やガイダンスの出力にも使用される。
通信モジュール18は、例えばWifi(登録商標)、Bluetooth(登録商標)、イーサネット(登録商標)等により外部の機器と通信する。本実施の形態におけるコンピュータ10とxRデバイス20は、Bluetoothにより接続されている。
データ処理部100は、プロセッサ101と、ROM(=Read Only Memory)102と、RAM(=Random Access Memory)103とを有している。
プロセッサ101は、例えばCPU(=Central Processing Unit)で構成される。プロセッサ101は、プログラムの実行を通じて各種の機能を実現する。
ROM102とRAM103は、いずれも半導体メモリである。ROM102には、BIOS(=Basic Input Output System)等が記憶されている。RAM103は、プログラムの実行に使用される主記憶装置として用いられる。
<xRデバイスの構成>
図3は、xRデバイス20のハードウェア構成の一例を説明する図である。
図3に示すxRデバイス20は、データ処理部200と、ARモジュール21と、カメラ22と、マイク23と、スピーカ24と、慣性センサ25と、測位センサ26と、バイブレータ27と、通信モジュール28とを有している。
ARモジュール21は、現実には存在しないAR画像をユーザUに視認させる体験を実現するモジュールであり、光学部品と電子部品で構成される。
ARモジュール21の代表的な方式には、ユーザUの眼の前方にハーフミラーを配置する方式、ユーザUの眼の前方に体積ホログラムを配置する方式、ユーザUの眼の前方にブレーズド回折格子を配置する方式がある。
この他、ARモジュール21には、ユーザUの眼の前方に小型のディスプレイを配置し、カメラ22で撮像された画像とAR画像を合成した画像をディスプレイに表示する方式がある。
この方式では、微細なピンホールが多数形成された透光性のフィルムを貼り付けたディスプレイに、専用のアルゴリズムで処理した画像を表示する。すなわち、専用のアルゴリズムによる画像の処理と調光との組み合わせにより、鮮明な画像をユーザUに視認させる。この技術は、視力を矯正する技術としても、既に実用化されている。また、メガネ型のxRデバイス20での使用の予定が、一部のベンダーにおいて公表されている。
カメラ22には、例えばCMOSイメージセンサやCCDイメージセンサを使用する。カメラ22の個数は単数でも複数でもよい。例えば2つのカメラ22を使用する場合、2つのカメラ22は、フレームのフロント部分の両端に配置する。2つのカメラ22を用いることでステレオ撮像が可能になり、被写体までの距離の測定や被写体間の前後関係の推定が可能になる。
マイク23は、ユーザの音声や周囲の音を電気信号に変換するデバイスである。
スピーカ24は、電気信号を音に変換して出力するデバイスである。なお、スピーカ24は、骨伝導スピーカや軟骨伝導スピーカでもよい。
なお、スピーカ24は、ワイヤレスイヤホンのように、xRデバイス20とは独立したデバイスでもよい。
慣性センサ25は、例えば6軸センサで構成される。6軸センサは、3軸の加速度センサと3軸の角速度センサで構成される。慣性センサ25の出力により、xRデバイス20を装着しているユーザUの頭部の動きが推定される。
測位センサ26は、例えば3つ以上のGPS(=Global Positioning System)衛星から発信されたGPS信号の受信により、自端末の位置を測位するGPSモジュールである。
また、測位センサ26として、屋内用の測位モジュールを別途設けてもよい。屋内用の測位モジュールには、例えばBLE(=Bluetooth Low Energy)ビーコンを受信して自端末の位置を測位するモジュール、WiFi(登録商標)信号を受信して自端末の位置を測位するモジュール、自律航法により自端末の位置を測位するモジュール、IMES信号を受信して自端末の位置を測位するモジュールがある。
バイブレータ27は、連続した振動又は断続した振動を発生するデバイスである。バイブレータ27の振動は、ユーザUに対するアラーム等の通知に使用される。
通信モジュール28には、例えばWifi(登録商標)、Bluetooth(登録商標)、イーサネット(登録商標)等により外部の機器と通信する。本実施の形態におけるコンピュータ10とxRデバイス20は、Bluetoothにより接続されている。
データ処理部200は、プロセッサ201と、ROM202と、RAM203と、フラッシュメモリ204とを有している。
プロセッサ201は、例えばCPUで構成される。プロセッサ201は、プログラムの実行を通じて各種の機能を実現する。
ROM202とRAM203は、いずれも半導体メモリである。ROM202には、BIOS等が記憶される。RAM203は、プログラムの実行に使用される主記憶装置である。
フラッシュメモリ204は、オペレーティングシステムやファームウェア、プログラムやデータファイルの記録に用いられる。フラッシュメモリ204は、補助記憶装置として用いられる。
図4は、ARモジュール21の概念的な構成の一例を説明する図である。図4に示すARモジュール21は、ユーザUの眼の前方にブレーズド回折格子を配置する方式に対応する。
図4に示すARモジュール21は、導光板211と、マイクロディスプレイ212と、映像光L2が入力される回折格子213Aと、映像光L2が出力される回折格子213Bとを有している。
導光板211は、メガネのレンズに相当する。導光板211は、例えば85%以上の透過率を有する。このため、ユーザUは、導光板211を透過して前方の景色を直接視認することができる。外光L1は、導光板211及び回折格子213Bを透過するように直進し、ユーザUの眼Eに入射する。
マイクロディスプレイ212は、ユーザUに視認させるAR画像が表示される表示デバイスである。マイクロディスプレイ212に表示されたAR画像の光は、映像光L2として導光板211に投影される。映像光L2は、回折格子213Aにより屈折され、導光板211の内部を反射しながら回折格子213Bに達する。回折格子213Bは、映像光L2をユーザUの眼Eの方向に屈折する。
これにより、ユーザUの眼Eには、外光L1と映像光L2が同時に入射される。その結果、ユーザUは、図4に吹き出しで示すように、コンピュータ10の手前側にAR画像が存在するように視認する。
<処理動作>
図5は、実施の形態1におけるコンピュータ10とxRデバイス20との連携により実行される処理動作の一例を説明する図である。
本実施の形態で使用するコンピュータ10とxRデバイス20は、それぞれ単独で動作することが可能である。
従って、コンピュータ10は、xRデバイス20と連携していない場合にも、単独での動作が可能である。例えばユーザは、xRデバイス20を装着しないまま、コンピュータ10の操作が可能である。
xRデバイス20についても、コンピュータ10と連携していない場合にも、単独での動作が可能である。例えばxRデバイス20を装着したユーザは、コンピュータ10がオフ状態でも、現実の空間内にAR画像を視認することが可能である。
図5に示す処理動作は、それぞれが単独でも動作可能であることを前提としている。
図5の場合、xRデバイス20は、ユーザUの視線の方向に、接続を開始しているコンピュータ10のディスプレイ11(図1参照)があるか否かを判定する(ステップ1)。なお、実際には、xRデバイス20のプロセッサ201(図3参照)が判定等を実行する。
本実施の形態の場合、ユーザUの視線の方向は、装着されたxRデバイス20に設けられているカメラ22(図3参照)が撮像する範囲の中央が位置する方向と仮定する。もっとも、「中央」は、点ではなく予め定めた面積を有してよい。ユーザUは、関心がある方向に顔を向ける傾向があるためである。
xRデバイス20に、ユーザの視線を追跡するセンサが設けられている場合には、そのセンサが検知した視線の方向を用いてもよい。視線を追跡する技術には、角膜上に光の反射点を生じさせ、その画像を撮像する「角膜反射法」や角膜上に生成された反射パターンを撮像し、専用の画像処理アルゴリズムと生理学的な3次元モデルを使用する「アイトラッキングシステム」等がある。
xRデバイス20の装着は、例えば側頭部や鼻の部分に配置した接触センサにより検知が可能である。
ステップ1で否定結果が得られている間、xRデバイス20は、ステップ1の判定を繰り返す。図5の場合、AR画像は、現実の空間内の特定の座標に固定的に配置されるのではなく、視線の方向の変化に応じて配置される座標が変化する。このため、xRデバイス20を装着したユーザがコンピュータ10とは別の方向に視線を向けている場合、ステップ1で否定結果が得られる。
ステップ1で肯定結果が得られた場合、続いて、xRデバイス20は、ディスプレイ11の手前側にAR画像を配置するモードがオンか否かを判定する(ステップ2)。
ステップ2で否定結果が得られた場合、xRデバイス20は、ステップ1の判定に戻る。
なお、ステップ2の判定とステップ1の判定の順番を入れ替えてもよい。ステップ2の判定をステップ1よりも先に実行する場合、xRデバイス20は、ステップ2で否定結果が得られている間、ステップ2の判定が繰り返される。
ステップ2においても肯定結果が得られた場合、xRデバイス20は、コンピュータ10に対し、コンピュータ10の動作を指示するボタンの表示の移動を要求する(ステップ3)。例えばブラウザの画像がディスプレイ11に表示されている場合、動作を指示するボタンには、ウェブページを閉じる、ウェブページを進む、ページを戻る、リンクボタン等がある。
また例えば文書Dの作成や編集に使用するアプリ(以下「オフィスソフト」ともいう)がコンピュータ10で実行されている場合、動作を指示するボタンには、ツールバーに配置されるボタンやメニュー等がある。
この他、動作を指示するボタンには、デスクトップ、タスクバー、スタートメニュー等に表示される特定のファイルやアプリケーションに紐付けられたショートカットアイコン、通知用のアイコン等がある。
例えばショートカットアイコンを操作すると、特定のファイルが開かれる。また、ショートカットアイコンを操作すると、紐付けられているアプリケーションが起動される。
また、通知用のアイコンには、電子メールやショートメッセージ(以下「メッセージアプリ」ともいう)等がメッセージの受信時にディスプレイ11に表示するアイコン等がある。
本実施の形態では、コンピュータ10の動作の指示に使用するためにユーザが操作するボタンやアイコン等を総称して「ボタン」と呼ぶ。
もっとも、ディスプレイ11による表示からAR画像による提示に移動するボタンは、動作を指示するボタンの全てではなく、予め定めた種類のボタンに限定してもよい。
例えば選択に用いるボタン(以下「選択ボタン」ともいう)や決定に用いるボタン(以下「決定ボタン」ともいう)だけを移動の対象とし、他のボタンはディスプレイ11による表示を継続してもよい。なお、ボタンの移動は、該当するボタンを含むダイアログボックスの移動を含む。
選択に用いるボタンには、「はい/いいえ」、「同意/不同意」、「実行する/実行しない」、「進む/戻る」等のように2者択一の他、複数の選択肢の中から一つを選択するボタンも含まれる。複数の選択肢には、「任意の場所のアプリケーションを許可する/ストア以外のアプリケーションをインストールする前に警告する/ストアのアプリケーションのみ許可する」、「保存する/保存しない/キャンセル」等がある。記号の「/」は「又は」の意味で使用する。
また、選択ボタンには、動作の実行の可否の選択に用いるボタンが含まれる。例えばインストール、アンインストール、ダウンロード、アップロード、起動、終了、送信、受信、開く、閉じる等の動作に関する選択に使用される。
本実施の形態の場合、「実行の可否」の選択には、コンピュータ10のシステム構成に変更を伴う動作が含まれる。この例には、プログラムのインストール、アンインストール、ダウンロード、アップロードがある。
決定ボタンには、例えば「処理を開始します。OKを押してください」とのガイダンスと組で表示される「OK」ボタンがある。この他、例えば「認証コードを入力してください」とのガイダンスと組で表示される「認証」ボタンがある。
本実施の形態の場合、決定ボタンには、確認用のボタン(以下「確認ボタン」ともいう)も含む。なお、確認ボタンでも選択肢を含む場合は、選択ボタンに含まれる。
ステップ3の要求を受信したコンピュータ10は、移動の対象とするボタンのディスプレイ11上における表示を停止し、表示を停止したボタンの画像をxRデバイス20に送信する(ステップ4)。
次に、xRデバイス20は、受信したボタンの画像をAR画像としてディスプレイ11の手前側の空間に配置する(ステップ5)。
「手前側」とは、図1に例示したように、コンピュータ10のディスプレイ11とxRデバイス20の間の空間をいう。本実施の形態では、同空間のうち、xRデバイス20を装着しているユーザUから見たAR画像が、ディスプレイ11と重なって見える範囲をいう。
本実施の形態の場合、AR画像内におけるカーソルCの移動やボタンに対する操作は、コンピュータ10に接続しているマウス30(図1参照)を用いて行われる。すなわち、本実施の形態では、AR画像の表示中も、カーソルCの操作はマウス30を通じて実行される。
因みに、ディスプレイ11のうちユーザUから見てAR画像と重ならない領域にはカーソルCの表示を可能にしてもよい。
また、ディスプレイ11による表示の範囲の外にカーソルCを移動させる操作が行われると、AR画像内にカーソルCが移動される設定としてもよい。この設定の場合、ディスプレイ11に表示されているカーソルCをディスプレイ11の表示の範囲を超えるようにユーザUが移動すると、AR画像内のボタンの位置にカーソルCが移動される。この設定により、ディスプレイ11に表示されている画像とAR画像の両方に対する操作をマウス30だけで行える。
キーボード12(図1参照)やタッチパッド14(図1参照)等に対する操作は、AR画像がユーザUに提示されている間も有効である。
従って、AR画像がユーザUに提示されている場合も、キーボード12等を操作して、テキストの入力やウェブ画像の閲覧等を行える。
本実施の形態のxRデバイス20とコンピュータ10は、AR画像が配置される現実の空間内の座標を共有している。
以上の前提の下、本実施の形態におけるコンピュータ10は、カーソルCのディスプレイ11上への表示を停止した後も、カーソルCを通じたユーザUの指示の監視を継続する。
すなわち、コンピュータ10は、ディスプレイ11に対するボタンの表示を停止した後も、AR画像に含まれるボタンに対するユーザの指示を検知したか否かを判定する(ステップ6)。
ステップ6で否定結果が得られている間、コンピュータ10は、ステップ6の判定を繰り返す。もっとも、AR画像の側に移動されていないボタン等に対する操作を検知した場合には、検知された操作が実行される。
ステップ6で肯定結果が得られた場合、コンピュータ10は、操作の検知をxRデバイス20に通知する(ステップ7)。
ステップ7の通知を受信したxRデバイス20は、AR画像の配置を停止する(ステップ8)。すなわち、ディスプレイ11の手前側からコンピュータ10の動作を指示するボタンを含むAR画像の配置が停止される。
もっとも、検知された指示とは関係のないボタンについては、AR画像としての提示を継続してもよい。この他、受け付けた動作の実行に伴う情報の提示、各種のアラームの提示に関係するAR画像の提示は継続してもよい。
一方、ステップ7を実行したコンピュータ10は、ボタンの操作を通じて受け付けた指示を実行する(ステップ9)。必要に応じ、コンピュータ10は、ディスプレイ11へのカーソルCの表示を再開する。
<見え方の例>
<例1>
図6は、ディスプレイ11の手前側にAR画像を配置するモードがオフの場合における見え方の一例を説明する図である。
図6には、図1との対応部分に対応する符号を付して示している。なお、図6に示す見え方は、xRデバイス20とコンピュータ10とが接続されていない場合も同じである。
図6に示す見え方は、ステップ1(図5参照)やステップ2(図5参照)で否定結果が得られている場合に相当する。
図中の吹き出しは、xRデバイス20を装着しているユーザが脳内で認識している空間の様子を表している。ユーザが脳内で認識している空間の様子は、物理的に実在する現実の空間と同じである。
因みに、ディスプレイ11上には、文書DとカーソルCが表示されている。文書Dはコンテンツの一例である。
図7は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の一例を説明する図である。図7には、図6との対応部分に対応する符号を付して示している。
図7に示す見え方は、ステップ1(図5参照)及びステップ2(図5参照)の両方で肯定結果が得られた場合に相当する。
図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。図7の場合、現実の空間には存在しないAR画像が存在するように認識される。
図7の場合、AR画像には、「この内容に合意しますか?」のテキストと、「はい」ボタンと、「いいえ」ボタンと、カーソルCが含まれている。図7に示すAR画像は、選択ボタンを含むダイアログボックスである。
図7に示すダイアログボックスは、例えば当事者間での合意が求められる文書Dがディスプレイ11に表示されている場合を想定する。
図7の場合、カーソルCは、AR画像側に移動しているので、コンピュータ10のディスプレイ11にカーソルCは表示されていない。
図7の場合、ユーザUがマウス30を操作すると、AR画像内のカーソルCが移動し、「はい」又は「いいえ」のボタンに位置を合わせた状態で左クリックの操作があると、「はい」又は「いいえ」に対応する処理がコンピュータ10で実行される。
また、図7の場合、AR画像の透過の度合いが高いので、ユーザから見て奥側に位置するディスプレイ11の表示の内容が透けて見えている。このため、文書Dが透けて見えている。
もっとも、AR画像の透過の度合いを低くして、ディスプレイ11の表示の内容が透けて見えないようにすることも、ARモジュール21(図3参照)の方式によっては可能である。
このAR画像の配置は、ユーザが「はい」又は「いいえ」のボタンを操作するまで継続される。
AR画像が、ディスプレイ11の表示面よりも手前側に配置されることで、ダイアログボックスへのユーザの注意を引くことが可能になる。換言すると、ダイアログボックスを見落とすリスクが低くなる。
特に、本実施の形態の場合におけるAR画像は、ディスプレイ11よりもユーザUに近い空中に配置されるので、ダイアログボックスの出現に気づきやすい。
また、ボタンの操作が検知されるまで、ディスプレイ11の手前側にAR画像の配置が継続されるので、ボタンの操作の前に別の作業が行われる場合でも、ボタンの操作忘れが少なくなる。例えばディスプレイ11にダイアログボックスを表示する場合には、別の作業を行う際に、ボタンの操作が必要なダイアログボックスが作業中の画面の背後に隠れることがあり、そのままボタンの操作が残っていることを忘れる可能性がある。
また、AR画像がディスプレイ11の手前側に配置され続けると、AR画像が配置される位置やサイズによっても、ディスプレイ11の視認性が低下するので、心理的にもボタンの操作をユーザに促すことが可能になる。
<例2>
図8は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図8には、図7との対応部分に対応する符号を付して示している。
図8の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図8の場合、AR画像には、「このファイルを開きますか?」のテキストと、「ABC.doc」のテキストと、「はい」ボタンと、「いいえ」ボタンと、カーソルCが含まれている。図8に示すAR画像も、選択に用いるボタンを含むダイアログボックスの例である。
図8に示すダイアログボックスは、コンピュータ10で処理の対象となる文書Dのファイルを開く処理を実行する前に、ユーザUに提示される。
本実施の形態における文書Dには、いわゆるテキストの他、作図アプリケーションにより描画された2次元の図面、CAD(=Computer Aided Design)アプリケーションを用いて作図された2次元や3次元の図面、写真、スキャナで読み取った画像などの静止画像、映像等の動画像、FAX、電子メール、ログデータ、機器の設定に関するデータ等がある。
また、文書Dは、レントゲンやCT画像等の医療系のデータ、ゲーム系のアプリケーションのデータ、地図データでもよい。
<例3>
図9は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図9には、図7との対応部分に対応する符号を付して示している。
図9の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図9の場合、AR画像には、「次のプログラムのダウンロードを開始しますか?」のテキストと、「プログラム名: XYZ」のテキストと、「はい」ボタンと、「いいえ」ボタンと、カーソルCが含まれている。図9に示すAR画像も、選択に用いるボタンを含むダイアログボックスの例である。
図9に示すダイアログボックスは、プログラムのダウンロードが開始される前に、ユーザUに提示される。
なお、プログラムのダウンロードは、ダンロード後にコンピュータ10へのインストールを前提とする動作である点で、システム構成に変更を伴う動作の予備的な動作の一例でもある。
ダウンロードの実行中も、ユーザUは、コンピュータ10を用いて他の作業が可能である。従って、ダウンロードの開始に必要なボタンを含むAR画像をディスプレイ11の手前側に配置してユーザUに操作を促すことにより、ダウンロード中の時間を他の作業に割り当てることが可能になる。
なお、他の作業の終了後に、ダウンロードが開始されていなかったことに気づく場合、その時点からダウンロードを開始する必要があり、時間の無駄が発生する。
図10は、ダウンロードに関連して配置されるAR画像の一例を説明する図である。図10には、図9との対応部分に対応する符号を付して示している。
図10の場合、ボタンの操作は終わっているので、カーソルCがディスプレイ11上に表示されている。
図10の場合、AR画像には、「ダウンロードしています」とのテキスト、ダウンロードの進捗の状態を示す棒グラフ、「約5分かかります」とのテキストが含まれている。ここでの時間は、残り時間でもダウンロードに要する全体の時間でもよい。なお、時間は目安でもよい。回線の混み具合によって通信の速度が変化するためである。また、残り時間は、進捗の状況や通信の速度に応じて逐次変更される。
図10に示すダイアログボックスで提示される情報は、開始した動作の進行の状況を表す情報の一例である。
図10に示すAR画像は、ディスプレイ11上にも専用のダイアログボックスとして表示が可能であるが、AR画像としてユーザUに提示することで、ディスプレイ11上での画像の重なりが少なくなり、ディスプレイ11に表示される画像の視認性や作業性が向上される。
また、ダウンロードに関連する情報がAR画像としてディスプレイ11の手前側に配置されることで、ダウンロードの進行の確認が容易になる。
<例4>
図11は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図11には、図9との対応部分に対応する符号を付して示している。
図11の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図9とは異なり、図11に示す例は、プログラムのインストールの実行の可否を問い合わせる例である。なお、プログラムのインストールは、コンピュータ10のシステム構成に変更を伴う動作の一例である。
図11の場合、AR画像には、「次のプログラムのインストールを開始しますか?」のテキストと、「プログラム名: XYZ」のテキストと、「はい」ボタンと、「いいえ」ボタンと、カーソルCが含まれている。図11に示すAR画像も、選択に用いるボタンを含むダイアログボックスの例である。
図11に示すダイアログボックスは、プログラムのインストールが開始される前に、ユーザUに提示される。
プログラムのインストールの場合も、ダウンロードの場合と同じく、インストールの開始後にインストールの進捗の状態を示す棒グラフやインストールに要する残り時間等の情報を提示してもよい。
<例5>
図12は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図12には、図7との対応部分に対応する符号を付して示している。
図12の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図12の場合、AR画像には、「処理を開始します。OKを押してください。」のテキストと、「OK」ボタンと、カーソルCが含まれている。
図12に示すAR画像に含まれるボタンは1つだけである。換言すると、ここでのAR画像は、決定ボタンを含むダイアログボックスの一例である。
図12に示すダイアログボックスは、コンピュータ10で処理の対象となる文書Dのファイルを開く処理を実行する前等に、ユーザUに提示される。
図12に示すAR画像も、対象とする動作の実行前にユーザに確認を求めるダイアログボックスである点で、例4と共通する。
ただし、本例の場合には、動作の開始の指示に用いるボタンが1つだけである点で、「はい」ボタンと「いいえ」ボタンが用意される例4とは異なる。
<例6>
図13は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図13には、図7との対応部分に対応する符号を付して示している。
図13の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図13の場合、AR画像には、「使用許諾契約書」のタイトルと「お客様への注意」を含む本文と、「同意する」に対応付けられたボタンと、「同意しない」に対応付けられたボタンと、「キャンセル」ボタンと、「戻る」ボタンと、「次へ」ボタンと、カーソルCが含まれている。
換言すると、図13に示すAR画像は、文書Dの内容への同意と不同意を選択するための選択肢に対応するボタンと、その選択後の動作の実行を選択するための選択肢に対応するボタンとを含んでいる。
なお、図13では、文書Dとして「使用許諾契約書」を例示しているが、同意が必要になる文書Dには、いわゆる同意書、回覧される文書、決裁を要する文書等も含まれる。
また、本実施の形態における「同意」には、承認や承諾も含まれる。
<例7>
図14は、ディスプレイ11の手前側にAR画像を配置するモードがオンの場合における見え方の他の例を説明する図である。図14には、図7との対応部分に対応する符号を付して示している。
図14の場合も、図中の吹き出しは、xRデバイス20を装着しているユーザUが脳内で認識している空間の様子を表している。
図14に示す事例は、ディスプレイ11に複数の文書Dが表示されている状態で、同意を求めるAR画像が表示される場合を想定する。
多くの場合、システム側からの同意の要求は、ユーザが特定の文書Dに対して特定の操作を行うことで発生するが、類似する文書Dが複数表示されている場合、同意が要求される文書Dの区別がつかなくなる可能性がある。
本例は、そのような場合を想定し、同意が要求される文書Dを指し示す矢印をAR画像として配置する。矢印は、例えば対象とする文書Dの上空に配置される。
なお、矢印の配置を可能とするために、本例におけるxRデバイス20には、ディスプレイ11に表示されている複数の文書Dに関する情報が、コンピュータ10から与えられる。文書Dの位置を特定する方法には、例えばディスプレイ11内における並び順により特定する方法、ディスプレイ11内の領域により特定する方法、ディスプレイ11内における座標により特定する方法等がある。
例えば並び順により特定する方法であれば、「右端の文書」、「右から1番目の文書」、「真ん中の文書」等により位置が特定される。
また、領域により特定する方法であれば、「ディスプレイ11が上下2段に分割され、各段が3つの領域に分割される場合、上段真ん中の領域の文書」等により位置が特定される。
また、座標により特定する方法であれば、「左上隅がx=○○、y=△△で特定される文書」等により位置が特定される。
なお、矢印の向きは、下向きに限らず、上向き、横方向、斜め方向のいずれでもよい。
また、矢印以外の方法で、対象とする文書Dを指し示すことも可能である。例えば星や二重丸等の記号を配置してもよいし、対象とする文書Dを枠で囲んでもよい。
この他、矢印は、ディスプレイ11の外側の空間に配置してもよい。図14では、ディスプレイ11の枠に重なるように矢印が配置されている。
AR画像は、ディスプレイ11の表示面に配置することも可能である。この場合、AR画像は、実際には表示されていないにも関わらず、ディスプレイ11に表示されるようにユーザUに視認される。
なお、同意の対象である文書Dを明示する方法は、AR画像を用いる場合だけでなく、xRデバイス20と連携するコンピュータ10によるディスプレイ11への表示を通じて実現することも可能である。例えば図14の例であれば、ディスプレイ11のうち右端の文書Dの上の領域に矢印を表示することも可能である。
本例のように、同意が要求される文書Dを明示する情報を、別途、AR画像として提示することにより、ディスプレイ11上に複数の文書Dが表示されている状態でも、ユーザUは、同意が求められている文書Dを容易に特定することが可能である。
<例8>
本例では、xRデバイス20を装着したユーザが、作業中に顔の向きを変更した場合におけるAR画像の配置の変化について説明する。
図15は、コンピュータ10の作業中にユーザがディスプレイ11の左外側に顔を向けた場合のAR画像の配置の変化を説明する図である。(A)はユーザUがディスプレイ11を見ている場合の配置を示し、(B)はユーザUがディスプレイ11の左外側を見ている場合の配置を示す。
図15には、図6との対応部分に対応する符号を付して示す。
本実施の形態の場合、AR画像を配置する位置は固定されておらず、ユーザUの視線方向に依存する。このため、作業中に顔の向きを変化させると、顔を向けた方向にAR画像も移動する。
図15の場合、AR画像は、ディスプレイ11と重ならない位置に移動する。換言すると、ディスプレイ11が存在しない空気中に、AR画像が浮かぶように視認される。
図16は、コンピュータ10の作業中にユーザがディスプレイ11の上方に顔を向けた場合のAR画像の配置の変化を説明する図である。(A)はユーザUがディスプレイ11を見ている場合の配置を示し、(B)はユーザUがディスプレイ11の上方を見ている場合の配置を示す。
図16の場合も、AR画像は、ディスプレイ11と重ならない位置に移動する。換言すると、ディスプレイ11が存在しない空気中に、AR画像が浮かぶように視認される。
図15及び図16に示すように、ユーザUの視線の方向に追従してAR画像の配置が移動すると、ユーザUがAR画像に気づき易くなり、選択や同意等を要する操作の実行漏れが少なくなる。
換言すると、AR画像の寸法が小さい等の理由で、作業中にはAR画像の存在に気づかなかった場合や作業中に操作の必要性を失念した場合にも、顔の向きを変えた時点に、AR画像の存在に気づき易くなる。結果的に、選択や同意の操作等の実行漏れが少なくなる。
<実施の形態2>
本実施の形態では、特定の条件を満たすことを条件に、AR画像の配置の停止や他の位置への移動を許可する場合について説明する。
なお、実施の形態2で使用する情報処理システム1の構成は図1と同じである。
図17は、実施の形態2で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はコンピュータ10とxRデバイス20の連携により実行される処理動作の一例を示し、(B)はAR画像の移動等を示す。図17には、図6との対応部分に対応する符号を付して示している。
図17(A)に示す処理動作は、図5に示す処理動作とは独立に実行される。もっとも、ステップ6(図5参照)で否定結果が得られている場合に実行してもよい。
コンピュータ10は、ボタンの操作を受け付けない状態が予め定めた時間以上経過したか否かを判定する(ステップ11)。ここでのボタンは、AR画像に含まれるボタンである。
ステップ11で否定結果が得られた場合、コンピュータ10は、ステップ11の判定を繰り返す。なお、ステップ6で否定結果が得られた場合に実行される例では、ステップ11で否定結果が得られた場合、ステップ6に戻る。
予め定めた時間は、初期値として与えられてもよいし、ユーザUが自由に設定してもよい。予め定めた時間として例えば3分を用いる。
図17の場合、ステップ11において予め定めた時間の経過を判定しているが、ユーザUが選択等の操作を保留したい場合には、予め定めた操作の入力の有無を判定の条件としてもよい。予め定めた操作には、例えばディスプレイ11に表示されている特定のアイコン等の操作がある。
ステップ11で肯定結果が得られた場合、コンピュータ10は、AR画像の配置の停止を指示する(ステップ12)。もっとも、図17(B)に示すように、コンピュータ10は、ディスプレイ11の背後へのAR画像の移動を指示してもよい。
指示を受け付けたxRデバイス20は、AR画像の配置を停止する(ステップ13)。この場合、ディスプレイ11の手前側の現実の空間からはAR画像が消滅する。この結果、ディスプレイ11の観察が容易になる。
ステップ12において、AR画像の移動が指示されている場合、図17(B)に示すように、AR画像はディスプレイ11の背面側に移動する。このとき、AR画像の全部がディスプレイ11と重なると、ユーザUからはAR画像を見えなくなる。その分、作業への集中が容易になる。
もっとも、図17(B)に示す例では、AR画像の上部が、ディスプレイ11の上辺よりも上方に位置している。このため、ユーザUは、作業に集中しつつも、選択や同意等を要するボタンを含むAR画像の存在を忘れずに済む。
結果的に、作業が一段落した時点で、AR画像に対する操作の再開が可能になる。
なお、ディスプレイ11の背面に位置したままでは、AR画像内のボタンの操作が難しい。そこで、ユーザUが予め定めた操作を入力すると、AR画像の再表示やAR画像をディスプレイ11の手前側への移動が実行されるようにしてもよい。
予め定めた操作には、例えばディスプレイ11に表示される再表示用のアイコン又は移動用のアイコンの操作、文書Dが表示されている領域上にカーソルCを移動させた状態でのマウスのダブルクリック等を使用する。
図17(A)に示す処理動作では、AR画像の配置が停止した場合やディスプレイ11の背後にAR画像の全体が隠れている場合には、AR画像の配置に気づき難くなる。
そこで、AR画像の配置を停止等した後も、その処理の実行から予め定めた時間が経過すると、ユーザUの指示がなくても、ディスプレイ11の手前側にAR画像が再配置されるようにしてもよい。
また、ユーザUによる文書Dへの作業が終了すると、例えば保存が指示されると、ディスプレイ11の手前側にAR画像が再配置されるようにしてもよい。
<実施の形態3>
本実施の形態では、ユーザUの指示により、AR画像とディスプレイ11の間で、カーソルCの配置を切り替える場合について説明する。
図18は、実施の形態3で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はAR画像内のカーソルCをディスプレイ11側に移動させる処理動作の一例を示し、(B)はユーザUの操作例を示す。図18には、図6との対応部分に対応する符号を付して示している。
図18(A)に示す処理動作は、図5に示す処理動作とは独立に実行される。
図18(A)の場合、コンピュータ10は、左ボタンを押しながら、マウス30を前進させたか否かを判定する(ステップ21)。前進とは、AR画像が配置されている位置からディスプレイ11が設けられている方向を表し、ユーザUを基準とした表現では奥方向となる。換言すると、前進とは、ユーザUから遠ざかる方向である。
ステップ21では、ディスプレイ11に表示されている文書への操作と区別するため、マウス30の左ボタンを押した状態で、マウス30が前進されることを条件としている。
なお、左ボタンを押す操作は一例であり、特定のキー操作とマウス30の前進とを条件としてもよい。
また、キーボード12(図1参照)に配置された特定のキーの操作を条件としてもよい。例えばシフトキーを押しながら上向きの矢印キーの操作を条件としてもよい。
この他、ステップ21では、ユーザUがAR画像に含まれるボタンに対応する選択等の保留や再検討を指示したことを条件として判定してもよい。
ステップ21の判定で使用する条件は、予め定めた第2の条件の一例である。
ステップ21で否定結果が得られている間、コンピュータ10は、ステップ21の判定を繰り返す。
ステップ21で肯定結果が得られた場合、コンピュータ10は、xRデバイス20に対し、ディスプレイ11へのカーソルCの移動を指示する(ステップ22)。
また、コンピュータ10は、ディスプレイ11にカーソルCを表示する(ステップ23)。
一方、xRデバイス20は、コンピュータ10からの指示に基づいて、AR画像からカーソルCを消去する(ステップ24)。
図18(B)に示す処理は、ステップ23及びステップ24に対応する。
カーソルCがAR画像からディスプレイ11側に移動することで、ユーザUは、ディスプレイ11に表示されている文書Dに対する操作を再開することが可能になる。例えばAR画像に含まれるボタンに対する操作を保留にしたまま、文書Dに対する操作が可能になる。
図19は、実施の形態3で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はディスプレイ11に表示されているカーソルCをAR画像内に移動させる処理動作の一例を示し、(B)はユーザUの操作例を示す。図19には、図6との対応部分に対応する符号を付して示している。
図19(A)に示す処理動作は、図5に示す処理動作とは独立に実行される。
図19(A)の場合、コンピュータ10は、左ボタンを押しながら、マウス30を後進されたか否かを判定する(ステップ31)。後進とは、ディスプレイ11が設けられている位置からAR画像が配置されている方向を表し、ユーザUを基準とした表現では手前方向となる。換言すると、後進とは、ユーザUに近づく方向である。
ステップ31では、ディスプレイ11に表示されている文書Dへの操作と区別するため、マウス30の左ボタンを押した状態で、マウス30が後進されることを条件としている。
なお、左ボタンを押す操作は一例であり、特定のキー操作とマウス30の後進とを条件としてもよい。
また、キーボード12(図1参照)に配置された特定のキーの操作を条件としてもよい。例えばシフトキーを押しながら下向きの矢印キーの操作を条件としてもよい。
この他、ステップ31では、ユーザUがAR画像に含まれるボタンに対応する選択等の再開を指示したことを条件として判定してもよい。
ステップ31の判定で使用する条件は、予め定めた第1の条件の一例である。
ステップ31で否定結果が得られている間、コンピュータ10は、ステップ31の判定を繰り返す。
ステップ31で肯定結果が得られた場合、コンピュータ10は、ディスプレイ11上からカーソルCを消去する(ステップ32)。
続いて、コンピュータ10は、xRデバイス20に対し、AR画像へのカーソルの移動を指示する(ステップ33)。
一方、xRデバイス20は、コンピュータ10からの指示に基づいて、AR画像にカーソルCを配置する(ステップ34)。
図19(B)に示す処理は、ステップ33及びステップ34に対応する。
カーソルCがディスプレイ11からAR画像側に移動することで、ユーザUは、AR画像に含まれるボタンの操作を自分の意思で再開することが可能になる。
ところで、カーソルCの移動は、図18や図19に示すように、ユーザUによる指示に限らない。
図20は、実施の形態3で使用する処理動作とAR画像の変化の一例を説明する図である。(A)はAR画像内のカーソルCをディスプレイ11側に移動させる手法の他の例を示し、(B)はユーザUの操作例を示す。図20には、図18との対応部分に対応する符号を付して示している。図20には、図6との対応部分に対応する符号を付して示している。
図20(A)の場合、ステップ21(図18参照)に代えて、ステップ21Aを実行する。ステップ21Aでは、AR画像上へのカーソルCの配置から予め定めた時間が経過したか否かが判定される。
予め定めた時間には、例えば3分がある。因みに、実施の形態2の場合には、AR画像自体の配置を停止等しているが、本実施の形態では、カーソルCの移動のみを想定する。
AR画像がポップアップ的に出現した後も、長時間に亘ってユーザの操作が検知されない場合には、AR画像に含まれるボタンの操作の可能性が低いためである。このような事例は、例えばユーザがいずれのボタンを操作するか迷っている場合、より優先度の高い作業がある場合等に起こり得る。
カーソルCがコンピュータ10のディスプレイ11側に移動することで、ユーザは、AR画像に含まれるボタンの操作を保留した状態のまま、ディスプレイ11に表示されている画面に対する操作が可能になる。
<実施の形態4>
本実施の形態では、AR画像に含まれるボタンの操作を音声により行う場合について説明する。
図21は、実施の形態4で想定する指示の一例を説明する図である。図21には、図6との対応部分に対応する符号を付して示している。
図21の場合、ユーザUは、「合意します。」と声を出している。この音声は、コンピュータ10のマイク16(図2参照)やxRデバイス20のマイク23(図3参照)により取得される。既存の音声認識の技術により、指示の内容が解析される。
音声による電子機器への指示の入力は、人工知能(すなわちAI)アシスタント機能を持つスピーカ(いわゆるスマートスピーカ)やスマートフォン等で既に実用化されている。音声による指示であれば、カーソルCをボタンの位置に移動させる操作が不要であり、実行中の作業を中断する必要もない。
また、本実施の形態の場合に、ディスプレイ11上に表示されているカーソルCをAR画像側に移動させる操作を行わなくても、指示を入力することが可能である。
<実施の形態5>
本実施の形態では、AR画像に含まれるボタンをジェスチャにより操作する場合について説明する。
図22は、実施の形態5で想定する指示の一例を説明する図である。図22には、図6との対応部分に対応する符号を付して示している。
図22の場合、ユーザUは、空中に浮かぶように配置されたボタンを操作するように指を動かす。具体的には、空中に配置されたボタンをシングルタップするように、右手の人差し指を動かしている。換言すると、ユーザUは、自身から離れる方向に右手の指先を動かしている。
なお、ジェスチャによる操作を受け付ける条件として、右手の人差指が指定されていない場合には、他の指を用いて操作してもよいし、鉛筆やボールペン等の筆記具、指示棒その他の棒状の部材によるボタンの操作を検知してもよい。言うまでもないが、指示に用いる物体は、例示の物体に限らない。
また、ボタンの操作の受付は、シングルタップに限らず、例えばボタンの位置で予め定めた時間以上静止することでもよいし、ダブルタップでもよいし、特定の方向へのスワイプでもよいし、複数本の指を用いたジェスチャでもよい。
本実施の形態では、xRデバイス20に設けられているカメラ22で撮像された画像の解析により、空中における指先の座標と空中に配置したボタンの座標との関係を特定したり、ボタンの操作を検知する。もっとも、LiDARに代表される三次元スキャナを用いて、xRデバイス20から指先までの距離や座標を測定し、その測定の結果を使用してボタンの操作を検知してもよい。
なお、ユーザUのジェスチャと特定のボタンとの紐付けが可能であれば、厳密な意味での座標の検知や座標の一致は必要とされない。
また、空中に配置されるAR画像やAR画像に含まれるボタンの位置の情報がxRデバイス20からコンピュータ10に与えられている場合には、コンピュータ10に設けられているカメラ13で撮像された画像の解析により、空中における指先の座標と空中に配置したボタンの座標との関係を特定し、ボタンの操作を検知してもよい。
本実施の形態の場合、空中に配置されたボタンの多様な操作が実現される。
<実施の形態6>
本実施の形態では、コンピュータ10(図1参照)の動作を指示するボタンが、メッセージアプリによるメッセージの受信を通知するアイコンである場合について説明する。
図23は、実施の形態6におけるコンピュータ10とxRデバイス20との連携により実行される処理動作の一例を説明する図である。
まず、コンピュータ10のプロセッサ101(図2参照)は、事象が検知された時点で、ディスプレイ11(図2参照)に通知用のアイコン等を表示する(ステップ41)。前述したように、本実施の形態では、通知用のアイコンとして、メッセージアプリによるメッセージの受信を通知するアイコンを想定する。換言すると、メッセージの未開封を示すアイコンである。なお、アイコン等とあるように、ポップアップ形式で表示されるテキストでもよい。本実施の形態では、メッセージの受信に使用されるテキストもアイコンの一例とする。
次に、コンピュータ10は、予め定めた時間が経過しても通知に関連するアプリケーションが未操作か否かを判定する(ステップ42)。本実施の形態では、メッセージアプリが操作されない時間の長さが計測され、計測された時間の長さについて、ステップ42の判定が実行される。
ステップ42で否定結果が得られた場合、コンピュータ10は、通知用のアイコン等に対応するアプリケーションの画像をディスプレイ11に展開する(ステップ49)。この場合、通知用のアイコン等はAR画像として空中に配置されることはないので、ユーザUは、ディスプレイ11上に展開されたメッセージアプリでメッセージの内容を確認する。
一方、ステップ42で肯定結果が得られた場合、コンピュータ10は、通知用のアイコン等の移動をxRデバイス20に指示する(ステップ43)と共に、通知用のアイコン等の表示を停止する(ステップ44)。
コンピュータ10から通知を受けたxRデバイス20は、通知用のアイコン等の画像をAR画像としてディスプレイ11の手前側の空間に配置する(ステップ45)。
経験的にも、作業に集中している場合や通知用のアイコン等がポップアップ表示された時にディスプレイ11を見ていない場合、通知用のアイコン等が表示されたことに気づかないことがある。
しかし、AR画像が空中に出現することで、ディスプレイ11に表示されていたときよりも目立ち、ユーザUに気づかれ易くなる。
その後、コンピュータ10は、通知用のアイコン等に対応するアプリケーションの操作を検知したか否かを判定する(ステップ46)。
ステップ46で否定結果が得られている間、コンピュータ10は、ステップ46の判定を繰り返す。
一方、ステップ46で肯定結果が得られた場合、コンピュータ10は、操作の検知をxRデバイス20に通知する(ステップ47)と共に、通知用のアイコン等に対応するアプリケーションの画像をディスプレイ11に展開する(ステップ49)。
なお、通知を受けたxRデバイス20は、AR画像の配置を停止する(ステップ48)。
ところで、図23の例では、コンピュータ10は、メッセージの受信を検知した場合に、ステップ41とステップ42の処理を実行しているが、メッセージの受信を検知すると、即座にステップ43を実行してもよい。すなわち、メッセージの受信と同時に、AR画像としてメッセージの受信を示すアイコン等が空中に配置されてもよい。因みに、その場合は、ステップ44も不要になる。
この場合、ユーザUは、メッセージの受信と同時に、メッセージの受信に気づくことが可能になる。
図24及び図25に、本実施の形態におけるユーザインタフェースの変化を示す。
図24は、ステップ42(図23参照)で否定結果が得られた場合のユーザインタフェースの例を示す図である。図25は、ステップ42(図23参照)で肯定結果が得られた場合のユーザインタフェースの例を示す図である。図24と図25のいずれも、図6との対応部分に対応する符号を付して示している。
図24の例は、ユーザUが紙飛行機や封筒の形状を模したアイコンに気づいていない状態であるので、xRデバイス20を装着しているユーザUが認識している画像とディスプレイ11に表示されている画像は一致する。
一方、図25の例では、ディスプレイ11の前方にAR画像が飛び出して配置されるため、ユーザUは、アイコンの出現に気づき易くなる。結果的に、ユーザUは、アイコンの出現を見落とさずに済む。
<実施の形態7>
本実施の形態では、AR画像が空中に配置されている状態で電源をオフする操作があった場合に使用されるユーザインタフェースについて説明する。
図26は、実施の形態7で使用する処理動作の一例を説明する図である。(A)はxRデバイス20の電源がオフされる場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。
図26(A)の場合、xRデバイス20は、自装置の電源をオフする操作を検知したか否かを判定している(ステップ51)。ここでの電源をオフする操作は、予め定めた事象の一例である。
なお、図26の例では、xRデバイス20の電源をオフする操作を検知の対象としているが、連携中のコンピュータ10の電源をオフする操作を検知の対象としてもよいし、xRデバイス20とコンピュータ10のうちいずれか一方の電源をオフする操作を検知の対象としてもよい。
ステップ51で否定結果が得られている間、xRデバイス20は、ステップ51の判定を繰り返す。
ステップ51で肯定結果が得られた場合、xRデバイス20は、コンピュータとの連携を伴うAR画像に対する操作の待機中か否かを判定する(ステップ52)。換言すると、xRデバイス20は、コンピュータ10の動作を指示するボタンを含むAR画像の表示中か否かを判定する。
ステップ52で否定結果が得られた場合、xRデバイス20は、そのまま電源をオフする。
一方、ステップ52で肯定結果が得られた場合、xRデバイス20は、アラームを出力する(ステップ53)。
ここでのアラームは、処理待ちのイベントの存在をユーザに通知し、電源オフの操作を取り消す機会を与える目的で実行される。
アラームの出力は、音を用いる方法、振動を用いる方法、音声を用いる方法、新たなAR画像を追加で配置する方法、既存のAR画像中にテキストを追加する方法、既存のAR画像の輝度や色調を変化させる方法、これらの任意の複数を組み合わせる方法等が考えられる。
図26(B)は、音声によりアラームを出力する例を表しており、xRデバイス20のスピーカ24(図3参照)からは「操作が終わっていません。電源のオフを実行しますか?」との音声が再生されている。
この種のアラームが出力されることにより、操作待ちのイベントが残っている状態で電源をオフする操作が実行された場合でも、操作待ちのイベントの存在をユーザUに気づかせることが可能になる。また、間に合えば、電源をオフする操作を取り消すことが可能になる。
図26の場合には、xRデバイス20が、ステップ51及び52の両方を判定しているが、ステップ51とステップ52の両方又はいずれか一方を、コンピュータ10が判定してもよい。
<実施の形態8>
本実施の形態では、アラームが出力される他の使用例について説明する。
図27は、実施の形態8で使用する処理動作の一例を説明する図である。(A)はxRデバイス20がユーザUから取り外される場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。
図27(A)の場合、xRデバイス20は、自装置の取り外しか否かを判定している(ステップ61)。本実施の形態の場合、xRデバイス20の取り外しは、ユーザUの頭部からの取り外しである。自装置の取り外しは、予め定めた事象の一例である。
ステップ61で否定結果が得られた場合、xRデバイス20は、ステップ61の判定を繰り返す。ステップ61で否定結果が得られる場合とは、xRデバイス20がユーザUの頭部に装着されており、AR画像がユーザUに認識される状態である。
なお、xRデバイス20の装着は、ユーザUの側頭部や鼻根部に接触する部分に配置されたセンサにより検知する。なお、ここでのセンサには、例えば圧力を検知する感圧センサ、体温を検知する温度センサを使用する。
ステップ61で肯定結果が得られた場合、xRデバイス20は、コンピュータ10との連携を伴うAR画像に対する操作の待機中か否かを判定する(ステップ62)。ステップ61で肯定結果が得られる場合とは、xRデバイス20がユーザUの頭部から取り外され、AR画像がユーザUに認識されない状態である。
ステップ62の内容は、図26におけるステップ52と同じである。
ステップ62で否定結果が得られた場合、xRデバイス20は、アラームを出力しない。なお、コンピュータ10とxRデバイス20の接続は維持される。もっとも、取り外した段階で、接続を一時的に解除することも可能である。
一方、ステップ62で肯定結果が得られた場合、xRデバイス20は、アラームを出力する(ステップ63)。ここでのアラームは、処理待ちのイベントの存在をユーザに通知し、xRデバイス20の装着を促す目的で実行される。
アラームの出力は、音を用いる方法、振動を用いる方法、音声を用いる方法、新たなAR画像を追加で配置する方法、既存のAR画像中にテキストを追加する方法、既存のAR画像の輝度や色調を変化させる方法、これらの任意の複数を組み合わせる方法等が考えられる。
図27(B)には、「ブブー」等のアラーム音を出力する例を表している。出力するアラームには、アラーム音の他、音声を用いてもよい。また、xRデバイス20やコンピュータ10と接続している他のウェアラブル端末をユーザUが装着している場合には、他のウェアラブル端末を振動させることにより、アラームを通知してもよい。
なお、ワイヤレスイヤホンをユーザUが装着している場合には、ワイヤレスイヤホンを通じてユーザUにアラーム音が再生されてもよい。この種のアラームを出力することにより、操作待ちのまま、誤ってxRデバイス20が取外されても、操作待ちのイベントの存在をユーザUに気づかせることが可能になる。
図27の場合には、xRデバイス20が、ステップ61及び62の両方を判定しているが、ステップ61とステップ62の両方又はいずれか一方を、コンピュータ10が判定してもよい。
<実施の形態9>
本実施の形態では、アラームが出力される他の使用例について説明する。
図28は、実施の形態9で使用する処理動作の一例を説明する図である。(A)はxRデバイス20とコンピュータ10との位置の関係が予め定めた条件を満たす場合に実行される処理動作の例を示し、(B)はアラームの出力例を示す。
図28(A)の場合、自装置とディスプレイ11との距離が閾値を超えたか否かを判定している(ステップ71)。
ここでの距離は、コンピュータ10との距離でもよい。xRデバイス20とコンピュータ10のディスプレイ11との距離は、カメラ22(図3参照)で撮像された画像の解析やLiDARを用いて測定された距離を使用すればよい。もっとも、厳密な意味での距離の測定は不要である。
なお、距離の測定には、コンピュータ10にカメラ13(図2参照)で撮像された画像を用いることも可能である。
閾値は、予め定められており、ユーザUによる指定や調整も可能である。ディスプレイ11の寸法にも依存するが、例えば閾値として1mを使用する。
自装置とコンピュータ10との距離が閾値を超えることは、予め定めた事象の一例である。もっとも、ステップ71の判定において、図15や図16に例示したように、AR画像が配置される空間がディスプレイ11の手前側の位置から外れるか否かを判定してもよい。AR画像がディスプレイ11の手前側から外れることも、予め定めた事象の一例である。
ステップ71で否定結果が得られた場合、xRデバイス20は、ステップ71の判定を繰り返す。ステップ71で否定結果が得られる場合とは、xRデバイス20とコンピュータ10のディスプレイ11との距離が閾値以内の場合である。
ステップ71で肯定結果が得られた場合、xRデバイス20は、コンピュータ10との連携を伴うAR画像に対する操作の待機中か否かを判定する(ステップ72)。
ステップ72の内容は、図26におけるステップ52と同じである。
ステップ72で否定結果が得られた場合、xRデバイス20は、アラームを出力しない。なお、コンピュータ10とxRデバイス20の接続は維持される。
一方、ステップ72で肯定結果が得られた場合、xRデバイス20は、アラームを出力する(ステップ73)。ここでのアラームは、処理待ちのイベントの存在をユーザに通知し、ディスプレイ11に近づく機会を与える目的で実行される。
アラームの出力は、音を用いる方法、振動を用いる方法、音声を用いる方法、新たなAR画像を追加で配置する方法、既存のAR画像中にテキストを追加する方法、既存のAR画像の輝度や色調を変化させる方法、これらの任意の複数を組み合わせる方法等が考えられる。
図28(B)は、「ブブー」等のアラーム音を出力する例を表している。出力するアラームは、アラーム音を用いる他、振動を用いる場合、音声を用いる場合、新たなAR画像を追加で配置する場合、既存のAR画像中にテキストを追加する場合、既存のAR画像の輝度や色調を変化させる場合、これらの任意の複数を組み合わせる場合等が考えられる。
この種のアラームを出力することにより、操作待ちのイベントの存在をユーザUに気づかせることが可能になる。
図28の場合には、xRデバイス20が、ステップ71及び72の両方を判定しているが、ステップ71とステップ72の両方又はいずれか一方を、コンピュータ10が判定してもよい。
図29は、実施の形態9におけるAR画像の出力の変化を説明する図である。(A)はxRデバイス20とコンピュータ10との距離が閾値より短い場合におけるAR画像の出力例を示し、(B)~(D)はxRデバイス20とコンピュータ10との距離が遠ざかるのに伴い徐々にフェードアウトされる様子を示す。
xRデバイス20がコンピュータ10から1m以内の距離で使用される図29(A)の場合、AR画像は、設定の範囲内で最も明確に視認される状態である。なお、最も明確に視認される状態は、xRデバイス20の性能上の上限の意味ではない。あくまでも、設定の範囲内における上限の意味である。
xRデバイス20がコンピュータ10から1m以上離れると、図29(B)に示すように、徐々にAR画像の透過率が上昇する又は出力が低下する。すなわちxRデバイス20がコンピュータ10から離れるほど、徐々にAR画像は薄くなる。
さらに、xRデバイス20とコンピュータ10との距離が2mを超えると、図29(C)に示すように、AR画像の透過率は更に上昇する又は出力が更に低下する。これにより、AR画像の視認性は徐々に低下する。
その後、xRデバイス20とコンピュータ10との距離が2mを超えると、図29(D)に示すように、アラームの出力後にAR画像の出力が停止される。なお、図29(D)では、アラームの例として、「AR画像の出力を終了します。」との音声が例示されている。ここでのアラームは、AR画像の配置の停止を示唆する。
図29の例では、xRデバイス20がコンピュータ10との距離に応じて、ユーザに視認されるAR画像が徐々にフェードアウトしているが、段階的に見え方が切り替わってもよい。
また、図29の例では、AR画像の寸法が同じであるが、距離が遠ざかるほど、AR画像の寸法が小さくなってもよい。
また、図29に示すように、AR画像を徐々にフェードアウトするのではなく、予め定めた距離を超えると、AR画像の配置を停止してもよい。
図29に例示した距離の関係は、予め定めた条件の一例である。なお、AR画像の配置を停止する前におけるアラームの出力は任意である。すなわち、アラームの出力なしに、AR画像の配置を停止してもよい。
また、予め定めた条件を満たす場合でも、ユーザがフェードアウトの機能を用いない設定としている場合やフェードアウトの対象から除外する設定がある場合等においては、AR画像の配置を継続してもよい。これらの例には、合意やインストールなどの重要度が高いと設定された情報や特定の相手からのメッセージや着信の受信の通知がある。
ところで、図29に例示したAR画像の出力の形態は、図15や図16の場合のように、ユーザUの視線の方向がディスプレイ11から離れる場合にも採用が可能である。具体的には、AR画像がディスプレイ11に対して上下方向又は水平方向に離れるほど、AR画像がフェードアウトしてもよい。
また、表示されているAR画像の表示のサイズが徐々に小さくなる効果を組み合わせてもよいし、AR画像の表示の濃さはそのままに、AR画像の表示のサイズが徐々に小さくなる効果だけを採用してもよい。さらに、AR画像の表示のサイズが徐々に小さくなる場合には、表示中のAR画像の中心位置に向かって表示のサイズを徐々に小さくしてもよいし、表示中のAR画像の1つの端部に向かって表示のサイズを徐々に小さくしてもよい。ここでの中心位置は、ディスプレイ11の中心位置と同じでもよい。
図30は、実施の形態9におけるAR画像の出力の変化の他の例を説明する図である。(A)はxRデバイス20とコンピュータ10との距離が閾値より長い場合におけるAR画像の出力例を示し、(B)~(D)はxRデバイス20とコンピュータ10との距離が近づくにつれて徐々にフェードインされる様子を示す。
xRデバイス20がコンピュータ10から2m以上の距離で使用される図30(A)の場合、AR画像は空中には出力されていない。
xRデバイス20がコンピュータ10から2m以内に近づくと、AR画像の提示が再開される。図30(B)の例では、「画像の提示を再開します。」とのアナウンスの後にAR画像の出力が再開されている。なお、図30(B)の段階では、AR画像の存在が認識されるものの、透過率が高いため又は出力レベルが低い。
その後、xRデバイス20がコンピュータ10から2m以内1m以上に近づくと、図30(C)に示すように、AR画像の透過率が徐々に降下する又は出力レベルが徐々に上昇する。すなわち、xRデバイス20がコンピュータ10との距離が近づくに連れて、徐々にAR画像は濃くなる。
最後に、xRデバイス20がコンピュータ10との距離が1m以内になると、AR画像は、図30(D)に示すように、設定の範囲内で最も明確に視認される状態になる。なお、最も明確に視認される状態は、前述したように、xRデバイス20の性能上の上限の意味ではない。あくまでも、設定の範囲内における上限の意味である。
図30の例では、xRデバイス20がコンピュータ10との距離に応じて、ユーザに視認されるAR画像が徐々にフェードインしているが、段階的に見え方が切り替わってもよい。
また、図30の例では、AR画像の寸法が同じであるが、距離が近づくほど、AR画像の寸法が大きくなってもよい。
また、図30に示すように、AR画像を徐々にフェードインするのではなく、予め定めた距離を超えると、AR画像が出現してもよい。
図30に例示した距離の関係は、予め定めた条件の一例である。なお、AR画像を配置する前におけるアナウンスの出力は任意である。すなわち、アナウンスの出力なしに、AR画像を配置してもよい。
また、予め定めた条件を満たす場合でも、ユーザがフェードインの機能を用いない設定としている場合やフェードインの対象から除外する設定がある場合等においては、AR画像の配置の停止を継続してもよい。これらの例には、メッセージの受信の通知など重要度の低いと設定された情報や着信の受信など即時性が高いイベントの通知がある。
ところで、図30に例示したAR画像の出力の形態は、図15や図16の場合のように、ユーザUの視線の方向がディスプレイ11から離れた位置からディスプレイ11に近づく場合にも採用が可能である。
具体的には、AR画像がディスプレイ11に対して上下方向又は水平方向について近づくほど、AR画像がフェードインするように変化してもよい。
また、消えていたAR画像を点又は小さいサイズで空中に出現させた後、その表示のサイズを徐々に大きくする効果を組み合わせてもよいし、AR画像の表示の濃さはそのままに、消えていたAR画像を点又は小さいサイズで空中に出現させた後、その表示のサイズを徐々に大きくする効果だけを採用してもよい。さらに、消えていたAR画像を点又は小さいサイズで空中に出現させた後、その表示のサイズを徐々に大きくする場合には、最初にAR画像を出現させた位置を中心として、表示のサイズを徐々に周囲に広げてもよいし、最初にAR画像を出現させた位置を4隅のうちの1つとして固定し、この位置を起点として表示のサイズを対角線方向に広げてもよい。このとき、AR画像を最初に出現させる位置をディスプレイ11の4隅の1つに合わせてもよい。
<実施の形態10>
本実施の形態では、コンピュータ10とxRデバイス20との接続が再開される場合に、AR画像に含まれるボタンの操作待ちのイベントが検知される場合に使用されるユーザインタフェースについて説明する。
因みに、本実施の形態の前提である接続の解除は、例えばコンピュータ10とxRデバイス20のいずれかの電源がオフされた場合、ユーザUの指示で接続が切断された場合、コンピュータ10とxRデバイス20の距離が通信可能な範囲を超えた場合、通信可能な範囲内でもコンピュータ10とxRデバイス20とが予め定めた条件を満たさなくなった場合がある。電源のオフには、スリープ状態への移行も含まれるものとする。
図31は、実施の形態10で使用する処理動作の一例を説明する図である。(A)はxRデバイス20の接続が再開される場合に実行される処理動作の例を示し、(B)は想定する場面を説明する図である。
図31(A)の場合、xRデバイス20は、コンピュータとの接続の再開か否かを判定している(ステップ81)。
コンピュータ10との接続の再開は、接続が解除される場合とは反対に、コンピュータ10とxRデバイス20のいずれかの電源がオンされることで両方とも電源がオンになった場合、コンピュータ10とxRデバイス20のいずれかがスリープ状態から復帰した場合、ユーザUの指示でコンピュータ10とxRデバイス20が再接続された場合、コンピュータ10とxRデバイス20の距離が通信可能な範囲に復帰した場合、通信可能な範囲内においてコンピュータ10とxRデバイス20とが予め定めた条件を再び満たした場合がある。
ステップ81で否定結果が得られている間、xRデバイス20は、ステップ81の判定を繰り返す。もっとも、電源がオフからオンに切り替わる場合やスリープ状態から復帰する場合には、本実施の機能を担当するアプリケーションの実行が可能になった段階で、イベントの内容が判定される。
一方、ステップ81で肯定結果が得られた場合、xRデバイス20は、待機中のままコンピュータとの接続が解除された操作の履歴があるか否かを判定する(ステップ82)。
ステップ82で否定結果が得られた場合、xRデバイス20は、接続の再開に伴う本処理を終了する。
ステップ82で肯定結果が得られた場合、xRデバイス20は、該当する操作は、コンピュータ側でも未完了か否かを判定する(ステップ83)。この判定は、xRデバイス20側の操作の履歴とコンピュータ10側の操作の履歴の不一致を発見する目的で実行される。例えば接続が解除されている間に、ユーザUがコンピュータ10を用いてボタン操作を完了している可能性もあるためである。
ステップ83で否定結果が得られた場合、xRデバイス20は、接続の再開に伴う本処理を終了する。
一方、ステップ83で肯定結果が得られた場合、xRデバイス20は、操作待ちのボタンを含むAR画像を空中に再配置する(ステップ84)。
図31(B)の場合、実施の形態1で説明したように、AR画像がディスプレイ11に対して手前側に再配置される。換言すると、接続が再開すると同時に、空中にAR画像が出現する。このAR画像の出現により、ユーザUは、操作待ちの処理が残っていることに気づき、処理を完了させることが可能になる。
<実施の形態11>
本実施の形態では、コンピュータ10(図1参照)の動作を指示するボタンを、ディスプレイ11(図1参照)への表示を行うことなく、最初からAR画像として提示する場合について説明する。
図32は、実施の形態11におけるコンピュータ10とxRデバイス20との連携により実行される処理動作の一例を説明する図である。図32には、図5との対応部分に対応する符号を付して示している。
図32の場合も、xRデバイス20によりステップ1~ステップ3の処理が実行される。すなわち、xRデバイス20は、接続中のコンピュータ10がユーザの視線の方向にあり、コンピュータ10との連携によりAR画像を配置するモードがオンであることを最初に確認する。次に、xRデバイス20は、コンピュータ10の動作を指示するボタンの表示の移動を指示する。
ステップ3の指示を受け付けたコンピュータ10は、該当するボタンを出力するイベントを検知したか否かを判定する(ステップ91)。ここでのイベントは、例えばユーザUに選択を求めるイベントや同意を求めるイベントである。
ステップ91で否定結果が得られている間、コンピュータ10は、ステップ91の判定を繰り返す。
一方、ステップ91で肯定結果が得られると、コンピュータ10は、該当するボタンを含む画像をxRデバイス20に転送する(ステップ92)。
本実施の形態の場合、コンピュータ10は、ディスプレイ11にボタンを表示することを要しないので、図5の場合のように、ボタンの表示を停止することはない。
以後の処理は、図5と同じである。
<実施の形態12>
本実施の形態では、予め定めたボタンを含むダイアログボックスをディスプレイ11(図1参照)とAR画像の両方によりユーザUに提示する場合について説明する。
図33は、実施の形態12におけるダイアログボックスの見え方の一例を説明する図である。図33には、図6との対応部分に対応する符号を付して示している。
図33の場合、ディスプレイ11には、文書Dに重ねるようにダイアログボックスが表示され、同時に、同じダイアログボックスがAR画像として空中に配置されている。
図33の例では、ディスプレイ11に表示されるダイアログボックスの寸法とAR画像の寸法とが同等であるが、ディスプレイ11上に表示されるダイアログボックスが他の画像の背後に隠れる場合等においては、ダイアログボックスがAR画像としても空中に配置されることで、ユーザUによるダイアログボックスの見落としのリスクが少なく済む。
<実施の形態13>
本実施の形態では、予め定めたボタンをAR画像として常時空中に配置する場合について説明する。
図34は、実施の形態13におけるダイアログボックスの見え方の一例を説明する図である。図34には、図6との対応部分に対応する符号を付して示している。
図34の場合、予め定めたボタンで構成されるAR画像が、ディスプレイ11を用いた作業を妨げない位置に常に配置される。
予め定めたボタンは、例えば使用の頻度が高いアプリケーションの呼び出しに使用されるアイコンや起動中のアプリケーションを表すアイコンである。アプリケーションの呼び出しに使用されるアイコンは、ショートカットキーとも呼ばれる。
図34の場合には、ディスプレイ11の下辺に沿うようにAR画像としてのアイコンが配列されている。もっとも、AR画像としてのアイコンを配置する位置は、ディスプレイ11の外縁部に限らず、ディスプレイ11の外側の空間でもよい。
<実施の形態14>
本実施の形態では、xRデバイス20のカメラ22(図3参照)を使用した機能について説明する。
図35は、実施の形態14におけるxRデバイス20の使用例を説明する図である。(A)は時点T1におけるスクリーンショットST1の撮像例を示し、(B)は時点T2におけるスクリーンショットST2の撮像例を示す。
xRデバイス20では、ディスプレイ11との位置の関係を特定するために、カメラ22がユーザUの前方を撮像している。本実施の形態では、このカメラ22による画像を撮像する機能を、ディスプレイ11に表示されている画像のスクリーンショットの取得に活用する。
例えば図35(A)の場合、ディスプレイ11に表示されている文書D1の画像がスクリーンショットST1として撮像され、コンピュータ10に転送される。もっとも、スクリーンショットST1はxRデバイス20に記憶されるようにしてもよい。
また図35(B)の場合、ディスプレイ11に表示されている文書D1と文書D2の画像がスクリーンショットST2として撮像され、コンピュータ10に転送される。
ここで、スクリーンショットの撮像は、例えば1分毎のように予め定めた周期で実行してもよいし、ユーザUにより指示されたタイミングで実行してもよいし、ディスプレイ11に表示されている文書Dの変化が検知された場合でもよい。
コンピュータ10による文書Dのバックアップは、文書毎に実行されるが、スクリーンショットであれば、複数の文書Dが関連する作業の様子も記録される。
<実施の形態15>
本実施の形態では、複数台のコンピュータ10とxRデバイス20の連携について説明する。
図36は、実施の形態15で使用する情報処理システム1Aの使用例を説明する図である。図36には、図1との対応部分に対応する符号を付して示している。
図36の場合、AさんがxRデバイス20を装着してコンピュータ10Aを操作している。また、サポートスタッフ等であるBさんがコンピュータ10Bを操作している。
図36の場合、コンピュータ10Aとコンピュータ10Bは、ネットワーク50を通じて接続されている。
ここでのネットワーク50は、例えばインターネット、LAN(=Local Area Network)である。
図36の場合、Aさんは、ディスプレイ11に表示されている画面の操作についてBさんから指導を受けている。図36の場合、コンピュータ10Aのディスプレイ11の表示は、Bさんが操作するコンピュータ10Bと同期していない。
Bさんがコンピュータ10Bのディスプレイ11上でカーソルCを移動させると、その様子は、Aさんが装着しているxRデバイス20により、Aさんが操作するコンピュータ10の手前側にAR画像として提示される。すなわち、AR画像内のカーソルCは、Bさんの操作の通り移動する。
このカーソルCの移動を、Aさんは、自身が行うべき操作の手本として認識する。その後、Aさんは、自分でマウス30等を操作してコンピュータ10A上でカーソルCを移動させる。
この手法は、BさんによるカーソルCの移動を受動的に確認する場合に比して学習効果の向上が期待される。なぜなら、コンピュータ10Aに対する操作は、あくまでもAさんの主体的な行動を伴うためである。
また、コンピュータ10Aに対するAさんの操作の内容は、ネットワーク50を通じて、コンピュータ10Bを操作するBさんにより確認されるので、Aさんの操作に対するBさんからのフィードバックも可能である。例えば間違った操作の指摘を受けることが可能である。このフィードバックもAさんの学習効果を高めるのに効果的である。
<実施の形態16>
本実施の形態も、複数台のコンピュータ10とxRデバイス20の連携について説明する。
図37は、実施の形態16で使用する情報処理システム1Bの使用例を説明する図である。図37には、図36との対応部分に対応する符号を付して示している。
図37に示す例は、屋外にいるAさんが、オフィスA内のコンピュータ10Aの操作をオフィスBにいるBさんに許可する場合を想定している。Bさんは、コンピュータ10Bを操作してAさんのコンピュータ10Aを操作する。
図37のAさんは、装着しているxRデバイス20により空中に浮かぶように提示されるAR画像を通じてコンピュータ10Aで行われている作業の様子を確認する。
<実施の形態17>
本実施の形態は、xRデバイス20と遠隔地のコンピュータ10との連携について説明する。
図38は、実施の形態17で使用する情報処理システム1Cの使用例を説明する図である。図38には、図36との対応部分に対応する符号を付して示している。
図38に示す例は、Bさんが遠隔地からAさんを道案内する場合である。本実施の形態の場合、Bさんが操作するコンピュータ10Bのディスプレイ11のうち左半分には、xRデバイス20で撮像されている画像がリアルタイムで表示され、右半分にはAさんの周辺の地図が表示される。
なお、Aさんの位置は、xRデバイス20の測位センサ26(図3参照)の出力がネットワーク50を通じてコンピュータ10Bに与えられている。
この場合、Bさんがコンピュータ10Bに対して「10m先を右折してください」とテキストを入力すると、Aさんの前方にはAR画像として同じテキストが出現する。なお、テキストはコンピュータ10Bで実行されるナビゲーションソフトから出力されてもよい。同様に、Bさんの指示やナビゲーションソフトからの指示による矢印がAR画像としてAさんに視認される。
図38の例では、xRデバイス20で撮像されている画像がBさんの操作するコンピュータ10Bのディスプレイ11に表示されているが、地図と地図上におけるユーザの位置を示すマーカだけがコンピュータ10Bに表示されてもよい。
なお、実施の形態15~実施の形態17のいずれの場合も、Bさんはコンピュータ10Bを操作しているが、いずれの場合もBさんがxRデバイス20を装着していてもよい。
<実施の形態18>
図39は、実施の形態18におけるxRデバイス20の使用例を説明する図である。(A)はAさんがBさんに出会う前の状態を示し、(B)はAさんがBさんに出会った後の状態を示す。図39には、図1との対応部分に対応する符号を付して示している。
図39(A)の場合、Aさんは、AR画像を視認している。AさんがBさんと出会った後もAR画像の出力を続ける設定では、AR画像がBさんの顔に重なって邪魔になる場合やBさんとの会話に集中できない場合がある。また、Bさんとの会話中もAR画像が提示されることがBさんに対して失礼になる場合もある。
そこで、本実施の形態の場合には、Bさんと出会った後は、AR画像の出力を停止する機能をxRデバイス20に設けている。
なお、本実施の形態におけるBさんは、対面して会話する相手を想定する。従って、カメラ22(図3参照)で撮像された画像やマイク23(図3参照)で取得された音声より対面して会話する相手に該当しないと判定された場合には、眼の前を通行人が横切る等してもAR画像の出力は停止されないようにする。
<実施の形態19>
図40は、実施の形態19におけるxRデバイス20Aの使用例を説明する図である。
図40の場合、AさんがxRデバイス20Aを装着し、BさんがAさんと会話している。図40に示すxRデバイス20Aは、会話の相手方であるBさんに見えるように、Aさんの自己紹介文等の表示が可能になっている。
図41は、実施の形態19で使用するxRデバイス20Aの概念的な構成の一例を説明する図である。図41には、図4との対応部分に対応する符号を付して示している。
本実施の形態で使用するxRデバイス20Aの場合、導光板211の面上に、光の透過率を画素単位で制御可能なフィルム状のデバイスが貼り付けられている。ここでのフィルム状のデバイスは、一対の透明電極膜の間に液晶物質を封入した構造を有している。液晶物質の配向を画素単位で制御することにより、光の透過率が画素単位で変化する。この特性により文字を表示する。
図40に示すように自己紹介文等の表示は、Aさんの指示により実行されてもよいし、xRデバイス20Aが「はじめまして。」や「どのようなお仕事をされていますか?」等の事前に登録したキーワードを含む音声が検知された場合に実行されるようにしてもよい。因みに、xRデバイス20Aは、マイク23(図3参照)で取得された音声を音声認識エンジンで解析することにより、キーワードの出現を検知する。
<実施の形態20>
図42は、実施の形態20で使用する情報処理システム1Dの構成例を説明する図である。図42には、図1との対応部分に対応する符号を付して示している。
本実施の形態の場合、AR画像は、空中画像として現実の空間中に提示される。空中画像も現実の空間に配置される仮想の画像の一例である。空中画像は、空中に浮かび上がるように形成される。空中画像の形成には、空中画像形成装置60が用いられる。
空中画像形成装置60は、空中に空中画像を直接形成する装置であり、既に様々な方法が提案され、一部は実用化されている。
例えば空中像の形成にハーフミラーを用いる方法、ビームスプリッタを用いる方法、微小なミラーアレイを用いる方法、微小なレンズアレイを用いる方法、視差バリアを用いる方法、プラズマ発光を用いる方法等がある。これらの方式によって生成される空中画像は、通り抜けることが可能である。
なお、通り抜けができない空中画像を形成する空中画像形成装置60には、現実の空間に存在するスクリーンに画像を投影するプロジェクタがある。この他、空中画像形成装置60には、発光素子のアレイを実空間で高速に移動させ、残像現象を用いて空中像を視認させる装置もある。
空中画像の形状は任意であり、立体形状でも平面形状でもよい。立体形状の例には、球形、多面体、円柱その他の曲面体、人の形、動物の形、電化製品の形、果物の形等がある。
平面形状の例には、円形、多角形、人の形、動物の形、電化製品の形、果物の形等がある。ここでの人や動物は、仮想のキャラクタや生物でもよい。
空中に形成される空中画像は、立体の表面を規定する像に限らず、立体の表面を規定する像とその内部に対応する像の両方で構成されてもよい。換言すると、空中画像は、ボクセルデータにより表現されてもよい。
本実施の形態における空中画像は、静止画像でもよいし、動画像でもよい。
<他の実施の形態>
(1)以上、本発明の実施の形態について説明したが、本発明の技術的範囲は前述した実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
(2)前述の実施の形態では、AR画像がディスプレイ11(図1参照)の手前側の空間中に配置されているが、AR画像は、ディスプレイ11よりも奥側に配置されてもよい。もっとも、その場合には、現実の空間では見えないディスプレイ11の背後にAR画像が存在するように配置される。
(3)前述の実施の形態において、xRデバイス20(図1参照)で実行すると説明した処理はコンピュータ10(図1参照)で実行してもよい。反対に、コンピュータ10で実行すると説明した処理はxRデバイス20で実行してもよい。
(4)前述の実施の形態においては、ノート型のコンピュータ10(図1参照)のディスプレイ面の手前側にAR画像を配置しているが、前述したデスクトップ型のコンピュータ等に限らず、コンピュータに外付けするモニタ、いわゆるテレビ受像機、IoT家電、手首等に装着して使用するスマートウォッチに代表されるウェアラブル端末でもよい。
(5)前述の実施の形態においては、xRデバイス20が連携するコンピュータ10によるダウンロード等の進捗に関する情報をAR画像として空中に配置しているが、連携するコンピュータ10と接続されている外部機器が実行中の進捗をAR画像としてディスプレイ11の前方に提示してもよい。
例えば外部機器が画像を用紙に印刷するプリンタや立体像を形成する3次元プリンタである場合、各プリンタによる出力が終了するまでの時間等をAR画像として提示してもよい。また、各プリンタによるスプールが終了するまでの時間等をAR画像として提示してもよい。
(6)前述した各実施の形態におけるプロセッサは、広義的な意味でのプロセッサを指し、汎用的なプロセッサ(例えばCPU等)の他、専用的なプロセッサ(例えばGPU(=Graphical Processing Unit)、ASIC(=Application Specific Integrated Circuit)、FPGA(=Field Programmable Gate Array)、プログラム論理デバイス等)を含む。
また、前述した各実施の形態におけるプロセッサの動作は、1つのプロセッサが単独で実行してもよいが、物理的に離れた位置に存在する複数のプロセッサが協働して実行してもよい。また、プロセッサにおける各動作の実行の順序は、前述した各実施の形態に記載した順序のみに限定されるものでなく、個別に変更してもよい。
1、1A、1B、1C、1D…情報処理システム、10、10A、10B…コンピュータ、11…ディスプレイ、20、20A…xRデバイス、21…ARモジュール、60…空中画像形成装置

Claims (27)

  1. 仮想の画像を現実の空間内に配置するデバイスを制御するプロセッサを有し、
    前記プロセッサは、
    物理的な表示デバイスを有する外部の端末と自装置とが接続している場合において、当該表示デバイスの手前側に前記仮想の画像が配置されるとき、
    前記仮想の画像として、前記端末の動作を指示するボタンを配置する
    情報処理装置。
  2. 前記ボタンは、選択ボタンである、
    請求項1に記載の情報処理装置。
  3. 前記選択ボタンは、前記端末による動作の実行の可否の選択用である、
    請求項2に記載の情報処理装置。
  4. 前記実行の可否の対象は、前記端末のシステム構成に変更を伴う動作である、
    請求項3に記載の情報処理装置。
  5. 前記選択ボタンは、前記表示デバイスに表示されている情報に対する同意不同意の選択用である、
    請求項2に記載の情報処理装置。
  6. 前記ボタンは、決定ボタンである、
    請求項1に記載の情報処理装置。
  7. 前記決定ボタンは、動作の開始を指示する、
    請求項6に記載の情報処理装置。
  8. 前記プロセッサは、開始した動作の進行の状況を表す情報を、前記仮想の画像として現実の空間内に配置する、
    請求項3、4又は7に記載の情報処理装置。
  9. 前記プロセッサは、前記表示デバイス上に複数のコンテンツが表示されている場合、前記ボタンが関連する特定のコンテンツを特定する情報を、前記仮想の画像として現実の空間内に配置する、
    請求項1に記載の情報処理装置。
  10. 前記情報は、前記特定のコンテンツの上空の現実の空間内に配置される、
    請求項9に記載の情報処理装置。
  11. 前記ボタンは、アプリケーションに紐付けられたアイコンである、
    請求項1に記載の情報処理装置。
  12. 前記アプリケーションは、メッセージアプリであり、前記アイコンは、メッセージの受信の通知用である、請求項11に記載の情報処理装置。
  13. 前記プロセッサは、予め定めた第1の条件を満たす場合、前記端末の前記表示デバイスに表示されているカーソルを、前記仮想の画像としての現実の空間内への配置に切り替える、
    請求項1に記載の情報処理装置。
  14. 前記プロセッサは、予め定めた第2の条件を満たす場合、前記仮想の画像として現実の空間内に配置されている前記カーソルを、前記表示デバイスによる表示に切り替える、
    請求項13に記載の情報処理装置。
  15. 前記プロセッサは、前記ボタンの操作が確認されない状態で予め定めた事象が検知された場合、アラームを出力する
    請求項1に記載の情報処理装置。
  16. 前記予め定めた事象は、自装置の電源をオフする操作、前記端末の電源をオフする操作、装着されている自端末を身体から取り外す操作、接続を解除する操作、自端末と当該端末との距離が閾値を超える場合、及び、現実の空間内に配置されている前記仮想の画像が前記表示デバイスの手前側の位置から外れた場合のうちのいずれか1つである、
    請求項15に記載の情報処理装置。
  17. 前記プロセッサは、前記ボタンの操作が確認されない状態のまま解除された前記端末との接続が再開された場合、当該ボタンを前記仮想の画像として現実の空間内に再配置する、
    請求項1に記載の情報処理装置。
  18. 前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たさない場合、現実の空間内への前記仮想の画像の配置を停止する、
    請求項1に記載の情報処理装置。
  19. 現実の空間内への前記仮想の画像の配置を停止する場合、前記プロセッサは、現実の空間内から当該仮想の画像を徐々にフェードアウトする、
    請求項18に記載の情報処理装置。
  20. 現実の空間内への前記仮想の画像の配置を停止する場合、前記プロセッサは、当該仮想の画像の配置を停止する前に停止を示唆するアラームを出力する、
    請求項18又は19に記載の情報処理装置。
  21. 前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たさない場合でも、事前の設定があるときは、現実の空間内への当該仮想の画像の配置を継続する、
    請求項18に記載の情報処理装置。
  22. 前記プロセッサは、現実の空間内に配置される前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たした場合、現実の空間内への前記仮想の画像の配置を再開させる、
    請求項1に記載の情報処理装置。
  23. 現実の空間内への前記仮想の画像の配置を再開する場合、前記プロセッサは、現実の空間内に当該仮想の画像を徐々にフェードインする、
    請求項22に記載の情報処理装置。
  24. 現実の空間内への前記仮想の画像の配置を再開する場合、前記プロセッサは、当該仮想の画像の配置を再開する前に再開を示唆するアラームを出力する、
    請求項22又は23に記載の情報処理装置。
  25. 前記プロセッサは、現実の空間内への配置が停止されている前記仮想の画像と前記表示デバイスとの位置関係が予め定めた条件を満たす場合でも、事前の設定があるときは、現実の空間内への当該仮想の画像の配置の停止を継続する、
    請求項22に記載の情報処理装置。
  26. カメラを更に有し、
    前記プロセッサは、前記カメラが撮像する範囲に前記表示デバイスが含まれる場合、予め定めたタイミングで、当該表示デバイスに表示されている画面を撮像して保存する、
    請求項1に記載の情報処理装置。
  27. 仮想の画像を現実の空間内に配置するデバイスを制御するコンピュータに、
    物理的な表示デバイスを有する外部の端末と自端末とが接続している状態において、当該表示デバイスの手前側に前記仮想の画像を配置する機能と、
    前記仮想の画像として、前記端末の動作を指示するボタンを配置する機能と、
    を実現させるためのプログラム。
JP2020211704A 2020-12-21 2020-12-21 情報処理装置及びプログラム Pending JP2022098268A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020211704A JP2022098268A (ja) 2020-12-21 2020-12-21 情報処理装置及びプログラム
US17/323,403 US11500510B2 (en) 2020-12-21 2021-05-18 Information processing apparatus and non-transitory computer readable medium
CN202110706594.8A CN114648623A (zh) 2020-12-21 2021-06-24 信息处理装置、信息处理方法以及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020211704A JP2022098268A (ja) 2020-12-21 2020-12-21 情報処理装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2022098268A true JP2022098268A (ja) 2022-07-01

Family

ID=81991886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020211704A Pending JP2022098268A (ja) 2020-12-21 2020-12-21 情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US11500510B2 (ja)
JP (1) JP2022098268A (ja)
CN (1) CN114648623A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023017615A (ja) * 2021-07-26 2023-02-07 富士フイルムビジネスイノベーション株式会社 情報処理システム及びプログラム
US11748965B2 (en) * 2021-09-28 2023-09-05 Htc Corporation Virtual image display system and virtual image display method
US11726587B2 (en) * 2021-11-03 2023-08-15 Htc Corporation Virtual image display system and pointing direction control method of control device thereof
US11983812B2 (en) * 2022-05-31 2024-05-14 Dish Network L.L.C. Marker-based representation of real objects in virtual environments

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
JP5263049B2 (ja) 2009-07-21 2013-08-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US9696795B2 (en) * 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10198620B2 (en) * 2015-07-06 2019-02-05 Accenture Global Services Limited Augmented reality based component replacement and maintenance
EP3367213A4 (en) * 2015-10-22 2019-04-17 LG Electronics Inc. MOBILE DEVICE AND CONTROL PROCESS THEREFOR
EP3206122A1 (en) 2016-02-10 2017-08-16 Nokia Technologies Oy An apparatus and associated methods
CN108227191A (zh) * 2016-12-22 2018-06-29 乐金显示有限公司 增强现实装置
JP2019125986A (ja) 2018-01-19 2019-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
US10504290B2 (en) * 2018-05-04 2019-12-10 Facebook Technologies, Llc User interface security in a virtual reality environment

Also Published As

Publication number Publication date
CN114648623A (zh) 2022-06-21
US11500510B2 (en) 2022-11-15
US20220197480A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
CN110933355B (zh) 一种用于显示相机用户界面的方法、电子设备和存储介质
US9454288B2 (en) One-dimensional to two-dimensional list navigation
US9811154B2 (en) Methods to pan, zoom, crop, and proportionally move on a head mountable display
JP2022098268A (ja) 情報処理装置及びプログラム
JP2023517073A (ja) コンピュータ生成体験を提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP7382972B2 (ja) 頭部装着型画像ディスプレイデバイスのための入力を提供するための方法および装置
US9507426B2 (en) Using the Z-axis in user interfaces for head mountable displays
KR20170129509A (ko) 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
KR20170126295A (ko) 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
US20150193098A1 (en) Yes or No User-Interface
EP4277238A1 (en) User interfaces for managing shared-content sessions
CN113728301B (zh) 用于在2d屏幕上操纵3d对象的设备、方法和图形用户界面
CN116195275A (zh) 用于选择可穿戴音频输出设备的音频输出模式的系统、方法和图形用户界面
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
US20240281110A1 (en) Electronic device for displaying icon, its operation method, and non-transitory storage medium
US20160299641A1 (en) User Interface for Social Interactions on a Head-Mountable Display
US20240080543A1 (en) User interfaces for camera management
KR102400085B1 (ko) 크리에이티브 카메라
KR102357342B1 (ko) 크리에이티브 카메라
WO2023040562A1 (zh) 信息显示方法、近眼显示设备以及电子设备
WO2024196579A1 (en) Techniques for receiving user information and/or device fit information
CN116909385A (zh) 手部接合区

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240903