JP2022102885A - 情報処理装置、情報処理システムおよびプログラム - Google Patents

情報処理装置、情報処理システムおよびプログラム Download PDF

Info

Publication number
JP2022102885A
JP2022102885A JP2020217914A JP2020217914A JP2022102885A JP 2022102885 A JP2022102885 A JP 2022102885A JP 2020217914 A JP2020217914 A JP 2020217914A JP 2020217914 A JP2020217914 A JP 2020217914A JP 2022102885 A JP2022102885 A JP 2022102885A
Authority
JP
Japan
Prior art keywords
display
screen
information processing
displayed
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020217914A
Other languages
English (en)
Inventor
亮典 鈴木
Akinori Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Priority to JP2020217914A priority Critical patent/JP2022102885A/ja
Priority to US17/314,063 priority patent/US20220206736A1/en
Priority to CN202110746446.9A priority patent/CN114690999A/zh
Publication of JP2022102885A publication Critical patent/JP2022102885A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Figure 2022102885000001
【課題】覗き見される恐れのある情報端末装置の表示画面に情報を表示する場合に比較して、第三者による表示画面の覗き見から作業中の情報の秘匿が可能な情報処理装置、情報処理システム及びプログラムを提供する。
【解決手段】情報処理システムにおいて、端末装置20は、仮想の画面を現実空間と重畳して表示する表示手段と、プロセッサと、を備える。プロセッサは、ディスプレイ102を有する端末装置10で、ディスプレイ102に表示する表示内容を、ディスプレイ102で表示する代わりに、仮想の画面としてディスプレイ102に重ねて表示する。
【選択図】図2

Description

本発明は、情報処理装置、情報処理システム、プログラムに関する。
近年のモバイルコンピューティングやネットワークの技術進化により、テレワーク等で情報端末装置を使い作業をすることがある。この場合、自宅にとどまらず、例えば、外出先で作業をすることがある。
特許文献1には、リアル画面を表示する情報端末と、リアル画面とは異なる拡張現実の表示画面である仮想画面を表示する拡張現実ARグラスを備えるマルチディスプレイシステムが記載されている。拡張現実ARグラスは、情報端末により表示されたリアル画面の位置範囲を検出すると共に、検出したリアル画面の位置範囲と、仮想画面の位置範囲とが重ならないように、仮想画面の表示位置を制御する。
特開2014-174507号公報
例えば、外出先で作業をする場合、ノートパソコンやタブレット端末、スマートフォンなどの情報端末装置の表示画面に表示される画像を第三者に覗き見されるリスクが生じる。
本発明は、覗き見される恐れのある情報端末装置の表示画面に情報を表示する場合に比較して、第三者による表示画面の覗き見から作業中の情報の秘匿が可能な情報処理装置等を提供することを目的とする。
請求項1に記載の発明は、仮想の画面を現実空間と重畳して表示する表示手段と、プロセッサと、を備え、前記プロセッサは、表示画面を有する外部装置で、当該表示画面に表示する表示内容を、当該表示画面で表示する代わりに、前記仮想の画面として当該表示画面に重ねて表示する情報処理装置である。
請求項2に記載の発明は、前記プロセッサは、前記表示画面の範囲を認識し、認識した範囲に応じて前記仮想の画面を表示することを特徴とする請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記表示画面の範囲は、前記表示画面に表示されたオブジェクトにより認識されることを特徴とする請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記表示画面の範囲は、前記表示画面のエッジを検知することで認識されることを特徴とする請求項2に記載の情報処理装置である。
請求項5に記載の発明は、前記プロセッサは、前記表示画面の範囲に応じ、当該表示画面の手前に位置する操作主体をさらに検知し、操作主体または操作主体のオブジェクトを前記仮想の画面中に表示することを特徴とする請求項2に記載の情報処理装置である。
請求項6に記載の発明は、前記プロセッサは、前記表示画面に表示する表示内容を、当該表示画面で表示する代わりに、前記仮想の画面として当該表示画面に重ねて表示する第1のモードと、当該表示画面に表示する表示内容を、当該表示画面で表示し、当該仮想の画面を表示しない第2のモードとを、表示内容に応じ切り換えることを特徴とする請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記プロセッサは、表示内容が、秘密情報を含むときに前記第1のモードにし、当該秘密情報を含まないときは前記第2のモードにすることを特徴とする請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記プロセッサは、前記第1のモードの場合に、前記仮想の画面中に当該第1のモードであることを表示することを特徴とする請求項6に記載の情報処理装置である。
請求項9に記載の発明は、前記プロセッサは、前記仮想の画面の大きさを前記表示画面の大きさと異ならせることを特徴とする請求項1に記載の情報処理装置である。
請求項10に記載の発明は、前記プロセッサは、前記仮想の画面を前記表示画面の一部の領域に表示し、一部以外の他の領域は、当該表示画面に表示する表示内容を、当該表示画面で表示することを特徴とする請求項9に記載の情報処理装置である。
請求項11に記載の発明は、前記プロセッサは、前記仮想の画面を、前記表示画面の大きさに対し、前記表示画面の底辺の位置をずらさないようにして拡大して表示することを特徴とする請求項9に記載の情報処理装置である。
請求項12に記載の発明は、前記プロセッサは、前記仮想の画面を、ユーザの正面に向けるようにすることを特徴とする請求項1に記載の情報処理装置である。
請求項13に記載の発明は、前記プロセッサは、前記仮想の画面として、前記表示内容とともに当該仮想の画面を操作するためのオブジェクトをさらに表示することを特徴とする請求項1に記載の情報処理装置である。
請求項14に記載の発明は、仮想の画面を現実空間と重畳して表示する表示手段と、当該仮想の画面を表示する制御を行うプロセッサと、を有する情報処理装置と、表示画面を有し、前記情報処理装置とペアリングする外部装置と、を備え、前記プロセッサは、前記外部装置で、前記表示画面に表示する表示内容を、当該表示画面で表示する代わりに、前記仮想の画面として当該表示画面に重ねて表示する情報処理システムである。
請求項15に記載の発明は、前記外部装置の前記表示画面は、前記情報処理装置が、前記仮想の画面を表示するときは、当該仮想の画面とは異なる画面を表示することを特徴とする請求項14に記載の情報処理システムである。
請求項16に記載の発明は、コンピュータに、表示画面を有する外部装置から当該表示画面に表示する表示内容を取得する取得機能と、取得した表示内容を、前記表示画面で表示する代わりに、仮想の画面を現実空間と重畳して表示する表示手段で、当該仮想の画面として当該表示画面に重ねて表示させる表示機能と、を実現させるためのプログラムである。
請求項1の発明によれば、覗き見される恐れのある情報端末装置の表示画面に情報を表示する場合に比較して、第三者による表示画面の覗き見から作業中の情報の秘匿が可能な情報処理装置を提供できる。
請求項2の発明によれば、表示画面の範囲に合わせて仮想の画面を表示することができる。
請求項3の発明によれば、オブジェクトの位置により表示画面の範囲を把握することができる。
請求項4の発明によれば、エッジの位置により表示画面の範囲を把握することができる。
請求項5の発明によれば、ユーザが自分の手などの操作主体の位置を把握することができる。
請求項6の発明によれば、表示内容に応じて表示形態を変更することができる。
請求項7の発明によれば、秘密情報のときに第1のモードに選択的に切り換えることができる。
請求項8の発明によれば、ユーザが、第1のモードになっていることを視認することができる。
請求項9の発明によれば、表示内容に応じ仮想の画面の大きさを変更できる。
請求項10の発明によれば、他者に見せてもよい情報は、表示画面に表示し、見せてはいけない情報は、表示画面に表示させないようにすることができる。
請求項11の発明によれば、表示画面の下方にあるキーボード等を隠すことなく、仮想の画面を拡大することができる。
請求項12の発明によれば、ユーザが仮想の画面を視認しやすくなる。
請求項13の発明によれば、ユーザが仮想の画面の操作をしやすくなる。
請求項14の発明によれば、覗き見される恐れのある情報端末装置の表示画面に情報を表示する場合に比較して、第三者による表示画面の覗き見から作業中の情報の秘匿が可能な情報処理システムを提供できる。
請求項15の発明によれば、第三者が、表示画面を見ても本来の表示内容を把握できないようにすることができる。
請求項16の発明によれば、覗き見される恐れのある情報端末装置の表示画面に情報を表示する場合に比較して、第三者による表示画面の覗き見から作業中の情報の秘匿が可能とする機能をコンピュータにより実現できる。
本実施の形態の情報処理システムの概要を示す図である。 端末装置の構成について示した図である。 ARグラスの構成について示した図である。 情報処理システムの動作について説明したフローチャートである。 図4のステップ105で、ディスプレイに表示されるポインタPtの例を示した図である。 (a)~(d)は、図4のステップ109で、ディスプレイに表示される他の画面について示した図である。 ARグラスを使用したときに、ユーザが視認するAR画面について示した第1の例である。 (a)~(b)は、ARグラスを使用したときに、ユーザが視認するAR画面について示した第2の例である。 ARグラスを使用したときに、ユーザが視認するAR画面について示した第3の例である。 ARグラスを使用したときに、ユーザが視認するAR画面について示した第4の例である。 ARグラスを使用したときに、ユーザが視認するAR画面について示した第5の例である。 (a)~(b)は、ARグラスを使用したときに、ユーザが視認するAR画面について示した第6の例である。 ARグラスを使用したときに、ユーザが視認するAR画面について示した第7の例である。
<情報処理システム1の全体構成の説明>
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本実施の形態の情報処理システム1の概要を示す図である。
図示する情報処理システム1は、端末装置10と、ARグラス20とを備える。この場合、ARグラス20は、端末装置10を操作するユーザの頭部に装着される。
端末装置10は、実在するディスプレイ102を有する外部装置の一例である。端末装置10は、例えば、所謂汎用のパーソナルコンピュータ(PC)である。そして、端末装置10は、OS(Operating System)による管理下において、各種アプリケーションソフトウェアを動作させることで、本実施の形態の情報の処理等が行われるようになっている。
ARグラス20は、情報処理装置の一例であり、ユーザに対しARの表示を実現する装置である。ここで、「AR」とは、「Augmented Reality:拡張現実」のことであり、ユーザに対し、仮想の画面を現実空間と重畳して表示することを言う。また、「仮想の画面」は、コンピュータにより作成され、ARグラス20のような装置を使って視認できる画像の表示のことである、そして、「現実空間」とは、実際に存在する空間のことである。
<端末装置10の構成>
図2は、端末装置10のハードウェア構成について示した図である。
図示する端末装置10は、プログラムの実行を通じて各部を制御するCPU(Central Processing Unit)101と、画像その他の情報を表示するディスプレイ102と、文字などを入力するキーボード103と、ポインティングデバイスであるタッチパッド104と、ARグラス20との通信に用いられる通信モジュール105と、グラスモードを動作させるモジュールであるグラスモードモジュール106と、システムデータや内部データが記憶される内部メモリ107と、補助記憶装置としての外部メモリ108等を有している。
CPU101は、プロセッサの一例であり、OS(基本ソフトウェア)やアプリケーションソフトウェア(応用ソフトウェア)等のプログラムを実行する。
本実施の形態の場合、内部メモリ107と外部メモリ108は、半導体メモリである。内部メモリ107は、BIOS(=Basic Input Output System)等が記憶されたROM(Read Only Memory)と、主記憶装置として用いられるRAM(Random Access Memory)とを有している。CPU101と内部メモリ107はコンピュータを構成する。CPU101は、RAMをプログラムの作業スペースとして使用する。外部メモリ108は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージであり、ファームウェアやアプリケーションソフトウェア等が記憶される。
ディスプレイ102は、表示画面の一例であり、例えば、液晶ディスプレイや有機EL(Electro Luminescent)ディスプレイで構成される。本実施の形態では、ディスプレイ102の表面(すなわち表示面)には画像その他の情報が表示される。
キーボード103は、ユーザが文字等を入力する際に使用する入力デバイスである。
タッチパッド104も入力デバイスであり、ディスプレイ102に表示されるカーソルの移動や画面のスクロールなどの際に用いられる、なお、タッチパッド104の代わりにマウスやトラックボール等であってもよい。
通信モジュール105は、外部との通信を行うための通信インタフェースである。
グラスモードモジュール106は、グラスモードの際の表示内容についての制御を行う。なおグラスモードモジュール106は、必須ではなく、CPU101、内部メモリ107、外部メモリ108を使用し、これらにより、アプリケーションソフトウェアを動作させることで実現することもできる。
<ARグラス20の構成>
図3は、ARグラス20の構成について示した図である。
なお、図3では、図1のIII方向から見た時のARグラス20について図示している。そして、ユーザが、ARグラス20を装着したときに、左側となる部材の符号には、「L」を付し、右側となる部材の符号には、「R」を付している。
ARの表示を実現するARグラス20としては、虚像投影方式、網膜投影方式など種々の方式があるが、何れの方式でもよい。ARグラス20は、例えば、以下の構成を有する。このARグラス20は、網膜投影方式である。なお、ここでは、いわゆるメガネ型の装置としてARグラス20を示したが、ユーザの頭部に装着し、ユーザに対しARを表示する装置であれば、その形状、形式などは、特に限られるものではない。
ARグラス20は、レーザ光源201L、201Rと、光ファイバ202L、202Rと、ミラー203L、203Rと、レンズ部204L、204Rと、ブリッジ205と、テンプル206L、206Rと、カメラ207L、207Rと、マイクロフォン208L、208Rと、スピーカ209L、209Rと、通信モジュール210と、グラスモードモジュール211とを備えている。
レーザ光源201L、201Rは、仮想の画面を作成するための光源である。レーザ光源201L、201Rは、Red(赤色)、Green(緑色)、Blue(青色)の3色のレーザを使い、高速で切り換えることにより、フルカラーの仮想の画面を作成することができる。
光ファイバ202L、202Rは、それぞれテンプル206L、206Rの内部に設けられ、レーザ光源201L、201Rから出射したレーザ光Laをミラー203L、203Rに導く。光ファイバ202L、202Rは、ガラス製、プラスチック製の何れであってもよい。
ミラー203L、203Rは、レーザ光Laの進行方向をほぼ直角になる角度に反射させ、レンズ部204L、204Rに導く。このミラー203L、203Rは、上下左右に揺動可能となっており、これにより、レンズ部204L、204Rに入射する角度も変化する。そしてこれにより、ユーザの網膜ML、MRに到達する位置も上下左右に変化する。その結果、二次元的な画像を仮想の画面としてユーザに視認させることができる。
レンズ部204L、204Rは、内部に、導光部214L、214Rと、反射部224L、224Rとを有する。導光部214L、214Rは、それぞれ、ミラー203L、203Rにより角度が変更されたレーザ光Laを全反射させることで、ブリッジ205方向に導く。反射部224L、224Rは、導光部214L、214Rにより導かれたレーザ光Laを、ほぼ直角方向に反射させ、ユーザの網膜ML、MRの方向にレーザ光Laの進行方向を変更する。
また、レンズ部204L、204Rは、可視光を通す部材である透光性部材であり、ユーザは、レンズ部204L、204Rを通して、現実空間を視認することができる。これにより、ユーザは、仮想の画面を現実空間と重畳して視認することができる。
なお、ここでは、ARグラス20がメガネ型であるため、便宜上、「レンズ部」という表現を使用したが、実際にレンズとしての機能を備える必要はない。即ち、レンズ部204L、204Rは、光を屈折させる光学的機能を備える必要はない。
ブリッジ205は、ユーザの鼻にかかることで、ARグラス20を支持し、ユーザの頭部にARグラス20を装着するための部材である。
また、テンプル206L、206Rは、ユーザの耳にかかることで、ARグラス20を支持し、ユーザの頭部にARグラス20を装着するための部材である。
カメラ207L、207Rは、ユーザに対し前側となる方向を撮影する。本実施の場合、主に端末装置10を対象に撮影を行う。
マイクロフォン208L、208Rは、ARグラス20の周囲の音声等の音を取得する。また、スピーカ209L、209Rは、音声等の音を出力する。マイクロフォン208L、208Rおよびスピーカ209L、209Rにより、情報処理システム1を例えば、リモート会議などの用途に使用することもできる。なお、周囲に音が遅漏しにくいという観点から、スピーカ209L、209Rは、例えば、骨伝導スピーカ等にすることが好ましい。
通信モジュール210は、外部との通信を行うための通信インタフェースである。
グラスモードモジュール211は、グラスモードの際のレーザ光源201L、201Rやミラー203L、203Rの動作についての制御を行う。グラスモードモジュール211は、CPU、内部メモリ、外部メモリを使用し、これらにより、レーザ光源201L、201Rやミラー203L、203Rを制御する制御ソフトウェアを動作させることで実現することができる。ここで、CPUは、プロセッサの一例である。
本実施の形態では、レーザ光源201L、201R、光ファイバ202L、202R、ミラー203L、203R、およびレンズ部204L、204Rは、ユーザに対し、仮想の画面を現実空間と重畳して表示する表示手段として機能する。
<情報処理システム1の動作の説明>
本実施の形態の情報処理システム1では、端末装置10とARグラス20とは、それぞれ通信モジュール105および通信モジュール210を使用してペアリングする。ペアリングは、例えば、ブルートゥース(Bluetooth)(登録商標)等の無線接続により行われる。ただし、これに限られるものではなく、無線LAN(Local Area Network)、インターネットなどを介して接続されていてもよい。さらに、無線接続に限られるものではなく、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)、DisplayPort、USB(Universal Serial Bus)、IEEE1394、RS-232C等を介して有線接続されていてもよい。
情報処理システム1は、端末装置10のディスプレイ102またはARグラス20にて、ユーザに対し提示する画面を表示する。
この情報処理システム1で、ARグラス20にて仮想の画面を表示するときは、表示内容が、第三者に対し秘匿する必要がある場合である。詳しくは後述するが、このとき、ディスプレイ102には、他の画面が表示される。対して、端末装置10のディスプレイ102にて画面を表示するときは、表示内容が、第三者に対し秘匿する必要がない場合である。このとき、ARグラス20では、仮想の画面は表示しない。以後、本実施の形態では、情報処理システム1が、前者の場合で動作するときを、第1のモードの一例として、「グラスモード」と言うことがある。また、情報処理システム1が、後者の場合で動作するときを、第2のモードの一例として、「通常モード」と言うことがある。
以下、この構成について詳述する。
図4は、情報処理システム1の動作について説明したフローチャートである。
まず、ユーザが、端末装置10およびARグラス20の電源をONにする(ステップ101)。これにより、端末装置10のグラスモードモジュール106を含む各機構部を起動させる。また、ARグラス20のグラスモードモジュール211を含む各機構部を起動させる。
次に、ユーザが、端末装置10にログインを行う(ステップ102)。
そして、端末装置10とARグラス20とをペアリングする(ステップ103)。ペアリングは、ユーザが設定を行うことにより行ってもよく、自動的にペアリングを行うようにしてもよい。
ペアリング完了後、ユーザは、端末装置10の設定画面にてグラスモードを選択する(ステップ104)。これにより、端末装置10のディスプレイ102の位置を表すポインタが表示される(ステップ105)。
ARグラス20のカメラ207L、207Rは、端末装置10のディスプレイ102を撮影する。そして、グラスモードモジュール211は、撮影したディスプレイ102の画像から、ポインタの位置を決定する(ステップ106)。
さらに、グラスモードモジュール211は、ポインタの位置より、ディスプレイ102の現実空間での範囲を決定する(ステップ107)。
端末装置10では、ディスプレイ102で本来表示される画面の画像データをARグラス20側に送信する(ステップ108)。なお、端末装置10のディスプレイ102では、本来表示される画面ではなく、他の画面が表示される(ステップ109)。なお、ポインタは引き続き表示される。
そして、ARグラス20では、仮想の画面としてディスプレイ102で本来表示される画面が表示される(ステップ110)。このとき仮想の画面は、ディスプレイ102に合わせて表示される。即ち、ユーザは、ディスプレイ102に仮想の画面が張り付いているように見える。
このように、ARグラス20では、実在するディスプレイ102を有する端末装置10で、ディスプレイ102に表示する表示内容を、ディスプレイ102で表示する代わりに、仮想の画面としてディスプレイ102に重ねて表示する。
またこのとき、ARグラス20では、ディスプレイ102の範囲を認識し、認識した範囲に応じて仮想の画面を表示する。ディスプレイ102の範囲は、上述した例では、ディスプレイ102に表示されたポインタにより認識される。
<画面例>
以下、本実施の形態における画面例について説明する。
<画面例1>
図5は、図4のステップ105で、ディスプレイ102に表示されるポインタPtの例を示した図である。
図示するポインタPtは、+形状であり、ディスプレイ102の四隅に表示される。そして、図4のステップ107で、グラスモードモジュール211が、撮影した画像中のポインタPtの位置より、ディスプレイ102の範囲を決定する。このポインタPtの形状や大きさは特に限られるものではなく、ディスプレイ102の表示される何らかのオブジェクトであれば足りる。「オブジェクト」は、ディスプレイ102に表示される何らかの対象である。そして、グラスモードモジュール211は、撮影した画像中のポインタPt等のオブジェクトの形状を認識し、撮影した画像中のオブジェクトの位置を求める。
また、ポインタPtは、必ずしも表示される必要はなく、他の方法で、ディスプレイ102の範囲を決定してもよい。例えば、ディスプレイ102の範囲は、ディスプレイ102のエッジEdを検知することで認識されるようにしてもよい。この場合、グラスモードモジュール211は、画像認識等を利用し、ディスプレイ102のエッジEdの位置より、ディスプレイ102の範囲を決定する。
<画面例2>
図6(a)~(d)は、図4のステップ109で、ディスプレイ102に表示される他の画面について示した図である。
このうち、図6(a)は、本来ディスプレイ102に表示される画面を示している。また、図6(b)~(d)は、実際にディスプレイ102に表示される画面を示している。
図6(b)は、他の画面として、スクリーンセーバーを表示した場合を示している。また、図6(c)は、他の画面として、黒画面を表示した場合を示している。さらに、図6(d)は、他の画面として、図6(a)とは関係のない画面を表示した場合を示している。図6(d)の画面は、いわば、ダミーの画面である。
このように、端末装置10のディスプレイ102は、ARグラス20が、仮想の画面Gkを表示するときは、仮想の画面Gkとは異なる画面を表示する。
<画面例3>
図7は、ARグラス20を使用したときに、ユーザが視認するAR画面について示した第1の例である。
このときユーザは、現実空間に存在する端末装置10を、レンズ部204L、204Rを通して視認する。そして本来ディスプレイ102に表示される画面が仮想の画面Gkとして表示される。この仮想の画面Gkの表示内容は、図6(a)の画面と同じになる。
この仮想の画面Gkは、ディスプレイ102に合わせて表示される。そのためユーザは、この仮想の画面Gkが、ディスプレイ102に張り付いているように見える。即ち、この場合のAR画面は、現実空間に存在する端末装置10と、端末装置10のディスプレイ102に張り付いて表示される仮想の画面Gkとを含む。即ち、実際に、ディスプレイ102に画面が表示されているのと同様の状態を再現することができる。また、ユーザは、キーボード103やタッチパッド104を現実空間として視認できる。そして、ユーザが、キーボード103やタッチパッド104を操作すると、端末装置10では、この操作に応じた画面を作成し、ARグラス20にその画像データを送信する。これにより、この操作に応じた仮想の画面Gkが、表示される。
また、ユーザの頭部が動くことにより、ディスプレイ102とARグラス20との距離が変化することがある。この場合、ポインタPtやディスプレイ102のエッジEdの位置が変化する。よって、この場合は、グラスモードモジュール211は、これに応じ、ディスプレイ102の範囲を再設定し、仮想の画面Gkをこの範囲に合わせて表示する。
<画面例4>
図8(a)~(b)は、ARグラス20を使用したときに、ユーザが視認するAR画面について示した第2の例である。
ここでは、ディスプレイ102に表示する表示内容を、このディスプレイ102で表示する代わりに、仮想の画面Gkとしてディスプレイ102に重ねて表示するグラスモードと、ディスプレイ102に表示する表示内容を、ディスプレイ102で表示し、仮想の画面Gkを表示しない通常モードとを、表示内容に応じ切り換える。この場合、表示内容が、秘密情報を含むときにグラスモードにし、秘密情報を含まないときは通常モードにする。この「秘密情報」は、第三者に知られてはならない情報のことである。
このうち、図8(a)は、グラスモードで表示する画面について示し、図8(b)は、通常モードで表示する画面について示している。
グラスモードでは、表示内容が、秘密情報を含むため、端末装置10のディスプレイ102では、本来表示する画面を表示せず、この画面をARグラス20で、仮想の画面Gkとして表示する。対して、通常モードでは、表示内容が、秘密情報を含まないため、端末装置10のディスプレイ102では、本来表示する画面をそのまま表示し、ARグラス20では、この画面を仮想の画面Gkとして表示しない。
グラスモードと通常モードとを切り換えるには、ユーザが手動で行ってもよいが、端末装置10が、表示内容に秘密情報を含むか否かを判断して切り換えてもよい。具体的には、端末装置10は、「社外秘」などのキーワードが電子文書中に含まれる場合、各種サーバシステムのログイン画面やその後の画面を表示する場合、秘密情報を含むと判断する。また、端末装置10は、ユーザが予め指定した電子文書を表示する場合、ユーザが予め指定したフォルダ中の電子文書を表示する場合、秘密情報を含むと判断する。
なお、ARグラス20では、グラスモードの場合に、仮想の画面中にグラスモードであることを表示することが好ましい。図8(a)では、仮想の画面に隣接して、グラスモードであることを示すマーカMkを表示することで、グラスモードであることをユーザに知らせる。図示する例では、マーカMkは、「グラスモード」の文字列である。ただし、マーカMkは、これに限られるものではなく、アイコン等であってもよい。このマーカMkは、端末装置10は、秘密情報を含むと判断したときに、画像データとして、ディスプレイ102で表示する画面と併せてマーカMkの画像データをARグラス20に送信することで、表示することができる。
<画面例5>
図9は、ARグラス20を使用したときに、ユーザが視認するAR画面について示した第3の例である。
ここでは、端末装置10のディスプレイ102の領域を2分割し、分割した画面の一方を仮想の画面Gkとし、他方を現実空間としている。
ここでは、端末装置10のディスプレイ102では、分割した画面の左側を仮想の画面Gkとし、右側を現実空間としている。なお、端末装置10では、仮想の画面Gkの箇所は、スクリーンセーバーが表示される。またここでは、分割した画面のそれぞれの領域を、ポインタPtにて示し、これを基に、ARグラス20では、仮想の画面Gkの表示範囲を決める。
これは、仮想の画面をディスプレイ102の一部の領域に表示し、一部以外の他の領域は、ディスプレイ102に表示する表示内容を、ディスプレイ102で表示する、と言うこともできる。また、仮想の画面Gkを、ディスプレイ102の大きさに対し、縮小して表示する、と言うこともできる。
この場合、分割した画面の一方は、秘密情報を含み、他方は、含まない。このような表示形態は、分割した画面の他方を他人に見せて説明する場合などに用いられる。なお、分割は、2分割に限られるものでなく、3分割以上であってもよい。
<画面例6>
図10は、ARグラス20を使用したときに、ユーザが視認するAR画面について示した第4の例である。
ここでは、仮想の画面Gkを、点線で示したディスプレイ102の大きさに対し拡大して表示する。
またこのとき、仮想の画面Gkは、ディスプレイ102の底辺Tの位置をずらさないようにして拡大することが好ましい。このようにすることで、ディスプレイ102の下方にあるキーボード103やタッチパッド104を隠すことがなくなり、ユーザの利便性に寄与する。
画面例5と画面例6は、仮想の画面Gkの大きさをディスプレイ102の大きさとは異ならせる場合の一例であると捉えることができる。
<画面例7>
図11は、ARグラス20を使用したときに、ユーザが視認するAR画面について示した第5の例である。
ここでは、ユーザの手のオブジェクトOb1を仮想の画面Gk中に表示する。ディスプレイ102が、例えば、タッチパネルである場合、ユーザは、操作のためディスプレイ102にタッチする必要がある。しかし、ユーザがディスプレイ102にタッチする場合、ユーザの手が、ディスプレイ102の前に存在することになる。一方、ディスプレイ102の範囲には、仮想の画面Gkが表示されるため、ユーザは、自らの手を認識することができない。よって、ユーザの手のオブジェクトOb1を仮想の画面Gk中に表示させることで、ユーザは、自らの手の位置を確認できるようにする。
この場合、グラスモードモジュール211は、カメラ207L、207Rにて撮影した画像を基に、ディスプレイ102の手前に位置するユーザの手を検知する。ユーザの手がディスプレイ102の手前に位置するか否かは、ディスプレイ102の範囲に応じて判断することができる。そして、グラスモードモジュール211は、ディスプレイ102の手前にユーザの手が存在した場合、ユーザの手のオブジェクトOb1を仮想の画面Gk中に表示する画像データを作成する。なお、ここでは、グラスモードモジュール211が、ユーザの手が存在するか否かを検知し、ユーザの手のオブジェクトOb1を表示したが、カメラ207L、207Rの画像を端末装置10に送り、端末装置10側で同様の処理を行うこともできる。また、ディスプレイ102の手前にユーザの手の存在を検知したとき、実物のユーザの手を仮想の画面Gkの手前に映るように表示を制御してもよい。あるいは、いわゆるスタイラスペンなどタッチパネルを操作する物体を検知し、同様に表示を制御してもよい。これらのような処理を通じて、ユーザの手やスタイラスペンなどのディスプレイ102で操作を行う操作主体をARグラス20で表現し、ユーザがこの操作主体を視認できるようにして、ディスプレイ102にこれらが触れることでタッチパネル操作を実現する。
<画面例8>
図12(a)~(b)は、ARグラス20を使用したときに、ユーザが視認するAR画面について示した第6の例である。
ここでは、仮想の画面Gkの角度を補正する。ここで、図12(a)は、補正する前の仮想の画面Gkであり、図12(b)は、補正した後の仮想の画面Gkを示している。図12(a)~(b)は、図7のXII方向から見た図である。つまり、図12(a)の場合は、ディスプレイ102に沿って仮想の画面Gkを表示した場合であり、仮想の画面Gkがユーザの正面を向いていない。このとき、ユーザは、斜めの角度から仮想の画面Gkを見ることになる。対して、図12(b)の場合は、仮想の画面Gkをユーザの正面に向けるように補正した場合である。この場合、ユーザの視線の向きと、仮想の画面Gkとは、ほぼ垂直となる。このとき、ユーザは、正面からから仮想の画面Gkを見ることができる。なお、ここでは、仮想の画面Gkをユーザの正面に向けるため、仮想の画面Gkの上下方向の角度を補正したが、左右方向の角度を補正するようにしてもよい。
<画面例9>
図13は、ARグラス20を使用したときに、ユーザが視認するAR画面について示した第7の例である。
ここでは、仮想の画面Gkの一部として表示されるカーソルCrをディスプレイ102の範囲より大きい範囲で動かすことができる。このカーソルCrは、仮想の画面の一部として表示される。そして、仮想の画面Gkとして、ディスプレイ102に隣接して設けられるオブジェクトOb2を操作できる。
この場合、オブジェクトOb2は、例えば、画面例5、6で説明したような、ディスプレイ102を縮小、拡大するためのスライダーである。また、スライダーの代わりにディスプレイ102を縮小、拡大するためのボタンなどを表示するようにしてもよい。また、オブジェクトOb2は、グラスモードと通常モードとを切り換える切り換えボタンなどであってもよい。この場合、オブジェクトOb2やカーソルCrは、仮想の画面Gkとして、ディスプレイ102に本来表示する表示内容とともに仮想の画面Gkを操作するためのオブジェクトの一例であると捉えることができる。
以上説明した情報処理システム1によれば、第三者によるディスプレイ102の覗き見から作業中の情報の秘匿が可能になる。
即ち、近年、モバイルコンピューティングやネットワークの技術進化により、例えば、テレワークで端末装置10を使い、仕事等をすることが増加している。この場合、自宅にとどまらず、外出先の周辺にあるカフェやファストフード等の店内や、シェアオフィスなどで仕事等をすることがある。本実施の形態では、このような環境下でも、第三者によるディスプレイ102の覗き見から作業中の情報の秘匿が可能になる。
<プログラムの説明>
ここで以上説明を行った本実施の形態におけるARグラス20が行う処理は、例えば、制御ソフトウェア等のプログラムにより行われる。
よって本実施の形態でARグラス20が行う処理は、コンピュータに、ディスプレイ102を有する端末装置10からディスプレイ102に表示する表示内容を取得する取得機能と、取得した表示内容を記ディスプレイ102で表示する代わりに、仮想の画面Gkを現実空間と重畳して表示する表示手段で、仮想の画面Gkとしてディスプレイ102に重ねて表示させる表示機能と、を実現させるためのプログラムとして捉えることができる。
なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD-ROM等の記録媒体に格納して提供することも可能である。
以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
1…情報処理システム、10…端末装置、20…ARグラス、102…ディスプレイ、106、211…グラスモードモジュール、201L、201R…レーザ光源、202L、202R…光ファイバ、203L、203R…ミラー、204L、204R…レンズ部、Ed…エッジ、Mk…マーカ、Ob1…手のオブジェクト、T…底辺

Claims (16)

  1. 仮想の画面を現実空間と重畳して表示する表示手段と、
    プロセッサと、
    を備え、
    前記プロセッサは、
    表示画面を有する外部装置で、当該表示画面に表示する表示内容を、当該表示画面で表示する代わりに、前記仮想の画面として当該表示画面に重ねて表示する情報処理装置。
  2. 前記プロセッサは、前記表示画面の範囲を認識し、認識した範囲に応じて前記仮想の画面を表示することを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示画面の範囲は、前記表示画面に表示されたオブジェクトにより認識されることを特徴とする請求項2に記載の情報処理装置。
  4. 前記表示画面の範囲は、前記表示画面のエッジを検知することで認識されることを特徴とする請求項2に記載の情報処理装置。
  5. 前記プロセッサは、前記表示画面の範囲に応じ、当該表示画面の手前に位置する操作主体をさらに検知し、操作主体または操作主体のオブジェクトを前記仮想の画面中に表示することを特徴とする請求項2に記載の情報処理装置。
  6. 前記プロセッサは、前記表示画面に表示する表示内容を、当該表示画面で表示する代わりに、前記仮想の画面として当該表示画面に重ねて表示する第1のモードと、当該表示画面に表示する表示内容を、当該表示画面で表示し、当該仮想の画面を表示しない第2のモードとを、表示内容に応じ切り換えることを特徴とする請求項1に記載の情報処理装置。
  7. 前記プロセッサは、表示内容が、秘密情報を含むときに前記第1のモードにし、当該秘密情報を含まないときは前記第2のモードにすることを特徴とする請求項6に記載の情報処理装置。
  8. 前記プロセッサは、前記第1のモードの場合に、前記仮想の画面中に当該第1のモードであることを表示することを特徴とする請求項6に記載の情報処理装置。
  9. 前記プロセッサは、前記仮想の画面の大きさを前記表示画面の大きさと異ならせることを特徴とする請求項1に記載の情報処理装置。
  10. 前記プロセッサは、前記仮想の画面を前記表示画面の一部の領域に表示し、一部以外の他の領域は、当該表示画面に表示する表示内容を、当該表示画面で表示することを特徴とする請求項9に記載の情報処理装置。
  11. 前記プロセッサは、前記仮想の画面を、前記表示画面の大きさに対し、前記表示画面の底辺の位置をずらさないようにして拡大して表示することを特徴とする請求項9に記載の情報処理装置。
  12. 前記プロセッサは、前記仮想の画面を、ユーザの正面に向けるようにすることを特徴とする請求項1に記載の情報処理装置。
  13. 前記プロセッサは、前記仮想の画面として、前記表示内容とともに当該仮想の画面を操作するためのオブジェクトをさらに表示することを特徴とする請求項1に記載の情報処理装置。
  14. 仮想の画面を現実空間と重畳して表示する表示手段と、当該仮想の画面を表示する制御を行うプロセッサと、を有する情報処理装置と、
    表示画面を有し、前記情報処理装置とペアリングする外部装置と、
    を備え、
    前記プロセッサは、
    前記外部装置で、前記表示画面に表示する表示内容を、当該表示画面で表示する代わりに、前記仮想の画面として当該表示画面に重ねて表示する情報処理システム。
  15. 前記外部装置の前記表示画面は、前記情報処理装置が、前記仮想の画面を表示するときは、当該仮想の画面とは異なる画面を表示することを特徴とする請求項14に記載の情報処理システム。
  16. コンピュータに、
    表示画面を有する外部装置から当該表示画面に表示する表示内容を取得する取得機能と、
    取得した表示内容を、前記表示画面で表示する代わりに、仮想の画面を現実空間と重畳して表示する表示手段で、当該仮想の画面として当該表示画面に重ねて表示させる表示機能と、
    を実現させるためのプログラム。
JP2020217914A 2020-12-25 2020-12-25 情報処理装置、情報処理システムおよびプログラム Pending JP2022102885A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020217914A JP2022102885A (ja) 2020-12-25 2020-12-25 情報処理装置、情報処理システムおよびプログラム
US17/314,063 US20220206736A1 (en) 2020-12-25 2021-05-07 Information processing apparatus, information processing system, and non-transitory computer readable medium
CN202110746446.9A CN114690999A (zh) 2020-12-25 2021-07-01 信息处理装置、信息处理方法与系统及计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020217914A JP2022102885A (ja) 2020-12-25 2020-12-25 情報処理装置、情報処理システムおよびプログラム

Publications (1)

Publication Number Publication Date
JP2022102885A true JP2022102885A (ja) 2022-07-07

Family

ID=82119064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020217914A Pending JP2022102885A (ja) 2020-12-25 2020-12-25 情報処理装置、情報処理システムおよびプログラム

Country Status (3)

Country Link
US (1) US20220206736A1 (ja)
JP (1) JP2022102885A (ja)
CN (1) CN114690999A (ja)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
US20080106645A1 (en) * 2006-08-01 2008-05-08 Samsung Electronics Co., Ltd. Apparatus for providing multiple screens and method of dynamically configuring multiple screens
US20130322683A1 (en) * 2012-05-30 2013-12-05 Joel Jacobs Customized head-mounted display device
KR102083596B1 (ko) * 2013-09-05 2020-03-02 엘지전자 주식회사 디스플레이장치 및 디스플레이장치의 동작방법
KR20160125783A (ko) * 2015-04-22 2016-11-01 삼성전자주식회사 컨텐츠를 표시하기 위한 방법 및 전자 장치
US10317989B2 (en) * 2016-03-13 2019-06-11 Logitech Europe S.A. Transition between virtual and augmented reality
EP3481005B1 (en) * 2016-06-29 2021-01-20 Prosper Creative Co., Ltd. Data masking system
US10334240B2 (en) * 2016-10-28 2019-06-25 Daqri, Llc Efficient augmented reality display calibration
US10754417B2 (en) * 2016-11-14 2020-08-25 Logitech Europe S.A. Systems and methods for operating an input device in an augmented/virtual reality environment
JP6679807B1 (ja) * 2016-12-23 2020-04-15 ニュートノイド テクノロジーズ エルエルシーNewtonoid Technologies, Llc 多層インテリジェントガラス表示システムおよび表示システム
JP2018106041A (ja) * 2016-12-27 2018-07-05 大日本印刷株式会社 表示装置、表示システム及びプログラム
US10705730B2 (en) * 2017-01-24 2020-07-07 International Business Machines Corporation Display of a virtual keyboard on a supplemental physical display plane surrounding a primary physical display plane on a wearable mobile device
WO2018210656A1 (en) * 2017-05-16 2018-11-22 Koninklijke Philips N.V. Augmented reality for collaborative interventions
US10872470B2 (en) * 2018-04-05 2020-12-22 Lenovo (Singapore) Pte. Ltd. Presentation of content at headset display based on other display not being viewable
US20220229534A1 (en) * 2020-04-08 2022-07-21 Multinarity Ltd Coordinating cursor movement between a physical surface and a virtual surface

Also Published As

Publication number Publication date
US20220206736A1 (en) 2022-06-30
CN114690999A (zh) 2022-07-01

Similar Documents

Publication Publication Date Title
US11875013B2 (en) Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
US11366516B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US9377869B2 (en) Unlocking a head mountable device
CN106134186B (zh) 遥现体验
JP5696908B2 (ja) 操作表示システム
JP2021036438A (ja) 情報処理装置、情報処理方法及び記録媒体
JP6251957B2 (ja) 表示装置、頭部装着型表示装置および表示装置の制御方法
US20170285344A1 (en) Peripheral display for head mounted display device
US20130321390A1 (en) Augmented books in a mixed reality environment
US10191282B2 (en) Computer display device mounted on eyeglasses
US9336779B1 (en) Dynamic image-based voice entry of unlock sequence
WO2013166362A2 (en) Collaboration environment using see through displays
US20170115736A1 (en) Photo-Based Unlock Patterns
JP6856863B2 (ja) バーチャル・リアリティー・ヘッドマウント装置
US20150271457A1 (en) Display device, image display system, and information processing method
JP2023520345A (ja) 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
CN106997242B (zh) 界面管理方法及头戴式显示设备
US20200264433A1 (en) Augmented reality display device and interaction method using the augmented reality display device
US20230409192A1 (en) Device Interaction Method, Electronic Device, and Interaction System
US20240094819A1 (en) Devices, methods, and user interfaces for gesture-based interactions
US20190332189A1 (en) Systems and methods for unifying two-dimensional and three-dimensional interfaces
JP2017120488A (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
US20230259265A1 (en) Devices, methods, and graphical user interfaces for navigating and inputting or revising content
JP2022102885A (ja) 情報処理装置、情報処理システムおよびプログラム