JP6526054B2 - プライベート追跡ヘッドアップディスプレイとしての第2画面の使用 - Google Patents
プライベート追跡ヘッドアップディスプレイとしての第2画面の使用 Download PDFInfo
- Publication number
- JP6526054B2 JP6526054B2 JP2016565099A JP2016565099A JP6526054B2 JP 6526054 B2 JP6526054 B2 JP 6526054B2 JP 2016565099 A JP2016565099 A JP 2016565099A JP 2016565099 A JP2016565099 A JP 2016565099A JP 6526054 B2 JP6526054 B2 JP 6526054B2
- Authority
- JP
- Japan
- Prior art keywords
- glasses
- display screen
- computing device
- content
- main display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011521 glass Substances 0.000 claims description 208
- 238000000034 method Methods 0.000 claims description 71
- 230000033001 locomotion Effects 0.000 claims description 44
- 230000003993 interaction Effects 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 9
- 230000007423 decrease Effects 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims 4
- 210000003128 head Anatomy 0.000 description 21
- 230000002452 interceptive effect Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 15
- 238000009877 rendering Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 239000003550 marker Substances 0.000 description 10
- 230000015654 memory Effects 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1446—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0261—Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2356/00—Detection of the display position w.r.t. other display screens
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/16—Use of wireless transmission of display information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Digital Computer Display Output (AREA)
Description
この実施形態では、コンピューティングデバイスは、コンピューティングデバイス内部の局所でアイコンを選択するまたはインタラクティブアプリケーションを選択して実行することができる。別の実施形態では、コンピューティングデバイス10は、アプリケーションインターフェース(App i/f)を使用してインターネット200などのネットワーク上でアクセスされるクラウドサーバ300においてアイコンを選択するまたは利用できるインタラクティブアプリケーションを実行するように構成される。
一実施形態において、クラウドサーバ300は、ルータ(図示せず)などのインターネットアクセスポイントを使用してコンピューティングデバイス10によってアクセスすることができる。一実施形態において、クラウドサーバ300は、例えば、ゲームサーバ300a、アプリケーションサーバ300b、コンテンツサーバ300cなどの複数のサーバを含み、複数のアプリケーションを実行し、複数のアイコンを提供することができる。ディスプレイモニタ100は、有線または無線接続を使用してコンピューティングデバイス10に通信可能に接続され、メインディスプレイ画面としての役目を果たす。モニタ100は、テレビ受信機、プロジェクタなどのさまざまなタイプのディスプレイデバイス、または別個のウィンドウ内にインタラクティブアプリケーションを視覚的に表示するのに利用できる任意の他の種類のディスプレイ画面のいずれかであってもよい。
メガネのディスプレイ領域は、レンズ部の一つまたは両方の一部分の範囲にわたることができる。いくつかの実施形態において、メガネのその一部分は、メガネの全体領域の範囲にわたることができる。図1A〜図1Dは、セカンダリディスプレイ画面102Aが配置されるメガネ102内のさまざまな位置を図示する。例えば、図1Aに図示するように、セカンダリディスプレイ画面102Aは、ユーザが装着したときに右眼の範囲にわたるレンズ部の右上隅に配置される。代わりに、図1Bに図示するように、ディスプレイ領域102Aは、一つの眼(すなわち、右眼)の範囲にわたるレンズ部の中心に、図1Cに図示するように、左右のレンズ部(図示せず)の左上隅に、または図1Dに図示するように、メガネ102の全表面の範囲にわたって配置することができる。
図1Dの場合は、ディスプレイ領域は、ユーザが、あるモードにおいて、第二のモードに切り替えることによって、ユーザがその視点から目をそらす必要なく、種々のアプリケーションまたはアイコンウィンドウが提供する画像を視認できる、データを提示する透明なディスプレイであってもよい。この場合は、ユーザは、現実世界と仮想世界との間を移行することによって、メガネのプロセッサによって投影された適切なデータを視認することができる。メガネは、ユーザがあるモードから別のモードに切り替えるまたは移行することができる、メガネの側面に取り付けられたタッチパッドなどの一つ以上の入力デバイスを含むことができる。
タッチパッドは、他のユーザインタラクションにも使用することができる。例えば、タッチパッドを使用して、メガネとコンピューティングデバイスとをペアリングし、メガネとコンピューティングデバイス10とを同期化することができる。一実施形態において、同期化は、メガネコンピューティングデバイスまたはメガネと、プライマリコンピューティングデバイスとをペアリングして、モニタ100のメインディスプレイ画面と、メガネにおいて画定されたセカンダリディスプレイ画面102Aとを同期化することを含む。ディスプレイ画面の同期化に加えて、一実施形態において、同期化によって、メガネのセカンダリディスプレイ画面に表示されたコンテンツとのインタラクションのために、コンピューティングデバイス10の入力デバイスの使用が可能になる。別の実施形態では、同期化は、コンピューティングデバイス10の入力デバイスとメガネの入力デバイスとの同期化を含むことができる。
インタラクティブアプリケーションまたはアイコンは、コンピューティングデバイス10において局所で利用できる、またはクラウドサーバにおいて利用できる。クラウドにおいてアプリケーションを利用できる場合には、コンピューティングデバイス10は、アプリケーションのコピーを取得し、コンピューティングデバイス内部の局所でそれを実行することができる。代わりに、アプリケーションをクラウドにおいて実行し、そしてコンテンツを表示し、アプリケーションインターフェースを使用したアプリケーションとのインタラクションを可能にするために、アプリケーションウィンドウを、コンピューティングデバイスによってモニタのメインディスプレイ画面に提供することができる。同様に、コンピューティングデバイスは、アイコンのコピーを取得し、モニタのメインディスプレイ画面にそれを表示することができる。
図1−2の線A2に図示するように、点線A2’と点線A2’’との間の領域を包含する視野角「β」の範囲にわたるように、ユーザの視点が上方にシフトすると、メガネ102のディスプレイ範囲において画定されたセカンダリディスプレイ画面102Aがユーザに提示される。ユーザは、モニタ100のメインディスプレイ領域100Aに追加される補助的なセカンダリディスプレイ画面として、メガネ102のディスプレイ領域102Aを使用することができる。図1、図1−1及び図1−2に図示する実施形態では、コンピューティングデバイスは、メガネとペアリングされ、適切なディスプレイ画面領域、すなわち、モニタのメインディスプレイ画面領域またはメガネのセカンダリディスプレイ画面領域のいずれかを提示するためにユーザの注視方向が使用される。
これを緩和するために、ユーザは、メインディスプレイ画面領域から外に出すウィンドウの一つ以上を選択して移動させることができる。その動きに応答して、コンピューティングデバイスが、選択された一つ以上のウィンドウのモニタのメインディスプレイ画面領域における表示を停止し、ペアリングによって、メガネが、その停止動作を検出し、そのウィンドウを、メガネのディスプレイ部において画定されたセカンダリディスプレイ画面に表示する。ユーザは、アプリケーションウィンドウがモニタのメインディスプレイ画面領域に表示されたときのインタラクションと同様の方法で、コンピューティングデバイスに付随する入力デバイスを使用してメガネのセカンダリディスプレイ画面にシフトされたアプリケーションウィンドウとインタラクトすることができる。
アプリケーションの遠隔実行の場合は、コンピューティングデバイスは、ネットワーク接続性を使用して、インターネットなどのネットワークを通じてクラウドサーバに通信可能に接続される。コンピューティングデバイス10は、セカンダリディスプレイ画面が配置された、ユーザによって使用されるメガネにも通信可能に接続される。このメガネは、コンピューティングデバイス10とペアリングするためのプロセッサ及びネットワーク接続性を含む。通信接続の一部として、メガネのディスプレイ部において画定されたセカンダリディスプレイ画面は、コンピューティングデバイスのモニタのメインディスプレイ画面領域と同期化され、これによりそれぞれのディスプレイ画面領域におけるユーザインタラクションが可能になる。
別の実施例では、モニタの各々の隅に対応する仮想マーカを使用して、初期設定視野角を確定することができる。モニタの各側面の中心に対応する追加の仮想マーカ、またはモニタの他の部分に対応する仮想マーカをマーカ処理モジュール168aが使用することによって初期設定視野角を確定することができる。マーカ処理モジュール168aは、初期設定視野角の確定において、一つ以上の仮想マーカまたは仮想地点の各座標を使用する。
図4A−3に示すように、角度オフセットがゼロであるときには、ユーザのビュー位置は、コンピューティングデバイスのモニタに関する初期設定視野角に位置し、メインディスプレイ画面領域に表示されるアプリケーションウィンドウが、メガネのセカンダリ画面領域に提示される。ユーザが頭部を回転すると、オフセット角度は、それに対応して変化する。視野角計算モジュール166が、初期設定視野角に関するオフセット角度「Θ」を計算し、そのオフセット角度Θを使用して、ユーザのためにセカンダリディスプレイ画面に提示するための、仮想画面が提供するウィンドウの対応する部分を決定する。
モニタのメインディスプレイ画面領域に表示された選択されたアプリケーションウィンドウのいくつかが外に移動し、選択されたアプリケーションウィンドウが、仮想画面領域内に移動し、メガネについて記録されたビューオフセットに基づいて、セカンダリディスプレイ画面に表示される。仮想画面によって画定されたレンダリング領域の無限円ループは、メインディスプレイ画面領域及びセカンダリディスプレイ画面領域の両方の範囲にわたり、従って、メインディスプレイ画面において画定された表示領域のシームレス拡張部が提供される。
図4Bに図示する実施例において、ビューオフセット「β」では、メインモニタのディスプレイ領域から外に移動したアプリケーションウィンドウ120aを含む仮想画面の一部分を識別することができる。その結果、アプリケーションウィンドウ120aは、ユーザの頭部がビューオフセット「β」の範囲にわたって移動したときには、メガネのディスプレイ画面(すなわち、セカンダリディスプレイ画面領域)においてユーザに提示される。同様に、ユーザの頭部がビューオフセット「θ」の範囲にわたってシフトしたときには、アプリケーションウィンドウ120bをメガネのディスプレイ画面に表示することができ、以降も同様である。
ユーザの頭部の動きによって確立された視野角に基づいて、適切なアプリケーションウィンドウが、メガネにおいて画定されたディスプレイ画面においてユーザに提示される。実施例として、各々のビューオフセットにおいて一つのみのアプリケーションウィンドウが識別されても、各々のビューオフセットにおいて追加のアプリケーションウィンドウを提示できることに留意すべきである。
対応するディスプレイ領域において表示されたアプリケーションウィンドウは、一つ以上のインタラクティブアプリケーションまたはアイコンが提供するコンテンツを提示する。その結果、適切なアプリケーションウィンドウの表示に加えて、ユーザのインタラクションのために、一つ以上の入力デバイスを利用することができる。例えば、コンピューティングデバイスに関連する、カーソル121によって図示されるようなマウス、キーボード(図示せず)などの入力デバイスを、ユーザ選択及びインタラクションのために提供することができる。
図4Cに図示する実施形態では、例えば、それぞれのアプリケーションウィンドウに表示されるアプリケーションの各々は、テレビゲームに対応する。代わりに、アプリケーションは、ドキュメントレンダリングアプリケーションであってもよい。ユーザ「P1」は、ユーザの視野角が角度「α」によって画定された初期設定角に対応するときには、ゲーム参加者P2とテレビゲーム1をプレイする。テレビゲーム1は、コンピューティングデバイスのモニタにおいて画定されたメインディスプレイ領域内のアプリケーションウィンドウ120aに表示される。ユーザの頭部が視野角「β」にシフトすると、ユーザには、テレビゲーム2に対応するアプリケーションウィンドウ120bが提示され得る。アプリケーションウィンドウ120bにおいて、ユーザは、ゲーム参加者P3とテレビゲーム2をプレイし続けることができる。
ユーザの頭部が視野角「θ」にシフトすると、ユーザには、テレビゲーム3を実行しているアプリケーションウィンドウ120cが提示され得、ユーザは、ゲーム参加者P4とテレビゲーム3をプレイし続けることができる。テレビゲーム1、2、3などが別個のテレビゲームであってもよいし、種々のプレイヤに対してプレイする同じテレビゲームの異なる事例であってもよいことに留意すべきである。代わりに、各アプリケーションウィンドウが別個のテレビゲームまたは単一のテレビゲームの異なる事例を提示し、ユーザが、一人でインタラクティブテレビゲーム(複数可)をプレイしてもよい。テレビゲーム2、3、4などを仮想画面領域に表示し、その一方で、テレビゲーム1をモニタのメインディスプレイ画面領域に表示することができる。この実施形態では、ユーザは、ゲームが表示される対応するディスプレイ画面領域内部から、(可能な場合は)それぞれのゲーム参加者とインタラクトする。
例えば、図4Bに図示するように、アプリケーションウィンドウ120a、120b、120c、120kなどは、右側からモニタのメインディスプレイ画面領域から外に移動し、アプリケーションウィンドウ120f、120j及び120xは、左側から外に移動し、さらに、アプリケーションウィンドウ120m及び120nは、モニタのメインディスプレイ画面領域内に維持される。それ故に、アプリケーションウィンドウは、横に移動した古い順または新しい順のいずれかに従い、仮想画面領域において組織化され、組織化されたウィンドウが、ビューオフセットに基づいてセカンダリ画面領域に提示される。
追加の選択ジェスチャを、アプリケーション仮想画面領域におけるウィンドウにおいて使用することができる。一実施形態において、ウィンドウ選択検出器モジュール164は、ユーザインタラクションに応答して、仮想画面領域における選択されたアプリケーションウィンドウの表示を停止し、モニタのメインディスプレイ画面領域におけるアプリケーションウィンドウの表示を開始し、内部で実行されるアプリケーションに対する入力として、選択されたアプリケーションウィンドウにおけるさらなるインタラクションを使用して、アプリケーションウィンドウに表示されたコンテンツ及び/またはディスプレイを変更するように構成できる。
別の実施形態では、ウィンドウ選択検出器モジュール164は、仮想画面領域における特定のアプリケーションウィンドウの選択を検出し、特定のアプリケーションウィンドウに表示されたアプリケーションに対する入力として、その後のユーザインタラクションを使用して、そこに提示されたコンテンツ及び/またはディスプレイを更新するように構成される。この実施形態では、アプリケーションウィンドウは、仮想画面領域内に留まり、モニタのメインディスプレイ画面領域に移動しない。
例えば、音声認識アプリケーションなどの入力ツールをユーザインタラクションの一部として使用して、位置インジケータを用いて、アプリケーションウィンドウを、仮想画面領域とモニタのメインディスプレイ画面領域との間で移動させることができる。従って、さまざまな実施形態は、ユーザが、メガネの画面領域を最適に使用して、モニタのディスプレイ領域を補完できるように、モニタのメインディスプレイ画面領域の表示領域を拡張するシームレス方式を提供する。
ビュー方向は、メガネコンピューティングデバイスを装着しているユーザの頭部追跡に基づいて、メガネコンピューティングデバイスのビューオフセットを特定する。決定されたビュー方向に基づいて、追加のコンテンツが、メガネコンピューティングデバイスのセカンダリディスプレイに表示され、その一方で、元々のコンテンツは、プライマリコンピューティングデバイスのプライマリディスプレイ内での表示を継続する。
セカンダリ画面は、コンテンツを表示するための増大した領域を提供する、プライマリディスプレイの仮想拡張部としての役目を果たす。いくつかの実施形態において、追加のコンテンツは、ユーザインタラクションを通じてプライマリディスプレイから移動したコンテンツであってもよい。いくつかの実施形態において、セカンダリディスプレイは、ユーザのためのプライベート画面領域としての役目を果たすことができ、追加のコンテンツは、ユーザが公衆の目から隔離されたプライベートを保持することを所望するコンテンツであってもよい。
これらの実施形態では、追加のコンテンツは、プライベート仮想ディスプレイとして表示される。そのコンテンツがプライマリディスプレイまたはセカンダリディスプレイに表示されるアプリケーションは、プライマリコンピューティングデバイス内において局所で、またはアプリケーションサーバにおいて遠隔で実行することができる。アプリケーションサーバは、クラウドシステムの一部であるクラウドサーバであってもよい。いくつかの実施形態において、ビュー方向が連続的な頭部追跡によって更新され、ビュー方向の変化(すなわち、オフセット)を使用して、セカンダリディスプレイに表示する必要がある追加のコンテンツの範囲を決定することができる。頭部追跡は、プライマリコンピューティングデバイスに提供された一つ以上のカメラを使用して実行することができる。
コンピューティングデバイスは、コンピューティングデバイス内の局所で利用できる、またはクラウドサーバにおいて遠隔で利用できる複数のアプリケーションであって、その各々が別個のアプリケーションウィンドウに表示されるアプリケーションを実行するようにも構成される。このような目的で、コンピューティングデバイスには、インターネットを通じてクラウドサーバにアクセスするためのインターネット接続性が装備され、そのようなアクセスは、ルータなどのインターネットアクセスポイントを使用して有効にすることができる。
デバイスの同期化またはペアリングは、コンピューティングデバイスのモニタのメインディスプレイ画面領域と、レンズ部の少なくとも一つの一部分において画定されたセカンダリディスプレイ画面とを同期化することを含む。同期化またはペアリングは、モニタのディスプレイ領域またはメガネのセカンダリディスプレイ画面のいずれかに表示される対応するアプリケーションウィンドウ内において実行されるアプリケーションとのインタラクトにコンピューティングデバイスの入力デバイスを使用できるように、入力デバイスを同期化することも含むことができる。
プレイステーション3は、インタラクティブアプリケーションを実行及び表示するのに使用されるエンターテイメントデバイスの一実施例であり、例えば、PS4、PS Vitaなどのより古い及びより新しいバージョンのエンターテイメントデバイス、例えば、パーソナルコンピュータ、スマートフォン、タブレットなどの他のエンターテイメントデバイスを含むインタラクティブアプリケーションの実行及び表示において、他のエンターテイメントデバイスも使用することができる。
システムユニット700には、システムユニット700に接続可能なさまざまな周辺デバイスが提供される。システムユニット700は、セルプロセッサ728、ラムバス(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット726、専用ビデオランダムアクセスメモリ(VRAM)ユニット732を備えたリアリティシンセサイザグラフィックスユニット730、及びI/Oブリッジ734を備える。
システムユニット700は、I/Oブリッジ734を通じてアクセスできる、ディスク740aを読み出すためのブルーレイ(登録商標)ディスクBD−ROM(登録商標)光ディスクリーダ740、及びリムーバブルスロットインハードディスクドライブ(HDD)736も備える。システムユニット700は、選択的に、同様に、I/Oブリッジ734を通じてアクセスできる、コンパクトフラッシュ(登録商標)メモリカード、メモリスティック(登録商標)メモリカードなどを読み出すためのメモリカードリーダ738も備える。
ビデオカメラ712の実施形態は、USB、ブルートゥース(登録商標)またはWi−Fi通信ポートを通じて、システムユニット700にさまざまに接続することができる。ビデオカメラの実施形態は、一つ以上の付随するマイクロホンを含み、音声データを伝送することもできる。ビデオカメラの実施形態において、CCDは、高解像度ビデオキャプチャに適した解像度を有することができる。使用中、ビデオカメラによって捕捉された画像は、例えば、ゲーム内部に組み込むことができる、またはゲームコントロール入力として解釈することができる。別の実施形態では、カメラは、赤外光の検出に適した赤外線カメラである。
Claims (31)
- プライマリディスプレイを有するプライマリコンピューティングデバイスに近接し、ユーザに装着されたメガネコンピューティングデバイスの存在を検出し、前記プライマリコンピューティングデバイスの前記プライマリディスプレイがコンテンツを表示するように構成されており、前記メガネコンピューティングデバイスがセカンダリディスプレイを含み、
前記メガネコンピューティングデバイスを前記プライマリコンピューティングデバイスにリンクし、このリンクにより前記メガネコンピューティングデバイスの前記セカンダリディスプレイを使用して前記プライマリディスプレイから仮想画面に移動したコンテンツを表示することが可能になり、前記仮想画面のサイズは前記プライマリディスプレイから移動した前記コンテンツに対応して調整され、
前記メガネコンピューティングデバイスを装着するユーザのビュー方向を前記プライマリディスプレイに対して検出し、前記ビュー方向は、前記ユーザに装着された前記メガネコンピューティングデバイスの前記プライマリディスプレイからの変位オフセットを追跡することで計算され、
前記コンテンツを前記ユーザの前記検出されたビュー方向に基づいて前記セカンダリディスプレイに表示するために提供し、前記セカンダリディスプレイ上に表示するために提供されるコンテンツが、前記プライマリコンピューティングデバイス上に表示されたコンテンツまたは前記仮想画面内に移動したコンテンツであり、前記セカンダリディスプレイが、前記プライマリディスプレイに表示された前記コンテンツの範囲を越えたコンテンツをビューすることを可能にする前記プライマリディスプレイの拡張部を提供し、
プロセッサによって実行される、方法。 - 前記ビュー方向の変化の検出を継続することをさらに含み、前記ビュー方向の変化によって前記セカンダリディスプレイに表示するために提供された前記コンテンツの範囲が変更する、請求項1に記載の方法。
- 前記ビュー方向が、前記プライマリコンピューティングデバイスのカメラを使用して前記メガネコンピューティングデバイスを追跡することによって更新される、請求項1に記載の方法。
- 前記メガネコンピューティングデバイスが、ユーザの頭部に装着されるように構成されており、前記ビュー方向が、前記プライマリコンピューティングデバイスのカメラを使用して、前記ユーザが前記メガネコンピューティングデバイスを装着している時の前記ユーザの頭部の動きを追跡することによって更新される、請求項1に記載の方法。
- 前記仮想画面に移動した前記コンテンツの増減に応じて、前記コンテンツに対応する前記仮想画面が動的に拡張または収縮し、前記仮想画面が、前記プライマリディスプレイとともに円形の表示領域を形成するように拡張する、請求項1に記載の方法。
- 前記仮想画面に移動した前記コンテンツの一つ以上が、前記ビュー方向によって画定された変位オフセットに基づいて提示される、請求項1に記載の方法。
- ユーザに装着され、前記ユーザのユーザアカウントに関連する識別子を用いて識別されるメガネを検出し、前記メガネが、コンピューティングデバイスとの無線通信を可能にするためのプロセッサ、及びメガネディスプレイ画面を有し、
前記コンピューティングデバイスのメインディスプレイ画面の方を向いているときの、前記ユーザに装着された前記メガネの初期ビュー位置を関連付けすることであって、前記メガネの前記初期ビュー位置は前記メインディスプレイ画面に関して定められた基準点に関連付けされ、
前記メインディスプレイ画面に関連付された前記基準点からの前記メガネの変位オフセットを計算することで、前記基準点に関する使用中の前記メガネのビュー方向を検出し、
前記検出されたビュー方向に基づいて前記メガネディスプレイ画面上に表示するためのコンテンツを提供することであって、前記メガネディスプレイ画面上に表示するために提供されるコンテンツが、前記メインディスプレイ画面からのコンテンツまたは前記メインディスプレイ画面から仮想画面に移動したコンテンツのいずれかであり、前記メガネディスプレイ画面が前記メインディスプレイ画面の仮想拡張部であり、
前記プロセッサによって実行される、方法。 - 前記ビュー方向が、前記コンピューティングデバイスのカメラを使用して、前記基準点に関して、前記ユーザに装着された前記メガネのビュー位置を追跡することによって検出される、請求項7に記載の方法。
- 前記ユーザに装着された前記メガネのビュー方向の変化の検出を継続することをさらに含み、前記ビュー方向の変化が前記メガネディスプレイ画面に表示するために提供される前記コンテンツにおける変更を生じ、前記コンテンツが現在のビュー方向に対応するように選択される、請求項7に記載の方法。
- 前記メガネの前記ビュー方向が、前記コンピューティングデバイスのカメラを使用して、前記メガネを前記コンピューティングデバイスに対して追跡することによって決定される、請求項7に記載の方法。
- 前記メインディスプレイ画面から前記仮想画面に移動した前記コンテンツが、前記メインディスプレイ画面からの動きの方向及び順序に従って前記仮想画面内で別個のウィンドウで組織化される、請求項7に記載の方法。
- 前記仮想画面が、前記メインディスプレイ画面から移動した前記コンテンツを表示するためのプライベート画面領域を画定し、前記プライベート画面領域内の前記コンテンツには選ばれたユーザアカウントだけにアクセスが提供される、請求項7に記載の方法。
- 前記仮想画面内に移動したコンテンツの選択を検出することをさらに含み、前記検出によって、前記仮想画面内に維持された前記選択されたコンテンツが前記仮想画面から前記メインディスプレイ画面に自動的に移動し、前記コンピューティングデバイスに提供されたコントロールを使用した前記メインディスプレイ画面における前記選択されたコンテンツとのインタラクションを可能にする、請求項7に記載の方法。
- コンテンツを表示するためのディスプレイデバイスの表示領域の拡張方法であって、
メガネとコンピューティングデバイスとを同期化し、前記同期化によって、前記コンピューティングデバイスのメインディスプレイ画面が、前記メガネにおいて画定されたセカンダリディスプレイ画面とペアリングされて前記メインディスプレイ画面から前記セカンダリディスプレイ画面に表示できる仮想画面へのコンテンツの移動が可能となり、前記コンピューティングデバイスが、複数のアプリケーションを実行し、前記コンピューティングデバイスの前記メインディスプレイ画面上に表示する複数のアイコンを選択するように構成され、前記メガネがユーザの頭部に装着されるように構成され、
前記コンピューティングデバイスの前記メインディスプレイ画面から出るコンテンツの動きを検出し、前記検出によって前記コンテンツが前記メインディスプレイ画面から出て前記メインディスプレイ画面の代わりに前記仮想画面に関連付けられ、
前記メガネの前記セカンダリディスプレイ画面上に表示するためのコンテンツを提供し、表示するために選択された前記コンテンツが前記ユーザに装着されたメガネに対して検出されたビュー方向に対応しており、前記ビュー方向が前記ユーザに装着されたメガネの前記メインディスプレイ画面からの変位オフセットを決定することにより計算され、前記セカンダリディスプレイ画面上に表示するために提供されたコンテンツが前記メインディスプレイ画面上に表示されたコンテンツまたは前記メインディスプレイ画面から前記仮想画面に移動したコンテンツであり、前記セカンダリディスプレイ画面が前記メインディスプレイ画面の拡張部を提供し、
プロセッサによって実行される、方法。 - 前記コンピューティングデバイスが、前記コンピューティングデバイス内部の局所で前記アプリケーションを実行するように構成される、請求項14に記載の方法。
- 前記コンピューティングデバイスが、クラウドシステム内のクラウドサーバにおいて前記アプリケーションを実行するように構成される、請求項14に記載の方法。
- 前記メガネが、前記コンピューティングデバイスに通信可能に接続するためのプロセッサ及びネットワーク接続インターフェースを含み、前記メガネの前記ネットワーク接続インターフェースが、前記コンピューティングデバイスとインターフェースするための無線接続プロトコルを使用する、請求項14に記載の方法。
- 前記同期化によって、前記仮想画面内に移動した前記コンテンツとインタラクトするための、前記コンピューティングデバイスの入力及び出力デバイスの使用が可能になる、請求項14に記載の方法。
- 検出が、前記メインディスプレイ画面からの前記コンテンツの動きの方向及び順序を識別することを含み、
前記方向及び順序を、前記仮想画面において前記コンテンツを組織化するのに使用し、組織化された前記コンテンツが配置識別子に関連する、請求項14に記載の方法。 - 前記メインディスプレイ画面から外に移動した前記コンテンツが、前記メインディスプレイ画面からの動きの古い順および新しい順のいずれかに応じて、前記仮想画面において組織化される、請求項14に記載の方法。
- 前記仮想画面に表示されているコンテンツの選択を受信することをさらに含み、前記選択によって、前記選択されたコンテンツが、前記仮想画面における表示を停止し、前記コンピューティングデバイスの前記メインディスプレイ画面に表示される、請求項14に記載の方法。
- 前記選択が、前記セカンダリディスプレイ画面に関連したコントロールを使用して提供されたジェスチャを通じたものであり、前記ジェスチャが、1回だけのクリック、ダブルクリック、ドラッグ・アンド・ドロップ・ジェスチャ、音声命令、眼のジェスチャ、視線検出及び選択、またはそれらの二つ以上の組み合わせの一つ以上を含む、請求項21に記載の方法。
- 前記仮想画面の特定の領域に提示されているコンテンツの選択を受信することをさらに含み、
前記選択によって、前記仮想画面の前記特定の領域内に表示されたコンテンツに対する更新の提供を継続しつつ、
前記特定の領域に表示されたコンテンツを提供する前記アプリケーションとのインタラクションを可能にする、請求項14に記載の方法。 - 前記セカンダリディスプレイ画面が、前記メガネのレンズ部の一つまたは両方の一部分または全体領域の範囲にわたる、請求項14に記載の方法。
- ユーザアカウントに関連する識別子を有するメガネを検出し、前記メガネが、コンピューティングデバイスとの無線通信を可能にするプロセッサ、及びメガネディスプレイ画面を有し、前記メガネがユーザの頭部に装着されるように構成されており、
前記コンピューティングデバイスのメインディスプレイ画面の方を向いているときの前記メガネの初期ビュー位置を関連付けすることであって、前記メガネの前記初期ビュー位置は前記メインディスプレイに関して定められた基準点に関連付けされ、
前記メガネディスプレイ画面上に表示するためのコンテンツを提供し、前記メガネディスプレイ画面に表示するために提供された前記コンテンツは、前記ユーザに装着された前記メガネに対して計算されたビュー方向に対応しており、また前記メインディスプレイ画面上に表示されたコンテンツまたは前記メインディスプレイ画面から仮想画面に移動したコンテンツのいずれかであり、前記メガネディスプレイ画面が前記メインディスプレイ画面の仮想拡張部であり、
前記ビュー方向が前記基準点に対する前記メガネのビュー位置の変更を追跡することにより計算される、方法。 - 前記メガネの検出が可能になるように、前記コンピューティングデバイスと前記メガネとのペアリングを実行することをさらに含む、請求項25に記載の方法。
- 前記ペアリングによって、前記メガネディスプレイ画面に表示された前記コンテンツとインタラクトするための、前記コンピューティングデバイスの入力及び出力デバイスの使用を可能にする、請求項26に記載の方法。
- 前記基準点が、前記コンピューティングデバイスの前記メインディスプレイ画面において定められた一つ以上の仮想位置マーカによって決められ、前記初期ビュー位置が、前記一つ以上の仮想位置マーカの相対座標を使用して決められる、請求項25に記載の方法。
- 前記コンテンツが、アイコンに関連するコンテンツおよびアプリケーションのコンテンツのいずれかを含み、前記コンテンツが別個のウィンドウに表示される、請求項25に記載の方法。
- 前記追加のコンテンツが、前記メインディスプレイ画面からの動きの順序及び方向に従い前記仮想画面内において組織化される、請求項25に記載の方法。
- 前記メインディスプレイ画面から移動したコンテンツの量に基づいて、前記仮想画面の表示サイズを動的に調節することをさらに含む、請求項25に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/158,771 | 2014-01-17 | ||
US14/158,771 US10001645B2 (en) | 2014-01-17 | 2014-01-17 | Using a second screen as a private tracking heads-up display |
PCT/US2015/011274 WO2015108887A1 (en) | 2014-01-17 | 2015-01-13 | Using a second screen as a private tracking heads-up display |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017511943A JP2017511943A (ja) | 2017-04-27 |
JP2017511943A5 JP2017511943A5 (ja) | 2018-05-24 |
JP6526054B2 true JP6526054B2 (ja) | 2019-06-05 |
Family
ID=52444634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016565099A Active JP6526054B2 (ja) | 2014-01-17 | 2015-01-13 | プライベート追跡ヘッドアップディスプレイとしての第2画面の使用 |
Country Status (9)
Country | Link |
---|---|
US (1) | US10001645B2 (ja) |
EP (1) | EP3095024B1 (ja) |
JP (1) | JP6526054B2 (ja) |
CN (1) | CN106133645B (ja) |
BR (1) | BR112016014304B1 (ja) |
CA (1) | CA2933749C (ja) |
MX (1) | MX360221B (ja) |
RU (1) | RU2661808C2 (ja) |
WO (1) | WO2015108887A1 (ja) |
Families Citing this family (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10203873B2 (en) | 2007-09-19 | 2019-02-12 | Apple Inc. | Systems and methods for adaptively presenting a keyboard on a touch-sensitive display |
US10126942B2 (en) | 2007-09-19 | 2018-11-13 | Apple Inc. | Systems and methods for detecting a press on a touch-sensitive surface |
US10289302B1 (en) | 2013-09-09 | 2019-05-14 | Apple Inc. | Virtual keyboard animation |
US20150331589A1 (en) * | 2014-05-15 | 2015-11-19 | Todd KAWAKITA | Circular interface for navigating applications and an authentication mechanism on a wearable device |
US20150346812A1 (en) * | 2014-05-29 | 2015-12-03 | Nextvr Inc. | Methods and apparatus for receiving content and/or playing back content |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
US10311638B2 (en) | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US9904055B2 (en) * | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US20160027214A1 (en) * | 2014-07-25 | 2016-01-28 | Robert Memmott | Mouse sharing between a desktop and a virtual world |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
KR102309281B1 (ko) * | 2014-11-07 | 2021-10-08 | 삼성전자주식회사 | 오브젝트를 표시하는 방향 기반 전자 장치 및 방법 |
US9696549B2 (en) * | 2014-12-22 | 2017-07-04 | International Business Machines Corporation | Selectively pairing an application presented in virtual space with a physical display |
JP2016126467A (ja) * | 2014-12-26 | 2016-07-11 | 富士通株式会社 | モード同期方法、モード同期プログラム、及び端末 |
JP6426525B2 (ja) * | 2015-04-20 | 2018-11-21 | ファナック株式会社 | 表示システム |
EP3302740A1 (en) * | 2015-06-01 | 2018-04-11 | Thomson Licensing | Reactive animation for virtual reality |
US10318225B2 (en) | 2015-09-01 | 2019-06-11 | Microsoft Technology Licensing, Llc | Holographic augmented authoring |
US10229541B2 (en) * | 2016-01-28 | 2019-03-12 | Sony Interactive Entertainment America Llc | Methods and systems for navigation within virtual reality space using head mounted display |
US10366243B2 (en) * | 2016-02-04 | 2019-07-30 | Airwatch, Llc | Preventing restricted content from being presented to unauthorized individuals |
US10909761B1 (en) * | 2016-07-07 | 2021-02-02 | Google Llc | 2D video with option for projected viewing in modeled 3D space |
CN109478339A (zh) * | 2016-07-29 | 2019-03-15 | 三菱电机株式会社 | 显示装置、显示控制装置和显示控制方法 |
US20180046352A1 (en) * | 2016-08-09 | 2018-02-15 | Matthew Johnson | Virtual cursor movement |
EP3535639B1 (en) | 2016-11-02 | 2022-01-12 | Telefonaktiebolaget LM Ericsson (PUBL) | Controlling display of content using an external display device |
JP6760008B2 (ja) * | 2016-11-21 | 2020-09-23 | 富士通株式会社 | コンテンツ制御装置、コンテンツ制御プログラムおよびコンテンツ制御方法 |
US20180180883A1 (en) * | 2016-12-23 | 2018-06-28 | Raja Singh Tuli | Augmented reality eyewear |
US10726595B2 (en) * | 2016-12-30 | 2020-07-28 | Facebook, Inc. | Systems and methods to transition between media content items |
CN107168513A (zh) * | 2017-03-22 | 2017-09-15 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
CN110622110B (zh) * | 2017-03-23 | 2024-02-23 | 交互数字Ce专利控股公司 | 提供沉浸式现实内容的方法和装置 |
US10688396B2 (en) * | 2017-04-28 | 2020-06-23 | Sony Interactive Entertainment Inc. | Second screen virtual window into VR environment |
US11054894B2 (en) | 2017-05-05 | 2021-07-06 | Microsoft Technology Licensing, Llc | Integrated mixed-input system |
US10895966B2 (en) | 2017-06-30 | 2021-01-19 | Microsoft Technology Licensing, Llc | Selection using a multi-device mixed interactivity system |
US11023109B2 (en) * | 2017-06-30 | 2021-06-01 | Microsoft Techniogy Licensing, LLC | Annotation using a multi-device mixed interactivity system |
WO2019013821A1 (en) * | 2017-07-14 | 2019-01-17 | Hewlett-Packard Development Company, L.P. | PANEL FOR ATTENUATING LIGHT FOR AN ELECTRONIC EYEWEAR PRODUCT |
GB201714572D0 (en) * | 2017-09-11 | 2017-10-25 | Bae Systems Plc | Head-mounted display and control apparatus and method |
US10996467B2 (en) | 2017-09-11 | 2021-05-04 | Bae Systems Plc | Head-mounted display and control apparatus and method |
CN111373449B (zh) * | 2017-11-21 | 2023-09-12 | 沃尔沃卡车集团 | 用于辅助在产品上执行任务的辅助方法和辅助系统 |
FR3074331A1 (fr) * | 2017-11-28 | 2019-05-31 | Orange | Procede d'affichage en realite mixte d'au moins un objet virtuel, terminal et systeme associes |
CN107977586B (zh) * | 2017-12-22 | 2021-04-13 | 联想(北京)有限公司 | 显示内容处理方法、第一电子设备以及第二电子设备 |
US10695667B2 (en) * | 2018-03-14 | 2020-06-30 | Sony Interactive Entertainment LLC | Pro gaming AR visor and method for parsing context specific HUD content from a video stream |
US12003585B2 (en) | 2018-06-08 | 2024-06-04 | Vale Group Llc | Session-based information exchange |
US11195336B2 (en) | 2018-06-08 | 2021-12-07 | Vulcan Inc. | Framework for augmented reality applications |
JP6940702B2 (ja) * | 2018-06-25 | 2021-09-29 | マクセル株式会社 | ヘッドマウントディスプレイ、ヘッドマウントディスプレイ連携システム及びその方法 |
US10996831B2 (en) | 2018-06-29 | 2021-05-04 | Vulcan Inc. | Augmented reality cursors |
JP7252398B2 (ja) * | 2018-07-04 | 2023-04-04 | マクセル株式会社 | 仮想オブジェクト操作方法およびヘッドマウントディスプレイ |
US10854169B2 (en) * | 2018-12-14 | 2020-12-01 | Samsung Electronics Co., Ltd. | Systems and methods for virtual displays in virtual, mixed, and augmented reality |
US11055918B2 (en) * | 2019-03-15 | 2021-07-06 | Sony Interactive Entertainment Inc. | Virtual character inter-reality crossover |
CN109831662B (zh) * | 2019-03-22 | 2021-10-08 | 芋头科技(杭州)有限公司 | Ar眼镜屏幕的实时画面投射方法、装置及控制器和介质 |
CN110069230A (zh) * | 2019-04-24 | 2019-07-30 | 北京小米移动软件有限公司 | 扩展内容显示方法、装置及存储介质 |
US11907417B2 (en) * | 2019-07-25 | 2024-02-20 | Tectus Corporation | Glance and reveal within a virtual environment |
US11662807B2 (en) | 2020-01-06 | 2023-05-30 | Tectus Corporation | Eye-tracking user interface for virtual tool control |
CN111176520B (zh) * | 2019-11-13 | 2021-07-16 | 联想(北京)有限公司 | 一种调整方法及装置 |
CN110851227B (zh) * | 2019-11-13 | 2021-10-22 | 联想(北京)有限公司 | 一种显示控制方法及电子设备 |
TWI704378B (zh) * | 2019-11-21 | 2020-09-11 | 宏碁股份有限公司 | 頭戴式顯示裝置 |
US10950034B1 (en) | 2020-01-27 | 2021-03-16 | Facebook Technologies, Llc | Systems, methods, and media for generating visualization of physical environment in artificial reality |
CN116088182B (zh) * | 2020-02-24 | 2024-04-26 | Oppo广东移动通信有限公司 | 头戴式设备 |
US20210314768A1 (en) * | 2020-04-01 | 2021-10-07 | Google Llc | Bluetooth multipoint algorithm and private notifications |
TWI790430B (zh) * | 2020-04-13 | 2023-01-21 | 宏碁股份有限公司 | 擴增實境系統以及利用擴增實境眼鏡顯示虛擬螢幕的方法 |
CN113625866A (zh) * | 2020-05-08 | 2021-11-09 | 宏碁股份有限公司 | 增强现实系统以及利用增强现实眼镜显示虚拟屏幕的方法 |
CN111708504A (zh) * | 2020-06-16 | 2020-09-25 | 成都忆光年文化传播有限公司 | 一种扩展屏幕的显示方法 |
CN111612919A (zh) * | 2020-06-19 | 2020-09-01 | 中国人民解放军国防科技大学 | 数字孪生飞行器的多学科分屏同步展示方法和系统 |
TWI750818B (zh) * | 2020-09-24 | 2021-12-21 | 宏達國際電子股份有限公司 | 動態調整使用者界面方法、電子裝置及電腦可讀儲存媒體 |
US11175791B1 (en) * | 2020-09-29 | 2021-11-16 | International Business Machines Corporation | Augmented reality system for control boundary modification |
WO2022103741A1 (en) * | 2020-11-13 | 2022-05-19 | Sterling Labs Llc | Method and device for processing user input for multiple devices |
KR20220069370A (ko) * | 2020-11-20 | 2022-05-27 | 삼성전자주식회사 | 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법 |
US11481960B2 (en) | 2020-12-30 | 2022-10-25 | Meta Platforms Technologies, Llc | Systems and methods for generating stabilized images of a real environment in artificial reality |
CN114911398A (zh) * | 2021-01-29 | 2022-08-16 | 伊姆西Ip控股有限责任公司 | 显示图形界面方法、电子设备和计算机程序产品 |
JP2024507749A (ja) | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
JP2024506630A (ja) | 2021-02-08 | 2024-02-14 | サイトフル コンピューターズ リミテッド | 生産性のためのエクステンデッド・リアリティ |
CN113220118B (zh) * | 2021-04-20 | 2022-05-10 | 杭州灵伴科技有限公司 | 虚拟界面展示方法、头戴式显示设备和计算机可读介质 |
CN113342433A (zh) * | 2021-05-08 | 2021-09-03 | 杭州灵伴科技有限公司 | 应用页面显示方法、头戴式显示设备和计算机可读介质 |
US20220404907A1 (en) * | 2021-06-21 | 2022-12-22 | Penumbra, Inc. | Method And Apparatus For Real-time Data Communication in Full-Presence Immersive Platforms |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
EP4325341A4 (en) | 2021-09-15 | 2024-04-17 | Samsung Electronics Co., Ltd. | DEVICE AND METHOD FOR DISPLAYING EXTENDED SCREEN OF MOBILE DEVICE |
KR102664782B1 (ko) * | 2021-10-06 | 2024-05-10 | 한국과학기술원 | 가상 현실 공간에 대한 제어를 수행하는 전자 시스템, 전자 장치 및 그 동작 방법 |
WO2023058819A1 (ko) * | 2021-10-06 | 2023-04-13 | 한국과학기술원 | 가상 현실 공간에 대한 제어를 수행하는 전자 시스템, 전자 장치 및 그 동작 방법 |
US11592899B1 (en) | 2021-10-28 | 2023-02-28 | Tectus Corporation | Button activation within an eye-controlled user interface |
US20230165460A1 (en) * | 2021-11-30 | 2023-06-01 | Heru Inc. | Visual field map expansion |
US11619994B1 (en) | 2022-01-14 | 2023-04-04 | Tectus Corporation | Control of an electronic contact lens using pitch-based eye gestures |
US20230316634A1 (en) * | 2022-01-19 | 2023-10-05 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
US11874961B2 (en) | 2022-05-09 | 2024-01-16 | Tectus Corporation | Managing display of an icon in an eye tracking augmented reality device |
US20230376161A1 (en) * | 2022-05-19 | 2023-11-23 | Microsoft Technology Licensing, Llc | Mouse cursor and content migration between 3d space and physical flat displays |
CN115373615B (zh) * | 2022-08-25 | 2024-10-18 | 北京多屏未来科技有限公司 | 一种智能眼镜的多屏显示方法、装置、设备及存储介质 |
US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
US12079442B2 (en) | 2022-09-30 | 2024-09-03 | Sightful Computers Ltd | Presenting extended reality content in different physical environments |
US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
US12113948B1 (en) | 2023-06-04 | 2024-10-08 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
CN116932119B (zh) * | 2023-09-15 | 2024-01-02 | 深圳市其域创新科技有限公司 | 虚拟屏幕显示方法、装置、设备及计算机可读存储介质 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5140677A (en) * | 1990-05-11 | 1992-08-18 | International Business Machines Corporation | Computer user interface with window title bar mini-icons |
DE69434851T2 (de) * | 1993-08-12 | 2007-04-19 | Seiko Epson Corp. | Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungsgerät |
JP3730670B2 (ja) * | 1994-07-20 | 2006-01-05 | 富士通株式会社 | データ処理装置 |
TW362207B (en) * | 1997-05-08 | 1999-06-21 | Shimadzu Corp | Display system |
JP2002182893A (ja) * | 2000-12-14 | 2002-06-28 | Matsushita Electric Ind Co Ltd | マルチディスプレイシステム |
US20060028674A1 (en) * | 2004-08-03 | 2006-02-09 | Silverbrook Research Pty Ltd | Printer with user ID sensor |
US7852342B2 (en) * | 2004-10-14 | 2010-12-14 | Microsoft Corporation | Remote client graphics rendering |
WO2006043977A1 (en) | 2004-10-19 | 2006-04-27 | Sony Ericsson Mobile Communications Ab | Handheld wireless communication device for displaying information on multiple display screens, method of operating the device, and computer program product for operating the device |
US20060119574A1 (en) * | 2004-12-06 | 2006-06-08 | Naturalpoint, Inc. | Systems and methods for using a movable object to control a computer |
JP2006277239A (ja) | 2005-03-29 | 2006-10-12 | Canon Inc | 電子文書閲覧管理システム |
US9015578B2 (en) * | 2006-01-24 | 2015-04-21 | Microsoft Technology Licensing, Llc | Dynamic optimization of available display space |
EP1847924A1 (en) * | 2006-04-20 | 2007-10-24 | International Business Machines Corporation | Optimal display of multiple windows within a computer display |
SE0601216L (sv) * | 2006-05-31 | 2007-12-01 | Abb Technology Ltd | Virtuell arbetsplats |
CN101354639A (zh) * | 2007-07-25 | 2009-01-28 | 联想(北京)有限公司 | 在终端之间操作对象的方法及终端 |
JP2009093593A (ja) | 2007-10-12 | 2009-04-30 | Nikon Corp | 通信システム,端末装置,サーバ装置およびユーザ認証方法 |
US8363098B2 (en) * | 2008-09-16 | 2013-01-29 | Plantronics, Inc. | Infrared derived user presence and associated remote control |
JP2010092086A (ja) * | 2008-10-03 | 2010-04-22 | Just Syst Corp | ユーザ入力装置、デジタルカメラ、入力制御方法、および入力制御プログラム |
US20100105479A1 (en) * | 2008-10-23 | 2010-04-29 | Microsoft Corporation | Determining orientation in an external reference frame |
JP5158006B2 (ja) * | 2009-04-23 | 2013-03-06 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
US8913009B2 (en) * | 2010-02-03 | 2014-12-16 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
CN102893293A (zh) * | 2010-03-12 | 2013-01-23 | 莎法·瓦拉 | 位置捕获输入设备、系统及其方法 |
JP2012003123A (ja) * | 2010-06-18 | 2012-01-05 | Funai Electric Co Ltd | 3次元映像表示装置 |
US20120075167A1 (en) * | 2010-09-29 | 2012-03-29 | Eastman Kodak Company | Head-mounted display with wireless controller |
US8830329B2 (en) * | 2010-10-07 | 2014-09-09 | Sony Computer Entertainment Inc. | 3-D glasses with camera based head tracking |
US20120086630A1 (en) * | 2010-10-12 | 2012-04-12 | Sony Computer Entertainment Inc. | Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system |
US9489439B2 (en) * | 2011-02-28 | 2016-11-08 | Red Hat, Inc. | Generating portable interpolated data using object-based encoding of interpolation results |
US9217867B2 (en) * | 2011-03-24 | 2015-12-22 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
JP5691802B2 (ja) | 2011-04-28 | 2015-04-01 | コニカミノルタ株式会社 | 投影システム、投影装置、投影方法、および制御プログラム |
US9547438B2 (en) * | 2011-06-21 | 2017-01-17 | Empire Technology Development Llc | Gesture based user interface for augmented reality |
US20120327116A1 (en) | 2011-06-23 | 2012-12-27 | Microsoft Corporation | Total field of view classification for head-mounted display |
RU2486608C2 (ru) * | 2011-08-23 | 2013-06-27 | Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" | Устройство для организации интерфейса с объектом виртуальной реальности |
US20130147686A1 (en) * | 2011-12-12 | 2013-06-13 | John Clavin | Connecting Head Mounted Displays To External Displays And Other Communication Networks |
JP5880115B2 (ja) * | 2012-02-17 | 2016-03-08 | ソニー株式会社 | ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法 |
JP2013174642A (ja) | 2012-02-23 | 2013-09-05 | Toshiba Corp | 映像表示装置 |
EP2639690B1 (en) | 2012-03-16 | 2017-05-24 | Sony Corporation | Display apparatus for displaying a moving object traversing a virtual display region |
KR101195514B1 (ko) * | 2012-03-22 | 2012-10-29 | 알서포트 주식회사 | 가상 키패드를 이용하는 모바일 단말의 원격 제어 방법 및 장치 |
KR101861380B1 (ko) * | 2012-07-16 | 2018-05-28 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이 |
KR101991133B1 (ko) | 2012-11-20 | 2019-06-19 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 헤드 마운트 디스플레이 및 그 제어 방법 |
JP6123365B2 (ja) * | 2013-03-11 | 2017-05-10 | セイコーエプソン株式会社 | 画像表示システム及び頭部装着型表示装置 |
-
2014
- 2014-01-17 US US14/158,771 patent/US10001645B2/en active Active
-
2015
- 2015-01-13 MX MX2016009311A patent/MX360221B/es active IP Right Grant
- 2015-01-13 CA CA2933749A patent/CA2933749C/en active Active
- 2015-01-13 EP EP15702320.1A patent/EP3095024B1/en active Active
- 2015-01-13 JP JP2016565099A patent/JP6526054B2/ja active Active
- 2015-01-13 RU RU2016130682A patent/RU2661808C2/ru active
- 2015-01-13 BR BR112016014304-3A patent/BR112016014304B1/pt active IP Right Grant
- 2015-01-13 WO PCT/US2015/011274 patent/WO2015108887A1/en active Application Filing
- 2015-01-13 CN CN201580003833.6A patent/CN106133645B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017511943A (ja) | 2017-04-27 |
WO2015108887A1 (en) | 2015-07-23 |
US20150205106A1 (en) | 2015-07-23 |
EP3095024B1 (en) | 2021-09-15 |
MX360221B (es) | 2018-10-25 |
BR112016014304A2 (pt) | 2018-07-17 |
CA2933749C (en) | 2018-12-04 |
CN106133645B (zh) | 2019-12-27 |
RU2016130682A (ru) | 2018-02-22 |
WO2015108887A8 (en) | 2016-11-03 |
CN106133645A (zh) | 2016-11-16 |
EP3095024A1 (en) | 2016-11-23 |
CA2933749A1 (en) | 2015-07-23 |
MX2016009311A (es) | 2016-10-07 |
US10001645B2 (en) | 2018-06-19 |
RU2661808C2 (ru) | 2018-07-19 |
BR112016014304B1 (pt) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6526054B2 (ja) | プライベート追跡ヘッドアップディスプレイとしての第2画面の使用 | |
EP3241088B1 (en) | Methods and systems for user interaction within virtual or augmented reality scene using head mounted display | |
US10229541B2 (en) | Methods and systems for navigation within virtual reality space using head mounted display | |
US11175727B2 (en) | Viewing a three-dimensional information space through a display screen | |
CN107076989B (zh) | 根据眼睛追踪的实时透镜像差校正 | |
US9084938B2 (en) | Handheld device for spectator viewing of an interactive application | |
TWI571130B (zh) | 體積式視訊呈現 | |
JP5654430B2 (ja) | 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用 | |
US20140362110A1 (en) | Systems and methods for customizing optical representation of views provided by a head mounted display based on optical prescription of a user | |
KR102195450B1 (ko) | 줌 장치 및 관련된 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171003 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180403 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20180403 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190507 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6526054 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |