JP2017511943A5 - - Google Patents

Download PDF

Info

Publication number
JP2017511943A5
JP2017511943A5 JP2016565099A JP2016565099A JP2017511943A5 JP 2017511943 A5 JP2017511943 A5 JP 2017511943A5 JP 2016565099 A JP2016565099 A JP 2016565099A JP 2016565099 A JP2016565099 A JP 2016565099A JP 2017511943 A5 JP2017511943 A5 JP 2017511943A5
Authority
JP
Japan
Prior art keywords
computing device
display screen
glasses
window
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016565099A
Other languages
English (en)
Other versions
JP6526054B2 (ja
JP2017511943A (ja
Filing date
Publication date
Priority claimed from US14/158,771 external-priority patent/US10001645B2/en
Application filed filed Critical
Publication of JP2017511943A publication Critical patent/JP2017511943A/ja
Publication of JP2017511943A5 publication Critical patent/JP2017511943A5/ja
Application granted granted Critical
Publication of JP6526054B2 publication Critical patent/JP6526054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

モバイルコンピューティングデバイスの計算能力の拡張、かつこれらのデバイス人気の上昇に伴い、モバイルコンピューティングデバイスは、実質的に、さまざまなアプリケーションにアクセスしてそれとインタラクトするための最適なデバイスに次第になってきている。これらのアプリケーションとして、例えば、インタラクティブソーシャルメディアアプリケーション、インタラクティブゲームアプリケーション、検索アプリケーション、電子メールアプリケーションなどがある。
テレビゲーム産業の発展及びモバイルデバイスを含むさまざまなコンピューティングデバイスの計算能力の拡張に伴い、ユーザは、ますます、モバイルコンピューティングデバイスを使用してテレビゲームとインタラクトすることができるようになった。その結果、テレビゲームの開発者は、ユーザがゲーム機において局所で実行するまたはクラウドゲームシステムを通じてアクセスするゲームサーバにおいて遠隔で実行するテレビゲームにアクセスしてそれとインタラクトできる、モバイルコンピューティングデバイス(または、単に「モバイルデバイス」)内の計算能力の増大を生かすゲームソフトまたはゲームインターフェースをますます開発している。今日のモバイルデバイスは、ユーザがさまざまなアプリケーションとインタラクトできるような、単一デバイスに組み込まれるいくつかの異なるタイプのハードウェアを含む。例えば、モバイルデバイスの多くは、そのようなインタラクションを可能にするための、カラーディスプレイ、カメラ、スピーカ、及び例えば、ボタン、タッチ画面またはスタイラスなどの入力機構を含む。
一実施形態において、方法が開示される。この方法は、プライマリディスプレイを有するプライマリコンピューティングデバイスに近接するメガネコンピューティングデバイスの存在を検出することを含む。プライマリコンピューティングデバイスのプライマリディスプレイは、コンテンツを表示するように構成される。メガネコンピューティングデバイスは、セカンダリディスプレイを含む。メガネコンピューティングデバイスは、プライマリコンピューティングデバイスにリンクされる。プライマリディスプレイと相対的なメガネコンピューティングデバイスのビュー方向が検出される。プライマリディスプレイに表示されるコンテンツに加えて、追加のコンテンツが、セカンダリディスプレイに表示される。セカンダリディスプレイは、プライマリディスプレイに表示されたコンテンツの範囲を越えたコンテンツをビューするための、プライマリディスプレイの拡張部としての役目を果たす。
一実施形態において、メガネは、コンピューティングデバイスとインタラクトするためのプロセッサ及びネットワーク接続インターフェースを含む。
一実施形態において、メガネのネットワーク接続インターフェースは、コンピューティングデバイスとインタラクトするための無線接続プロトコルを使用する。
一実施形態において、同期化によって、セカンダリディスプレイ画面内に移動したウィンドウとインタラクトするための、コンピューティングデバイスの入力及び出力デバイスの使用が可能になる。
一実施形態において、セカンダリディスプレイ画面に表示されているウィンドウの選択が検出され、それに応答して、選択されたウィンドウが、ユーザのインタラクションのために、セカンダリディスプレイ画面から外に移動して、コンピューティングデバイスのメインディスプレイ画面に戻される。
一実施形態において、セカンダリディスプレイ画面に提示されているウィンドウの選択が検出される。検出に応答して、選択されたウィンドウに表示されたアプリケーションによって、選択されたウィンドウのセカンダリディスプレイ画面内での表示を継続しつつのインタラクションが可能になる。
一実施形態において、ペアリングによって、セカンダリディスプレイ画面に表示されたコンテンツとインタラクトするための、コンピューティングデバイスの入力及び出力デバイスの使用が可能になる。
以下の実施形態は、コンピューティングデバイスによって表示のために選択された別個のウィンドウ内にアプリケーションのコンテンツ及びアイコンを表示するためのメガネ内部の追加のディスプレイ領域を提供することによって、ディスプレイデバイスの表示領域を拡張するための方法及びシステムを記述する。本発明の一実施形態において、メガネには、コンピューティングデバイスと接続するためのプロセッサ及びネットワーク相互接続性が装備される。コンピューティングデバイスは、コンピューティングデバイスのユーザによって実行または表示するために選択されたアプリケーションのコンテンツまたはアイコンを表示するためのメインディスプレイ画面を有するモニタを含む。コンテンツは、別個のウィンドウに表示される。接続によって、コンピューティングデバイスに付随するモニタのメインディスプレイ画面と、メガネにおいて画定されたセカンダリディスプレイ画面との同期化が可能になる。選択された一つのウィンドウがコンピューティングデバイスのメインディスプレイ画面から外に移動したときに、コンピューティングデバイスによってその動きが検出され、それに応答して、コンピューティングデバイスは、モニタのメインディスプレイ画面における選択されたウィンドウの表示を停止する。メガネは、モニタのディスプレイ領域から出たウィンドウの動きを検出し、移動したウィンドウをメガネのディスプレイ領域に表示する。メガネ内部に画定されたセカンダリディスプレイ画面は、ユーザのための追加のビューイング及びインタラクション領域を提供することによって、メインディスプレイ画面の仮想拡張部としての役目を果たす。それ故に、本発明の実施形態による方法及び装置を、図面を参照してここに記述する。
内蔵プロセッサ(図示せず)及び無線相互接続性を持つメガネ102が、ペアリングによってコンピューティングデバイス10に通信可能に接続される。メガネは、セカンダリディスプレイ画面102Aなどのディスプレイ領域を含む。メガネには、メガネ外部の環境を捕捉するためのカメラも装備される。一実施形態において、メガネは、ヘッドアップディスプレイ(HUD)であってもよい。別の実施形態では、メガネは、ヘッドマウントディスプレイ(HMD)であってもよい。なおも別の実施形態では、メガネの代わりに、メガネコンピューティングデバイスを使用して、本明細書に記述するさまざまな実施形態と同じ機能性を提供することができる。
メガネのディスプレイ領域は、レンズ部の一つまたは両方の一部分の範囲にわたることができる。いくつかの実施形態において、メガネのその一部分は、メガネの全体領域の範囲にわたることができる。図1A〜図1Dは、セカンダリディスプレイ画面102Aが配置されるメガネ102内のさまざまな位置を図示する。例えば、図1Aに図示するように、セカンダリディスプレイ画面102Aは、ユーザが装着したときに右眼の範囲にわたるレンズ部の右上隅に配置される。代わりに、図1Bに図示するように、ディスプレイ領域102Aは、一つの眼(すなわち、右眼)の範囲にわたるレンズ部の中心に、図1Cに図示するように、左右のレンズ部(図示せず)の左上隅に、または図1Dに図示するように、メガネ102の全表面の範囲にわたって配置することができる。
図1Dの場合は、ディスプレイ領域は、ユーザが、あるモードにおいて、第二のモードに切り替えることによって、ユーザがその視点から目をそらす必要なく、種々のアプリケーションまたはアイコンウィンドウが提供する画像を視認できる、データを提示する透明なディスプレイであってもよい。この場合は、ユーザは、現実世界と仮想世界との間を移行することによって、メガネのプロセッサによって投影された適切なデータを視認することができる。メガネは、ユーザがあるモードから別のモードに切り替えるまたは移行することができる、メガネの側面に取り付けられたタッチパッドなどの一つ以上の入力デバイスを含むことができる。
タッチパッドは、他のユーザインタラクションにも使用することができる。例えば、タッチパッドを使用して、メガネとコンピューティングデバイスとをペアリングし、メガネとコンピューティングデバイス10とを同期化することができる。一実施形態において、同期化は、メガネコンピューティングデバイスまたはメガネと、プライマリコンピューティングデバイスとをペアリングして、モニタ100のメインディスプレイ画面と、メガネにおいて画定されたセカンダリディスプレイ画面102Aとを同期化することを含む。ディスプレイ画面の同期化に加えて、一実施形態において、同期化によって、メガネのセカンダリディスプレイ画面に表示されたコンテンツとのインタラクションのために、コンピューティングデバイス10の入力デバイスの使用が可能になる。別の実施形態では、同期化は、コンピューティングデバイス10の入力デバイスとメガネの入力デバイスとの同期化を含むことができる。
コンピューティングデバイス10に付随する入力デバイスが、実行するための一つ以上のインタラクティブアプリケーション、または表示するためのアイコンを選択するために使用される。アプリケーションの選択または実行に応答して、ユーザがアプリケーションウィンドウに表示されたアプリケーションまたはアイコンのいずれかとインタラクトできるように、一つ以上のアプリケーションのコンテンツまたはアイコンを、モニタ100のメインディスプレイ画面における別個の「アプリケーション」ウィンドウに表示することができる。各アプリケーションウィンドウは、コンピューティングデバイス10において実行するために選択されるアイコンのコンテンツまたはアプリケーションのコンテンツを表示するように設計される。
インタラクティブアプリケーションまたはアイコンは、コンピューティングデバイス10において局所で利用できる、またはクラウドサーバにおいて利用できる。クラウドにおいてアプリケーションを利用できる場合には、コンピューティングデバイス10は、アプリケーションのコピーを取得し、コンピューティングデバイス内部の局所でそれを実行することができる。代わりに、アプリケーションをクラウドにおいて実行し、そしてコンテンツを表示し、アプリケーションインターフェースを使用したアプリケーションとのインタラクションを可能にするために、アプリケーションウィンドウを、コンピューティングデバイスによってモニタのメインディスプレイ画面に提供することができる。同様に、コンピューティングデバイスは、アイコンのコピーを取得し、モニタのメインディスプレイ画面にそれを表示することができる。
インタラクションの一部として、ユーザは、モニタ100に表示されたアプリケーションウィンドウを選択し、それをモニタのディスプレイ画面から外に移動させることができる。コンピューティングデバイスは、その動きを検出し、選択されたインタラクティブアプリケーションのアプリケーションウィンドウを、モニタ100のメインディスプレイ画面から自動的に削除する。同時に、メガネが、メガネのディスプレイ領域(すなわち、セカンダリディスプレイ画面)内へのアプリケーションウィンドウの動きを検出する。セカンダリディスプレイ画面は、アプリケーションウィンドウを表示するための追加のディスプレイ領域を提供することによって、モニタの表示領域の拡張部としての役目を果たす。
モニタのメインディスプレイ画面領域は、主に、実行するためにまたはメガネを装着しているユーザのために選択されたアプリケーションのアイコン及びコンテンツを表示するための別個のアプリケーションウィンドウを提示するのに使用される。ユーザが、ますます多くのアプリケーションを実行し、複数のアイコンを選択すると、アプリケーションの各々のコンテンツ及び/またはアイコンが、モニタのメインディスプレイ画面領域上の別個のウィンドウに提示され、その結果、モニタのメインディスプレイ画面領域でアイコン等が過密となる。
これを緩和するために、ユーザは、メインディスプレイ画面領域から外に出すウィンドウの一つ以上を選択して移動させることができる。その動きに応答して、コンピューティングデバイスが、選択された一つ以上のウィンドウのモニタのメインディスプレイ画面領域における表示を停止し、ペアリングによって、メガネが、その停止動作を検出し、そのウィンドウを、メガネのディスプレイ部において画定されたセカンダリディスプレイ画面に表示する。ユーザは、アプリケーションウィンドウがモニタのメインディスプレイ画面領域に表示されたときのインタラクションと同様の方法で、コンピューティングデバイスに付随する入力デバイスを使用してメガネのセカンダリディスプレイ画面にシフトされたアプリケーションウィンドウとインタラクトすることができる。
図2A〜図2Cは、本発明の一実施形態における、モニタのメインディスプレイ画面領域の簡易化したサンプルの画面表示、及びメガネのセカンダリディスプレイ画面を図示する。図2Aに図示するように、複数のウィンドウ120a、120b、120cなどが、コンピューティングデバイス10のモニタ100のメインディスプレイ画面領域100Aに表示される。各ウィンドウは、コンピューティングデバイス10において局所、またはコンピューティングデバイスによってクラウドサーバにおいてもしくはアイコンのコンテンツにおいて遠隔のいずれかにおいて実行するために選択されたアプリケーションのコンテンツを表示する。
アプリケーションの遠隔実行の場合は、コンピューティングデバイスは、ネットワーク接続性を使用して、インターネットなどのネットワークを通じてクラウドサーバに通信可能に接続される。コンピューティングデバイス10は、セカンダリディスプレイ画面が配置された、ユーザによって使用されるメガネにも通信可能に接続される。このメガネは、コンピューティングデバイス10とペアリングするためのプロセッサ及びネットワーク接続性を含む。通信接続の一部として、メガネのディスプレイ部において画定されたセカンダリディスプレイ画面は、コンピューティングデバイスのモニタのメインディスプレイ画面領域と同期化され、これによりそれぞれのディスプレイ画面領域におけるユーザインタラクションが可能になる。
図2Aに図示するように、ユーザインタラクションの一部として、ウィンドウ120bが、モニタ100のメインディスプレイ画面領域100Aから外に移動される。コンピューティングデバイス10において実行されるプログラミング論理が、モニタのメインディスプレイ画面領域から出るウィンドウ120bの動きを検出し、それに応答して、図2Bに図示するように、自動的に、モニタ100のメインディスプレイ画面領域100Aからのウィンドウ120bの一部分の移動を開始する。同時に、図2Bに図示するように、メインディスプレイ画面領域から外に移動したウィンドウの一部分が、メガネ内部の論理によってセカンダリディスプレイ画面に表示するために捕捉される。図2Cは、メインディスプレイ画面領域100Aにおけるウィンドウ120bのレンダリングを終了し、同時に、セカンダリディスプレイ画面102Aにおいてウィンドウ120bをレンダリングすることによる、モニタ領域から出たウィンドウ120bの動きの完了を図示する。残りのウィンドウ120a及び120cは、モニタ100のメインディスプレイ画面領域100Aにおける表示を継続する。
一実施形態において、ユーザの継続的なインタラクションの一部として、ユーザは、メガネのセカンダリディスプレイ画面に表示される特定のウィンドウを選択する。この実施形態では、ユーザ選択によって、選択されたウィンドウは、セカンダリディスプレイ画面における表示を停止し、代わりに、モニタのメインディスプレイ画面領域内での表示を開始する。ウィンドウがモニタのメインディスプレイ画面領域に移動すると、その後のユーザインタラクションは、選択されたウィンドウにおいて実行されるアプリケーション、またはコンテンツ、ディスプレイもしくはその両方に対して変更されるアイコンに対する入力として使用される。別の実施形態では、ユーザの継続的なインタラクションの一部として、特定のアプリケーションまたはアイコンウィンドウのユーザ選択によって、選択されたウィンドウはメガネのセカンダリディスプレイ画面に留まり、ユーザインタラクションは、選択されたウィンドウにおいて実行されるアプリケーション、または選択されたウィンドウにおけるコンテンツ、ディスプレイもしくはその両方における変更を提示するアイコンに対する入力として使用される。
図3は、本発明の一実施形態による、別個のアプリケーションウィンドウにおけるセカンダリディスプレイ画面において実行するために選択されたアイコンまたはアプリケーションのコンテンツを表示するためのメインディスプレイ画面領域を提示するためにレンダリング領域プロセッサモジュール150が実行するコンピューティングデバイスを図示する。別の実施形態では、レンダリング領域プロセッサモジュール150は、コンピューティングデバイスに付随するディスプレイデバイスの表示領域を拡張するために、メガネ内部に配置することができる。レンダリング領域プロセッサ150は、デバイスシンクロナイザーモジュール152、インタラクション検出モジュール158、及び視野角計算モジュール166などの追加のモジュールを含む。
デバイスシンクロナイザー152は、ディスプレイ画面シンクロナイザー154、及び入力デバイスシンクロナイザーモジュール156を含む。デバイスシンクロナイザー152は、第一に、コンピューティングデバイスとメガネとを同期化するのに使用される。メガネにおけるプロセッサ及びインターネット接続性が、コンピューティングデバイスとペアリングするのに使用され、それとの無線通信が可能になる。メガネは、レンズ部範囲の一つまたは両方の一部分において画定されたディスプレイ領域(すなわち、セカンダリディスプレイ画面領域)を含む。ディスプレイ画面シンクロナイザー152は、メガネにおいて画定されたセカンダリディスプレイ画面領域と、コンピューティングデバイスに付随するモニタのメインディスプレイ画面領域とを同期化するための必須の構成論理を提供する。同様に、入力デバイスシンクロナイザー156は、コンピューティングデバイスの入力デバイスとメガネとを同期化またはペアリングするための構成論理を含む。入力デバイス同期化の一部として、一実施形態において、コンピューティングデバイスの入力デバイスは、メガネのセカンダリディスプレイ画面領域に表示されるウィンドウとインタラクトするために使用することができる。別の実施形態では、同期化またはペアリングの一部として、メガネの入力デバイスは、コンピューティングデバイスの入力デバイスと同期化またはペアリングされる。メガネとコンピューティングデバイスとが同期化またはペアリングされると、レンダリング領域プロセッサが、コンピューティングデバイスのメインディスプレイ画面に関するメガネのビュー位置を計算することによって、メガネを装着しているユーザについての通常視野角を確定する。
ユーザは、コンピューティングデバイス内部において局所で、またはクラウドサーバにおいて遠隔で利用できる複数のアプリケーションを実行することを選択できる。各々の選択されたアプリケーションは、モニタのメインディスプレイ画面領域における別個のインタラクティブアプリケーションウィンドウに提示される。ユーザが、実行するためのますます多くのアプリケーションを選択すると、対応するアプリケーションウィンドウが、ユーザのインタラクションのためにメインディスプレイ画面領域に提示される。インタラクションの過程中、ユーザは、アプリケーションウィンドウのいくつかをメインディスプレイ画面領域から外に移動させることを選択できる。この移動によって、選択されたアプリケーションウィンドウのいくつかが、メインディスプレイ画面領域における表示を中断し、代わりに、メガネにおいて画定されたセカンダリディスプレイ画面内での表示を開始する。一実施形態において、図4A−3に図示するように、セカンダリディスプレイ画面は、アプリケーションウィンドウを表示するための、ほぼ360度の角度ビュー画面をユーザに提供するレンダリング領域の無限円ループを画定する仮想画面としての役目を果たす。セカンダリディスプレイ画面によって画定された仮想画面のサイズは、メインディスプレイ領域から外に移動したアプリケーションウィンドウに対応するように動的に調節される。実行するために選択されたアプリケーションに加えて、ユーザは、一つ以上のアイコンを表示することも選択できる。選択されたアイコンは、モニタのメインディスプレイ画面領域における別個のアプリケーションウィンドウに表示され、メインディスプレイ画面から外に移動したときに、セカンダリディスプレイ画面領域内での表示を開始する。
図4Bは、インタラクティブアプリケーションウィンドウを表示するのに使用されるメインディスプレイ画面領域100A及びセカンダリディスプレイ画面102Aの単純な表示を図示する。メインディスプレイ画面領域100Aは、例えば、視野角「α」を包含するユーザの通常初期設定角によって画定された領域を包含する。ユーザの頭部が通常初期設定角「α」から角度「β」、「θ」、「γ」などによって画定されたビューオフセット角度に移動すると、それぞれのビューオフセットに対応する仮想画面が提供するコンテンツが、セカンダリディスプレイ画面においてユーザに提示される。
図4Bに図示する実施例において、ビューオフセット「β」では、メインモニタのディスプレイ領域から外に移動したアプリケーションウィンドウ120aを含む仮想画面の一部分を識別することができる。その結果、アプリケーションウィンドウ120aは、ユーザの頭部がビューオフセット「β」の範囲にわたって移動したときには、メガネのディスプレイ画面(すなわち、セカンダリディスプレイ画面領域)においてユーザに提示される。同様に、ユーザの頭部がビューオフセット「θ」の範囲にわたってシフトしたときには、アプリケーションウィンドウ120bをメガネのディスプレイ画面に表示することができ、以降も同様である。
ユーザの頭部の動きによって確立された視野角に基づいて、適切なアプリケーションウィンドウが、メガネにおいて画定されたディスプレイ画面においてユーザに提示される。実施例として、各々のビューオフセットにおいて一つのみのアプリケーションウィンドウが識別されても、各々のビューオフセットにおいて追加のアプリケーションウィンドウを提示できることに留意すべきである。
対応するディスプレイ領域において表示されたアプリケーションウィンドウは、一つ以上のインタラクティブアプリケーションまたはアイコンが提供するコンテンツを提示する。その結果、適切なアプリケーションウィンドウの表示に加えて、ユーザのインタラクションのために、一つ以上の入力デバイスを利用することができる。例えば、コンピューティングデバイスに関連する、カーソル121によって図示されるようなマウス、キーボード(図示せず)などの入力デバイスを、ユーザ選択及びインタラクションのために提供することができる。
ユーザインタラクションは、メインディスプレイ領域または仮想画面領域のいずれかに表示されたアプリケーションウィンドウのユーザ選択を含むことができる。一実施形態において、仮想画面領域におけるアプリケーションウィンドウのユーザ選択によって、矢印160に図示するように、選択されたアプリケーションウィンドウが、仮想画面領域からメインモニタのディスプレイ領域に戻るように移動する。選択されたアプリケーションウィンドウにおけるその後のユーザインタラクションは、そこにおいて実行され、コンテンツ及び/またはディスプレイを更新するアプリケーションに対する入力として使用される。そのような更新は、メインモニタのディスプレイ領域においてアプリケーションウィンドウに表示される。
別の実施形態では、ユーザインタラクションによって、選択されたアプリケーションウィンドウを仮想画面領域に維持することができる。この実施形態では、仮想画面領域における特定のアプリケーションウィンドウのユーザ選択及びインタラクションによって、ユーザのプライベートビューイングのために、選択されたアプリケーションウィンドウ(複数可)を保持することができる。その結果、仮想画面領域は、ユーザのためのプライベート画面領域としての役目を果たし、その一方で、メインディスプレイ領域は、公的に見ることができる画面としての役目を果たす。この実施形態では、選択されたアプリケーションウィンドウにおけるさらなるユーザインタラクションが、コンテンツ及び/またはディスプレイを結果として更新する、対応するアプリケーションに対する入力として使用され、そのような更新は、ビューオフセットがそれぞれのアプリケーションウィンドウの位置に対応するときに、メインモニタのディスプレイ領域に表示され、セカンダリディスプレイ画面に提示される。アプリケーションウィンドウは、仮想画面領域における表示を継続し、ユーザインタラクションは、そこにおいて実行されるアプリケーションに対する入力として使用される。更新を含む、アプリケーションまたはアイコンのコンテンツは、メガネのビューオフセットがアプリケーションウィンドウのレンダリング位置に一致したときに、メガネにおいて画定されたセカンダリ画面領域に提示される。
図4Cは、一実施形態における、ユーザの頭部の動きに対応するさまざまな視野角における、メインディスプレイ領域及び仮想画面領域の簡易化した画面表示の一つのそのような実施例を図示する。この実施形態では、メガネがユーザの頭部に装着されるように構成され、メガネのビュー方向が、メインディスプレイ画面に付随するコンピューティングデバイスのカメラを使用した頭部追跡によって決定される。仮想画面領域は、ユーザによってメインディスプレイ画面領域から移動された複数のアプリケーションウィンドウを含み、仮想ディスプレイとして提示される。実施形態をインタラクティブアプリケーションの実行に関して記述するが、本教示が、メインまたは仮想ディスプレイ画面領域に表示できるアイコンまたは任意の他のコンテンツに拡大適用できることに留意すべきである。
図4Cに図示する実施形態では、例えば、それぞれのアプリケーションウィンドウに表示されるアプリケーションの各々は、テレビゲームに対応する。代わりに、アプリケーションは、ドキュメントレンダリングアプリケーションであってもよい。ユーザ「P1」は、ユーザの視野角が角度「α」によって画定された初期設定角に対応するときには、ゲーム参加者P2とテレビゲーム1をプレイする。テレビゲーム1は、コンピューティングデバイスのモニタにおいて画定されたメインディスプレイ領域内のアプリケーションウィンドウ120aに表示される。ユーザの頭部が視野角「β」にシフトすると、ユーザには、テレビゲーム2に対応するアプリケーションウィンドウ120bが提示され得る。アプリケーションウィンドウ120bにおいて、ユーザは、ゲーム参加者P3とテレビゲーム2をプレイし続けることができる。
ユーザの頭部が視野角「θ」にシフトすると、ユーザには、テレビゲーム3を実行しているアプリケーションウィンドウ120cが提示され得、ユーザは、ゲーム参加者P4とテレビゲーム3をプレイし続けることができる。テレビゲーム1、2、3などが別個のテレビゲームであってもよいし、種々のプレイヤに対してプレイする同じテレビゲームの異なる事例であってもよいことに留意すべきである。代わりに、各アプリケーションウィンドウが別個のテレビゲームまたは単一のテレビゲームの異なる事例を提示し、ユーザが、一人でインタラクティブテレビゲーム(複数可)をプレイしてもよい。テレビゲーム2、3、4などを仮想画面領域に表示し、その一方で、テレビゲーム1をモニタのメインディスプレイ画面領域に表示することができる。この実施形態では、ユーザは、ゲームが表示される対応するディスプレイ画面領域内部から、(可能な場合は)それぞれのゲーム参加者とインタラクトする。
一実施形態において、ユーザの頭部の動きに基づいてユーザの視野角が変化すると、適切なアプリケーションウィンドウが、メガネのディスプレイ画面領域においてユーザに提示される。一実施形態において、メガネのディスプレイ画面領域は、モニタに提示され、その上、仮想画面領域に移動したアプリケーションウィンドウを提示するのに使用される。ユーザは、例えば、コンピューティングデバイスに付随するマウス、キーボード、コントローラなどの入力デバイスを使用してさまざまなアプリケーションウィンドウとのインタラクトを継続することができる、またはメガネにおいて特徴づけられた入力デバイスを使用することができる。
図3を再度参照するように、一実施形態において、インタラクション検出モジュール158が、アプリケーションウィンドウの特定の一つについてのユーザインタラクションを検出し、モニタのメインディスプレイ画面領域または仮想画面領域のいずれかに表示される特定のアプリケーションウィンドウを更新するのに使用される。選択順序検出器モジュール162が、モニタのメインディスプレイ画面領域から仮想画面領域へのアプリケーションウィンドウの動きの順序を識別し、仮想画面領域に移動したアプリケーションウィンドウを動きの順序に従い組織化する。一実施形態において、モニタのメインディスプレイ画面領域から出たアプリケーションウィンドウの動きの順序に基づいて、アプリケーションウィンドウを、古い順に従い仮想画面領域において組織化することができる。別の実施形態では、アプリケーションウィンドウは、新しい順に仮想画面領域内において組織化することができる。
動きの順序に加えて、動きの方向も、アプリケーション仮想画面領域においてウィンドウを組織化及び提示するのに使用できる。インタラクション検出モジュール158内の方向検出器モジュール160を、動きの方向に基づいて古い順または新しい順のいずれかにおいてアプリケーションウィンドウを組織化するのに使用することができる。
例えば、図4Bに図示するように、アプリケーションウィンドウ120a、120b、120c、120kなどは、右側からモニタのメインディスプレイ画面領域から外に移動し、アプリケーションウィンドウ120f、120j及び120xは、左側から外に移動し、さらに、アプリケーションウィンドウ120m及び120nは、モニタのメインディスプレイ画面領域内に維持される。それ故に、アプリケーションウィンドウは、横に移動した古い順または新しい順のいずれかに従い、仮想画面領域において組織化され、組織化されたウィンドウが、ビューオフセットに基づいてセカンダリ画面領域に提示される。
仮想画面領域に表示された、及びセカンダリ画面領域にビューされたそれぞれのアプリケーションウィンドウにおけるユーザインタラクションは、ウィンドウ選択検出器モジュール164によって検出される。一実施形態において、ユーザインタラクションは、セカンダリディスプレイ画面に提供されたジェスチャの形態であってもよい。例えば、ジェスチャは、1回だけのクリック、ダブルクリック、ドラッグ・アンド・ドロップ・ジェスチャ、音声命令、眼のジェスチャ、視線検出及び選択、またはそれらの二つ以上の組み合わせを含むことができる。ジェスチャのリストは、例示的なものであり、限定的とはみなされないはずである。
追加の選択ジェスチャを、アプリケーション仮想画面領域におけるウィンドウにおいて使用することができる。一実施形態において、ウィンドウ選択検出器モジュール164は、ユーザインタラクションに応答して、仮想画面領域における選択されたアプリケーションウィンドウの表示を停止し、モニタのメインディスプレイ画面領域におけるアプリケーションウィンドウの表示を開始し、内部で実行されるアプリケーションに対する入力として、選択されたアプリケーションウィンドウにおけるさらなるインタラクションを使用して、アプリケーションウィンドウに表示されたコンテンツ及び/またはディスプレイを変更するように構成できる。
別の実施形態では、ウィンドウ選択検出器モジュール164は、仮想画面領域における特定のアプリケーションウィンドウの選択を検出し、特定のアプリケーションウィンドウに表示されたアプリケーションに対する入力として、その後のユーザインタラクションを使用して、そこに提示されたコンテンツ及び/またはディスプレイを更新するように構成される。この実施形態では、アプリケーションウィンドウは、仮想画面領域内に留まり、モニタのメインディスプレイ画面領域に移動しない。
仮想画面領域内に提示されたアプリケーションウィンドウの各々は、位置インジケータに関連する。位置インジケータは、仮想画面領域について事前に規定された動き順序または位置配置を示すことができる。位置インジケータは、仮想画面領域からメインディスプレイ画面領域にアプリケーションが動いている最中に使用することができる。
例えば、音声認識アプリケーションなどの入力ツールをユーザインタラクションの一部として使用して、位置インジケータを用いて、アプリケーションウィンドウを、仮想画面領域とモニタのメインディスプレイ画面領域との間で移動させることができる。従って、さまざまな実施形態は、ユーザが、メガネの画面領域を最適に使用して、モニタのディスプレイ領域を補完できるように、モニタのメインディスプレイ画面領域の表示領域を拡張するシームレス方式を提供する。
初期設定によって、プライマリディスプレイに関して定められた一つ以上の仮想基準点を使用して、プライマリコンピューティングデバイスのプライマリディスプレイの方を向いているときのメガネコンピューティングデバイスの初期視野角またはビュー位置が決定される。次に、ビュー方向が、一つ以上の仮想基準点に関して決定される。
ビュー方向は、メガネコンピューティングデバイスを装着しているユーザの頭部追跡に基づいて、メガネコンピューティングデバイスのビューオフセットを特定する。決定されたビュー方向に基づいて、追加のコンテンツが、メガネコンピューティングデバイスのセカンダリディスプレイに表示され、その一方で、元々のコンテンツは、プライマリコンピューティングデバイスのプライマリディスプレイ内での表示を継続する。
セカンダリ画面は、コンテンツを表示するための増大した領域を提供する、プライマリディスプレイの仮想拡張部としての役目を果たす。いくつかの実施形態において、追加のコンテンツは、ユーザインタラクションを通じてプライマリディスプレイから移動したコンテンツであってもよい。いくつかの実施形態において、セカンダリディスプレイは、ユーザのためのプライベート画面領域としての役目を果たすことができ、追加のコンテンツは、ユーザが公衆の目から隔離されたプライベートを保持することを所望するコンテンツであってもよい。
これらの実施形態では、追加のコンテンツは、プライベート仮想ディスプレイとして表示される。そのコンテンツがプライマリディスプレイまたはセカンダリディスプレイに表示されるアプリケーションは、プライマリコンピューティングデバイス内において局所で、またはアプリケーションサーバにおいて遠隔で実行することができる。アプリケーションサーバは、クラウドシステムの一部であるクラウドサーバであってもよい。いくつかの実施形態において、ビュー方向が連続的な頭部追跡によって更新され、ビュー方向の変化(すなわち、オフセット)を使用して、セカンダリディスプレイに表示する必要がある追加のコンテンツの範囲を決定することができる。頭部追跡は、プライマリコンピューティングデバイスに提供された一つ以上のカメラを使用して実行することができる。
図5は、本発明の実施形態による、インタラクティブアプリケーションのための追加の表示領域を提供するための方法を例証する。この方法は、メガネをコンピューティングデバイスと同期化またはペアリングする工程510において開始する。メガネには、コンピューティングデバイスと通信可能に接続するように構成されたプロセッサ及びコネットワーク相互接続性が装備される。コンピューティングデバイスは、別個のアプリケーションウィンドウに表示するための、複数のアイコンまたは他のコンテンツを識別及び選択するように構成される。
コンピューティングデバイスは、コンピューティングデバイス内の局所で利用できる、またはクラウドサーバにおいて遠隔で利用できる複数のアプリケーションであって、その各々が別個のアプリケーションウィンドウに表示されるアプリケーションを実行するようにも構成される。このような目的で、コンピューティングデバイスには、インターネットを通じてクラウドサーバにアクセスするためのインターネット接続性が装備され、そのようなアクセスは、ルータなどのインターネットアクセスポイントを使用して有効にすることができる。
デバイスの同期化またはペアリングは、コンピューティングデバイスのモニタのメインディスプレイ画面領域と、レンズ部の少なくとも一つの一部分において画定されたセカンダリディスプレイ画面とを同期化することを含む。同期化またはペアリングは、モニタのディスプレイ領域またはメガネのセカンダリディスプレイ画面のいずれかに表示される対応するアプリケーションウィンドウ内において実行されるアプリケーションとのインタラクトにコンピューティングデバイスの入力デバイスを使用できるように、入力デバイスを同期化することも含むことができる。
工程520において、一つ以上のウィンドウにおけるユーザインタラクションを検出する。ユーザインタラクションは、コンピューティングデバイスのモニタのメインディスプレイ画面から出た一つ以上のウィンドウ領域の動きを含むことができる。一実施形態において、ウィンドウの動きについて、ウィンドウがモニタから移動した動きの順序及び方向または側面も特定することができる。例えば、ユーザインタラクションは、モニタの右側または左側から出た一つ以上のウィンドウの動きを特定することができる。

Claims (6)

  1. プライマリディスプレイを有するプライマリコンピューティングデバイスに近接するメガネコンピューティングデバイスの存在を検出し、前記プライマリコンピューティングデバイスの前記プライマリディスプレイがコンテンツを表示するように構成されており、前記メガネコンピューティングデバイスがセカンダリディスプレイを含み、
    前記メガネコンピューティングデバイスを前記プライマリコンピューティングデバイスにリンクし、
    前記プライマリディスプレイと相対的な前記メガネコンピューティングデバイスのビュー方向を検出し、
    前記プライマリディスプレイに表示された前記コンテンツに加えて、前記セカンダリディスプレイに追加のコンテンツを表示し、前記セカンダリディスプレイが、前記プライマリディスプレイに表示された前記コンテンツの範囲を越えたコンテンツをビューするための前記プライマリディスプレイの拡張部であり、
    プロセッサによって実行される、方法。
  2. 追加のコンテンツの選択を検出することをさらに含み、前記検出によって、前記選択された追加のコンテンツが前記メガネディスプレイ画面から前記メインディスプレイ画面に移動することによって、前記コンピューティングデバイスに提供されたコントロールを使用した前記メインディスプレイ画面における前記選択された追加のコンテンツとのインタラクションを可能にする、請求項8に記載の方法。
  3. 前記メガネが、前記コンピューティングデバイスに通信可能に接続するためのプロセッサ及びネットワーク接続インターフェースを含み、前記メガネの前記ネットワーク接続インターフェースが、前記コンピューティングデバイスとインタラクトするための無線接続プロトコルを使用する、請求項15に記載の方法。
  4. 前記同期化によって、前記セカンダリディスプレイ画面内に移動した前記ウィンドウとインタラクトするための、前記コンピューティングデバイスの入力及び出力デバイスの使用が可能になる、請求項15に記載の方法。
  5. 前記セカンダリディスプレイ画面に提示されているウィンドウの選択を受信することをさらに含み、前記選択によって、前記セカンダリディスプレイ画面上の表示を継続しつつの、前記選択されたウィンドウに表示された前記アプリケーションとのインタラクションを可能にする、請求項15に記載の方法。
  6. 前記ペアリングによって、前記セカンダリディスプレイ画面に表示された前記コンテンツとインタラクトするための、前記コンピューティングデバイスの入力及び出力デバイスの使用を可能にする、請求項27に記載の方法。
JP2016565099A 2014-01-17 2015-01-13 プライベート追跡ヘッドアップディスプレイとしての第2画面の使用 Active JP6526054B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/158,771 2014-01-17
US14/158,771 US10001645B2 (en) 2014-01-17 2014-01-17 Using a second screen as a private tracking heads-up display
PCT/US2015/011274 WO2015108887A1 (en) 2014-01-17 2015-01-13 Using a second screen as a private tracking heads-up display

Publications (3)

Publication Number Publication Date
JP2017511943A JP2017511943A (ja) 2017-04-27
JP2017511943A5 true JP2017511943A5 (ja) 2018-05-24
JP6526054B2 JP6526054B2 (ja) 2019-06-05

Family

ID=52444634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016565099A Active JP6526054B2 (ja) 2014-01-17 2015-01-13 プライベート追跡ヘッドアップディスプレイとしての第2画面の使用

Country Status (9)

Country Link
US (1) US10001645B2 (ja)
EP (1) EP3095024B1 (ja)
JP (1) JP6526054B2 (ja)
CN (1) CN106133645B (ja)
BR (1) BR112016014304B1 (ja)
CA (1) CA2933749C (ja)
MX (1) MX360221B (ja)
RU (1) RU2661808C2 (ja)
WO (1) WO2015108887A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7209786B2 (ja) 2018-06-25 2023-01-20 マクセル株式会社 表示装置

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10126942B2 (en) 2007-09-19 2018-11-13 Apple Inc. Systems and methods for detecting a press on a touch-sensitive surface
US10203873B2 (en) 2007-09-19 2019-02-12 Apple Inc. Systems and methods for adaptively presenting a keyboard on a touch-sensitive display
US10289302B1 (en) 2013-09-09 2019-05-14 Apple Inc. Virtual keyboard animation
US20150331589A1 (en) * 2014-05-15 2015-11-19 Todd KAWAKITA Circular interface for navigating applications and an authentication mechanism on a wearable device
US20150346812A1 (en) * 2014-05-29 2015-12-03 Nextvr Inc. Methods and apparatus for receiving content and/or playing back content
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US20160027214A1 (en) * 2014-07-25 2016-01-28 Robert Memmott Mouse sharing between a desktop and a virtual world
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US9904055B2 (en) * 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
KR102309281B1 (ko) * 2014-11-07 2021-10-08 삼성전자주식회사 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
US9696549B2 (en) 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
JP2016126467A (ja) * 2014-12-26 2016-07-11 富士通株式会社 モード同期方法、モード同期プログラム、及び端末
JP6426525B2 (ja) * 2015-04-20 2018-11-21 ファナック株式会社 表示システム
EP3302740A1 (en) * 2015-06-01 2018-04-11 Thomson Licensing Reactive animation for virtual reality
US10318225B2 (en) * 2015-09-01 2019-06-11 Microsoft Technology Licensing, Llc Holographic augmented authoring
US10229541B2 (en) 2016-01-28 2019-03-12 Sony Interactive Entertainment America Llc Methods and systems for navigation within virtual reality space using head mounted display
US10366243B2 (en) * 2016-02-04 2019-07-30 Airwatch, Llc Preventing restricted content from being presented to unauthorized individuals
US10909761B1 (en) * 2016-07-07 2021-02-02 Google Llc 2D video with option for projected viewing in modeled 3D space
CN109478339A (zh) * 2016-07-29 2019-03-15 三菱电机株式会社 显示装置、显示控制装置和显示控制方法
US20180046352A1 (en) * 2016-08-09 2018-02-15 Matthew Johnson Virtual cursor movement
EP3535639B1 (en) * 2016-11-02 2022-01-12 Telefonaktiebolaget LM Ericsson (PUBL) Controlling display of content using an external display device
JP6760008B2 (ja) * 2016-11-21 2020-09-23 富士通株式会社 コンテンツ制御装置、コンテンツ制御プログラムおよびコンテンツ制御方法
US20180180883A1 (en) * 2016-12-23 2018-06-28 Raja Singh Tuli Augmented reality eyewear
US10726595B2 (en) * 2016-12-30 2020-07-28 Facebook, Inc. Systems and methods to transition between media content items
CN107168513A (zh) * 2017-03-22 2017-09-15 联想(北京)有限公司 信息处理方法及电子设备
US11119567B2 (en) 2017-03-23 2021-09-14 Interdigital Ce Patent Holdings Method and apparatus for providing immersive reality content
US10688396B2 (en) * 2017-04-28 2020-06-23 Sony Interactive Entertainment Inc. Second screen virtual window into VR environment
US11054894B2 (en) 2017-05-05 2021-07-06 Microsoft Technology Licensing, Llc Integrated mixed-input system
US11023109B2 (en) * 2017-06-30 2021-06-01 Microsoft Techniogy Licensing, LLC Annotation using a multi-device mixed interactivity system
US10895966B2 (en) 2017-06-30 2021-01-19 Microsoft Technology Licensing, Llc Selection using a multi-device mixed interactivity system
US11307417B2 (en) 2017-07-14 2022-04-19 Hewlett-Packard Development Company, L.P. Panel to attenuate light for electronic eyewear device
GB201714572D0 (en) * 2017-09-11 2017-10-25 Bae Systems Plc Head-mounted display and control apparatus and method
WO2019048885A1 (en) 2017-09-11 2019-03-14 Bae Systems Plc VISIOCASQUE AND APPARATUS AND METHOD FOR CONTROLLING
WO2019102245A1 (en) * 2017-11-21 2019-05-31 Volvo Truck Corporation Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product
FR3074331A1 (fr) * 2017-11-28 2019-05-31 Orange Procede d'affichage en realite mixte d'au moins un objet virtuel, terminal et systeme associes
CN107977586B (zh) * 2017-12-22 2021-04-13 联想(北京)有限公司 显示内容处理方法、第一电子设备以及第二电子设备
US10695667B2 (en) * 2018-03-14 2020-06-30 Sony Interactive Entertainment LLC Pro gaming AR visor and method for parsing context specific HUD content from a video stream
US20190378334A1 (en) * 2018-06-08 2019-12-12 Vulcan Inc. Augmented reality portal-based applications
US10996831B2 (en) 2018-06-29 2021-05-04 Vulcan Inc. Augmented reality cursors
JP7252398B2 (ja) * 2018-07-04 2023-04-04 マクセル株式会社 仮想オブジェクト操作方法およびヘッドマウントディスプレイ
US10854169B2 (en) * 2018-12-14 2020-12-01 Samsung Electronics Co., Ltd. Systems and methods for virtual displays in virtual, mixed, and augmented reality
US11055918B2 (en) * 2019-03-15 2021-07-06 Sony Interactive Entertainment Inc. Virtual character inter-reality crossover
CN109831662B (zh) * 2019-03-22 2021-10-08 芋头科技(杭州)有限公司 Ar眼镜屏幕的实时画面投射方法、装置及控制器和介质
CN110069230A (zh) * 2019-04-24 2019-07-30 北京小米移动软件有限公司 扩展内容显示方法、装置及存储介质
US11907417B2 (en) * 2019-07-25 2024-02-20 Tectus Corporation Glance and reveal within a virtual environment
US11662807B2 (en) 2020-01-06 2023-05-30 Tectus Corporation Eye-tracking user interface for virtual tool control
CN111176520B (zh) * 2019-11-13 2021-07-16 联想(北京)有限公司 一种调整方法及装置
CN110851227B (zh) * 2019-11-13 2021-10-22 联想(北京)有限公司 一种显示控制方法及电子设备
TWI704378B (zh) * 2019-11-21 2020-09-11 宏碁股份有限公司 頭戴式顯示裝置
CN116088182B (zh) * 2020-02-24 2024-04-26 Oppo广东移动通信有限公司 头戴式设备
US20210314768A1 (en) * 2020-04-01 2021-10-07 Google Llc Bluetooth multipoint algorithm and private notifications
TWI790430B (zh) * 2020-04-13 2023-01-21 宏碁股份有限公司 擴增實境系統以及利用擴增實境眼鏡顯示虛擬螢幕的方法
CN113625866A (zh) * 2020-05-08 2021-11-09 宏碁股份有限公司 增强现实系统以及利用增强现实眼镜显示虚拟屏幕的方法
CN111708504A (zh) * 2020-06-16 2020-09-25 成都忆光年文化传播有限公司 一种扩展屏幕的显示方法
CN111612919A (zh) * 2020-06-19 2020-09-01 中国人民解放军国防科技大学 数字孪生飞行器的多学科分屏同步展示方法和系统
TWI750818B (zh) * 2020-09-24 2021-12-21 宏達國際電子股份有限公司 動態調整使用者界面方法、電子裝置及電腦可讀儲存媒體
US11175791B1 (en) * 2020-09-29 2021-11-16 International Business Machines Corporation Augmented reality system for control boundary modification
KR20220069370A (ko) * 2020-11-20 2022-05-27 삼성전자주식회사 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법
US11481960B2 (en) * 2020-12-30 2022-10-25 Meta Platforms Technologies, Llc Systems and methods for generating stabilized images of a real environment in artificial reality
CN114911398A (zh) * 2021-01-29 2022-08-16 伊姆西Ip控股有限责任公司 显示图形界面方法、电子设备和计算机程序产品
JP2024506630A (ja) 2021-02-08 2024-02-14 サイトフル コンピューターズ リミテッド 生産性のためのエクステンデッド・リアリティ
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
JP2024507749A (ja) 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるコンテンツ共有
CN113220118B (zh) * 2021-04-20 2022-05-10 杭州灵伴科技有限公司 虚拟界面展示方法、头戴式显示设备和计算机可读介质
CN113342433A (zh) * 2021-05-08 2021-09-03 杭州灵伴科技有限公司 应用页面显示方法、头戴式显示设备和计算机可读介质
US20220404907A1 (en) * 2021-06-21 2022-12-22 Penumbra, Inc. Method And Apparatus For Real-time Data Communication in Full-Presence Immersive Platforms
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
EP4325341A4 (en) 2021-09-15 2024-04-17 Samsung Electronics Co Ltd DEVICE AND METHOD FOR DISPLAYING EXTENDED SCREEN OF MOBILE DEVICE
WO2023058819A1 (ko) * 2021-10-06 2023-04-13 한국과학기술원 가상 현실 공간에 대한 제어를 수행하는 전자 시스템, 전자 장치 및 그 동작 방법
KR102664782B1 (ko) * 2021-10-06 2024-05-10 한국과학기술원 가상 현실 공간에 대한 제어를 수행하는 전자 시스템, 전자 장치 및 그 동작 방법
US11592899B1 (en) 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
US20230165460A1 (en) * 2021-11-30 2023-06-01 Heru Inc. Visual field map expansion
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device
US20230376161A1 (en) * 2022-05-19 2023-11-23 Microsoft Technology Licensing, Llc Mouse cursor and content migration between 3d space and physical flat displays
CN116932119B (zh) * 2023-09-15 2024-01-02 深圳市其域创新科技有限公司 虚拟屏幕显示方法、装置、设备及计算机可读存储介质

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5140677A (en) * 1990-05-11 1992-08-18 International Business Machines Corporation Computer user interface with window title bar mini-icons
DE69434843T2 (de) * 1993-08-12 2007-02-15 Seiko Epson Corp. Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem
JP3730670B2 (ja) * 1994-07-20 2006-01-05 富士通株式会社 データ処理装置
TW362207B (en) * 1997-05-08 1999-06-21 Shimadzu Corp Display system
JP2002182893A (ja) * 2000-12-14 2002-06-28 Matsushita Electric Ind Co Ltd マルチディスプレイシステム
CA2576010C (en) * 2004-08-03 2011-07-26 Silverbrook Research Pty Ltd Head mounted display with wave front modulator
US7852342B2 (en) * 2004-10-14 2010-12-14 Microsoft Corporation Remote client graphics rendering
JP4855408B2 (ja) * 2004-10-19 2012-01-18 ソニー エリクソン モバイル コミュニケーションズ, エービー 複数の表示画面に情報を表示する携帯無線通信装置、その携帯無線通信装置の動作方法、及び、その携帯無線通信装置を動作させるためのコンピュータプログラム
US20060119574A1 (en) * 2004-12-06 2006-06-08 Naturalpoint, Inc. Systems and methods for using a movable object to control a computer
JP2006277239A (ja) 2005-03-29 2006-10-12 Canon Inc 電子文書閲覧管理システム
US9015578B2 (en) * 2006-01-24 2015-04-21 Microsoft Technology Licensing, Llc Dynamic optimization of available display space
EP1847924A1 (en) * 2006-04-20 2007-10-24 International Business Machines Corporation Optimal display of multiple windows within a computer display
SE0601216L (sv) * 2006-05-31 2007-12-01 Abb Technology Ltd Virtuell arbetsplats
CN101354639A (zh) * 2007-07-25 2009-01-28 联想(北京)有限公司 在终端之间操作对象的方法及终端
JP2009093593A (ja) 2007-10-12 2009-04-30 Nikon Corp 通信システム,端末装置,サーバ装置およびユーザ認証方法
US8363098B2 (en) * 2008-09-16 2013-01-29 Plantronics, Inc. Infrared derived user presence and associated remote control
JP2010092086A (ja) * 2008-10-03 2010-04-22 Just Syst Corp ユーザ入力装置、デジタルカメラ、入力制御方法、および入力制御プログラム
US20100105479A1 (en) * 2008-10-23 2010-04-29 Microsoft Corporation Determining orientation in an external reference frame
JP5158006B2 (ja) * 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US8913009B2 (en) * 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US9250746B2 (en) * 2010-03-12 2016-02-02 Shafa Wala Position capture input apparatus, system, and method therefor
JP2012003123A (ja) * 2010-06-18 2012-01-05 Funai Electric Co Ltd 3次元映像表示装置
US20120075167A1 (en) * 2010-09-29 2012-03-29 Eastman Kodak Company Head-mounted display with wireless controller
US8830329B2 (en) * 2010-10-07 2014-09-09 Sony Computer Entertainment Inc. 3-D glasses with camera based head tracking
US20120086630A1 (en) * 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
US9489439B2 (en) * 2011-02-28 2016-11-08 Red Hat, Inc. Generating portable interpolated data using object-based encoding of interpolation results
US9217867B2 (en) * 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
JP5691802B2 (ja) 2011-04-28 2015-04-01 コニカミノルタ株式会社 投影システム、投影装置、投影方法、および制御プログラム
WO2012177237A1 (en) * 2011-06-21 2012-12-27 Empire Technology Development Llc Gesture based user interface for augmented reality
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
RU2486608C2 (ru) * 2011-08-23 2013-06-27 Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" Устройство для организации интерфейса с объектом виртуальной реальности
US20130147686A1 (en) * 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
JP5880115B2 (ja) 2012-02-17 2016-03-08 ソニー株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法
JP2013174642A (ja) 2012-02-23 2013-09-05 Toshiba Corp 映像表示装置
EP2639690B1 (en) * 2012-03-16 2017-05-24 Sony Corporation Display apparatus for displaying a moving object traversing a virtual display region
KR101195514B1 (ko) * 2012-03-22 2012-10-29 알서포트 주식회사 가상 키패드를 이용하는 모바일 단말의 원격 제어 방법 및 장치
KR101861380B1 (ko) * 2012-07-16 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이
KR101991133B1 (ko) 2012-11-20 2019-06-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이 및 그 제어 방법
JP6123365B2 (ja) * 2013-03-11 2017-05-10 セイコーエプソン株式会社 画像表示システム及び頭部装着型表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7209786B2 (ja) 2018-06-25 2023-01-20 マクセル株式会社 表示装置

Similar Documents

Publication Publication Date Title
JP2017511943A5 (ja)
US11875027B2 (en) Contextual user interface
US11132162B2 (en) Gaze-based user interactions
CN110692031B (zh) 用于虚拟现实环境中的窗口控制的系统和方法
JP6526054B2 (ja) プライベート追跡ヘッドアップディスプレイとしての第2画面の使用
US9965039B2 (en) Device and method for displaying user interface of virtual input device based on motion recognition
US10417991B2 (en) Multi-display device user interface modification
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
US9483112B2 (en) Eye tracking in remote desktop client
US11825177B2 (en) Methods, systems, and media for presenting interactive elements within video content
US20230092282A1 (en) Methods for moving objects in a three-dimensional environment
US20220221970A1 (en) User interface modification
US20220366874A1 (en) Eye gaze control of magnification user interface
WO2021076383A1 (en) Adaptive assistive technology techniques for computing devices
KR20230007515A (ko) 접이식 디바이스의 디스플레이 스크린 상에서 검출된 제스처들을 처리하기 위한 방법 및 시스템
US10416759B2 (en) Eye tracking laser pointer
US20170038947A1 (en) Zooming and panning within a user interface