JP7252252B2 - 手の位置に基づいたモーダル制御の開始 - Google Patents

手の位置に基づいたモーダル制御の開始 Download PDF

Info

Publication number
JP7252252B2
JP7252252B2 JP2020554878A JP2020554878A JP7252252B2 JP 7252252 B2 JP7252252 B2 JP 7252252B2 JP 2020554878 A JP2020554878 A JP 2020554878A JP 2020554878 A JP2020554878 A JP 2020554878A JP 7252252 B2 JP7252252 B2 JP 7252252B2
Authority
JP
Japan
Prior art keywords
hand
view
field
computing device
outside
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020554878A
Other languages
English (en)
Other versions
JPWO2019212793A5 (ja
JP2021521512A (ja
Inventor
ジェラード トーキル アイフォア アンドリュー,フェリックス
エドワード ハーニッシュ,マイケル
チェン,リャン
Original Assignee
マイクロソフト テクノロジー ライセンシング,エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マイクロソフト テクノロジー ライセンシング,エルエルシー filed Critical マイクロソフト テクノロジー ライセンシング,エルエルシー
Publication of JP2021521512A publication Critical patent/JP2021521512A/ja
Publication of JPWO2019212793A5 publication Critical patent/JPWO2019212793A5/ja
Application granted granted Critical
Publication of JP7252252B2 publication Critical patent/JP7252252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、仮想現実(VR)デバイスのモーダル制御、より具体的には、手の位置に基づくVRデバイスのモーダル制御に関する。
VRデバイスは、近年成長しているコンピュータデバイスの一領域である。これは、グラフィックスプロセッシングユニット(GPU)を使用して、コンピュータデバイスから受信したレンダリング命令に基づいてコンピュータデバイスからディスプレイデバイスにグラフィックスをレンダリングするものである。VRデバイスでは、ディスプレイデバイス上で生成されたシーンは、ユーザ入力に基づいて修正することができる。入力には、検出された頭部の移動(例えば、ヘッドマウントディスプレイ(HMD)などのVRデバイスの検出された移動)またはVRデバイスの視野の内側の手が含まれ得る。
VRデバイスのアプリケーションにおける一般的な問題は、ディスプレイデバイス上での複数のユーザエクスペリエンス(UX)の使用である。多くのVRデバイスの場合、表示ビューは、デスクトップデバイスで使用されるものと同様の平板状(ウィンドウ)のエクスペリエンスに基づいている。平板状のエクスペリエンスには、表示ビュー内の複数のウィンドウと、ウィンドウおよびアプリケーションの機能を実行するためのカーソルの配置とが含まれ得る。VRデバイスでは、平板状のエクスペリエンスにより、ユーザがVRエクスペリエンスの豊かさを十分に享受できなくなる可能性がある。例えば、表示ビュー内で複数のウィンドウを同時に使用すると、複数のウィンドウによる表示ビュー内の混雑のために、ユーザによるプライマリUXとの対話が損なわれる可能性がある。別の例として、表示ビューから、または表示ビューへのウィンドウの削除および追加は、VRデバイスの視野の内側でカーソル位置を移動するときのユーザの頭部による位置の変化のために、ユーザと別のウィンドウとの対話を妨げる可能性がある。
したがって、当技術分野では、VRデバイスによって使用される複数のUXの使用を改善する必要がある。
以下では、そのような実装形態の基本的な理解を提供するために、本開示の1つ以上の実装形態の簡略化された要約を提示する。この要約は、想定される全ての実装形態の広範な概要ではなく、全ての実装形態の鍵となる要素または重要な要素を特定したり、一部または全ての実装形態の範囲を説明したりすることを目的としたものではない。要約の唯一の目的は、本開示の1つ以上の実装形態の一部の概念を、後で提示される、より詳細な説明の前置きとして簡略化された形で提示することである。
本開示は、デバイスの視野の外側の手の予測位置に基づいて、デバイスのアプリケーションおよびシステムモーダル制御を開始するための方法およびデバイスに関する。
一例の実装形態は、コンピュータデバイスに関連している。コンピュータデバイスは、データおよび命令を格納するメモリと、メモリと通信し、データおよび命令を実行するように構成されたプロセッサと、プライマリユーザエクスペリエンス(UX)をレンダリングするディスプレイと、メモリおよびプロセッサと通信するオペレーティングシステムと、を含むことができる。オペレーティングシステムおよびプロセッサは、ユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信し、手の動き情報に基づいて手がディスプレイの視野の外側にあると判別し、機械学習を使用して、視野の外側にある間の手の位置を予測し、手の予測位置に基づいて、ディスプレイ上のセカンダリUXと対話するように動作可能であり得る。
別の例示的な実装形態は、コンピュータデバイスのモーダル制御のための方法に関する。本方法は、ユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信し、手の動き情報に基づいて、手がコンピュータデバイスの視野の外側にあると判別し、視野の外側にある間の手の位置を予測し、手の予測位置に基づいて、コンピュータデバイスのディスプレイにセカンダリUXをレンダリングすることを含むことができる。
別の例示的な実装形態は、コンピュータデバイスによって実行可能な命令を格納するコンピュータ可読媒体に関する。コンピュータ可読媒体は、コンピュータデバイスに、ユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信させるための少なくとも1つの命令と、コンピュータデバイスに、手の動き情報に基づいて、手がコンピュータデバイスの視野の外側にあると判別させるための少なくとも1つの命令と、コンピュータデバイスに、機械学習を使用して、視野の外側にある間に手の位置を予測させるための少なくとも1つの命令と、コンピュータデバイスに、手の予測位置に基づいて、コンピュータデバイスのディスプレイ上にセカンダリUXをレンダリングさせるための少なくとも1つの命令と、を含むことができる。
本開示の実装形態に関連する追加の利点および新規の特徴は、部分的には以下の説明に記載され、部分的には、以下を検討するか、またはその実践によって学習することにより当業者に明らかになるであろう。
図面では以下のとおりである:
本開示の実装形態による例示的なコンピュータデバイスの概略ブロック図である。 本開示の実装形態によるコンピュータデバイスの視野の一例である。 本開示の実装形態によるコンピュータデバイスにおけるモーダル制御の例示的な方法フローである。 本開示の実装形態による例示的なデバイスの概略ブロック図である。
本開示は、コンピュータデバイスの視野の外側の手の予測位置に基づいて、コンピュータデバイスのアプリケーションおよびシステムモーダル制御を開始するためのデバイスおよび方法に関する。本明細書で使用される場合、コンピュータデバイスは、(例えば、少なくとも1つの仮想環境入力からの)仮想現実(VR)画像、(例えば、少なくとも2つの仮想環境からの)複合現実(MR)画像、および/または(例えば、少なくとも1つの仮想環境入力および1つの現実環境入力からの)拡張現実(AR)画像を生成および/または表示するデバイスを含むことができる。
モーダル制御は、プライマリユーザエクスペリエンス(UX)がセカンダリUXに従属する手法である。モーダル制御の例では、ユーザは、プライマリUXが無効になっている、またはバックグラウンドに設定されているときに、セカンダリUXと対話してもよい。プライマリUXの例には、VR画像、MR画像、AR画像、デスクトップビュー、または第1のアプリケーションを含むプライマリウィンドウ/画像が含まれてもよい。セカンダリUXの例には、第2のアプリケーションなどのセカンダリウィンドウ/画像、第1のアプリケーションに関連付けられたアプリケーションまたはシステム設定を閲覧するためのユーティリティウィンドウ画像、メニュー、または使用可能なコマンドオプションが含まれてもよい。例示的な環境では、プライマリUXおよびセカンダリUXとのユーザによる対話は、ヘッドマウントディスプレイ(HMD)の移動を検出するためのハンドコントローラまたはモーションセンサなどの入力デバイスを介したカーソルのユーザの対話に基づいて制御されてもよい。
VR環境のアプリケーションは、ユーザが環境に没入していると感じることができるため、テレビまたはコンピュータモニタでの一般的なエクスペリエンスと比較して、非常に豊富な対話エクスペリエンスを提供することができる。ただし、平板状の環境を使用すると、VR環境が損なわれる可能性がある。平板状の環境には、表示ビュー内の複数のウィンドウと、ウィンドウおよびアプリケーションの機能を実行するためのカーソルの配置が含まれる場合がある。例えば、平板状のエクスペリエンスでは、HMDのユーザがアクセスできる表示ビューが減少したり、ユーザがセカンダリUXにアクセスするためにプライマリUXからフォーカスを解放したり、VR環境でカーソルを移動するためにユーザの頭部を移動する必要がある場合がある。
本開示は、モーダル制御の使用を通じてユーザエクスペリエンスを改善するVR環境内の平板状の環境を提供する。本開示は、ディスプレイの事前定義された3次元(3D)位置にセカンダリUXを配置することができる。セカンダリUXは、コンピュータデバイスの視野の外側にある位置にユーザの1つ以上の手を配置することに基づいて、ユーザにアクセスすることができる。例えば、コンピュータデバイスが、ユーザが1つ以上の手を視野の外側に移動したと判別すると、セカンダリUXにアクセスできるようになる場合がある。言い換えると、1つ以上の手は、コンピュータデバイスで追跡できなくなる。その代わりに、コンピュータデバイスは、人工知能および/または機械学習を使用して、コンピュータデバイスの視野の外側にあるときの1つ以上の手の位置を予測する。1つ以上の手の位置に基づいて、コンピュータデバイスは、ユーザが音声コントローラまたはサムパッドなどのハンドコントローラを使用してセカンダリUXと対話できるように、セカンダリUXをアクティブ化することができる。あるいは、ユーザは、コンピュータデバイスの視野に手(複数可)を戻すことによって、セカンダリUXと対話することができる。
本開示では、コンピュータデバイスは、ユーザが見ている場所、およびユーザの1つ以上の手が視野の内側にあるかどうかを監視する。1つ以上の手がコンピュータデバイスの視野の外側に移動すると、コンピュータデバイスは、テレメトリに基づいて、1つ以上の手が視野の外側に位置付けられる場所を予測することができる。
1つ以上の手が所定の期間視野の外側に留まる場合、モーダルコントローラは、1つ以上の手の予測位置を通知し、1つ以上の手の予測位置に関連付けられたセカンダリUXを表示することができる。次に、外部コントローラからの入力を受信して、セカンダリUXと対話するために使用できる。セカンダリUXとの対話は、ユーザが外部コントローラを介してセカンダリUXを却下し、最小化し、もしくは閉じるまで、または一部の実装形態では、1つ以上の手がコンピュータデバイスの視野に戻るまで、継続することができる。
本開示では、片手または両手がコンピュータデバイスの視野の外側にある必要があるかどうかは、モーダル制御を使用するアプリケーションに基づいてもよい。例えば、モーダル制御を使用する一部のアプリケーションは、片手(例えば右手)の使用のみに依存し得るが、一方、他のアプリケーションは、VRデバイスの以下に説明する機能を実行するために両手を必要とし得る。したがって、本開示の残りの部分では、片手または両手の特定の使用を説明する特定の実装形態がない限り、1つ以上の手を手(複数可)と呼ぶ。
ここで図1および2を参照すると、手(複数可)204の予測位置220に基づいてモーダル制御を開始するための例示的なシステム100は、ネットワーク17を介して、および/または有線もしくは無線接続を介してディスプレイデバイス106と通信するコンピュータデバイス102を含むことができる。コンピュータデバイス102は、モーダル制御を実行するためにアプリケーション10を実行することができる。アプリケーション10は、例えば、ゲーム、オフィス生産性アプリケーション、または任意の他のタイプのアプリケーションを実行する実行可能なコンピュータ可読コードまたは命令であってもよい。実行されると、コンピュータデバイス102は、ディスプレイデバイス106上のアプリケーション10の1つ以上のシーンを定義する1つ以上の画像(例えば、ディスプレイフレーム25)を表示するための画像データを生成および通信することができる。ディスプレイデバイス106の例には、HMDデバイスが含まれてもよく、システム100のユーザ202が閲覧するための画像を出力し得る1つ以上のディスプレイパネル32(例えば、発光ダイオード(LED)、有機LED(OLED)、または液晶ディスプレイ(LCD))を有してもよい。
コンピュータデバイス102は、ネットワーク17を介して、および/または有線もしくは無線接続を介して位置追跡システム104と通信して、アプリケーション10に適用するための手の動き情報14を取得することができる。手の動き情報は、視野210内の手(複数可)204の位置または移動、または視野210からの手(複数可)の不在に対応することができる。位置追跡システムは、ユーザ202の手(複数可)204を追跡するための視野210を生成するように構成される。位置追跡システム104は、これらに限定されないが、1つ以上のセンサ(例えば、カメラ)、エミッタ(例えば、IR LED)、慣性デバイス(加速度計および/もしくはジャイロスコープ)、ならびに/またはコンピュータデバイス102の視野210内のシステム100のユーザ202の手(複数可)204の位置、向き、移動、移動の方向、および/または移動の速度を検出し得る任意の他の位置感知システムを含むことができる。コンピュータデバイス102の視野210の例が図2に示されている。一例では、視野210は、位置追跡システム104のセンサ(例えば、カメラ)の感知領域であってもよい。MRシステムおよびVRシステムでは、視野210は、ディスプレイデバイス106(例えば、HMDデバイス)の表示領域に対応し得る。例えば、MRシステムでは、視野210は、ディスプレイデバイス106を使用している間のユーザ202の実際の視野に対応してもよい。別の例として、VRシステムでは、視野210は、ディスプレイデバイス106を使用している間のユーザ202の仮想現実ビューに対応してもよい。
一部の実装形態では、位置追跡システム104は、1つ以上の深度カメラおよび1つ以上の慣性測定ユニット(IMU)、追跡ソフトウェア、同時位置特定およびマッピングアルゴリズム、ならびに1つ以上のプロセッサを含み得るが、これらに限定されない。他の実装形態では、位置追跡システム104は、環境内に位置する1つ以上のエミッタ(例えば、IR LED)を検出するための1つ以上のセンサ(例えば、カメラ)、および1つ以上のプロセッサを含み得るが、これらに限定されない。位置追跡システム104は、ユーザ202の両方の手(複数可)204を別々に追跡するように構成することができる。例えば、位置追跡システム104は、第1の手(例えば、右手)の移動を判別し、第1の手がコンピュータデバイス102の視野210の外側もしくは内側にあるかどうかを判別し、かつ/または第2の手(例えば、左手)の移動を判別し、第2の手が視野210の外側もしくは内側にあるかどうかを判別してもよい。
一部の実装形態では、位置追跡システム104は、ディスプレイデバイス106(例えば、HMD)上に位置してもよく、カメラ、IMU、追跡デバイス、またはユーザの頭部の移動を追跡するための他の任意のデバイスを含むことができる。一例では、位置追跡システム104は、手の動き情報14を生成する際に、ユーザの頭部の移動(例えば、手(複数可)204を視野210の外側にするユーザの頭部による移動)とユーザの手の移動(例えば、手(複数可)204を視野210の外に出す手の移動)とを区別するように構成されてもよい。
コンピュータデバイス102はまた、ネットワーク17を介して、および/または有線もしくは無線接続を介して手予測システム110と通信して、アプリケーション10に適用するための手予測情報112を取得することができる。手予測システム110は、図2に示すように、手(複数可)204がコンピュータデバイス102の視野210の外側にあるときに、ユーザ202の手(複数可)204の位置を予測するように構成される。例えば、ユーザ202の手(複数可)204が視野210から除かれると、位置追跡システム104は、もはや手(複数可)204の位置を決定することができなくなる。したがって、手予測システム110は、コンピュータデバイス102の視野210の外側にあるとき、手(複数可)204の位置(予測位置220)を予測する。手(複数可)204の位置の予測は、手の動き情報14に基づいてもよい。例えば、手(複数可)204の位置の予測は、視野210の内側から視野210の外側に移動する際の手(複数可)の204の位置、向き、移動、移動の方向、および/または移動の速度に基づいてもよい。一部の例では、手(複数可)204の位置の予測は、頭部の移動に関連する情報を除外してもよい。
一部の実装形態では、手予測システム110は、視野210の外側にあるときに手(複数可)204の位置を予測し、手予測情報112を生成するように構成された機械学習システムであり得る。手予測システム110は、教師あり学習、教師なし学習、または両方の組み合わせを使用する機械学習モデルに基づいてトレーニングすることができる。教師あり学習を使用して機械学習モデルをトレーニングする場合、モデルにラベル付きの入力とその目的の出力を提示して、入力を出力にマッピングする一般的なルールを学習するようにモデルをトレーニングできる。教師なし学習を使用して機械学習モデルをトレーニングする場合、ラベルが機械学習モデルに与えられない場合があり、そのような場合、モデルは入力の構造を決定し、(例えば、モデルが既に教師あり学習を経ている場合)モデルは入力内の隠れたパターンを発見することができ、かつ/または特定の機能を予測することについてより多くを学習することができる。
さらに、コンピュータデバイス102は、ネットワーク17を介して、および/または有線もしくは無線接続を介して1つ以上の外部コントローラ108と通信して、アプリケーション10に適用する対話情報12を取得することができる。外部コントローラ108は、ゲームパッド、ジョイスティック、キーボード、マウス、音声コントローラ、またはアプリケーション10に関連付けられたゲーム、仮想環境、または拡張環境などの仮想環境のための対話情報12を提供することができる任意の他の入力デバイスを含み得るが、これらに限定されない。
コンピュータデバイス102は、1つ以上のプロセッサ36および/またはメモリ38によって実行されるオペレーティングシステム115を含むことができる。コンピュータデバイス102のメモリ38は、オペレーティングシステム115を定義し、かつ/またはオペレーティングシステム115に関連付けられるデータおよび/またはコンピュータ実行可能命令を格納するように構成することができ、プロセッサ36は、オペレーティングシステム115をインスタンス化するためにそのようなデータおよび/または命令を実行することができる。メモリ38の例には、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、テープ、磁気ディスク、光ディスク、揮発性メモリ、不揮発性メモリ、またはコンピュータによって使用可能な任意のタイプのメモリ、および/またはそれらの任意の組み合わせが含まれ得るが、これらに限定されない。プロセッサ36の例には、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、システムオンチップ(SoC)、またはその他のプログラマブルロジックもしくはステートマシンを含む、本明細書に記載されるように特別にプログラムされた任意のプロセッサを含み得るが、これらに限定されない。
コンピュータデバイス102は、ネットワーク17に接続可能であり得る任意のモバイルまたは固定コンピュータデバイスを含むことができる。コンピュータデバイス102は、例えば、デスクトップもしくはラップトップもしくはタブレットコンピュータ、携帯電話、ゲームデバイス、MRデバイス、VRデバイス、音楽デバイス、テレビ、ナビゲーションシステム、カメラ、携帯情報端末(PDA)、ハンドヘルドデバイス、あるいは1つ以上の他のデバイスおよび/または通信ネットワークとの有線および/もしくは無線接続機能を備えたその他のコンピュータデバイスであってもよい。
オペレーティングシステム115は、1つ以上の画像フレームをレンダリングし、ディスプレイデバイス106上に提示するためにレンダリングされた画像フレームをいつ送信するかを判別するように動作可能なグラフィックス処理ユニット(GPU)24を含むことができる。特に、GPU24は、1つ以上のアプリケーション10からデータおよび/または命令を受信することができ、受信したデータおよび/または命令に基づいて1つ以上のディスプレイフレーム(例えば、ディスプレイフレーム25)を生成することができる。GPU24は、ディスプレイコントローラ26と通信して、ディスプレイデバイス106上に提示するためにレンダリングされた画像フレーム(例えば、ディスプレイフレーム25)を送信することができる。
さらに、オペレーティングシステム115はまた、ディスプレイポート30を介してディスプレイデバイス106と通信するために、プロセッサ36および/またはメモリ38と通信可能に結合され得るディスプレイインターフェース28を含むことができる。一実装形態では、ディスプレイコントローラ26は、ディスプレイデバイス106に表示するためにレンダリングされた画像(例えば、ディスプレイフレーム25)を通信するようにディスプレイインターフェース28に命令することができる。ディスプレイポート30は、レンダリングされた画像をディスプレイポート34に送信することができる。ディスプレイポート30は、高精細マルチメディアインターフェース(HDMI)ポート、ディスプレイシリアルインターフェース(DSI)ポート、モバイル産業プロセッサインターフェース(MIPI)DSIポート、ユニバーサルシリアルバス(USB)ポート、ファイアワイヤポート、または、例えば、コンピュータデバイス102とディスプレイデバイス106との間のネットワーク17を介した通信を可能にし得る他の埋め込み型もしくは外部の有線もしくは無線ディスプレイポートを含むが、これらに限定されない様々なタイプのポートを含んでもよい。
コンピュータデバイス102はまた、ディスプレイデバイス106上に1つ以上の画像(例えば、ディスプレイフレーム25)を提示するためにプロセッサ36によって実行され得る1つ以上のアプリケーション10を含むことができる。プロセッサ36によって実行される1つ以上のアプリケーション10はまた、オペレーティングシステム115および/またはGPU24と協調して動作して、例えば、モーダルコントローラ20を実行し、ディスプレイデバイス106上に提示するための画像フレーム(複数可)を生成することができる。
1つ以上のアプリケーション10は、手の動き情報14および手の予測情報112に基づいて、ディスプレイパネル32上に1つ以上のディスプレイフレーム25をレンダリングするように動作可能なモーダルコントローラ20を含むことができる。実装形態において、モーダルコントローラ20は、プライマリユーザエクスペリエンス(UX)120および/またはセカンダリUX122をいつ表示するかを判別することができる。一実装形態では、プライマリUX120は、ユーザ202の手(複数可)204がコンピュータデバイス102の視野210内にあるときに表示され得、セカンダリUX122は、手(複数可)204がコンピュータ102の視野210の外側にあるときに表示され得る。一部の態様では、セカンダリUX122は、プライマリUX120と同時に、または別のUXと同時に、単独で表示されてもよい。
一実装形態では、モーダルコントローラ20は、手の動き情報14に基づいて、ユーザ202の手(複数可)204がコンピュータデバイス102の視野210の内側にあるか外側にあるかを判別する。手(複数可)204が内部にあるかどうかを判別することは、手(複数可)204がコンピュータデバイス102の視野210内にあることを感知する位置追跡システム104のセンサ(例えば、カメラ)に基づいてもよい。言い換えると、手(複数可)204が位置追跡システム104のセンサの追跡領域内にあるとき(すなわち、手(複数可)204が位置追跡システム104によって追跡可能であるとき)、手(複数可)204は、コンピュータデバイス102の視野の内側にあるか、または視野内にある。逆に、手(複数可)204が位置追跡システム104のセンサの追跡領域内にないとき(すなわち、手(複数可)204が位置追跡システム104によって追跡可能でないとき)、手(複数可)204は、コンピュータデバイス102の視野の外側にある。さらに、モーダルコントローラ20は、手(複数可)204が所定の期間(例えば、1秒)より長く視野210の外側に留まっているときに、手(複数可)204が視野210の内側にあるか外側にあるかを判別することができる。一実装形態では、所定の期間は、ユーザ202の習慣、移動、および行動を考慮に入れることができる機械学習に基づいて決定することができる。
一実装形態では、モーダルコントローラ20はまた、手(複数可)204が手の移動を介して視野210の外に移動されたことを判別することができる。
ユーザ202の手(複数可)204がコンピュータデバイス102の視野210の外側にあると判別されると、モーダルコントローラ20は、手の予測情報112に基づいて、手(複数可)204の予測位置220を決定することができる。予測位置220は、モーダルコントローラ20によって使用されて、ディスプレイデバイス106のセカンダリUXをレンダリングすることができる。一部の実装形態では、セカンダリUX122は、手204(複数可)の予測位置に関連付けられている。例えば、予測位置が第1の予測位置(例えば、視野210の外側で肩の高さにあるユーザ202の手(複数可)204)である場合、セカンダリUX122は、第1のユーティリティUX(例えば、アプリケーション設定)であってもよく、予測位置が第2の予測位置(例えば、視野210の外側で腰の高さにあるユーザ202の手(複数可)204)である場合、セカンダリUX122は、第2のユーティリティUX(例えば、システム設定)であってもよい。
モーダルコントローラ20はさらに、外部コントローラ(複数可)108または手(複数可)204から入力を受信してセカンダリUX122と対話するように動作可能であり得る。入力は、外部コントローラ108(複数可)または手(複数可)204の現実世界での移動であり得る。例えば、モーダルコントローラ20は、ジョイスティックの移動および/またはボタンのクリックに対応する外部コントローラ(複数可)108(例えば、ハンドコントローラ)から仮想動き情報12を受信してもよい。別の例では、セカンダリUX122が表示されている間、手(複数可)204は視野210に戻ってもよく、手の動き情報14は、視野210内の手(複数可)204の位置または移動に対応してもよい。セカンダリUX122との対話は、セカンダリウィンドウサイズの調整(例えば、ウィンドウの却下、最小化、または最大化)、オブジェクトの選択(例えば、ボタンまたはテキストの選択)、メニューのスクロール、または他のタイプのセカンダリUX122との対話の実行を含むことができる。
一部の実装形態では、位置追跡システム104は、セカンダリUX122がディスプレイデバイス106上にレンダリングされるときに、第1の手(例えば、右手)による移動が、セカンダリUX122(例えば、第2のアプリケーション、設定)と対話するためにモーダルコントローラ20によって使用され得、かつ第2の手(例えば、左手)による移動が、プライマリUX120(例えば、オペレーティングシステムのUX、第1のアプリケーション、アプリケーションの起動、アプリケーション間の切り替え、通知との対話)と対話するためにモーダルコントローラ20によって使用され得るように、ユーザ202の両手204を別々に追跡してもよい。モーダルコントローラ20は、入力(例えば、仮想動き情報12または手の動き情報14)を、ディスプレイフレーム25のセカンダリUX122上の対話(例えば、カーソル移動またはボタンクリック)に対応する仮想座標に変換することができる。
互いに分離しているように示されているが、当業者は、コンピュータデバイス102、位置追跡システム104、ディスプレイデバイス106、外部コントローラ108、および/または手予測システム110のうちの1つ以上が、互いに離れていてもよく、互いに位置していてもよく、または互いに部分的に離れていてもよく、互いに部分的に位置していてもよいことを認識するであろう。
図3を参照すると、コンピュータデバイス102のモーダル制御のための例示的な方法300が説明される。ブロック302において、方法300は、ユーザの手(複数可)の位置を追跡する手の位置追跡システムから手の動き情報を受信することを含むことができる。例えば、図1および図2に示されるように、コンピュータデバイス102は、位置追跡システム104から手の動き情報14を受信してもよい。一例では、手の動き情報14は、手(複数可)204がコンピュータデバイス102の視野210内にあるか、または視野210からの手(複数可)の不在である間のユーザ202の手(複数可)204の位置情報に対応してもよい。
ブロック304において、方法300は、手の動き情報に基づいて、手がコンピュータデバイスの視野の外側にあると判別することを含むことができる。例えば、図1および図2に示されるように、コンピュータデバイス102は、位置決め追跡システム104のセンサが手(複数可)204を検出しない場合、手(複数可)204が視野210の外側にあると判別してもよい。
ブロック306において、方法300は、視野の外側にある間の手(複数可)の位置を予測することを含むことができる。例えば、図1および図2に示されるように、コンピュータデバイス102は、手予測システム110から手予測情報112を受信してもよい。手予測情報112は、手(複数可)204の予測位置220を決定する機械学習に基づいてもよい。
一部の例では、手の予測情報112はさらに、ユーザ202によって実行された格納された履歴アクションに基づいてもよい。例えば、コンピュータデバイス102は、ユーザ202によって実行された任意のアクションをメモリ38に格納してもよい。保存されたアクションは、ユーザ202によって実行される傾向および動きから学習し、手の予測情報112をより良く予測するために、コンピュータデバイスによって使用され得る。一部の例では、履歴情報は、手予測システム110と共有されてもよい。
ブロック308において、本方法は、手(複数可)の予測位置に基づいて、ディスプレイ上にセカンダリUXをレンダリングすることを含むことができる。例えば、図1および図2に示されるように、モーダルコントローラ20は、手の予測情報112に基づいて、コンピュータデバイス102の視野210の外側にある間の手(複数可)204の位置を決定してもよい。予測位置220に基づいて、モーダルコントローラ20は、ディスプレイパネル32にセカンダリUX122を表示させるようにディスプレイインターフェース28に命令することができる。
ブロック310において、本方法は、任意選択で、手の動き情報に基づいて、手(複数可)がディスプレイの視野の内側に戻ったことを判別することを含むことができる。例えば、図1および図2に示されるように、モーダルコントローラ20は、手(複数可)204が視野210に戻った後、手の動き情報14を受信してもよい。一部の実装形態では、モーダルコントローラ20が手(複数可)204が視野210の内側に戻ったと判別すると、コンピュータデバイス102は、セカンダリUX122を却下、最小化、または閉じることができる。あるいは、モーダルコントローラ20は、以下のブロック312で説明されるように、セカンダリUX122と対話するためのコマンドを受信することができる。
ブロック312で、本方法は、任意選択で、セカンダリUXと対話するためのコマンドを受信することを含むことができる。例えば、図1に示されるように、モーダルコントローラ20は、1つ以上の外部コントローラ108または位置追跡システム104からコマンドを受信してもよい。一例では、コマンドは、セカンダリUX122との対話を示すために、ハンドコントローラまたは音声コントローラからのコマンドに対応してもよい。あるいは、コマンドは、手(複数可)204が視野210の内側に戻った後に位置追跡システム104によって検出された手の動きに対応してもよい。
ブロック314において、本方法は、任意選択で、コマンドに基づいてセカンダリUXと対話することを含むことができる。例えば、図1に示されるように、モーダルコントローラ20は、外部コントローラ108または位置追跡システム104から受信されたコマンドに基づいて、セカンダリUX122と対話してもよい。前述したように、セカンダリUX122との対話は、例えば、ボタンをクリックすること、画像またはテキストを強調表示すること、またはセカンダリUX122との他の任意の対話を含むことができる。さらに、対話は、ユーザ202の手(複数可)204の予測位置に基づいて決定することができる。例えば、手(複数可)204が第1の位置であると予測される場合、セカンダリUX122は、例えば、第1のアプリケーションまたは第2のアプリケーションに関連付けられたアプリケーション設定ウィンドウであってもよく、手(複数可)204が第2の場所であると予測される場合、セカンダリUX122は、例えば、システム設定ウィンドウまたは第3のアプリケーションであってもよい。したがって、セカンダリUX122との対話は、表示されているセカンダリUX122のタイプに基づいて異なる可能性がある。
ここで図4を参照すると、図1と比較した追加のコンポーネントの詳細を含む、実装形態によるコンピュータデバイス102の例が示されている。
コンピュータデバイス102は、本明細書で説明されるように、ハードウェア、ソフトウェア、およびサービスを利用する1つ以上の当事者との通信を確立および維持することを提供する通信コンポーネント40を含むことができる。通信コンポーネント40は、コンピュータデバイス102上のコンポーネント間、ならびにコンピュータデバイス102と、通信ネットワークを横切って配置されたデバイスおよび/またはコンピュータデバイス102にシリアルまたはローカルに接続されたデバイスなどの外部デバイスとの間の通信を行うことができる。例えば、通信コンポーネント40は、1つ以上のバスを含んでもよく、さらに、外部デバイスと対話するように動作可能な、送信機および受信機にそれぞれ関連する送信チェーンコンポーネントおよび受信チェーンコンポーネントを含んでもよい。
さらに、コンピュータデバイス102は、本明細書に記載の実装形態に関連して使用される情報、データベース、およびプログラムの大容量記憶装置を提供する、ハードウェアならびに/またはソフトウェアの任意の適切な組み合わせであり得るデータストア42を含むことができる。例えば、データストア42は、アプリケーション10(図1)、GPU24(図1)、ディスプレイコントローラ26(図1)、および/またはディスプレイインターフェース28(図1)のためのデータリポジトリであってもよい。
コンピュータデバイス102はまた、コンピュータデバイス102のユーザからの入力を受信するように動作可能であり、さらにユーザに提示するための出力を生成するように動作可能なユーザインターフェースコンポーネント44を含むことができる。ユーザインターフェースコンポーネント44は、キーボード、テンキー、マウス、タッチセンシティブディスプレイ、ナビゲーションキー、機能キー、マイクロフォン、音声認識コンポーネント、ユーザからの入力を受信できるその他のメカニズム、またはそれらの任意の組み合わせを含むがこれらに限定されない1つ以上の入力デバイスを含むことができる。さらに、ユーザインターフェースコンポーネント44は、ディスプレイ、スピーカー、触覚フィードバック機構、プリンタ、ユーザに出力を提示することができる任意の他の機構、またはそれらの任意の組み合わせを含むがこれらに限定されない1つ以上の出力デバイスを含むことができる。
実装形態では、ユーザインターフェースコンポーネント44は、アプリケーション10、GPU24、ディスプレイコントローラ26、および/またはディスプレイインターフェース28の動作に対応するメッセージを送信および/または受信することができる。さらに、プロセッサ36は、アプリケーション10、GPU24、ディスプレイコントローラ26、および/またはディスプレイインターフェース28を実行することができ、メモリ38またはデータストア42は、それらを格納することができる。
このアプリケーションで使用される場合、「コンポーネント」、「システム」などの用語は、ハードウェア、ファームウェア、ハードウェアとソフトウェアの組み合わせ、ソフトウェア、または実行中のソフトウェアなどのコンピュータ関連エンティティを含むことが意図されているが、これらに限定されない。例えば、コンポーネントは、プロセッサ上で実行されるプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行スレッド、プログラム、および/またはコンピュータであり得るが、これらに限定されない。実例として、コンピュータデバイス上で実行されているアプリケーションとコンピュータデバイスの両方をコンポーネントとすることができる。1つ以上のコンポーネントは、プロセスおよび/または実行スレッド内に存在することができ、コンポーネントは、1つのコンピュータにローカライズされ、および/または2つまたは複数のコンピュータに分散させることができる。さらに、これらのコンポーネントは、様々なデータ構造が格納されている様々なコンピュータ可読媒体から実行できる。コンポーネントは、1つ以上のデータパケット、例えば、信号を介して、ローカルシステム、分散システム、および/またはインターネットなどのネットワークを介して別のコンポーネントと対話する1つのコンポーネントからのデータなどを有する信号に従って、ローカルおよび/またはリモートプロセスの方法で通信してもよい。
さらに、「または」という用語は、排他的な「または」ではなく、包括的な「または」を意味することを意図している。つまり、特に明記されていない限り、または文脈から明らかでない限り、「XはAまたはBを採用する」という表現は、自然な包括的な組み合わせのうちのいずれかを意味することが意図されている。すなわち、「XはAまたはBを採用する」という表現は、「XはAを採用する」「XはBを採用する」または「XはAおよびBの両方を採用する」のいずれかの場合にも成立する。また、本出願および添付の特許請求の範囲で使用される「a」および「an」という冠詞は、特に明記されていない限り、または文脈から単数形に向けられていることが明らかでない限り、一般的に「1つ以上」を意味すると解釈されるべきである。
多数のデバイス、コンポーネント、モジュールなどを含み得るシステムに関して、様々な実装形態または機能を提示してきた。様々なシステムは、追加のデバイス、コンポーネント、モジュールなどを含む場合があり、かつ/または図に関連して説明されたデバイス、コンポーネント、モジュールなどの全てを含まない場合があることを理解および認識されたい。これらの手法の組み合わせも使用することができる。
本明細書に開示される実施形態に関連して説明される方法の様々な例示的な論理、論理ブロック、およびアクションは、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他のプログラマブルロジックデバイス、ディスクリートゲートもしくはトランジスタロジック、ディスクリートハードウェアコンポーネント、あるいは本明細書に記載の機能を実行するように設計されたそれらの任意の組み合わせのうちの特別にプログラムされたものを使用して実装または実行することができる。汎用プロセッサは、マイクロプロセッサであってもよいが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンであってもよい。プロセッサはまた、コンピュータデバイスの組み合わせ、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、または任意の他のそのような構成として実装されてもよい。さらに、少なくとも1つのプロセッサは、上記のステップおよび/またはアクションのうちの1つ以上を実行するように動作可能な1つ以上のコンポーネントを含んでもよい。
さらに、本明細書に開示される実装形態に関連して説明される方法またはアルゴリズムのステップおよび/またはアクションは、ハードウェア、プロセッサによって実行されるソフトウェアモジュール、または2つの組み合わせで直接具体化することができる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD-ROM、または当技術分野で知られている他の形式の記憶媒体に常駐することができる。例示的な記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるように、プロセッサに結合してもよい。あるいは、記憶媒体はプロセッサと一体であってもよい。さらに、一部の実装形態では、プロセッサおよび記憶媒体は、ASICに常駐することができる。さらに、ASICはユーザ端末に常駐してもよい。あるいは、プロセッサおよび記憶媒体は、ユーザ端末内の個別のコンポーネントとして存在してもよい。さらに、一部の実装形態では、方法またはアルゴリズムのステップおよび/またはアクションは、機械可読媒体および/またはコンピュータ可読媒体上のコードおよび/または命令の1つまたは任意の組み合わせまたはセットとして存在してもよく、これらは、コンピュータプログラム製品に組み込まれてもよい。
1つ以上の実装形態では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実装することができる。ソフトウェアで実装される場合、機能は、コンピュータ可読媒体上に1つ以上の命令またはコードとして格納または送信することができる。コンピュータ可読媒体は、コンピュータ記憶媒体と、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体の両方を含む。記憶媒体は、コンピュータがアクセスできる任意の利用可能な媒体であってもよい。例示的に、またこれに限定されない方法で、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMまたは他の光ディスクストレージ、磁気ディスクストレージまたは他の磁気ストレージデバイス、または命令またはデータ構造の形で所望のプログラムコードを格納するために使用することができ、コンピュータによってアクセスすることができる任意の他の媒体を含んでもよい。本明細書で使用されるディスクおよびディスクには、コンパクトディスク(CD)、レーザディスク、光ディスク、デジタル多用途ディスク(DVD)、フロッピーディスクおよびBlu-rayディスクが含まれ、ディスクは通常、データを磁気的に再生し、ディスクは通常、レーザを使用してデータを光学的に再生する。上記の組み合わせも、コンピュータ可読媒体の範囲に含める必要がある。
本開示の実装形態は、その例に関連して説明されてきたが、上記の実装形態の変形例および修正例は、本開示の範囲から逸脱することなく行われ得ることが当業者によって理解されるであろう。他の実装形態は、本明細書に開示された実施例による仕様の検討または実践から当業者には明らかであろう。

Claims (20)

  1. データおよび命令を格納するメモリと、
    前記メモリと通信するプロセッサと、
    プライマリユーザエクスペリエンス(UX)をレンダリングするヘッドマウントディスプレイ(HMD)と、
    前記メモリおよび前記プロセッサと通信するオペレーティングシステムと、を備え、
    前記オペレーティングシステムおよびプロセッサが、
    前記HMDの視野の内側にあるユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信することであって、前記手の動き情報は、前記視野の内側から前記視野の外側に移動する手の情報を含む、こと、
    前記手の動き情報に基づいて、前記手が前記HMDの視野の外側にあると判別すること
    前記視野の外側にある間の前記手の位置を予測すること
    前記手の前記予測位置に基づいて、前記HMD上のセカンダリUXと対話することであって、前記セカンダリUXは、前記プライマリUXとは異なる、こと、
    を行うように動作可能である、コンピュータデバイス。
  2. 前記視野の外側にある間の前記手の前記位置が、機械学習に基づいて予測される、請求項1に記載のコンピュータデバイス。
  3. 前記オペレーティングシステムおよびプロセッサが、
    前記手が前記視野の外側に位置する間に前記セカンダリUXと対話するためのコマンドを受信し、
    前記コマンドに基づいて前記セカンダリUXと対話するようにさらに動作可能である、請求項1に記載のコンピュータデバイス。
  4. 前記コマンドが、音声コマンドまたはハンドコントローラからの信号のうちの1つ以上である、請求項3に記載のコンピュータデバイス。
  5. 前記オペレーティングシステムおよびプロセッサが、
    前記手の第1の予測位置および第1のコマンドに基づく第1の命令に従って、前記セカンダリUXと対話し、
    前記手の第2の予測位置および第2のコマンドに基づく第2の命令に従って、前記セカンダリUXと対話するようにさらに動作可能であり、前記第1の命令が、前記第2の命令とは異なり、前記第1の予測位置が、前記第2の予測位置とは異なる、請求項3に記載のコンピュータデバイス。
  6. 前記オペレーティングシステムおよびプロセッサが、
    前記手の動き情報に基づいて、前記手が前記HMDの前記視野の内側に戻ったことを判別するようにさらに動作可能であり、前記コマンドが、前記手が前記視野の内側にある間に受信した前記手の動き情報に基づいている、請求項3に記載のコンピュータデバイス。
  7. 前記視野の外側にある間の前記手の前記位置が、前記ユーザによって格納された履歴アクションに基づいてさらに予測される、請求項1に記載のコンピュータデバイス。
  8. 前記手が前記HMDの前記視野の外側にあると判別されたときに、前記セカンダリUXが、前記HMD上にレンダリングされる、請求項1に記載のコンピュータデバイス。
  9. コンピュータデバイスのモーダル制御のための方法であって、前記方法が、
    前記コンピュータデバイスのヘッドマウントディスプレイ(HMD)の視野の内側にあるユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信することであって、前記HMDは、プライマリユーザエクスペリエンス(UX)をレンダリングし、前記手の動き情報は、前記視野の内側から前記視野の外側に移動する手の情報を含む、こと、
    前記手の動き情報に基づいて、前記手が前記HMDの視野の外側にあると判別すること、
    前記視野の外側にある間の前記手の位置を予測すること、
    前記手の前記予測位置に基づいて、前記HMDにセカンダリUXをレンダリングすることであって、前記セカンダリUXは、前記プライマリUXとは異なる、こと、
    を含む、方法。
  10. 前記視野の外側にある間の前記手の前記位置が、機械学習に基づいて予測される、請求項9に記載の方法。
  11. 前記セカンダリUXと対話するためのコマンドを受信することと、
    前記コマンドに基づいて前記セカンダリUXと対話することと、をさらに含む、請求項9に記載の方法。
  12. 前記コマンドが、音声コマンドまたはハンドコントローラからの信号のうちの1つ以上である、請求項11に記載の方法。
  13. 前記位置が前記手の第1の予測位置であるときに、第1の命令に従って、前記セカンダリUXは対話され、
    前記位置が前記手の第2の予測位置であるときに、第2の命令に従って、前記セカンダリUXは対話され、
    前記第1の予測位置は、前記第2の予測位置とは異なる、請求項11に記載の方法。
  14. 前記手の動き情報に基づいて、前記手が前記HMDの前記視野の内側に戻ったことを判別することを更に含み、前記コマンドが、前記手が前記視野の内側にある間に受信した前記手の動き情報に基づいている、請求項11に記載の方法。
  15. 前記視野の外側にある間の前記手の前記位置が、前記ユーザによって格納された履歴アクションに基づいてさらに予測される、請求項9に記載の方法。
  16. 前記手が前記HMDの前記視野の外側にあると判別されたときに、前記セカンダリUXが、前記HMD上にレンダリングされる、請求項9に記載の方法。
  17. コンピュータデバイスによって実行可能な命令を格納するコンピュータ可読媒体であって、
    前記コンピュータデバイスに、前記コンピュータデバイスのヘッドマウントディスプレイ(HMD)の視野の内側にあるユーザの手の位置を追跡する手の位置追跡システムから手の動き情報を受信させるための少なくとも1つの命令であって、前記HMDは、プライマリユーザエクスペリエンス(UX)をレンダリングし、前記手の動き情報は、前記視野の内側から前記視野の外側に移動する手の情報を含む、少なくとも1つの命令と、
    前記コンピュータデバイスに、前記手の動き情報に基づいて、前記手が前記HMDの視野の外側にあると判別させるための少なくとも1つの命令と、
    前記コンピュータデバイスに、前記視野の外側にある間に前記手の位置を予測させるための少なくとも1つの命令と、
    前記コンピュータデバイスに、前記手の前記予測位置に基づいて、前記HMDにセカンダリUXをレンダリングさせるための少なくとも1つの命令であって、前記セカンダリUXは、前記プライマリUXとは異なる、少なくとも1つの命令と、
    を含む、コンピュータ可読媒体。
  18. 前記視野の外側にある間の前記手の前記位置が、機械学習に基づいて予測される、請求項17に記載のコンピュータ可読媒体。
  19. 前記コンピュータデバイスに、前記手が前記視野の外側に位置する間に前記セカンダリUXと対話するためのコマンドを受信させるための少なくとも1つの命令と、
    前記コンピュータデバイスに、前記コマンドに基づいて前記セカンダリUXと対話させるための少なくとも1つの命令と、
    をさらに含む、請求項17に記載のコンピュータ可読媒体。
  20. 前記コマンドが、音声コマンドまたはハンドコントローラからの信号のうちの1つ以上である、請求項19に記載のコンピュータ可読媒体。
JP2020554878A 2018-05-03 2019-04-22 手の位置に基づいたモーダル制御の開始 Active JP7252252B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862666494P 2018-05-03 2018-05-03
US62/666,494 2018-05-03
US16/119,098 US10860088B2 (en) 2018-05-03 2018-08-31 Method and system for initiating application and system modal control based on hand locations
US16/119,098 2018-08-31
PCT/US2019/028599 WO2019212793A1 (en) 2018-05-03 2019-04-22 Initiating modal control based on hand locations

Publications (3)

Publication Number Publication Date
JP2021521512A JP2021521512A (ja) 2021-08-26
JPWO2019212793A5 JPWO2019212793A5 (ja) 2022-03-25
JP7252252B2 true JP7252252B2 (ja) 2023-04-04

Family

ID=68385186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020554878A Active JP7252252B2 (ja) 2018-05-03 2019-04-22 手の位置に基づいたモーダル制御の開始

Country Status (5)

Country Link
US (1) US10860088B2 (ja)
EP (1) EP3788460A1 (ja)
JP (1) JP7252252B2 (ja)
KR (1) KR20210005041A (ja)
WO (1) WO2019212793A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4273851A1 (en) * 2021-02-12 2023-11-08 Sony Group Corporation Information processing device, information processing method, and program
GB2614330A (en) * 2021-12-31 2023-07-05 Sony Interactive Entertainment Europe Ltd Peripheral tracking system and method
WO2024043438A1 (ko) * 2022-08-24 2024-02-29 삼성전자주식회사 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012158A (ja) 2011-06-30 2013-01-17 Toshiba Corp 電子機器および制御方法
JP2013178645A (ja) 2012-02-28 2013-09-09 Onkyo Corp 電子機器の入力装置
US20140204002A1 (en) 2013-01-21 2014-07-24 Rotem Bennet Virtual interaction with image projection
JP2015520471A (ja) 2012-06-20 2015-07-16 アマゾン・テクノロジーズ、インコーポレイテッド ジェスチャー入力のための指先の場所特定
US20160274732A1 (en) 2015-03-16 2016-09-22 Elliptic Laboratories As Touchless user interfaces for electronic devices
JP2017083916A (ja) 2014-03-12 2017-05-18 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
JP2017104207A (ja) 2015-12-08 2017-06-15 京楽産業.株式会社 遊技機
JP2017191496A (ja) 2016-04-14 2017-10-19 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2018022426A (ja) 2016-08-05 2018-02-08 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、及び、表示装置の制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002342067A1 (en) * 2001-10-12 2003-04-22 Hrl Laboratories, Llc Vision-based pointer tracking method and apparatus
US8488888B2 (en) * 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8217856B1 (en) * 2011-07-27 2012-07-10 Google Inc. Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view
CN103677259B (zh) 2012-09-18 2018-05-29 三星电子株式会社 用于引导控制器的方法、多媒体装置及其目标跟踪装置
US9911361B2 (en) * 2013-03-10 2018-03-06 OrCam Technologies, Ltd. Apparatus and method for analyzing images
JP6848881B2 (ja) * 2015-12-16 2021-03-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10410360B2 (en) * 2017-12-15 2019-09-10 United States Of America As Represented By Secretary Of The Navy Method for displaying off-screen target indicators in motion video

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012158A (ja) 2011-06-30 2013-01-17 Toshiba Corp 電子機器および制御方法
JP2013178645A (ja) 2012-02-28 2013-09-09 Onkyo Corp 電子機器の入力装置
JP2015520471A (ja) 2012-06-20 2015-07-16 アマゾン・テクノロジーズ、インコーポレイテッド ジェスチャー入力のための指先の場所特定
US20140204002A1 (en) 2013-01-21 2014-07-24 Rotem Bennet Virtual interaction with image projection
JP2017083916A (ja) 2014-03-12 2017-05-18 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
US20160274732A1 (en) 2015-03-16 2016-09-22 Elliptic Laboratories As Touchless user interfaces for electronic devices
JP2017104207A (ja) 2015-12-08 2017-06-15 京楽産業.株式会社 遊技機
JP2017191496A (ja) 2016-04-14 2017-10-19 株式会社東海理化電機製作所 ジェスチャ判定装置
JP2018022426A (ja) 2016-08-05 2018-02-08 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、及び、表示装置の制御方法

Also Published As

Publication number Publication date
US20190339767A1 (en) 2019-11-07
WO2019212793A1 (en) 2019-11-07
US10860088B2 (en) 2020-12-08
JP2021521512A (ja) 2021-08-26
EP3788460A1 (en) 2021-03-10
KR20210005041A (ko) 2021-01-13

Similar Documents

Publication Publication Date Title
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US10890983B2 (en) Artificial reality system having a sliding menu
US20210011556A1 (en) Virtual user interface using a peripheral device in artificial reality environments
US20180150204A1 (en) Switching of active objects in an augmented and/or virtual reality environment
US11054894B2 (en) Integrated mixed-input system
JP7252252B2 (ja) 手の位置に基づいたモーダル制御の開始
US11023035B1 (en) Virtual pinboard interaction using a peripheral device in artificial reality environments
US20180143693A1 (en) Virtual object manipulation
US20180046363A1 (en) Digital Content View Control
US10976804B1 (en) Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments
US10331340B2 (en) Device and method for receiving character input through the same
WO2020146122A1 (en) Context-aware system menu behavior for mixed reality
US9904444B2 (en) Method of providing user interface of device and device including the user interface
EP3811186B1 (en) Input scaling to keep controller inside field of view
US20140111551A1 (en) Information-processing device, storage medium, information-processing method, and information-processing system
US20230298267A1 (en) Event routing in 3d graphical environments
US10809794B2 (en) 3D navigation mode
US20240036698A1 (en) Xr manipulation feature with smart watch
US20230333645A1 (en) Method and device for processing user input for multiple devices
EP3850468B1 (en) Snapping range for augmented reality objects
US20240111390A1 (en) Translating Interactions on a Two-Dimensional Interface to an Artificial Reality Experience
US11816757B1 (en) Device-side capture of data representative of an artificial reality environment
US20230324997A1 (en) Virtual Keyboard Selections Using Multiple Input Modalities
US20240019928A1 (en) Gaze and Head Pose Interaction
US20230013860A1 (en) Methods and systems for selection of objects

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7252252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150