JP2016530600A - 多ステップ仮想オブジェクト選択 - Google Patents

多ステップ仮想オブジェクト選択 Download PDF

Info

Publication number
JP2016530600A
JP2016530600A JP2016521461A JP2016521461A JP2016530600A JP 2016530600 A JP2016530600 A JP 2016530600A JP 2016521461 A JP2016521461 A JP 2016521461A JP 2016521461 A JP2016521461 A JP 2016521461A JP 2016530600 A JP2016530600 A JP 2016530600A
Authority
JP
Japan
Prior art keywords
user
focus
virtual object
mounted display
selectable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016521461A
Other languages
English (en)
Other versions
JP6359649B2 (ja
JP2016530600A5 (ja
Inventor
キーン,ブライアン,イー.
サルター,トム,ジー.
サグデン,ベン,ジェー.
デトフォード,ダニエル
クロッコ,ロバート,エル.,ジュニア
マッセー,ローラ,ケー.
キプマン,アレックス,アベン−アサー
キネブリュー,ペーター,トビアス
カムダ,ニコラス,フェリアンク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016530600A publication Critical patent/JP2016530600A/ja
Publication of JP2016530600A5 publication Critical patent/JP2016530600A5/ja
Application granted granted Critical
Publication of JP6359649B2 publication Critical patent/JP6359649B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【解決手段】 ヘッドマウントディスプレイが、ユーザによる多ステップフォーカシングにより仮想オブジェクトのユーザ選択を可能にする。選択可能なオブジェクトへのフォーカスが決定され、次いで、検証オブジェクトが表示される。ユーザフォーカスが検証オブジェクトに移動するとき、タイムアウトが、検証オブジェクト、したがって、選択可能なオブジェクトの選択が行われたことを決定する。この技術は、ユーザが、意図しない選択をすることなしに、多数の仮想オブジェクトを有する環境を効果的にナビゲートすることを可能にするシースルーヘッドマウントディスプレイに使用され得る。【選択図】 図14

Description

[0001] 複合現実感は、仮想オブジェクトが現実世界物理環境と調和されることを可能にする技術である。シースルーのヘッドマウントディスプレイ(head mounted display: HMD)装置を、ユーザは、装着して、自分の視野に表示される現実オブジェクトと仮想オブジェクトとの複合像を視ることができる。
[0002] ユーザは、例えば、手又は音声のジェスチャを行うことによって、仮想オブジェクトと対話して、オブジェクトを移動させる、オブジェクトの外見を変える、又は単にオブジェクトを視ることができる。手又は音声のジェスチャを行うことによる仮想オブジェクトとの対話は、継続されると時が経つにつれて、幾分、退屈になることがある。XBOX360を使用するMicrosoftのKinectなどの自然なユーザインターフェースは、ユーザの付属部の動作を追跡し、オブジェクトに対するその付属部のレンダリングされたバージョンを付帯のディスプレイに配置することによって、ユーザが、項目を選択することを可能にする。付属部がオブジェクトに十分に近づくとき、視覚インジケータが表示され、オブジェクト又は項目が選択されているところであるというユーザへのフィードバックを視覚インジケータがもたらすことに伴ってタイマが動作する。次いで、アプリケーションが、その選択において機能することができる。
[0003] ヘッドマウントディスプレイにおける技術は、ユーザがオブジェクトにフォーカスしているという決定に基づいて、ディスプレイにおいてレンダリングされる仮想オブジェクトのユーザ選択を可能にする。選択可能な仮想オブジェクト及び検証オブジェクトへのユーザによる多ステップフォーカシングが、オブジェクトを選択しようとするユーザの意思を確認するために使用される。選択可能なオブジェクトへのフォーカスが決定され、次いで、検証オブジェクトが表示される。ユーザフォーカスが検証オブジェクトに移動するとき、検証オブジェクト、したがって、選択可能なオブジェクトの選択が行われたことをタイムアウトが決定する。この技術は、ユーザが、意図しない選択をすることなしに、多数の仮想オブジェクトを有する環境を効果的にナビゲートすることを可能にするシースルーヘッドマウントディスプレイに使用され得る。
[0004] シースルーヘッドマウントディスプレイ機器は、シースルーヘッドマウントディスプレイと、ヘッドマウントディスプレイに連結されたプロセッサとを含む。プロセッサは、ヘッドマウントディスプレイにおいて少なくとも1つの選択可能な仮想オブジェクトをレンダリングし、ユーザの注視及び頭部位置を決定するようにプログラミングされる。フォーカスの決定は、ユーザの注視、ユーザの頭部位置、又はその両方に基づいて行われ得る。ユーザフォーカスに基づいた選択可能な仮想オブジェクトの初期選択の決定が行われ、選択可能な仮想オブジェクトに近接して検証オブジェクトが表示される。ユーザによる選択可能なオブジェクトの選択の決定は、ユーザのフォーカスが検証オブジェクトに向けられるときに行われる。
[0005] この「発明の概要」は、「発明を実施するための形態」においてさらに後述される概念の選択を簡略化した形態で紹介するために与えられる。この「発明の概要」は、特許請求される主題の主要な特徴又は本質的な特徴を特定するように意図するものでも、特許請求される主題の範囲を決定する際の助けとして使用されるように意図するものでもない。
[0006]1人又は複数人のユーザに複合現実感環境を提示するためのシステムの一実施形態の例示的な構成要素を示す図である。 [0007]ヘッドマウントディスプレイを通したユーザのビューを示す図である。 ヘッドマウントディスプレイを通したユーザのビューを示す図である。 [0008]ヘッドマウントディスプレイユニットの一実施形態の透視図である。 [0009]ヘッドマウントディスプレイユニットの一実施形態の一部分の側面図である。 [0010]ヘッドマウントディスプレイユニットの構成要素の一実施形態のブロック図である。 [0011]ヘッドマウントディスプレイユニットと関連しているプロセッシングユニットの構成要素の一実施形態のブロック図である。 [0012]ヘッドマウントディスプレイユニットとともに使用されるハブコンピューティングシステムの構成要素の一実施形態のブロック図である。 [0013]本明細書に記載のハブコンピューティングシステムを実装するのに使用可能なコンピューティングシステムの一実施形態のブロック図である。 [0014]本技術による方法を表すフローチャートである。 [0015]図8のステップ612を実装する一方法を表すフローチャート図である。 [0016]図8のステップ616を実装する一方法を表すフローチャート図である。 [0017]ユーザが視ているいくつかの仮想オブジェクトを上から見下ろした透視図である。 ユーザが視ているいくつかの仮想オブジェクトのユーザのパースペクティブビューを示す図である。 [0018]ユーザが仮想オブジェクトに対してユーザのビュー及びフォーカスを回転させたときの仮想オブジェクトの図11Aを示す図である。 ユーザが仮想オブジェクトに対してユーザのビュー及びフォーカスを回転させたときのそのような仮想オブジェクトのユーザのパースペクティブビューの図11Bを示す図である。 [0019]ユーザフォーカスが仮想オブジェクトのうちの1つに向けられるようになったときの仮想オブジェクトの図11A及び図12Aを示す図である。 ユーザフォーカスが仮想オブジェクトのうちの1つに向けられるようになったときのそのような仮想オブジェクトのユーザのパースペクティブビューの図11B及び図12Bを示す図である。 [0020]ユーザの眼のフォーカス、及び図11A〜図13Bの仮想オブジェクトのうちの1つの選択を示す図である。 [0021]図14の選択の効果を示す図である。
[0022] ユーザがオブジェクトにフォーカスしているという決定に基づいて、仮想オブジェクトのユーザ選択を可能にする技術が提示される。この技術は、選択可能な仮想オブジェクト及び検証オブジェクトへのユーザによる多ステップフォーカシングを使用して、オブジェクトを選択しようとするユーザの意思を確認する。第1のタイマは、ユーザが選択可能なオブジェクトにフォーカスしているということの決定後、検証オブジェクトの表示前に動作する。ユーザフォーカスが検証オブジェクトに移動するとき、仮想オブジェクトの選択が行われたことを別のタイムアウトが決定する。フォーカスの決定は、ユーザの注視、ユーザの頭部位置、又はその両方に基づいて行われ得る。この技術は、ユーザが、意図しない選択をすることなしに、多数の仮想オブジェクトを有する環境を効果的にナビゲートすることを可能にするシースルーヘッドマウントディスプレイに使用され得る。
[0023] ヘッドマウントディスプレイ装置は、ディスプレイ素子を含むことができる。ディスプレイ素子は、ユーザがユーザの視野(field of view: FOV)内で現実世界オブジェクトをディスプレイ素子を通して眺めることができるように、ある程度、透明である。ディスプレイ素子はまた、仮想オブジェクトをユーザのFOVの中に投影する能力を提供し、それにより、仮想オブジェクトは、現実世界オブジェクトと一緒に見えることも可能である。システムは、ユーザが眺めている場所を自動的に追跡し、それにより、システムは、ユーザのFOVに仮想オブジェクトを挿入すべき場所を決定することができる。一旦、システムが仮想オブジェクトを投影すべき場所を知ると、画像は、ディスプレイ素子を使用して投影される。
[0024] 仮想オブジェクトは、オブジェクト定義を含むことができる。この定義は、ディスプレイ装置2が、ユーザの視野において仮想オブジェクトをレンダリングすることを可能にするデータを含むことができる。定義の一コンポーネントは、オブジェクトタイプ、オブジェクトサイズ、並びに1つ又は複数の最適なビューイングパースペクティブ及び向きを含むことができる。各最適ビューイングパースペクティブは、オブジェクトのユーザビューに対して、最適なパースペクティブの定義を含むことができる。仮想オブジェクトが共有されるとき、本明細書に提示される技術は、オブジェクト定義、並びにオブジェクトが共有される各ユーザの場所及び視野を使用して、ユーザごとにオブジェクトをレンダリングすべき最適な場所を決定する。
[0025] 一代替形態では、ハブコンピューティングシステム及びプロセッシングユニットのうちの1つ又は複数は、協働して、屋内又は他の環境内のユーザ、現実世界オブジェクト、及び仮想3次元オブジェクトすべてのx、y、zのCartesian位置を含んだ環境のモデルを構築することができる。環境内のユーザが装着した各ヘッドマウントディスプレイ装置の位置は、環境のモデルに、及び互いに較正可能である。これにより、システムは、環境の各ユーザの見通し線及びFOVを決定することが可能になる。したがって、仮想オブジェクトは各ユーザに表示可能であるが、各ユーザのパースペクティブからの仮想オブジェクトの表示は、環境内の他のオブジェクトとの、又は他のオブジェクトによる視差及び何らかのオクルージョンについて仮想オブジェクトを調整することに関係している場合がある。本明細書でシーンマップと呼ばれる環境のモデル、並びに環境内のユーザのFOV及びオブジェクトの追跡はすべて、連携して、又は個々に働くハブ及びモバイルプロセッシングユニットによって生成され得る。
[0026] 図1Aは、ユーザのFOV内で仮想オブジェクト21を現実内容と融合させることによって複合現実感体験を提供するためのシステム10を示している。図1Aは、ヘッドマウントディスプレイ装置2を装着した、たった1人のユーザ18を示しているが、2人以上のユーザが複合現実感環境内に存在し、ユーザ自身らのパースペクティブから同じ仮想オブジェクトを視ていることも可能であることは理解される。図2及び図3で分かるように、ヘッドマウントディスプレイ装置2は、一体化されたプロセッシングユニット4を含むことができる。他の実施形態では、プロセッシングユニット4は、ヘッドマウントディスプレイ装置2と別個であってもよく、ワイヤード又はワイヤレスの通信を介してヘッドマウントディスプレイ装置2と通信することができる。
[0027] 一実施形態ではメガネの形状をしている、ヘッドマウントディスプレイ装置2は、ユーザの頭部に装着され、それにより、ユーザは、ディスプレイを通して見ること、及びそれによって、ユーザの前の空間の実際の直接ビューを有することができる。用語「実際の直接ビュー(actual direct view)」を使用することにより、オブジェクトの作り上げられた画像表現を見るのではなく、人間の眼で直接、現実世界オブジェクトを見る能力を示す。例えば、ガラスを通して室内を眺めることは、ユーザに、その部屋の実際の直接ビューを有することを可能にするが、部屋の映像をテレビで眺めることは、その部屋の実際の直接ビューではない。ヘッドマウントディスプレイ装置2のさらなる詳細は、以下に与えられる。
[0028] プロセッシングユニット4は、ヘッドマウントディスプレイ装置2を動作させるのに使用されるコンピューティングパワーの多くを含むことができる。諸実施形態では、プロセッシングユニット4は、1つ又は複数ハブコンピューティングシステム12に対してワイヤレスで(例えば、WiFi、Bluetooth、赤外線、又は他のワイヤレス通信手段)通信する。本明細書で以降、説明されるように、ハブコンピューティングシステム12は、プロセッシングユニット4とは遠隔に設置されてもよく、それにより、ハブコンピューティングシステム12及びプロセッシングユニット4は、LAN又はWANなどのワイヤレスネットワークを介して通信する。さらなる実施形態では、ハブコンピューティングシステム12は、ヘッドマウントディスプレイ装置2及びプロセッシングユニット4を使用して、モバイル複合現実感体験を提供するために省略されてもよい。
[0029] ハブコンピューティングシステム12は、コンピュータ、あるいはゲーム用システム又はコンソールなどとすることができる。例示的な実施形態によれば、ハブコンピューティングシステム12は、ハードウェアコンポーネント、及び/又はソフトウェアコンポーネントを含むことができ、それにより、ハブコンピューティングシステム12は、ゲーム用アプリケーション、又は非ゲーム用アプリケーションなどのアプリケーションを実行するのに使用可能である。一実施形態では、ハブコンピューティングシステム12は、本明細書に記載の方法を行うためのプロセッサ可読ストレージ装置において記憶された命令を実行することができる標準プロセッサ、専門プロセッサ、又はマイクロプロセッサなどのプロセッサを含むことができる。
[0030] ハブコンピューティングシステム12は、そのFOV内でシーンの部分から画像データを取り込むためのキャプチャ装置20をさらに含む。本明細書に使用される場合、シーンは、ユーザが動き回る環境であり、その環境は、キャプチャ装置20のFOV、及び/又は各ヘッドマウントディスプレイ装置2のFOV内で取り込まれる。図1Aは、単一のキャプチャ装置20を示しているが、さらなる実施形態には複数のキャプチャ装置がある場合もあり、その複数のキャプチャ装置は協働して、複数のキャプチャ装置20の合成FOV内でシーンからの画像データをまとめて取り込む。キャプチャ装置20は、ユーザ18及び周囲の空間を視覚的に監視する1つ又は複数のカメラを含むことができ、それにより、ユーザによって行われるジェスチャ及び/又は動き、並びに周囲の空間の構造物が取り込まれ、分析され、追跡されて、アプリケーション内で1つ又は複数の制御もしくはアクションを行うこと、及び/あるいはアバタ又はスクリーン上のキャラクタをアニメ化することが可能である。
[0031] ハブコンピューティングシステム12は、ゲーム又はアプリケーションビジュアルをもたらすことが可能なテレビ、モニタ、又は高解像度テレビ(high-definition television: HDTV)などの視聴覚装置16に接続可能である。一例では、視聴覚装置16は、内部スピーカを含む。他の実施形態では、視聴覚装置16及びハブコンピューティングシステム12は、外部スピーカ22に接続可能である。
[0032] ハブコンピューティングシステム12は、ヘッドマウントディスプレイ装置2及びプロセッシングユニット4とともに、図1Aの仮想オブジェクト21など、1つ又は複数の仮想オブジェクトが、シーン内の現実世界オブジェクトと一緒に調和可能な複合現実感体験を提供することができる。図1Aは、ユーザのFOV内で見える現実世界オブジェクトとしての植物現実オブジェクト23又はユーザの手の例を示している。
[0033] 図1Aの例示では、ユーザ18は、仮想オブジェクト21とともに示されている。図1B及び図1Cは、ディスプレイ2を通してユーザ18のパースペクティブからのオブジェクト21を示している。図11から図14に関して以下に論じられるように、ユーザの注視及びユーザの頭部位置は、必ずしも整合しているとは限らない。一般には、ユーザが自分のフォーカスを特定のオブジェクトに向けるように意図するとき、ユーザの注視とユーザの頭部とはともに、近接して、すなわち密接に整合していることになる。これは、一般に、人間は、その頭部の動きがその注視の後に続く傾向があるからである。
[0034] 図1Bに、図1Aに示された仮想オブジェクト21が示されている。この例では、オブジェクト21に対するユーザの頭部方向(交差ポイント21hによって表されている)と、ユーザの注視方向(交差ポイント21gによって表されている)とはともに、仮想オブジェクト221に向けられる。一旦、ユーザが、オブジェクトを選択し、ユーザ選択が行われたことを、オブジェクト21を制御するアプリケーションに指示すると、アプリケーションは、オブジェクトに、いくつかの機能を行わせることができる。図1Cの例示では、仮想オブジェクトモンスター21は、アニメ化されるようになる。任意の数の種々の機能が、シースルーヘッドマウントディスプレイ装置2で動作する任意の数の種々のアプリケーションにより、仮想オブジェクトに関して行われ得る。
[0035] 図2及び図3は、ヘッドマウントディスプレイ装置2の透視図及び側面図を示している。図3は、テンプル102及びノーズブリッジ104を有する装置の一部分を含んだ、ヘッドマウントディスプレイ装置2の右側を示している。ノーズブリッジ104には、後述されるように、音声を記録し、そのオーディオデータをプロセッシングユニット4に送るためのマイクロホン110が内蔵されている。ヘッドマウントディスプレイ装置2の前面には、ビデオ及び静止の画像を取り込むことが可能な、部屋に面するビデオカメラ112がある。それらの画像は、後述されるように、プロセッシングユニット4に送られる。
[0036] ヘッドマウントディスプレイ装置2のフレームの一部分が、(1つ又は複数のレンズを含んでいる)ディスプレイを取り囲むことになる。ヘッドマウントディスプレイ装置2の構成要素を示すために、ディスプレイを取り囲んだフレームの一部分は描かれていない。ディスプレイは、導光光学素子115、不透明フィルタ114、シースルーレンズ116、及びシースルーレンズ118を含む。一実施形態では、不透明フィルタ114は、シースルーレンズ116の後ろ側にありシースルーレンズ116と整合され、導光光学素子115は、不透明フィルタ114の後ろ側にあり不透明フィルタ114と整合され、シースルーレンズ118は、導光光学素子115の後ろ側にあり導光光学素子115と整合されている。シースルーレンズ116及び118は、メガネに使用される標準レンズであり、任意の処方(処方なしを含む)に作製可能である。導光光学素子115は、人工光を眼に導く。不透明フィルタ114及び導光光学素子115のより詳細は、2012年5月24日に公開された出願「Head−Mounted Display Device Which Provides Surround Video」という題の米国特許出願公開第2012/0127284号に与えられている。
[0037] 制御回路136が、ヘッドマウントディスプレイ装置2の他の構成要素をサポートする様々な電子機構を提供する。制御回路136のより詳細は、図4に関して以下に与えられる。イヤホン130、慣性計測ユニット132、及び温度センサ138が、テンプル102の内側にある、又はテンプル102に取り付けられる。図4に示される一実施形態では、慣性計測ユニット132(すなわちIMU132)は、3軸磁力計132A、3軸ジャイロ132B、及び3軸加速度計132Cなどの慣性センサを含む。慣性計測ユニット132は、ヘッドマウントディスプレイ装置2の位置、向き、及び急な加速(縦揺れ、横揺れ、及び偏揺れ)を感知する。IMU132は、磁力計132A、ジャイロ132B、及び加速度計132Cに加えて、又は代わりに、他の慣性センサを含んでもよい。
[0038] マイクロディスプレイ120は、レンズ122を通して画像を投影する。マイクロディスプレイ120を実装するのに使用可能な種々の画像生成技術がある。例えば、マイクロディスプレイ120は、透過型投影技術を使用する際に、実装可能であり、この場合、光源は、白色光によりバックライトされた光学活性材料によって変調される。これらの技術は、通常、強力なバックライト及び高い光学エネルギー密度を備えたLCDタイプディスプレイを使用して実装される。マイクロディスプレイ120はまた、反射型技術を使用しても実装可能であり、そのため外部光は、光学活性材料によって反射され、変調される。照明は、技術に応じて、白色光源又はRGB光源のいずれかによって前方に照らされる。デジタルライトプロセッシング(digital light processing: DLP)、液晶オンシリコン(liquid crystal on silicon: LCOS)、及びQualcomm, Inc.によるMirasol(登録商標)ディスプレイ技術はすべて、反射型技術の例であり、この反射型技術は、ほとんどのエネルギーが変調された構造から離れて反射されるので効率的であり、本システムで使用可能である。加えて、マイクロディスプレイ120は、光がディスプレイによって生成される放射型技術を使用しても、実装可能である。例えば、Microvision, Inc.によるPicoP(商標)ディスプレイエンジンは、透過型素子として機能する小さなスクリーン上に、又は眼に直接発せられる(例えば、レーザ)かのいずれかで、マイクロミラーステアリングを用いてレーザ信号を放出する。
[0039] 導光光学素子115は、光を、マイクロディスプレイ120からヘッドマウントディスプレイ装置2を装着したユーザの眼140に送出する。導光光学素子115はまた、矢印142によって描かれているように、光が、ヘッドマウントディスプレイ装置2の前面から導光光学素子115を通して眼140に送出されるのを可能にし、それによって、ユーザは、マイクロディスプレイ120から仮想オブジェクトを受け取ることに加えて、ヘッドマウントディスプレイ装置2の前面の空間の実際の直接ビューを有することが可能になる。したがって、導光光学素子115の壁部は、シースルーである。導光光学素子115は、第1の反射面124(例えば、ミラー又は他の面)を含む。マイクロディスプレイ120からの光は、レンズ122を通過し、反射面124に入射するようになる。反射面124は、マイクロディスプレイ120からの入射光を反射し、それにより、光は、内部反射によって、導光光学素子115を含む平面基板の内側に捕捉される。基板の面への数回の反射の後に、補足された光波は、一連の選択的反射面126に達する。図面の混み過ぎを防ぐために、5つの面のうちの1つに、126が付されていることに留意されたい。反射面126は、基板から外側にそれらの反射面上に入射する光波をユーザの眼140に結合する。導光光学素子のより詳細は、2008年11月20日に公開された「Substrate−Guided Optical Devices」という題の米国特許出願公開第2008/0285140号に見出すことができる。
[0040] ヘッドマウントディスプレイ装置2はまた、ユーザの眼の位置を追跡するためのシステムを含む。以下に説明されるように、システムは、ユーザの位置及び向きを追跡することになり、それにより、システムは、ユーザのFOVを決定することができる。しかしながら、人間は、自分の前面のあらゆるものを知覚することはなかろう。むしろ、ユーザの眼は、環境のサブセットに向けられることになる。そのため、一実施形態では、システムは、ユーザのFOVの測定を精緻化するために、ユーザの眼の位置を追跡するための技術を含むことになる。例えば、ヘッドマウントディスプレイ装置2は、眼追跡アセンブリ134(図3)を含み、この眼追跡アセンブリ134は、眼追跡照明装置134A及び眼追跡カメラ134B(図4)を有する。一実施形態では、眼追跡照明装置134Aは、1つ又は複数の赤外(IR)エミッタを含み、この1つ又は複数の赤外(IR)エミッタは、IR光を眼に向けて放出する。眼追跡カメラ134Bは、反射されたIR光を感知する1つ又は複数のカメラを含む。瞳孔の位置は、角膜の反射を検出する既知の撮像技法によって特定され得る。例えば、2008年7月22日発行の「Head Mounted Eye Tracking and Display System」という題の米国特許第7,401,920号を参照されたい。そのような技法は、追跡用カメラに対する眼の中心の位置を見つけることができる。一般には、眼追跡は、眼の画像を取得し、コンピュータビジョン技法を用いて、眼窩内で瞳孔の場所を決定することが必要である。一実施形態では、両眼は通常、揃って動くので、一方の眼の場所を追跡すれば十分である。しかしながら、それぞれの眼を別個に追跡することが可能である。
[0041] 一実施形態では、システムは、ヘッドマウントディスプレイ装置2のレンズの各隅部に1つのIRLED及び1つのIR光検出器があるように、長方形配置での4つのIRLED及び4つのIR光検出器を使用することになる。LEDからの光は、眼から反射する。4つのIR光検出器のそれぞれにおいて検出される赤外光の量は、瞳孔方向を決定する。つまり、眼の中の白色対黒色の量は、その特定の光検出器について眼から反射された光の量を決定することになる。したがって、光検出器は、眼の中の白色又は黒色の量を測定することになる。4つのサンプルから、システムは、眼の方向を決定することができる。
[0042] 別の代替形態は、上記に論じられた4つの赤外LEDを使用するが、ヘッドマウントディスプレイ装置2のレンズの側に1つの赤外CCDを使用することである。CCDがメガネフレームから見ることができる眼の最大75%を撮像することができるように、CCDは、小型ミラー及び/又はレンズ(魚眼)を使用することになる。次いで、CCDは、上記に論じられたのとよく似て、画像を感知し、コンピュータビジョンを用いてその画像を見つけ出すことになる。したがって、図3は、1つのIRトランスミッタを備えた1つのアセンブリを示しているが、図3の構造は、4つのIRトランスミッタ及び/又は4つのIRセンサを有するように調整可能である。また、4つのIRトランスミッタ及び/又は4つのIRセンサが、より多くても、又はより少なくても使用可能である。
[0043] 眼の方向を追跡するための別の実施形態は、電荷追跡に基づいている。この概念は、網膜が測定可能な正の電荷を担持し、角膜が負の電荷を有するという観察に基づいている。眼が動き回る間、電位を検出するために、センサがユーザの耳(イヤホン130付近)に取り付けられ、リアルタイムに眼が何をしているのかを効果的に読み出す。眼を追跡するための他の実施形態もまた、使用可能である。
[0044] 図3は、ヘッドマウントディスプレイ装置2の片側半分を示している。全ヘッドマウントディスプレイ装置には、シースルーレンズの別の組、別の不透明フィルタ、別の導光光学素子、別のマイクロディスプレイ120、別のレンズ122、部屋に面するカメラ、眼追跡アセンブリ、マイクロディスプレイ、イヤホン、及び温度センサが含まれることになる。
[0045] 図4は、ヘッドマウントディスプレイ装置2の様々な構成要素を示したブロック図である。図5は、プロセッシングユニット4の様々な構成要素を説明したブロック図である。ヘッドマウントディスプレイ装置2は、その構成要素が図4に示されているが、1つ又は複数の仮想オブジェクトを現実世界のユーザのビューとシームレスに融合することによって、ユーザに複合現実感体験を提供するために使用される。加えて、図4のヘッドマウントディスプレイ装置構成要素は、様々な状態を追跡する多数のセンサを含む。ヘッドマウントディスプレイ装置2は、プロセッシングユニット4から仮想オブジェクトについての命令を受け取ることになり、センサ情報をまたプロセッシングユニット4に供給することになる。プロセッシングユニット4は、その構成要素が図4に示されているが、ヘッドマウントディスプレイ装置2から知覚情報を受け取ることになり、情報及びデータをハブコンピューティングシステム12(図1A)と交換することになる。その情報及びデータの交換に基づいて、プロセッシングユニット4は、どこで及びいつ、仮想オブジェクトをユーザに供給すべきであるかを決定し、それに応じて図4のヘッドマウントディスプレイ装置に命令を送信することになる。
[0046] 図4の構成要素の一部(例えば、部屋に面するカメラ112、眼追跡カメラ134B、マイクロディスプレイ120、不透明フィルタ114、眼追跡照明134A、イヤホン130、及び温度センサ138)は、それらの装置のそれぞれが2つずつあり、1つはヘッドマウントディスプレイ装置2の左側用であり、1つはヘッドマウントディスプレイ装置2の右側用であることを示すために陰影で示されている。図4は、電源管理回路202と通じている制御回路200を示している。制御回路200は、プロセッサ210、メモリ214(例えば、D−RAM)と通じているメモリコントローラ212、カメラインターフェース216、カメラバッファ218、ディスプレイドライバ220、ディスプレイフォーマッタ222、タイミング発生器226、ディスプレイ出力インターフェース228、及びディスプレイ入力インターフェース230を含む。
[0047] 一実施形態では、制御回路200のすべての構成要素は、専用のラインあるいは1つ又は複数のバスを介して互いに通じている。別の実施形態では、制御回路200の構成要素のそれぞれは、プロセッサ210と通じている。カメラインターフェース216は、2つの部屋に面するカメラ112とのインターフェースを提供し、部屋に面するカメラから受け取った画像をカメラバッファ218に記憶する。ディスプレイドライバ220は、マイクロディスプレイ120を駆動することになる。ディスプレイフォーマッタ222は、仮想オブジェクトがマイクロディスプレイ120において表示されていることについての情報を不透明制御回路224に提供し、この不透明制御回路224は、不透明フィルタ114を制御する。タイミング発生器226は、システムにタイミングデータを提供するために使用される。ディスプレイ出力インターフェース228は、画像を、部屋に面するカメラ112からプロセッシングユニット4に提供するためのバッファである。ディスプレイ入力インターフェース230は、マイクロディスプレイ120において表示されるべき仮想オブジェクトなどの画像を受け取るためのバッファである。ディスプレイ出力インターフェース228及びディスプレイ入力インターフェース230は、プロセッシングユニット4とのインターフェースであるバンドインターフェース232と通信する。
[0048] 電源管理回路202は、電圧調整器234、眼追跡照明ドライバ236、オーディオDAC及び増幅器238、マイクロホン前置増幅器及びオーディオADC240、温度センサインターフェース242、及びクロック発生器244を含む。電圧調整器234は、バンドインターフェース232を介してプロセッシングユニット4から電力を受け取り、その電力をヘッドマウントディスプレイ装置2の他の構成要素に供給する。眼追跡照明ドライバ236は、上述のように、眼追跡照明134AにIR光源を提供する。オーディオDAC及び増幅器238は、オーディオ情報をイヤホン130に出力する。マイクロホン前置増幅器及びオーディオADC240は、マイクロホン110に対するインターフェースを提供する。温度センサインターフェース242は、温度センサ138に対するインターフェースである。電源管理回路202はまた、3軸磁力計132A、3軸ジャイロ132B、及び3軸加速度計132Cに電力を供給し、3軸磁力計132A、3軸ジャイロ132B、及び3軸加速度計132Cから逆にデータを受け取る。
[0049] 図5は、プロセッシングユニット4の様々な構成要素を説明するブロック図である。図5は、電源管理回路306と通じている制御回路304を示している。制御回路304は、セントラルプロセッシングユニット(central processing unit: CPU)320、グラフィックスプロセッシングユニット(graphics processing unit: GPU)322、キャッシュ324、RAM326、メモリ330(例えば、D−RAM)と通じているメモリコントローラ328、フラッシュメモリ334(又は他のタイプの不揮発性ストレージ)と通じているフラッシュメモリコントローラ332、バンドインターフェース302及びバンドインターフェース232を介してヘッドマウントディスプレイ装置2と通じているディスプレイ出力バッファ336、バンドインターフェース302及びバンドインターフェース232を介してヘッドマウントディスプレイ装置2と通じているディスプレイ入力バッファ338、マイクロホンに接続するための外部マイクロホンコネクタ342と通じているマイクロホンインターフェース340、ワイヤレス通信装置346に接続するためのPCIエクスプレスインターフェース、及びUSBポート(複数可)348を含む。一実施形態では、ワイヤレス通信装置346には、Wi−Fi対応の通信装置、BlueTooth通信装置、赤外通信装置などが含まれていてよい。USBポートは、プロセッシングユニット4をハブコンピューティングシステム12にドッキングさせて、プロセッシングユニット4上にデータ又はソフトウェアをロードし、並びにプロセッシングユニット4に充電するために使用され得る。一実施形態では、CPU320及びGPU322は、仮想3次元オブジェクトをユーザのビューに、どこで、いつ、及びどのように挿入すべきであるかを決定するための主なよく働く機械である。より詳細が、以下に与えられる。
[0050] 電源管理回路306は、クロック発生器360、アナログ/デジタル変換器362、バッテリ充電器364、電圧調整器366、ヘッドマウントディスプレイ電源376、及び(場合により、プロセッシングユニット4のリストバンドに配置されていることもある)温度センサ374と通じている温度センサインターフェース372を含む。アナログ/デジタル変換器362は、バッテリ電圧、温度センサを監視し、バッテリ充電機能を制御するために使用される。電圧調整器366は、電力をシステムに供給するためのバッテリ368と通じている。バッテリ充電器364は、充電用ジャック370から電力を受け取ると同時に、(電圧調整器366を介して)バッテリ368を充電するために使用される。HMD電源376は、電力をヘッドマウントディスプレイ装置2に供給する。
[0051] 図6は、キャプチャ装置20とともにハブコンピューティングシステム12の例示的実施形態を示している。例示的な実施形態によれば、キャプチャ装置20は、例えば、飛行時間、構造化された光、又は立体画像などを含む任意の適切な技法を介して、深度値を含むことが可能な深度画像を含んだ深度情報により、映像を取り込むように構成可能である。一実施形態によれば、キャプチャ装置20は、深度情報を、「Z層(z layer)」、すなわち、深度カメラからその見通し線に沿って延びるZ軸に垂直とすることができる層にまとめることができる。
[0052] 図6に示されるように、キャプチャ装置20は、カメラ構成要素423を含むことができる。例示的な実施形態によれば、カメラ構成要素423は、シーンの深度画像を取り込むことが可能な深度カメラであっても、又はこの深度カメラを含んでいてもよい。深度画像は、取り込まれたシーンの2次元(2-D)画素エリアを含むことができ、この場合、2−D画素エリア内の各画素は、カメラからの取り込まれたシーンにおけるオブジェクトの距離などの深度値を、例えば、センチメートル、又はミリメートルなどの単位で表すことができる。
[0053] カメラ構成要素423は、赤外線(IR)光構成要素425、3次元(3-D)カメラ426、及びシーンの深度画像を取り込むのに使用可能なRGB(視覚画像)カメラ428を含むことができる。例えば、飛行時間分析では、キャプチャ装置20のIR光構成要素425は、赤外光をシーン上に放出することができ、次いで、センサ(いくつかの実施形態では、図示されていないセンサを含む)を使用して、例えば、3−Dカメラ426及び/又はRGBカメラ428を使用するシーン内の1つ又は複数の目標物及びオブジェクトの表面からの後方散乱された光を検出することができる。
[0054] 例示的な実施形態では、キャプチャ装置20は、画像カメラコンポーネント423と通じていることが可能なプロセッサ432をさらに含むことができる。プロセッサ432は、例えば、深度画像を受け取る、適切なデータフォーマット(例えば、フレーム)を生成する、及びデータをハブコンピューティングシステム12に送るための命令を含む命令を実行することが可能な標準プロセッサ、専門プロセッサ、又はマイクロプロセッサなどを含むことができる。
[0055] キャプチャ装置20は、プロセッサ432によって実行される命令、3−Dカメラ及び/又はRGBカメラによって取り込まれる画像、もしくは画像フレーム、あるいは任意の他の適した情報、又は画像などを記憶することが可能なメモリ434をさらに含むことができる。例示的な実施形態によれば、メモリ434には、ランダムアクセスメモリ(random access memory: RAM)、読取り専用メモリ(read only memory: ROM)、キャッシュ、フラッシュメモリ、ハードディスク、又は任意の他の適したストレージ構成要素が含まれていてもよい。図6に示されるように、一実施形態では、メモリ434は、画像カメラ構成要素423及びプロセッサ432と通じている別個の構成要素とすることができる。別の実施形態によれば、メモリ434は、プロセッサ432及び/又は画像カメラ構成要素423に一体化されてもよい。
[0056] キャプチャ装置20は、通信リンク436を介してハブコンピューティングシステム12と通じている。通信リンク436は、例えば、USB接続、Firewire接続、もしくはEthernetケーブル接続などを含んだワイヤード接続、及び/又はワイヤレス802.11B、g、a、もしくはn接続などのワイヤレス接続とすることができる。一実施形態によれば、ハブコンピューティングシステム12は、通信リンク436を介して、例えば、シーンをいつ取り込むべきであるかを決定するのに使用可能なクロックをキャプチャ装置20に提供することができる。加えて、キャプチャ装置20は、例えば、3−Dカメラ426及び/又はRGBカメラ428によって取り込まれる深度情報及び視覚(例えば、RGB)画像を、通信リンク436を介してハブコンピューティングシステム12に提供する。一実施形態では、深度画像及び視覚画像は、毎秒30フレームで送られるが、他のフレームレートが使用されてもよい。次いで、ハブコンピューティングシステム12は、モデルを作成し、このモデル、深度情報、及び取り込まれた画像を使用して、例えば、ゲームもしくはワードプロセッサなどのアプリケーションを制御すること、及び/又はアバタ、もしくはスクリーン上のキャラクタをアニメ化することが可能である。
[0057] ヘッドマウントディスプレイ装置2及びプロセッシングユニット4と一緒に、上述のハブコンピューティングシステム12は、仮想3次元オブジェクトを1人又は複数人のユーザのFOV内に挿入することができ、それにより、仮想3次元オブジェクトは、現実世界のビューを拡張し、及び/又はこの現実世界のビューに取って代わる。一実施形態では、ヘッドマウントディスプレイ装置2、プロセッシングユニット4、及びハブコンピューティングシステム12は、装置のそれぞれが、仮想3次元オブジェクトをどこで、いつ、及びどのように挿入すべきであるかを決定するためにデータを取得するのに使用されるセンサのサブセットを含むとき、一緒に働く。一実施形態では、仮想3次元オブジェクトをどこで、いつ、及びどのように挿入すべきであるかを決定する計算は、互いに連携して働くハブコンピューティングシステム12とプロセッシングユニット4とによって行われる。しかしながら、さらなる実施形態では、すべての計算が、単独で働くハブコンピューティングシステム12によって、又は単独で働くプロセッシングユニット(複数可)4によって行われてもよい。他の実施形態では、計算のうちの少なくともいくつかは、ヘッドマウントディスプレイ装置2によって行われ得る。
[0058] 一例示的な実施形態では、ハブコンピューティングシステム12及びプロセッシングユニット4は一緒に働いて、1人又は複数人のユーザがいる環境のシーンのマップ又はモデルを作成し、その環境内の様々な動くオブジェクトを追跡する。加えて、ハブコンピューティングシステム12及び/又はプロセッシングユニット4は、ヘッドマウントディスプレイ装置2の位置及び向きを追跡することによって、ユーザ18が装着したヘッドマウントディスプレイ装置2のFOVを追跡する。ヘッドマウントディスプレイ装置2によって取得されたセンサ情報は、プロセッシングユニット4に送られる。一例では、その情報は、ハブコンピューティングシステム12に送られ、このハブコンピューティングシステム12は、シーンモデルを更新し、それをプロセッシングユニットに送り返す。次いで、プロセッシングユニット4は、ヘッドマウントディスプレイ装置2から受け取る追加のセンサ情報を使用して、ユーザのFOVを精緻化し、仮想3次元オブジェクトをどこで、いつ、及びどのように挿入すべきであるかに関する命令をヘッドマウントディスプレイ装置2に提供する。キャプチャ装置20内のカメラ及びヘッドマウントディスプレイ装置(複数可)2からのセンサ情報に基づいて、シーンモデル及び追跡情報は、以下に説明される閉ループフィードバックシステムにおいて、ハブコンピューティングシステム12とプロセッシングユニット4との間で周期的に更新され得る。
[0059] 図7は、ハブコンピューティングシステム12を実装するのに使用可能なコンピューティングシステムの例示的な実施形態を示している。図7に示されるように、マルチメディアコンソール500は、レベル1キャッシュ502、レベル2キャッシュ504、及びフラッシュROM(Read Only Memory)506を有するセントラルプロセッシングユニット(CPU)501を有する。レベル1キャッシュ502及びレベル2キャッシュ504は、一時的にデータを記憶し、したがって、メモリアクセスサイクル数を抑え、それによって、処理速度及びスループットを改善する。CPU501は、2つ以上のコア、したがって、追加のレベル1キャッシュ502及びレベル2キャッシュ504を有して設けられてもよい。フラッシュROM506は、マルチメディアコンソール500が電源投入されたとき、起動プロセスの初期段階中にロードされる実行可能なコードを記憶することができる。
[0060] グラフィックスプロセッシングユニット(GPU)508及びビデオエンコーダ/ビデオコーデック(コーダ/デコーダ)514は、高速及び高解像度のグラフィックス処理のためのビデオプロセッシングパイプラインを形成する。データが、グラフィックスプロセッシングユニット508からバスを介してビデオエンコーダ/ビデオコーデック514に搬送される。ビデオプロセッシングパイプラインは、データを、テレビ又は他のディスプレイに送出するために、A/V(オーディオ/ビデオ)ポート540に出力する。メモリコントローラ510が、これに限定されないが、RAM(Random Access Memory)など、様々なタイプのメモリ512へのプロセッサアクセスを容易にするために、GPU508に接続される。
[0061] マルチメディアコンソール500は、I/Oコントローラ520、システム管理コントローラ522、オーディオプロセッシングユニット523、ネットワークインターフェース524、第1のUSBホストコントローラ526、第2のUSBコントローラ528、及び好ましくはモジュール518において実装されるフロントパネルI/Oサブアセンブリ530を含む。USBコントローラ526及び528は、周辺コントローラ542(1)〜542(2)、ワイヤレスアダプタ548、及び外部メモリ装置546(例えば、フラッシュメモリ、外部CD/DVD ROMドライブ、リムーバブルメディアなど)のホストとして機能する。ネットワークインターフェース524及び/又はワイヤレスアダプタ548は、ネットワーク(例えば、Internet、ホームネットワークなど)へのアクセスを提供し、Ethernetカード、モデム、Bluetoothモジュール、及びケーブルモデムなどを含んだ幅広い種々の様々なワイヤード又はワイヤレスのアダプタ構成要素のうちのいずれかとすることができる。
[0062] システムメモリ543が、起動プロセス中にロードされるアプリケーションデータを記憶するために設けられる。メディアドライブ544が設けられ、このメディアドライブ544は、DVD/CDドライブ、Blu−Rayドライブ、ハードディスクドライブ、又は他のリムーバブルメディアドライブなどを含むことができる。メディアドライブ544は、マルチメディアコンソール500の内部にあっても、又は外部にあってもよい。アプリケーションデータが、マルチメディアコンソール500による実行、再生などのために、メディアドライブ544を介してアクセス可能である。メディアドライブ544は、Serial ATAバス、又は他の高速接続(例えば、IEEE1394)など、バスを介してI/Oコントローラ520に接続される。
[0063] システム管理コントローラ522は、マルチメディアコンソール500の利用可能性を確保することに関する種々のサービス機能を提供する。オーディオプロセッシングユニット523及びオーディオコーデック532は、高い忠実度及びステレオ処理を備えた対応するオーディオプロセッシングパイプラインを形成する。オーディオデータが、オーディオプロセッシングユニット523とオーディオコーデック532との間で通信リンクを介して搬送される。オーディオプロセッシングパイプラインは、データを、外部のオーディオユーザ、又はオーディオ性能を有する装置による複製のためにA/Vポート540に出力する。
[0064] フロントパネルI/Oサブアセンブリ530は、電源ボタン550及び取出しボタン552、並びにマルチメディアコンソール500の外面に露出される任意のLED(発光ダイオード)又は他のインジケータの機能性をサポートする。システム電源モジュール536が、電力をマルチメディアコンソール500の構成要素に供給する。ファン538が、マルチメディアコンソール500内の回路を冷却する。
[0065] CPU501、GPU508、メモリコントローラ510、及びマルチメディアコンソール500内の様々な他の構成要素は、直列バス及び並列バス、メモリバス、周辺バス、及び種々のバスアーキテクチャのうちのいずれかを使用するプロセッサバス又はローカルバスを含んだ、1つ又は複数のバスを介して相互接続される。例として、そのようなアーキテクチャには、Peripheral Component Interconnects(PCI)バス、PCIエクスプレスバスなどを含めることができる。
[0066] マルチメディアコンソール500が電源投入されるとき、アプリケーションデータは、システムメモリ543からメモリ512及び/又はキャッシュ502、504にロード可能であり、CPU501において実行可能である。アプリケーションは、マルチメディアコンソール500において利用できる異なるメディアタイプにナビゲートするとき、一貫したユーザ体験を提供するグラフィカルユーザインターフェースを提示することができる。動作に際して、メディアドライブ544内に入っているアプリケーション及び/又は他のメディアは、追加の機能性をマルチメディアコンソール500に提供するために、メディアドライブ544から開始又は再生可能である。
[0067] マルチメディアコンソール500は、単にシステムをテレビ又は他のディスプレイに接続することによって、スタンドアロンシステムとして動作可能である。このスタンドアロンモードでは、マルチメディアコンソール500により、1人又は複数人のユーザは、システムと対話すること、映画を観ること、又は音楽を聴くことが可能になる。しかしながら、ネットワークインターフェース524又はワイヤレスアダプタ548を介せば利用できるようになる広帯域接続を統合することにより、マルチメディアコンソール500は、より広いネットワークコミュニティにおける参加者としてさらに動作可能である。加えて、マルチメディアコンソール500は、ワイヤレスアダプタ548を介してプロセッシングユニット4と通信することができる。
[0068] 任意選択の入力装置(例えば、コントローラ542(1)及び542(2))は、ゲーム用アプリケーション及びシステムアプリケーションによって共有される。入力装置は、確保されたリソースではないが、システムアプリケーションとゲーム用アプリケーションとの間で切り替えられることになり、それにより、それぞれが、装置のフォーカスを有することになる。アプリケーションマネージャは、好ましくは、ゲーム用アプリケーションの知識を知らずに、入力ストリームの切替えを制御し、ドライバが、フォーカススイッチに関する状態情報を維持する。キャプチャ装置20は、USBコントローラ526又は他のインターフェースを介して、コンソール500のための追加の入力装置を確定することができる。他の実施形態では、ハブコンピューティングシステム12は、他のハードウェアアーキテクチャを用いて実装可能である。ハードウェアアーキテクチャが1つである必要はない。
[0069] 図1に示されるヘッドマウントディスプレイ装置2及びプロセッシングユニット4(時には、まとめてモバイルディスプレイ装置と呼ばれることもある)は、1つのハブコンピューティングシステム12(ハブ12とも呼ばれる)と通じている。さらなる実施形態には、ハブ12と通じている1つ又は2つ以上のモバイルディスプレイ装置がある場合もある。モバイルディスプレイ装置のそれぞれは、上述のように、ワイヤレス通信を用いて、ハブと通信することができる。そのような実施形態では、モバイルディスプレイ装置に有用な情報の多くが、ハブでコンピュータ計算され、記憶され、モバイルディスプレイ装置のそれぞれに送出されることになることが企図される。例えば、ハブは、環境のモデルを生成し、そのモデルをハブと通じているモバイルディスプレイ装置のすべてに提供することになる。加えて、ハブは、モバイルディスプレイ装置及び室内の動くオブジェクトの場所及び向きを追跡し、次いで、その情報をモバイルディスプレイ装置のそれぞれに転送することができる。
[0070] 別の実施形態では、システムが、多数のハブ12を含むことが可能になり、各ハブは、1つ又は複数のモバイルディスプレイ装置を含む。ハブは、直接、又はInternet(又は、他のネットワーク)を介して、互いに通信することができる。そのような実施形態は、2010年10月15日出願の「Fusing Virtual Content Into Real Content」という題のFlaksらに対する米国特許出願第12/905,952号に開示されている。
[0071] その上、さらなる実施形態では、ハブ12は、すべて省略されてもよい。そのような実施形態の1つの恩恵は、本システムの複合現実感体験が完全にモバイルになり、インドア及びアウトドアの設定両方に使用可能であることである。そのような実施形態では、後に続く説明におけるハブ12によって行われるすべての機能は、代替として、プロセッシングユニット4のうちの1つ、連携して働くプロセッシングユニット4のうちの一部、又は連携して働くプロセッシングユニット4のすべてによって行われ得る。そのような実施形態では、それぞれのモバイルディスプレイ装置2は、状態データ、シーンマップ、シーンマップの各ユーザのビュー、すべてのテクスチャ及びレンダリング情報、ビデオ及びオーディオのデータ、並びに本明細書に説明される動作を行うための他の情報を生成し、更新することを含んだ、システム10のすべての機能を行う。図9のフローチャートに関して後述される実施形態は、ハブ12を含む。しかしながら、そのような各実施形態では、プロセッシングユニット4のうちの1つ又は複数が、代替として、ハブ12のすべての説明された機能を行うことができる。
[0072] 図8は、本技術による概略的な方法を示すフローチャートである。図8の方法は、単一のフレームの画像データを生成し、レンダリングし、各ユーザに表示するのにかかる時間などの離散時間周期の間、ハブコンピューティングシステム12、プロセッシングユニット4、及び/又はヘッドマウントディスプレイ装置2の構成要素によって行われ得る。単独で、又は別のシステムとともに機能するハブコンピューティングシステム12、プロセッシングユニット4、及び/又はヘッドマウントディスプレイ装置2のうちのいずれか1つ又は複数が、この方法のすべて又は部分を行うことができる。
[0073] 概して、システムは、環境、並びにユーザ、現実世界オブジェクト、及び仮想オブジェクトなどの環境内のオブジェクトのx、y、zの座標を有するシーンマップを生成する。上記のように、仮想オブジェクト21は、例えば、プロセッシングユニット4、及び/又はヘッドマウントディスプレイ装置2において動作するアプリケーションによって、もしくはユーザ18によって、環境内に仮想的に配置され得る。システムはまた、各ユーザのFOVを追跡する。すべてのユーザは、シーンの同じ様相を視ていることができる一方、それらの様相を異なるパースペクティブから視ている。
[0074] 図8を参照すると、ステップ802で、シーンデータが集められる。ハブ12の場合には、これは、キャプチャ装置20の深度カメラ426及びRGBカメラ428によって感知される画像及びオーディオのデータとすることができる。プロセッシングユニット4の場合には、これは、ヘッドマウントディスプレイ装置2、特には、カメラ112、眼追跡アセンブリ134、及びIMU132によって感知される画像データとすることができる。キャプチャ装置20及びヘッドマウントディスプレイのデータの組合せが使用され得る。
[0075] ステップ804で、シーンマップが、シーンの幾何学的形状、並びにシーン内のオブジェクトの幾何学的形状及び位置を特定して展開され得る。諸実施形態では、所与のフレームで生成されるシーンマップは、共通の環境内のすべてのユーザ、現実世界オブジェクト、及び仮想オブジェクトのローカル座標系にx、y、及びzの位置を含むことができる。シーンマップは、シーン内で仮想オブジェクトを位置決めする際、並びに適当なオクルージョンを伴う仮想3次元オブジェクト(仮想3次元オブジェクトが、オクルージョンされる場合も、又は仮想3次元オブジェクトが、現実世界オブジェクト又は別の仮想3次元オブジェクトをオクルージョンする場合もある)を表示する際に使用可能である。806で、ユーザ環境内の様々な現実オブジェクト及び仮想オブジェクトの位置が決定される。
[0076] ステップ808では、システムは、共通の環境内を動く人間などの移動オブジェクトを検出及び追跡し、移動オブジェクトの位置に基づいてシーンマップを更新することができる。
[0077] ステップ810では、ユーザのヘッドマウントディスプレイ装置2の位置、向き、及びFOVの決定。ここでは、ステップ810のさらなる詳細が、図9のフローチャートに関して説明される。他のユーザの位置、向き、及びFOVが決定されると、この情報は、仮想オブジェクトのビューイング位置に対する変更を決定する際に使用するための方法を行う装置に取出し可能である。
[0078] ステップ812で、仮想オブジェクトは、ユーザが装着した装置2の視野においてレンダリングされる。各オブジェクトは、オブジェクトのグラフィカル情報、並びにオブジェクトがレンダリングされるべき位置及び向きを含んだ、オブジェクトをレンダリングするのに使用されるオブジェクト定義を含むことができる。
[0079] ステップ814で、ユーザが、ステップ812でレンダリングされた仮想オブジェクトを選択したかどうかに関する決定が行われる。ユーザが仮想オブジェクトを選択したかどうかを決定するための方法、及び選択の例示が、図11〜図14に関して示されている。
[0080] ステップ816で、オブジェクトの選択がステップ814で決定された場合、選択インジケータが、プロセッサ4、HUB12、及び/又はオブジェクトの選択に関して機能するアプリケーションに送出され得る。
[0081] ステップ818で、環境に対するユーザ動作が検出される場合、方法は、810で、位置、向き、及びFOVを更新する。ユーザ動作が、上記に論じられたように、オブジェクトを操作する動作、又は共通の環境内の動作を含むことができる。ユーザが、共通の環境内を物理的に移動することができ、仮想オブジェクトに対するユーザの位置音楽が変更することができる。
[0082] 図9は、図8のステップ810を行うための一方法を示している。一手法では、ユーザの追跡は、眼追跡、及び頭部向き追跡に関係する2つの異なる分岐に分類され得る。
[0083] ステップ900は、上述の技術を用いて、ユーザの片眼、又は両眼を追跡するための分岐を特定する。ステップ902では、眼は、例えば、図3の眼追跡照明134のいくつかのLEDからの赤外光を使用して、照らされる。ステップ904では、眼からの反射が、1つ又は複数の赤外眼追跡カメラ134Bを使用して検出される。ステップ906では、反射データは、プロセッシングユニット4に供給される。ステップ908では、プロセッシングユニット4は、上記に論じられたように、反射データに基づいて眼の位置を決定する。ステップ910は、注視方向(例えば、図11に関係してさらに論じられる)、及びフォーカス距離を決定する。
[0084] 一手法では、眼球の場所は、カメラ及びLEDの位置に基づいて決定され得る。瞳孔の中心は、画像処理を用いて発見され得、瞳孔の中心を通って延びる光線が、視軸と決定され得る。具体的には、1つの可能な眼追跡技法は、瞳孔が照らされるときの瞳孔から反射する少量の光である閃光の場所を使用する。コンピュータプログラムが、閃光に基づいて注視の場所を推定する。別の可能な眼追跡技法は、閃光と瞳孔の中心との両方を追跡するという理由から、閃光場所特定技法より正確であり得るPupil−Center/Corneal−Reflection Techniqueである。瞳孔の中心は、一般に、正確な見通し場所であり、閃光のパラメータ内のこのエリアを追跡することによって、眼が注視しているところの正確な予測を行うことができる。
[0085] 別の手法では、瞳孔の形状は、ユーザが注視している方向を決定するのに使用され得る。瞳孔は、真っ直ぐ前の方向に対するビューイング角度に比例してより楕円形になる。
[0086] 別の手法では、眼の中の多数の閃光が、眼の3d場所を発見し、眼の半径を推定し、次いで、眼の中心を通る線を瞳孔中心を通って引いて注視方向を得るように検出される。例えば、Hennesseyら、「A Single Camera Eye−Gaze Tracking System with Free Head Motion」、ETRA2006、San Diego、CA、ACM88頁、87頁〜94頁を参照されたい。
[0087] ステップ920は、上述の技術を用いて、ユーザの頭部向きを追跡するための分岐を特定する。ステップ922で、プロセッシングユニット4は、3軸ジャイロ132Bからのデータにアクセスする。ステップ924では、プロセッシングユニット4は、3軸加速度計132Cからのデータにアクセスする。ステップ926では、プロセッシングユニット4は、3軸磁力計132Aからのデータにアクセスする。これらの入力に基づいて、プロセッシングユニット4は、ステップ927で、頭部向きを決定することができる。別の手法では、プロセッシングユニット4は、ジャイロ、加速度計、及び磁力計からのデータを用いて、ハブコンピューティングシステム12から受け取った向きデータを精緻化する。
[0088] 図10は、本技術により仮想オブジェクトの選択を決定するための一方法を示すフローチャートである。図10は、図11A〜図14に関連して理解され得る。
[0089] ステップ1020及び1022で、ユーザの注視位置及び頭部位置は、取り出される。ユーザの注視位置及び頭部位置は、図9に関して上記に論じられたように決定される。図11A〜図13Bに関して以下に示すように、ユーザの注視及び頭部の位置は、必ずしも整合されていなくてもよい。
[0090] ステップ1024で、ユーザが選択可能なオブジェクトにフォーカスしていないかどうかに関する初期決定が行われる。ユーザがヘッドマウントディスプレイ2の視野における現実オブジェクトと仮想オブジェクトとを両方精査するとき、ユーザは、選択不可能な現実オブジェクトと仮想オブジェクトとを両方とも注視する可能性がある。選択可能なオブジェクトは、選択に基づいてユーザによって操作可能なオブジェクトであり、又はその選択により、結果的にある機能がオブジェクトに対して行われることになる、オブジェクトである。例えば、図1Bにおけるモンスターが選択されると同時に、モンスター仮想オブジェクトは、図1Cにあるようにアニメ化されるようになる。ステップ1024における決定は、ユーザが選択可能なオブジェクトにフォーカスし始めたかどうかについて示すものである。
[0091] 選択可能なオブジェクトへのフォーカスは、図11から図14に関して以下の説明により決定され得る。フォーカスの決定は、ユーザの注視、ユーザの頭部位置、又はその両方に基づいて行われ得る。注視が、所定の時間期間の間、オブジェクトに向けられる場合、ユーザは、オブジェクトにフォーカスしていると決定されることになる。代替の実施形態では、ユーザの注視及び頭部の位置は、選択可能なオブジェクトに対してある程度の範囲内まで整合され、次いで、ユーザは、オブジェクトへのフォーカスと決定されることになる。
[0092] 一旦、オブジェクトへの初期フォーカスが1024で決定されると、選択可能なオブジェクトにおけるユーザの注視は、ステップ1026で、相対的に短いタイマを開始することになる。ユーザが、1026で、タイマの持続時間の間、オブジェクトにフォーカスしたままである場合、検証オブジェクトが、1028で表示されることになる。1026におけるタイマの長さは、1秒の半分程度とすることができる。
[0093] 検証オブジェクトは、図14に示されている。一旦、検証オブジェクトが表示されると、検証オブジェクトにおけるユーザのフォーカスは、選択可能な仮想オブジェクトがアクティブであるかどうかを決定することになる。検証オブジェクトは、選択可能な仮想オブジェクトにつなげられて見えるように、その中の両者間には他の選択可能な仮想オブジェクトを含まずに、レンダリングされる。選択及び検証オブジェクトの様々な形状及び外見が使用可能である。
[0094] ステップ1030で、ユーザが検証オブジェクトに対するフォーカスを変更していないかどうかに関する決定が行われる。この場合も、検証オブジェクトへのフォーカスが、ユーザの注視、ユーザの頭部位置、又はその両方に基づいて決定され得る。加えて、又は代替として、ユーザ注視経路によって形成されるパターンが、1028で、検証オブジェクトへのフォーカスの決定に寄与することができる。
[0095] ユーザが、1039で、検証オブジェクトにフォーカスが向けられることが決定される場合、検証オブジェクトへのタイムアウトが、ステップ1032で動作する。タイムアウトは、ユーザが検証オブジェクトにフォーカスすることによって、元の選択可能なオブジェクトを選択しようと意図していることを確かめる。検証オブジェクトタイマが、ユーザのフォーカスが検証オブジェクトに向けられることにより終了する場合、選択コマンドが、1034で、プロセッサ4、及び/又はアプリケーションに指示される。検証オブジェクトへのタイムアウトのタイマは、ステップ1026の時間期間より大きくても、同じであっても、又は短くてもよい。一実施形態では、ステップ1032の時間期間は、ステップ1026の時間期間より長い。
[0096] この時点で、装置プロセッサ4、及び/又はアプリケーションは、アプリケーションの開発者によって方向付けられる形で、選択されたオブジェクトを操作することになる。
[0097] 選択コマンドが発行されることに続いて何らかの時点では、可能性として、ユーザが、選択可能なオブジェクトから目をそらすことが起こることになる。一旦、ユーザのフォーカスが選択可能なオブジェクトから外されると、目をそらすタイマユーザが、1036で動作する。タイマが満了すると、選択解除コマンドが1038で発行される。ユーザが、タイマの満了の前に1042で選択可能なオブジェクトをまた眺めた場合、ユーザが1036で再度、目をそらすまで、タイマは、1044でリセットする。方法は、1040で、次の選択可能なオブジェクトへと進む。
[0098] 図11A〜図13Aは、ユーザが視ているいくつかの仮想オブジェクトを上から見下ろした透視図を示しており、図11B〜図13は、ユーザが視ているいくつかの仮想オブジェクトのユーザパースペクティブを示している。図11A及び図11Bにおいては、シースルーヘッドマウントディスプレイ装置2を装着したユーザ18が、いくつかの仮想オブジェクト1102、1104、1106、1108、及び1110を視ることができる。いくつかの実施形態では、仮想オブジェクトは、選択可能な仮想オブジェクト、及び選択不可能な仮想オブジェクトとすることができる。選択不可能な仮想オブジェクトは、視る人に対してレンダリング可能であるが、追加の機能を提供するためにユーザによる選択は不可能である。選択可能な仮想オブジェクトは、いくつかの追加の機能性を提供する。
[0099] 図11Aは、ユーザの注視が、ベクトル1030によって示され、ユーザの相対的頭部位置が、ベクトル1120によって示されている。図11Bは、ヘッドマウントディスプレイ2を通して見られるユーザ18のビューを示している。ヘッドマウントディスプレイ2の一方のレンズのみが示されている。図11Bに示されるように、オブジェクト1102及び1104は、完全にレンダリングされることになり、一方、オブジェクト1106、1108、1110は、それぞれの位置を示すように幻影で示されているが、オブジェクト1106、1108、1110は、ディスプレイ2を装着しているときのユーザの視野にない限り、ユーザには見えないことになるということを理解されたい。
[00100] 図11Bはまた、注視ベクトル1130及び頭部方向ベクトル1130の各交差ポイントを示している。そのような交差は、ユーザ18には見えないことになるが、単なる例示目的のために、図11Bには異なる大きさで示されている。
[00101] 図11Aにおいては、ユーザの頭部は、反時計回りに回転している。したがって、可能性として、ユーザの注視は、ユーザの頭部の動きに先行することになり、したがって、ベクトル1030によって表されるユーザの注視は、ユーザの頭部位置を導くことになる。図11Bに示されるように、測定可能な差1132が、フォーカスベクトル1130と頭部位置ベクトル1120との間に存在する。
[00102] 図12Aは、注視経路1127に沿うユーザ注視及び頭部位置の回転した位置を示し、この注視経路1127は、ユーザの注視ベクトル1130が前進してから、ユーザは位置ベクトル1120を有したことを示している。ユーザが回転経路1125に沿って移動すると、オブジェクト1106は、フォーカスの中に入ることになり、オブジェクト1102は、ビューから離れることになる。
[00103] 図13A及び図13Dは、ユーザの注視及び頭部位置がオブジェクト1106に向けられるようになったことを示している。この例では、頭部ベクトル1120と注視ベクトル1130との間の差はほとんど、又は全くない。図13Bは、ユーザ注視及び頭部位置がともに、オブジェクト1106において整合されていることを示している。注視ベクトル1130と頭部ベクトル1120との交差間にほとんど、又は全く差が存在しない場合、ユーザは、オブジェクト1106にフォーカスが向けられていると決定され得る。それぞれのベクトルの交差ポイント間のいくらかの差は許容可能であり、その差レベルは、設計目標に従って決定されることを理解されたい。代替の実施形態では、1つのオブジェクトにおける注視ベクトル1130と、全く異なる仮想オブジェクトと交差するユーザ頭部ベクトル1120との交差はなおも、ユーザが特定のオブジェクトにフォーカスを向けたという決定をもたらすことになる。
[00104] さらなる別の実施形態では、選択オブジェクト(及び/又は検証オブジェクト)との注視ベクトル1030の交差しか使用されない。
[00105] 図14は、仮想オブジェクト1102から1110をすべて示している。図14においては、検証オブジェクト1135が示されている。検証オブジェクトは、図14に示す長方形の大まかな形態をとるが、検証オブジェクトは、任意の形状又は大きさとすることができる。概して、検証オブジェクトは、選択オブジェクトに対して目立たない場所に、かつ選択オブジェクトに近接してレンダリングされる。加えて、検証オブジェクトは、選択オブジェクトの下部右側に位置決めされているが、検証オブジェクトは、選択オブジェクトに対する他の場所に位置決めされてもよい。
[00106] 検証オブジェクトは、経路1145に沿って検証オブジェクトへのユーザのフォーカスを引き付けても、引き付けなくてもよい。ユーザが検証オブジェクトに移動しない場合(ステップ1130で論じられたように)、ユーザは、選択オブジェクトから目をそらすことも、又は選択オブジェクトにフォーカスしたままであってもよい。
[00107] 一旦、ユーザが検証オブジェクトにフォーカスすると(上記のステップ1030にあるように)、検証オブジェクト1135へのユーザの継続された注視は、ユーザが検証オブジェクト、加えて、(上記に論じられたステップ1032におけるタイマを完了して選択オブジェクトを選択するように意図するという決定をもたらすことになる。
[00108] 概して、ユーザの注視経路は、図14の経路1137を辿ることができる。経路1137とのわずかなずれがやはり、生じる場合がある(経路内のより誇張された角度、又は図13Bの注視交差と図14の交差との間の厳密な斜め線など。一実施形態では、図13Bに示されるユーザの初期フォーカス位置と図14に示されるユーザの新規フォーカス位置との間の相対経路上のユーザの移動は、検証オブジェクトへのユーザのフォーカスの決定を検証するのに使用され得る。
[00109] 図15は、本技術の一実施形態における選択の結果を示している。
[00110] 図15の例では、シアトルスカイラインの写真である選択オブジェクト1106が、仮想オブジェクト1500トラベルサービスプレゼンテーションを開くことになる。
[00111] 本明細書における方法のうちのいずれか1つ又は複数が、ハブコンピューティングシステム12、プロセッシングユニット4、及び/又はヘッドマウントディスプレイ装置2のうちのいずれか1つ又は複数によって適切に読出し可能なコンピュータストレージメディアにおいて記憶されるコンピュータ可読コードによって実装可能である。
[00112] 主題が、構造上の特徴、及び/又は方法論的行為に特有の文言で説明されてきたが、添付の特許請求の範囲に規定される主題は、必ずしも、上述の具体的な特徴又は行為に限定されるわけではないことを理解されたい。むしろ、上述の具体的な特徴及び行為は、特許請求の範囲を実装する例示的な形態として開示される。

Claims (10)

  1. シースルーヘッドマウントディスプレイにおいてレンダリングされる仮想オブジェクトを選択するための方法において、
    1つ又は複数の仮想オブジェクトをレンダリングするステップであって、少なくとも1つの仮想オブジェクトは、前記オブジェクトに関して機能に関わるユーザによる選択可能な仮想オブジェクトである、ステップと、
    ユーザの注視、頭部位置、及び視野を決定するステップであって、前記注視、頭部位置、及び視野は、ユーザフォーカスを決定する、ステップと、
    前記ユーザの前記フォーカスが選択可能な仮想オブジェクトと交差する場合、前記選択可能な仮想オブジェクトの初期選択を決定するステップと、
    前記選択可能な仮想オブジェクトに近接して検証オブジェクトを表示するステップと、
    前記ユーザの前記フォーカスが前記検証オブジェクトと交差するかどうかを検出し、それによって、前記選択可能なオブジェクトの選択を開始するステップと
    を含む方法。
  2. 検証オブジェクトを表示する前に、前記ユーザフォーカスが、第1の時間期間の間、依然として前記選択可能な仮想オブジェクトにあるかどうかを決定するステップをさらに含む、請求項1に記載の方法。
  3. 前記検出するステップは、前記ユーザフォーカスが、第2の時間期間の間、依然として前記検証オブジェクトにあるかどうかを決定するステップを含む、請求項1に記載の方法。
  4. 前記ユーザの前記フォーカスは、ユーザ注視が前記選択可能な仮想オブジェクト又は前記検証オブジェクトのうちの一方と交差するかどうかを決定することを含む、請求項1に記載の方法。
  5. 前記ユーザフォーカスが前記検証オブジェクトと交差するかどうかを検出するステップは、前記選択可能なオブジェクトと前記検証オブジェクトとの間の注視動きパターンを検出するステップを含む、請求項1に記載の方法。
  6. ディスプレイと、
    前記ヘッドマウントディスプレイに連結されたプロセッサと
    を備えるディスプレイ機器であって、
    前記プロセッサは、
    前記ヘッドマウントディスプレイにおいて少なくとも1つの選択可能な仮想オブジェクトをレンダリングし、
    ユーザの注視及び頭部位置を決定し、それによって、前記ユーザのユーザフォーカスを生成し、
    前記ユーザフォーカスに基づいて、前記選択可能な仮想オブジェクトの初期選択を決定し、
    前記選択可能な仮想オブジェクトに近接して検証オブジェクトを表示し、
    前記ユーザの前記フォーカスが前記検証オブジェクトに向けられるとき、前記ユーザによる前記選択可能なオブジェクトの選択を検出する
    ようにプログラムされている、
    機器。
  7. 前記プロセッサは、前記ユーザフォーカスが、第1の時間期間の間、依然として前記選択可能な仮想オブジェクトにあるかどうかを決定するようにプログラムされている、請求項6に記載の機器。
  8. 前記プロセッサは、前記ユーザフォーカスが、第2の時間期間の間、依然として前記検証オブジェクトにあるかどうかを検出するようにプログラムされている、請求項7に記載の機器。
  9. 前記第1の時間期間は、前記第2の時間期間より短い、請求項8に記載の機器。
  10. 前記プロセッサは、前記ユーザの前記フォーカスが前記選択可能な仮想オブジェクトから離れたかどうかを決定し、前記オブジェクトの選択解除を開始するようにプログラムされている、請求項9に記載の機器。
JP2016521461A 2013-06-18 2014-06-11 多ステップ仮想オブジェクト選択 Active JP6359649B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/921,109 2013-06-18
US13/921,109 US9329682B2 (en) 2013-06-18 2013-06-18 Multi-step virtual object selection
PCT/US2014/041961 WO2014204755A1 (en) 2013-06-18 2014-06-11 Multi-step virtual object selection

Publications (3)

Publication Number Publication Date
JP2016530600A true JP2016530600A (ja) 2016-09-29
JP2016530600A5 JP2016530600A5 (ja) 2017-06-22
JP6359649B2 JP6359649B2 (ja) 2018-07-18

Family

ID=51168384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016521461A Active JP6359649B2 (ja) 2013-06-18 2014-06-11 多ステップ仮想オブジェクト選択

Country Status (6)

Country Link
US (1) US9329682B2 (ja)
EP (1) EP3011419B1 (ja)
JP (1) JP6359649B2 (ja)
KR (1) KR102296122B1 (ja)
CN (1) CN105359076B (ja)
WO (1) WO2014204755A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018064836A (ja) * 2016-10-20 2018-04-26 株式会社Bbq バーチャルゲーム装置
JP2018198075A (ja) * 2018-07-31 2018-12-13 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
WO2019142817A1 (ja) * 2018-01-22 2019-07-25 株式会社コナミデジタルエンタテインメント 画像表示システムおよびそのプログラムを記録した記録媒体
JP2019128631A (ja) * 2018-01-22 2019-08-01 株式会社コナミデジタルエンタテインメント プログラムおよび画像表示システム
JP2019128632A (ja) * 2018-01-22 2019-08-01 株式会社コナミデジタルエンタテインメント プログラムおよび画像表示システム
JP2020017159A (ja) * 2018-07-27 2020-01-30 株式会社栗本鐵工所 仮想オブジェクト触覚提示装置およびプログラム
WO2021020068A1 (ja) * 2019-07-26 2021-02-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (155)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9485459B2 (en) * 2012-12-14 2016-11-01 Biscotti Inc. Virtual window
US9654563B2 (en) 2012-12-14 2017-05-16 Biscotti Inc. Virtual remote functionality
US20140282113A1 (en) 2013-03-15 2014-09-18 John Cronin Personal digital assistance and virtual reality
US20140280502A1 (en) 2013-03-15 2014-09-18 John Cronin Crowd and cloud enabled virtual reality distributed location network
US9838506B1 (en) 2013-03-15 2017-12-05 Sony Interactive Entertainment America Llc Virtual reality universe representation changes viewing based upon client side parameters
US20140280644A1 (en) 2013-03-15 2014-09-18 John Cronin Real time unified communications interaction of a predefined location in a virtual reality location
DE102013013698A1 (de) * 2013-08-16 2015-02-19 Audi Ag Verfahren zum Betreiben einer elektronischen Datenbrille und elektronische Datenbrille
KR102077105B1 (ko) * 2013-09-03 2020-02-13 한국전자통신연구원 사용자 인터랙션을 위한 디스플레이를 설계하는 장치 및 방법
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150228119A1 (en) * 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9588343B2 (en) * 2014-01-25 2017-03-07 Sony Interactive Entertainment America Llc Menu navigation in a head-mounted display
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US20180133593A1 (en) * 2014-08-07 2018-05-17 Fove, Inc. Algorithm for identifying three-dimensional point-of-gaze
KR102309281B1 (ko) * 2014-11-07 2021-10-08 삼성전자주식회사 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US9659411B2 (en) * 2015-01-14 2017-05-23 Oculus Vr, Llc Passive locators for a virtual reality headset
US9846968B2 (en) 2015-01-20 2017-12-19 Microsoft Technology Licensing, Llc Holographic bird's eye view camera
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US9558760B2 (en) 2015-03-06 2017-01-31 Microsoft Technology Licensing, Llc Real-time remodeling of user voice in an immersive visualization system
JP6587421B2 (ja) * 2015-05-25 2019-10-09 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US9959677B2 (en) * 2015-05-26 2018-05-01 Google Llc Multidimensional graphical method for entering and exiting applications and activities in immersive media
JP2018526693A (ja) * 2015-08-04 2018-09-13 グーグル エルエルシー 仮想現実における注視対話のためのホバー挙動
TWI736542B (zh) * 2015-08-06 2021-08-21 日商新力股份有限公司 資訊處理裝置、資料配訊伺服器及資訊處理方法、以及非暫時性電腦可讀取之記錄媒體
WO2017036667A1 (en) * 2015-08-28 2017-03-09 Thomson Licensing Assisted item selection for see through glasses
US10127725B2 (en) 2015-09-02 2018-11-13 Microsoft Technology Licensing, Llc Augmented-reality imaging
US10082865B1 (en) * 2015-09-29 2018-09-25 Rockwell Collins, Inc. Dynamic distortion mapping in a worn display
EP3862852A1 (en) * 2015-10-20 2021-08-11 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
US20170212582A1 (en) * 2016-01-21 2017-07-27 Cisco Technology, Inc. User interface selection
US10229541B2 (en) 2016-01-28 2019-03-12 Sony Interactive Entertainment America Llc Methods and systems for navigation within virtual reality space using head mounted display
CN105824409A (zh) * 2016-02-16 2016-08-03 乐视致新电子科技(天津)有限公司 虚拟现实的交互控制方法及装置
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9824500B2 (en) * 2016-03-16 2017-11-21 Microsoft Technology Licensing, Llc Virtual object pathing
JP6625467B2 (ja) * 2016-03-28 2019-12-25 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP6200023B1 (ja) * 2016-03-28 2017-09-20 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP6630607B2 (ja) * 2016-03-28 2020-01-15 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
US10048751B2 (en) 2016-03-31 2018-08-14 Verizon Patent And Licensing Inc. Methods and systems for gaze-based control of virtual reality media content
CA3018758A1 (en) 2016-03-31 2017-10-05 Magic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
EP3236363A1 (en) * 2016-04-18 2017-10-25 Nokia Technologies Oy Content search
WO2017196822A1 (en) * 2016-05-09 2017-11-16 Grabango Co. System and method for computer vision driven applications within an environment
AU2016203135A1 (en) 2016-05-13 2017-11-30 Canon Kabushiki Kaisha Method, system and apparatus for selecting a video frame
EP3249497A1 (en) * 2016-05-24 2017-11-29 Harman Becker Automotive Systems GmbH Eye tracking
US11468111B2 (en) 2016-06-01 2022-10-11 Microsoft Technology Licensing, Llc Online perspective search for 3D components
US10788888B2 (en) * 2016-06-07 2020-09-29 Koninklijke Kpn N.V. Capturing and rendering information involving a virtual environment
US10990169B2 (en) 2016-06-28 2021-04-27 Rec Room Inc. Systems and methods for assisting virtual gestures based on viewing frustum
US10268266B2 (en) 2016-06-29 2019-04-23 Microsoft Technology Licensing, Llc Selection of objects in three-dimensional space
US10659247B2 (en) 2016-07-09 2020-05-19 Grabango Co. Computer vision for ambient data acquisition
WO2018057947A1 (en) 2016-09-22 2018-03-29 Apple, Inc. Eye and head tracking
US20180082476A1 (en) * 2016-09-22 2018-03-22 International Business Machines Corporation Collaborative search for out of field of view augmented reality objects
CN107885316A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
US20180095635A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US20180096504A1 (en) 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US10504287B2 (en) * 2016-10-24 2019-12-10 Snap Inc. Redundant tracking system
CN106774821B (zh) * 2016-11-08 2020-05-19 广州视源电子科技股份有限公司 基于虚拟现实技术的显示方法和系统
KR102104705B1 (ko) * 2016-11-23 2020-05-29 최해용 휴대용 혼합 현실 장치
GB2558284B (en) 2016-12-23 2021-12-08 Sony Interactive Entertainment Inc Virtual reality
CA3052292A1 (en) 2017-02-10 2018-08-16 Grabango Co. A dynamic customer checkout experience within an automated shopping environment
US10721418B2 (en) 2017-05-10 2020-07-21 Grabango Co. Tilt-shift correction for camera arrays
EP3639114B1 (en) 2017-06-15 2024-03-06 Tencent Technology (Shenzhen) Company Limited System and method of instantly previewing immersive content
AU2018289552B2 (en) 2017-06-21 2023-01-05 Grabango Co. Linking observed human activity on video to a user account
WO2019040665A1 (en) 2017-08-23 2019-02-28 Neurable Inc. BRAIN-COMPUTER INTERFACE PROVIDED WITH HIGH-SPEED OCULAR FOLLOWING CHARACTERISTICS
DE102017215074A1 (de) * 2017-08-29 2019-02-28 Siemens Healthcare Gmbh Verfahren und Auswahleinheit zum Auswählen eines virtuellen Objekts oder eines Bildparameterwerts
CN107562199B (zh) * 2017-08-31 2020-10-09 北京金山安全软件有限公司 一种页面对象设置方法、装置、电子设备及存储介质
US20190079591A1 (en) 2017-09-14 2019-03-14 Grabango Co. System and method for human gesture processing from video input
KR102518404B1 (ko) 2017-09-29 2023-04-06 삼성전자주식회사 전자 장치 및 그의 시선 정보를 이용한 컨텐트 실행 방법
WO2019063706A1 (en) * 2017-09-29 2019-04-04 Motognosis UG (haftungsbeschränkt) DEVICE FOR DETERMINING AND ANALYZING THE MOTOR SKILLS AND THE CURRENT SKILLS OF A PERSON
US10963704B2 (en) 2017-10-16 2021-03-30 Grabango Co. Multiple-factor verification for vision-based systems
KR20200098524A (ko) 2017-11-13 2020-08-20 뉴레이블 인크. 고속, 정확도 및 직관적 사용자 상호작용을 위한 적응을 갖춘 두뇌-컴퓨터 인터페이스
US11481805B2 (en) 2018-01-03 2022-10-25 Grabango Co. Marketing and couponing in a retail environment using computer vision
EP3511803B1 (en) * 2018-01-10 2021-11-03 Samsung Electronics Co., Ltd. Method and apparatus to determine trigger intent of user
US11145096B2 (en) 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
WO2019172678A1 (en) * 2018-03-07 2019-09-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
KR102086779B1 (ko) * 2018-05-14 2020-03-09 단국대학교 산학협력단 포커스 설정 모듈 및 방법, 그것을 포함하는 버추얼 영상 재생 시스템
US10768426B2 (en) * 2018-05-21 2020-09-08 Microsoft Technology Licensing, Llc Head mounted display system receiving three-dimensional push notification
JP7136931B2 (ja) * 2018-06-05 2022-09-13 マジック リープ, インコーポレイテッド 空間3d環境へのコンテンツのマッチング
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
CN112805750A (zh) 2018-08-13 2021-05-14 奇跃公司 跨现实系统
US10664050B2 (en) 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
EP3861387A4 (en) * 2018-10-05 2022-05-25 Magic Leap, Inc. RENDERING LOCATION-SPECIFIC VIRTUAL CONTENT IN ANY LOCATION
US11288648B2 (en) 2018-10-29 2022-03-29 Grabango Co. Commerce automation for a fueling station
AU2020231365A1 (en) 2019-03-01 2021-09-16 Grabango Co. Cashier interface for linking customers to virtual data
EP4046401A4 (en) 2019-10-15 2023-11-01 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH WIRELESS FINGERPRINTS
WO2021076754A1 (en) 2019-10-15 2021-04-22 Magic Leap, Inc. Cross reality system with localization service
WO2021076757A1 (en) 2019-10-15 2021-04-22 Magic Leap, Inc. Cross reality system supporting multiple device types
JP2023504775A (ja) 2019-11-12 2023-02-07 マジック リープ, インコーポレイテッド 位置特定サービスおよび共有場所ベースのコンテンツを伴うクロスリアリティシステム
WO2021118962A1 (en) 2019-12-09 2021-06-17 Magic Leap, Inc. Cross reality system with simplified programming of virtual content
JP2023514208A (ja) 2020-02-13 2023-04-05 マジック リープ, インコーポレイテッド マルチ分解能フレーム記述子を使用したマップ処理を伴うクロスリアリティシステム
WO2021163306A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with accurate shared maps
US11830149B2 (en) 2020-02-13 2023-11-28 Magic Leap, Inc. Cross reality system with prioritization of geolocation information for localization
JP2023515524A (ja) 2020-02-26 2023-04-13 マジック リープ, インコーポレイテッド 高速位置特定を伴うクロスリアリティシステム
KR20210130281A (ko) 2020-04-21 2021-11-01 삼성디스플레이 주식회사 사용자 지정 알고리즘을 이용한 이동 통신 단말기의 제어 방법, 및 이동 통신 단말기
CN115803788A (zh) 2020-04-29 2023-03-14 奇跃公司 用于大规模环境的交叉现实系统
GB202009874D0 (en) * 2020-06-29 2020-08-12 Microsoft Technology Licensing Llc Visual interface for a computer system
GB202009876D0 (en) * 2020-06-29 2020-08-12 Microsoft Technology Licensing Llc Visual interface for a computer system
US12008160B2 (en) 2022-03-30 2024-06-11 Apple Inc. Eye tracking based selection of a user interface (UI) element based on targeting criteria
WO2024064388A1 (en) * 2022-09-24 2024-03-28 Apple Inc. Devices, methods, for interacting with graphical user interfaces
US20240103676A1 (en) * 2022-09-24 2024-03-28 Apple Inc. Methods for interacting with user interfaces based on attention

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204287A (ja) * 1996-01-25 1997-08-05 Canon Inc 処理選択方法及び装置
US20030020707A1 (en) * 2001-06-27 2003-01-30 Kangas Kari J. User interface
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法
WO2012082444A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Comprehension and intent-based content for augmented reality displays

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4595990A (en) 1980-12-31 1986-06-17 International Business Machines Corporation Eye controlled information transfer
US7046924B2 (en) 2002-11-25 2006-05-16 Eastman Kodak Company Method and computer program product for determining an area of importance in an image using eye monitoring information
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US8494229B2 (en) 2008-02-14 2013-07-23 Nokia Corporation Device and method for determining gaze direction
US8494215B2 (en) * 2009-03-05 2013-07-23 Microsoft Corporation Augmenting a field of view in connection with vision-tracking
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US20130314303A1 (en) * 2010-02-28 2013-11-28 Osterhout Group, Inc. Ar glasses with user action control of and between internal and external applications with feedback
US20120005624A1 (en) 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US8593375B2 (en) 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
US20120086645A1 (en) 2010-10-11 2012-04-12 Siemens Corporation Eye typing system using a three-layer user interface
US9043042B2 (en) 2011-07-19 2015-05-26 GM Global Technology Operations LLC Method to map gaze position to information display in vehicle
US8629815B2 (en) 2011-08-09 2014-01-14 Google Inc. Laser alignment of binocular head mounted display
US9285592B2 (en) 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US20130326364A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
US9116666B2 (en) * 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
US20140049462A1 (en) * 2012-08-20 2014-02-20 Google Inc. User interface element focus based on user's gaze
US20140125698A1 (en) * 2012-11-05 2014-05-08 Stephen Latta Mixed-reality arena

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09204287A (ja) * 1996-01-25 1997-08-05 Canon Inc 処理選択方法及び装置
US20030020707A1 (en) * 2001-06-27 2003-01-30 Kangas Kari J. User interface
JP2005038008A (ja) * 2003-07-15 2005-02-10 Canon Inc 画像処理方法、画像処理装置
JP2008040832A (ja) * 2006-08-07 2008-02-21 Canon Inc 複合現実感提示システム及びその制御方法
WO2012082444A1 (en) * 2010-12-16 2012-06-21 Microsoft Corporation Comprehension and intent-based content for augmented reality displays

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018064836A (ja) * 2016-10-20 2018-04-26 株式会社Bbq バーチャルゲーム装置
WO2019142817A1 (ja) * 2018-01-22 2019-07-25 株式会社コナミデジタルエンタテインメント 画像表示システムおよびそのプログラムを記録した記録媒体
JP2019128631A (ja) * 2018-01-22 2019-08-01 株式会社コナミデジタルエンタテインメント プログラムおよび画像表示システム
JP2019128632A (ja) * 2018-01-22 2019-08-01 株式会社コナミデジタルエンタテインメント プログラムおよび画像表示システム
JP2020017159A (ja) * 2018-07-27 2020-01-30 株式会社栗本鐵工所 仮想オブジェクト触覚提示装置およびプログラム
US10890977B2 (en) 2018-07-27 2021-01-12 Kurimoto, Ltd. Haptic feedback device and program for virtual objects
JP7457453B2 (ja) 2018-07-27 2024-03-28 株式会社栗本鐵工所 仮想オブジェクト触覚提示装置およびプログラム
JP2018198075A (ja) * 2018-07-31 2018-12-13 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
WO2021020068A1 (ja) * 2019-07-26 2021-02-04 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
CN105359076A (zh) 2016-02-24
WO2014204755A1 (en) 2014-12-24
EP3011419A1 (en) 2016-04-27
JP6359649B2 (ja) 2018-07-18
CN105359076B (zh) 2019-06-18
US20140372957A1 (en) 2014-12-18
EP3011419B1 (en) 2018-03-07
KR20160020571A (ko) 2016-02-23
KR102296122B1 (ko) 2021-08-30
US9329682B2 (en) 2016-05-03

Similar Documents

Publication Publication Date Title
JP6359649B2 (ja) 多ステップ仮想オブジェクト選択
KR102208376B1 (ko) Hmd 상의 하이브리드 월드/바디 락 hud
JP5965410B2 (ja) 拡張現実ディスプレイ用最適焦点エリア
KR102281026B1 (ko) 홀로그램 앵커링 및 동적 포지셔닝 기법
US10955665B2 (en) Concurrent optimal viewing of virtual objects
KR101912958B1 (ko) 증강 현실 디스플레이를 위한 자동 가변 가상 초점
US9116666B2 (en) Gesture based region identification for holograms
US9288468B2 (en) Viewing windows for video streams
US20130342572A1 (en) Control of displayed content in virtual environments
US20130326364A1 (en) Position relative hologram interactions
US20130328925A1 (en) Object focus in a mixed reality environment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170509

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180620

R150 Certificate of patent or registration of utility model

Ref document number: 6359649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250