JP2016506565A - 人間トリガのホログラフィックリマインダ - Google Patents

人間トリガのホログラフィックリマインダ Download PDF

Info

Publication number
JP2016506565A
JP2016506565A JP2015545949A JP2015545949A JP2016506565A JP 2016506565 A JP2016506565 A JP 2016506565A JP 2015545949 A JP2015545949 A JP 2015545949A JP 2015545949 A JP2015545949 A JP 2015545949A JP 2016506565 A JP2016506565 A JP 2016506565A
Authority
JP
Japan
Prior art keywords
reminders
person
reminder
hmd
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015545949A
Other languages
English (en)
Inventor
ジー. ポーロス,アダム
ジー. ポーロス,アダム
エー. ヒルツェル,ホリー
エー. ヒルツェル,ホリー
ジェイ. アンブラス,アンソニー
ジェイ. アンブラス,アンソニー
ジェイ. マカロック,ダニエル
ジェイ. マカロック,ダニエル
ジェイ. マウント,ブライアン
ジェイ. マウント,ブライアン
ティー. スティード,ジョナサン
ティー. スティード,ジョナサン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016506565A publication Critical patent/JP2016506565A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Optics & Photonics (AREA)

Abstract

人間トリガのホログラフィックリマインダを生成および表示するための方法が開示される。いくつかの実施形態において、ヘッドマウントディスプレイデバイス(HMD)は、特定の人物がHMDの視野内に存在する場合、または、特定の人物がHMDから特定の距離内に存在する場合、その特定の人物に関連付けられたリマインダが表示され得る拡張現実環境を、HMDのエンドユーザに対して生成および表示する。特定の人物は、個々に識別され、または、特定のグループに所属するもの(例えば、プログラマもしくは管理者などの特定の肩書を有するグループのメンバ)として識別され得る。場合によっては、リマインダの完了は、エンドユーザと特定の人物との間で発生する会話のキャプチャされたオーディオに(例えば、キーワード、語句、または名前を識別するために)スピーチ認識技法を利用することによって、自動的に検出され得る。

Description

[0001] 拡張現実(AR:augmented reality)は、現実世界環境の知覚(または、現実世界環境を表すデータ)がコンピュータ生成された仮想データを用いて拡張または修正される、拡張された現実世界環境を提供することに関連する。例えば、現実世界環境を表すデータは、カメラまたはマイクロホンなどの感覚入力デバイスを使用してリアルタイムでキャプチャされ、仮想画像および仮想音を含むコンピュータ生成された仮想データを用いて拡張され得る。仮想データは、現実世界環境における現実世界の物体に関連付けられたテキスト記述などの、現実世界環境に関連する情報も含み得る。AR環境内の物体は、実物体(すなわち、ある特定の現実世界環境内に存在する物体)と仮想物体(すなわち、その特定の現実世界環境内に存在しない物体)とを含み得る。
[0002] 仮想物体をAR環境に現実的に統合するために、ARシステムは、典型的には、マッピングおよび位置決めを含むいくつかのタスクを実行する。マッピングは、ある現実世界環境の地図を生成するプロセスに関連する。位置決めは、その現実世界環境の地図に関連する特定の視点または姿勢の位置を特定するプロセスに関連する。場合によっては、ARシステムは、モバイルデバイスが現実世界環境内で移動するにつれて、拡張される必要があるモバイルデバイスに関連付けられた特定の視野を決定するために、現実世界環境内で移動しているモバイルデバイスの姿勢をリアルタイムで位置決めし得る。
[0003] 人間トリガのホログラフィックリマインダを生成および表示するための技術が説明される。いくつかの実施形態において、ヘッドマウントディスプレイデバイス(HMD:head-mounted display device)は、特定の人物がHMDの視野内に存在する場合(例えば、顔認識技法を使用して決定される)、または、特定の人物がHMDから特定の距離内に存在する場合、その特定の人物に関連付けられたリマインダが表示され得る拡張現実環境を、そのHMDのエンドユーザに対して生成および表示する。特定の人物は、個々に識別され、または、特定のグループに所属するもの(例えば、プログラマまたは管理者などの特定の肩書を有するグループのメンバ)として識別され得る。場合によっては、リマインダの完了は、エンドユーザと特定の人物との間で発生する会話のキャプチャされたオーディオに(例えば、キーワード、語句、または名前を識別するために)スピーチ認識技法を利用することによって、自動的に検出され得る。
[0004] 本概要は、詳細な説明において以下にさらに説明される一連の概念を、簡略化された形式で紹介するために提供される。本概要は、特許請求の範囲に記載された主題の重要な特徴または本質的な特徴を識別することを意図されず、特許請求の範囲に記載された主題の範囲を決定する際の補助として使用されることも意図されない。
[0005]開示される技術が実施され得るネットワーク化されたコンピューティング環境の一実施形態のブロック図である。 [0006]第2のモバイルデバイスと通信するモバイルデバイスの一実施形態を示す図である。 [0007]HMDの一部分の一実施形態を示す図である。 [0008]遠瞳孔間距離(IPD:inter-pupillary distance)を整列させるために注視点へ伸長する注視ベクトルが使用される、HMDの一部分の一実施形態を示す図である。 [0009]近瞳孔間距離(IPD)を整列させるために注視点へ伸長する注視ベクトルが使用される、HMDの一部分の一実施形態を示す図である。 [0010]注視検出要素を含む可動表示光学システムを備えるHMDの一部分の一実施形態を示す図である。 [0011]注視検出要素を含む可動表示光学システムを備えるHMDの一部分の代替的な実施形態を示す図である。 [0012]HMDの一部分の側面の一実施形態を示す図である。 [0013]マイクロディスプレイ部品の三次元調整を支援するHMDの一部分の側面の一実施形態を示す図である。 [0014]キャプチャデバイスとコンピューティング環境とを含むコンピューティングシステムの一実施形態を示す図である。 [0015]人間トリガのホログラフィックリマインダが使用され得る様々な拡張現実環境の様々な実施形態を示す図である。 人間トリガのホログラフィックリマインダが使用され得る様々な拡張現実環境の様々な実施形態を示す図である。 [0016]人間トリガのホログラフィックリマインダを生成および表示するための方法の一実施形態を説明するフローチャートである。 [0017]1つまたは複数のリマインダを決定するためのプロセスの一実施形態を説明するフローチャートである。 [0018]ある環境内の第2の人物を検出するためのプロセスの一実施形態を説明するフローチャートである。 [0019]リマインダの完了を自動的に検出するためのプロセスの一実施形態を説明するフローチャートである。 [0020]人間トリガのホログラフィックリマインダを生成および表示するための方法の代替的な実施形態を説明するフローチャートである。 [0021]モバイルデバイスの一実施形態のブロック図である。
[0022] 人間トリガのホログラフィックリマインダを生成および表示するための技術が説明される。いくつかの実施形態において、ヘッドマウントディスプレイデバイス(HMD)などのモバイルデバイスは、そのモバイルデバイスのエンドユーザに関連付けられた1つまたは複数のリマインダを取得し、ある環境内の特定の人物を識別し、その特定の人物の識別に基づいて、1つまたは複数のリマインダに優先順位付けし、1つまたは複数のリマインダの優先順位に基づいて、1つまたは複数のリマインダのサブセットをエンドユーザに表示し得る。1つまたは複数のリマインダは、個人情報マネージャ、タスクマネージャ、電子メールアプリケーション、カレンダアプリケーション、ソーシャルネットワーキングアプリケーション、ソフトウェアバグ追跡アプリケーション、問題追跡アプリケーション、および/もしくは時間管理アプリケーションへ入力されるタスク、または、これらからアクセス可能なタスクに基づいて、決定され得る。1つまたは複数のリマインダの各々は、完了されるべき特定のタスク、その特定のタスクに関連付けられた1人または複数の人々、その特定のタスクに関連付けられた位置、(例えば、特定のリマインダは2週間ごとに発行されるという)リマインダの頻度、および/または、その特定のタスクについての完了時間に対応し得る。特定の人物は、個々に識別され、または、特定のグループに所属するもの(例えば、プログラマまたは管理者などの特定の肩書を有するグループのメンバ)として識別され得る。
[0023] いくつかの実施形態において、特定の人物がHMDの視野内に存在する場合(例えば、顔認識技法を使用して決定される)、または、特定の人物がHMDから特定の距離内に存在する場合(例えば、特定の人物に関連付けられた第2のモバイルデバイスに対応するGPS位置情報を使用して決定される)、HMDは、その特定の人物に関連付けられたリマインダが表示され得る拡張現実環境をHMDのエンドユーザに提供し得る。一例では、HMDのエンドユーザが特定の人物に借金をしている場合において、その特定の人物がHMDの視界内に存在するとき、HMDは、エンドユーザがその特定の人物に借金をしているというリマインダをエンドユーザに表示し得る。
[0024] いくつかの実施形態において、HMDは、HMDのエンドユーザとは異なる特定の人物に関連付けられたリマインダの第2のセットを、その特定の人物に関連付けられた第2のモバイルデバイスから取得し、特定の人物がHMDの視野内に存在する場合、または、特定の人物がHMDから特定の距離内に存在する場合、リマインダの第2のセット(または、そのサブセット)が表示され得る拡張現実環境をエンドユーザに提供し得る。場合によっては、リマインダの第2のセットに対応する1つまたは複数の仮想物体が、エンドユーザに表示され得る。一例において、1つまたは複数の仮想物体は、特定の人物が特定の話題に関してエンドユーザと話したいというリマインダ情報を提供し得る。別の例において、1つまたは複数の仮想物体は、(例えば、エンドユーザと特定の人物との双方が参加者である次回の会議時に、特定の人物が休暇を取る場合には)タスク関連情報を提供し得る。1つまたは複数の仮想物体は、エンドユーザと特定の人物との間で共有されるべきコンテンツ(例えば、写真または画像)へのリンクも提供し得る。1つまたは複数の仮想物体は、(例えば、贈り物の購入に関連付けられたタスクの完了を容易にするために)オンラインショッピングウェブサイトへのリンクも提供し得る。
[0025] いくつかの実施形態において、リマインダの完了は、エンドユーザと特定の人物との間で発生する会話のキャプチャされたオーディオに(例えば、キーワード、語句、または名前を識別するために)スピーチ認識技法を利用することによって、自動的に検出される。
[0026] 多数のリマインダを管理することに関する1つの問題は、多数のリマインダのうちの1つを、適切な時に、または、そのリマインダに関連付けられたタスク(例えば、近くの友人に「誕生日おめでとう」を自ら言うこと)を完了するために最も効率的な時に、追跡および想起することが困難となり得ることである。したがって、エンドユーザのコンテキストと共通の環境内の他の人々の存在とを考慮に入れる、人間トリガのホログラフィックリマインダを生成および表示する必要がある。
[0027] 図1は、開示される技術が実施され得るネットワーク化されたコンピューティング環境100の一実施形態のブロック図である。ネットワーク化されたコンピューティング環境100は、1つまたは複数のネットワーク180を通じて相互接続される複数のコンピューティングデバイスを含む。1つまたは複数のネットワーク180は、特定のコンピューティングデバイスが別のコンピューティングデバイスと接続および通信することを可能にする。図示されるコンピューティングデバイスは、モバイルデバイス11、モバイルデバイス12、モバイルデバイス19、およびサーバ15を含む。いくつかの実施形態において、複数のコンピューティングデバイスは、図示されない他のコンピューティングデバイスを含み得る。いくつかの実施形態において、複数のコンピューティングデバイスは、図1に示されるコンピューティングデバイスの数よりも多いまたは少ないコンピューティングデバイスを含み得る。1つまたは複数のネットワーク180は、企業のプライベートネットワークなどのセキュアなネットワークと、無線オープンネットワーク、ローカルエリアネットワーク(LAN:local area network)、広域ネットワーク(WAN:wide area network)、およびインターネットなどのセキュアでないネットワークとを含み得る。1つまたは複数のネットワーク180の各ネットワークは、ハブ、ブリッジ、ルータ、スイッチ、および、有線ネットワークまたは直接有線接続などの有線送信媒体を含み得る。
[0028] 補足情報サーバまたはアプリケーションサーバを備え得るサーバ15は、クライアントが情報(例えば、テキスト、オーディオ、画像、およびビデオファイル)をサーバからダウンロードすること、またはサーバに記憶される特定の情報に関連する検索クエリを実行することを可能にし得る。一般に、「サーバ」は、クライアントサーバ関係においてホストとしての機能を果たすハードウェアデバイスを、または、1つもしくは複数のクライアントとリソースを共有し、または、1つもしくは複数のクライアントのための作業を実行するソフトウェアプロセスを含み得る。クライアントサーバ関係におけるコンピューティングデバイス間の通信は、特定のリソースへのまたは実行されるべき特定の作業へのアクセスを求める要求を送信するクライアントによって開始され得る。サーバは、その後、要求された動作を実行し、クライアントに応答を返信する。
[0029] サーバ15の一実施形態は、全てが互いに通信する、ネットワークインタフェース155、プロセッサ156、メモリ157、およびトランスレータ158を含む。ネットワークインタフェース155は、サーバ15が1つまたは複数のネットワーク180に接続することを可能にする。ネットワークインタフェース155は、無線ネットワークインタフェース、モデム、および/または有線ネットワークインタフェースを含み得る。プロセッサ156は、サーバ15が本明細書において議論されるプロセスを実行するために、メモリ157に記憶されるコンピュータ読取可能な命令を実行することを可能にする。トランスレータ158は、第1のファイルフォーマットの第1のファイルを第2のファイルフォーマットの対応する第2のファイルに変換するためのマッピングロジックを含み得る(すなわち、第2のファイルは、第1のファイルの変換されたバージョンであり得る)。トランスレータ158は、第1のファイルフォーマットのファイル(または、その一部分)を第2のファイルフォーマットの対応するファイルにマッピングするための命令を提供するファイルマッピング命令を使用して構成され得る。
[0030] モバイルデバイス19の一実施形態は、全てが互いに通信する、ネットワークインタフェース145、プロセッサ146、メモリ147、カメラ148、センサ149、およびディスプレイ150を含む。ネットワークインタフェース145は、モバイルデバイス19が1つまたは複数のネットワーク180に接続することを可能にする。ネットワークインタフェース145は、無線ネットワークインタフェース、モデム、および/または有線ネットワークインタフェースを含み得る。プロセッサ146は、モバイルデバイス19が本明細書において議論されるプロセスを実行するために、メモリ147に記憶されるコンピュータ読取可能な命令を実行することを可能にする。カメラ148は、カラー画像および/または奥行き画像をキャプチャし得る。センサ149は、モバイルデバイス19に関連付けられた動作情報および/または向き情報を生成し得る。場合によっては、センサ149は、慣性測定ユニット(IMU:inertial measurement unit)を備え得る。ディスプレイ150は、デジタル画像および/またはビデオを表示し得る。ディスプレイ150は、シースルーディスプレイを備え得る。
[0031] いくつかの実施形態において、ネットワークインタフェース145、プロセッサ146、メモリ147、カメラ148、およびセンサ149を含む、モバイルデバイス19の様々な部品は、単一のチップ基板上に統合され得る。一例において、ネットワークインタフェース145、プロセッサ146、メモリ147、カメラ148、およびセンサ149は、システムオンチップ(SOC:system on a chip)として統合されてもよい。他の実施形態において、ネットワークインタフェース145、プロセッサ146、メモリ147、カメラ148、およびセンサ149は、単一のパッケージ内に統合され得る。
[0032] いくつかの実施形態において、モバイルデバイス19は、カメラ148、センサ149、およびプロセッサ146上で実行されるジェスチャ認識ソフトウェアを採用することによって、ナチュラルユーザインタフェース(NUI:natural user interface)を提供し得る。ナチュラルユーザインタフェースを用いれば、人物の身体の一部および動作が検出され、解釈され、コンピューティングアプリケーションの様々な側面を制御するために使用され得る。一例において、ナチュラルユーザインタフェースを利用するコンピューティングデバイスは、そのコンピューティングデバイスとインタラクションする人物の意図(例えば、エンドユーザがコンピューティングデバイスを制御するために特定のジェスチャを実行したこと)を推論し得る。
[0033] ネットワーク化されたコンピューティング環境100は、1つまたは複数のコンピューティングデバイスのためのクラウドコンピューティング環境を提供し得る。クラウドコンピューティングとは、共有されるリソース、ソフトウェア、および/または情報がインターネット(または、他のグローバルネットワーク)を介してオンデマンドで1つまたは複数のコンピューティングデバイスに提供される、インターネットベースのコンピューティングを言う。「クラウド」という用語は、雲の絵が表す、基礎をなすインフラストラクチャの抽象としてインターネットを示すためにコンピュータネットワーク図において使用される雲の絵に基づいて、インターネットの隠喩として使用される。
[0034] 一例において、モバイルデバイス19は、HMDのエンドユーザに拡張現実環境または複合現実環境を提供するヘッドマウントディスプレイデバイス(HMD)を備える。HMDは、ビデオシースルーシステムおよび/または光学シースルーシステムを備え得る。エンドユーザによって装着される光学シースルーHMDは、(例えば、透明なレンズを介して)現実世界環境の実際の直視を可能にし得、同時に、仮想物体の画像をエンドユーザの視野に投影し、それによって、エンドユーザによって知覚される現実世界環境を、仮想物体を用いて拡張する。
[0035] HMDを利用することにより、エンドユーザは、HMDを装着して現実世界環境(例えば、居間)を動き回り、仮想物体の画像がオーバーレイされた現実世界の景色を知覚することができる。仮想物体は、現実世界環境との整合的な空間関係を維持するように見え得る(すなわち、エンドユーザが現実世界環境内でその頭を回転させ、または移動するにつれて、エンドユーザに表示される画像は、エンドユーザによって知覚される現実世界環境内に仮想物体が存在するように見えるように変化するであろう)。仮想物体は、エンドユーザの視点に対して固定されるようにも見え得る(例えば、エンドユーザが現実世界環境内でどのくらいその頭を回転させるか、または移動するかに関わらず、仮想メニューは、エンドユーザの視点の右上隅に常に現れる)。一実施形態において、現実世界環境の環境マッピングは、サーバ15によって(すなわち、サーバ側で)実行され得る一方で、カメラの位置決めは、モバイルデバイス19上で(すなわち、クライアント側で)実行され得る。仮想物体は、現実世界の物体に関連付けられたテキスト記述を含み得る。
[0036] いくつかの実施形態において、モバイルデバイス19などのモバイルデバイスは、サーバ15などのクラウドにおけるサーバと通信し得、モバイルデバイスに関連付けられた位置情報(例えば、GPS座標を用いたモバイルデバイスの位置)および/または画像情報(例えば、モバイルデバイスの視野内で検出される物体に関する情報)をサーバに提供し得る。それに応じて、サーバは、サーバに提供された位置情報および/または画像情報に基づいて、1つまたは複数の仮想物体をモバイルデバイスへ送信し得る。一実施形態において、モバイルデバイス19は、1つまたは複数の仮想物体を受信するための特定のファイルフォーマットを特定し得、サーバ15は、その特定のファイルフォーマットのファイル内で具現化された1つまたは複数の仮想物体をモバイルデバイス19へ送信し得る。
[0037] いくつかの実施形態において、モバイルデバイス19などのモバイルデバイスは、特定の人物がモバイルデバイスの視野内に存在する場合(例えば、顔認識技法を使用して決定される)、または、特定の人物がモバイルデバイスから特定の距離内に存在する場合(例えば、モバイルデバイスと特定の人物に関連付けられた第2のモバイルデバイスとの双方に対応するGPS位置情報を使用して決定される)、その特定の人物に関連付けられたリマインダが表示され得る拡張現実環境を、モバイルデバイスのエンドユーザに(例えば、シースルーディスプレイを介して)提供し得る。モバイルデバイスは、エンドユーザとは異なる特定の人物に関連付けられたリマインダの第2のセットを、その特定の人物に関連付けられた第2のモバイルデバイスから取得し、特定の人物がモバイルデバイスの視野内に存在する場合、または、特定の人物がモバイルデバイスから特定の距離内に存在する場合、リマインダの第2のセット(または、そのサブセット)が表示され得る拡張現実環境をエンドユーザに提供し得る。場合によっては、リマインダの完了は、エンドユーザと特定の人物との間で発生する会話のキャプチャされたオーディオに(例えば、キーワード、語句、または名前を識別するために)スピーチ認識技法を利用することによって、自動的に検出され得る。
[0038] 図2Aは、第2のモバイルデバイス5と通信するモバイルデバイス19の一実施形態を示す。モバイルデバイス19は、シースルーHMDを備え得る。図示のように、モバイルデバイス19は、モバイルデバイス5と有線接続6を介して通信する。ただし、モバイルデバイス19は、モバイルデバイス5と無線接続を介しても通信し得る。モバイルデバイス5は、コンピュータ集約的な処理タスク(例えば、仮想物体のレンダリング)をオフロードし、モバイルデバイス19上に拡張現実環境を提供するために使用され得る仮想物体情報および他のデータを記憶するために、モバイルデバイス19によって使用され得る。モバイルデバイス5は、モバイルデバイス5に関連付けられた動作情報および/または向き情報もモバイルデバイス19に提供し得る。一例において、動作情報は、モバイルデバイス5に関連付けられた速度または加速度を含み得、かつ向き情報は、特定の座標系または基準系に対する回転情報を提供するオイラー角を含み得る。場合によっては、モバイルデバイス5は、モバイルデバイス5に関連付けられた動作情報および/または向き情報を取得するために、慣性測定ユニット(IMU)などの動作および向きセンサを含み得る。
[0039] 図2Bは、図1におけるモバイルデバイス19などのHMDの一部分の一実施形態を示す。HMD200の右側のみが描かれている。HMD200は、右テンプル202、鼻ブリッジ204、眼鏡レンズ216、および眼鏡レンズフレーム214を含む。右テンプル202は、処理ユニット236と通信するキャプチャデバイス213(例えば、正面向きのカメラおよび/またはマイクロホン)を含む。キャプチャデバイス213は、デジタル画像および/またはビデオを記録するための1つまたは複数のカメラを備え得、録画物を処理ユニット236へ送信し得る。1つまたは複数のカメラは、カラー情報、IR情報、および/または奥行き情報をキャプチャし得る。キャプチャデバイス213は、音を記録するための1つまたは複数のマイクロホンも備え得、録音物を処理ユニット236へ送信し得る。
[0040] 右テンプル202は、全てが処理ユニット236と通信する、生体センサ220、眼追跡システム221、イヤホン230、動作および向きセンサ238、GPS受信機232、電源239、ならびに無線インタフェース237も含む。生体センサ220は、HMD200のエンドユーザに関連付けられた脈拍数または心拍数を決定するための1つまたは複数の電極と、HMD200のエンドユーザに関連付けられた体温を決定するための温度センサとを含み得る。一実施形態において、生体センサ220は、エンドユーザのこめかみに押し付けられる脈拍数測定センサを含む。動作および向きセンサ238は、三軸磁力計、三軸ジャイロ、および/または三軸加速度計を含み得る。一実施形態において、動作および向きセンサ238は、慣性測定ユニット(IMU)を備え得る。GPS受信機は、HMD200に関連付けられたGPS位置を決定し得る。処理ユニット236は、1つまたは複数のプロセッサと、その1つまたは複数のプロセッサ上で実行されるべきコンピュータ読取可能な命令を記憶するためのメモリとを含み得る。メモリは、1つまたは複数のプロセッサ上で実行されるべき他のタイプのデータも記憶し得る。
[0041] 一実施形態において、眼追跡システム221は、内側向きのカメラを含み得る。別の実施形態において、眼追跡システム221は、眼追跡照明光源と、関連付けられた眼追跡IRセンサとを備え得る。一実施形態において、眼追跡照明光源は、ほぼ所定のIR波長または波長範囲を出射する赤外線発光ダイオード(LED:light emitting diode)またはレーザ(例えば、VCSEL)などの、1つまたは複数の赤外線(IR:infrared)エミッタを含み得る。いくつかの実施形態において、眼追跡センサは、閃光位置を追跡するためのIRカメラまたはIR位置感応検出器(PSD:position sensitive detector)を含み得る。眼追跡システムに関するさらなる情報は、2008年7月22日に発行された、「Head Mounted Eye Tracking and Display System」と題された米国特許第7,401,920号、および2011年9月26日に出願された、「Integrated Eye Tracking and Display Systems」と題された米国特許出願第13/245,700号に見出すことができ、これらの双方が参照によって本明細書に組み込まれる。
[0042] 一実施形態において、眼鏡レンズ216は、シースルーディスプレイを備えることができ、これによって、処理ユニット236によって生成された画像がシースルーディスプレイ上に投影および/または表示され得る。キャプチャデバイス213は、キャプチャデバイス213によってキャプチャされた視野がHMD200のエンドユーザによって見られる視野に対応するように調整される。イヤホン230は、仮想物体の投影された画像に関連付けられた音を出力するために使用され得る。いくつかの実施形態において、HMD200は、正面向きのカメラによってキャプチャされた視野に関連付けられた立体情報から奥行きを得るために、2つ以上の正面向きのカメラ(例えば、テンプルごとに1つ)を含み得る。2つ以上の正面向きのカメラは、3Dカメラ、IRカメラ、および/またはRGBカメラも備え得る。奥行き情報は、動作技法からの奥行きを利用する単一のカメラからも取得され得る。例えば、2つの画像は、異なる時点における空間内の異なる2つの点に関連付けられた単一のカメラから取得され得る。次いで、空間内の2つの異なる点に関する位置情報が与えられると、視差計算が実行され得る。
[0043] いくつかの実施形態において、HMD200は、角膜中心、眼球回転の中心、または瞳孔中心などの、1つまたは複数の人間の眼の要素に関連して注視検出要素と三次元座標系とを使用して、エンドユーザの両眼の各眼について注視検出を実行し得る。注視検出は、エンドユーザが視野内で注目している場所を識別するために使用され得る。注視検出要素の例は、閃光生成照明器と、生成された閃光を表すデータをキャプチャするためのセンサとを含み得る。場合によっては、角膜の中心は、平面配位を使用して2つの閃光に基づいて決定することができる。角膜の中心は、瞳孔中心と眼球の回転の中心とつながり、これは、ある注視角または視野角におけるエンドユーザの眼の光軸を決定するための固定位置として扱うことができる。
[0044] 図2Cは、遠瞳孔間距離(IPD)を位置合わせするために注視点へ伸長する注視ベクトルが使用される、HMD2の一部分の一実施形態を示す。HMD2は、図1におけるモバイルデバイス19などのモバイルデバイスの一例である。図示されるように、注視ベクトル180lおよび180rは、エンドユーザから遠く離れた注視点において交差する(すなわち、注視ベクトル180lおよび180rは、エンドユーザが遠く離れた物体を見ているときには交差しない)。眼球160lおよび160rについての眼球のモデルは、グルストランドの概略眼モデルに基づいて、各眼について例示される。各眼球は、回転の中心166を備える球体としてモデル化され、中心164を有する球体としてモデル化される角膜168を含む。角膜168は、眼球と共に回転し、眼球の回転の中心166は、固定点として扱うことができる。角膜168は、虹彩170を瞳孔162によりその中心において覆う。各角膜の表面172上には、閃光174および176が存在する。
[0045] 図2Cに図示されるように、センサ検出領域139(すなわち、139lおよび139rのそれぞれ)は、眼鏡フレーム115内の各表示光学システム14の光軸に位置合わせされる。一例において、検出領域に関連付けられたセンサは、フレーム115の左側の照明器153aおよび153bによってそれぞれ生成される閃光174lおよび176lを表す画像データと、フレーム115の右側の照明器153cおよび153dによってそれぞれ生成される閃光174rおよび176rを表すデータとをキャプチャすることが可能な1つまたは複数のカメラを含み得る。眼鏡フレーム115における表示光学システム14lおよび14rを通じて、エンドユーザの視野は、実物体190、192、および194と仮想物体182および184との双方を含む。
[0046] 回転の中心166から角膜中心164を通じて瞳孔162まで形成される軸178は、眼の光軸を含む。注視ベクトル180は、窩から瞳孔の中心162を通じて伸長する視線または視軸とも呼ばれ得る。いくつかの実施形態において、注視ベクトルとして選択される視軸を取得するために、ユーザ調整を通じて、光軸が決定され、小さな補正が決定される。エンドユーザごとに、仮想物体は、異なる水平位置および垂直位置における多数の所定の位置の各々においてディスプレイデバイスによって表示され得る。光軸は、各位置における物体の表示期間中に各眼について計算され得、光線は、その位置からユーザの眼の中へ伸長するものとしてモデル化され得る。水平成分および垂直成分を有する注視オフセット角は、モデル化された光線と一直線に並ぶために光軸がどのくらい移動されなければならないかに基づいて決定され得る。様々な位置から、水平成分および垂直成分を有する平均注視オフセット角を、計算された各光軸に適用されるべき小さな補正として選択することができる。いくつかの実施形態においては、水平成分のみが、注視オフセット角補正のために使用される。
[0047] 図2Cに図示されるように、注視ベクトル180lおよび180rは、眼球から注視点において視野内へ伸長するにつれてより近くなるため、完全に平行ではない。各表示光学システム14において、注視ベクトル180は、センサ検出領域139の中心が置かれる光軸と交差するように見える。この構成において、光軸は、瞳孔間距離(IPD)に位置合わせされる。エンドユーザが真っ直ぐに前を見ている場合、測定されるIPDは、遠IPDとも呼ばれる。
[0048] 図2Dは、近瞳孔間距離(IPD)を位置合わせするために注視点へ伸長する注視ベクトルが使用される、HMD2の一部分の一実施形態を示す。HMD2は、図1におけるモバイルデバイス19などのモバイルデバイスの一例である。図示されるように、左眼の角膜168lは、右へまたはエンドユーザの鼻に向けて回転され、右眼の角膜168rは、左へまたはエンドユーザの鼻に向けて回転される。双方の瞳孔は、エンドユーザから特定の距離内の実物体194を注視している。各眼からの注視ベクトル180lおよび180rは、実物体194が位置するパナムの融合領域195に入る。パナムの融合領域は、人間の視覚の領域のような両眼目視システムにおける単一視の領域である。注視ベクトル180lおよび180rの交点は、エンドユーザが実物体194を見ていることを示す。そのような距離において、眼球が内側へ回転すると、これらの瞳孔間の距離は近IPDに減少する。近IPDは、典型的には、遠IPDよりも約4mm小さい。近IPD距離基準(例えば、エンドユーザから4フィート未満における注視点)は、表示光学システム14のIPDアラインメントを近IPDのIPDアラインメントに切り替えまたは調整するために使用され得る。近IPDの場合、各表示光学システム14は、光軸および検出領域139が検出領域139lnおよび139rnによって表されるように数ミリメートル鼻に向けて移動するように、エンドユーザの鼻に向けて移動され得る。
[0049] HMDのエンドユーザについてのIPDを決定し、それに応じて表示光学システムを調整することに関するさらなる情報は、2011年9月30日に出願された、「Personal Audio/Visual System」と題された米国特許出願第13/250,878号に見出すことができ、この出願は、その全体が参照によって本明細書に組み込まれる。
[0050] 図2Eは、注視検出要素を含む可動表示光学システムを備えるHMD2の一部分の一実施形態を示す。各眼についてのレンズに見えるものは、各眼についての表示光学システム14(すなわち、14lおよび14r)を表す。表示光学システムは、シースルーレンズと、仮想コンテンツをHMDのレンズを通じて見られる実際の直接の現実世界の視界と継ぎ目なく融合させるための光学要素(例えば、ミラー、フィルタ)とを含む。表示光学システム14は、歪のない視界を提供するために光が概してコリメートされるシースルーレンズの概して中心にある光軸を有する。例えば、アイケアの専門家が普通の眼鏡をエンドユーザの顔に合わせる場合、その眼鏡は、通常、各瞳孔がそれぞれのレンズの中心または光軸と一直線に並び、はっきりとした視界または歪みのない視界のためにエンドユーザの眼に到達する概してコリメートされた光をもたらす位置において、エンドユーザの鼻の上に乗るように合わされる。
[0051] 図2Eに図示されるように、少なくとも1つのセンサの検出領域139r、139lは、検出領域139r、139lの中心が光軸に沿った光をキャプチャするように、そのそれぞれの表示光学システム14r、14lの光軸と位置合わせされる。表示光学システム14がエンドユーザの瞳孔に位置合わせされる場合、それぞれのセンサ134の各検出領域139は、エンドユーザの瞳孔に位置合わせされる。検出領域139の反射光は、1つまたは複数の光学要素を介してカメラの実画像センサ134へ転送され、実画像センサ134は、図示される実施形態において、フレーム15の内部にあるものとして点線によって例示される。
[0052] 一実施形態において、少なくとも1つのセンサ134は、可視光カメラ(例えば、RGBカメラ)であり得る。一例において、光学要素または光指向要素は、部分的に透過的で、および、部分的に反射的な可視光反射ミラーを備える。可視光カメラは、エンドユーザの眼の瞳孔の画像データを提供する一方で、IR光検出器152は、スペクトルのIR部分における反射である閃光をキャプチャする。可視光カメラが使用される場合、仮想画像の反射は、そのカメラによってキャプチャされる眼のデータに現れ得る。画像フィルタリング技法は、必要に応じて、仮想画像の反射を除去するために使用することができる。IRカメラは、眼の上の仮想画像の反射に対して敏感ではない。
[0053] 別の実施形態において、少なくとも1つのセンサ134(すなわち、134lおよび134r)は、IR放射が向けられるIRカメラまたは位置感応検出器(PSD)である。眼から反射されるIR放射は、照明器153、他のIR照明器(図示せず)の入射放射から、または、眼から反射される環境IR放射からのものであり得る。場合によっては、センサ134は、RGBカメラとIRカメラとの組み合わせであってもよく、光指向要素は、可視光反射要素または可視光迂回要素と、IR放射反射要素またはIR放射迂回要素とを含み得る。場合によっては、センサ134は、システム14のレンズ内に埋め込まれてもよい。また、画像フィルタリング技法は、カメラをユーザ視野に溶け込ませて、ユーザへの任意の妨害を減少させるために利用することができる。
[0054] 図2Eに図示されるように、光検出器152と対にされ、照明器153によって生成される入射光と光検出器152において受信される反射光との間の干渉を回避するためのバリア154によって分離される、4つのセットの照明器153がある。図面における不必要な混乱を回避するために、図面の符号は、1つの代表的な対に関して示される。各照明器は、ほぼ所定の波長で狭ビームを生成する赤外線(IR)照明器とすることができる。光検出器の各々は、ほぼ所定の波長で光をキャプチャするように選択され得る。赤外線は、近赤外線も含み得る。照明器もしくは光検出器の波長ドリフトが存在することがあり、または、ほぼ1つの波長の小さい範囲は容認可能となり得るため、照明器および光検出器は、生成および検出のための波長に関して公差範囲を有し得る。センサがIRカメラまたはIR位置感応検出器(PSD)である場合によっては、光検出器は、付加的なデータキャプチャデバイスを含んでもよく、照明器の動作、例えば、波長ドリフト、ビーム幅の変化等を監視するためにも使用され得る。光検出器は、センサ134としての可視光カメラで閃光データも提供し得る。
[0055] 図2Eに図示されるように、各表示光学システム14および各眼と対面する注視検出要素(例えば、カメラ134およびその検出領域139、照明器153、ならびに光検出器152)の構成は、可動内側フレーム部分117l、117rに位置する。この例において、表示調整機構は、モータ203によって駆動されるシャフト205の誘導および動力下で、フレーム115内で左から右へまたはその逆へスライドする内側フレーム部分117に取り付けられるシャフト205を有する1つまたは複数のモータ203を備える。いくつかの実施形態において、1つのモータ203は、双方の内側フレームを駆動し得る。
[0056] 図2Fは、注視検出要素を含む可動表示光学システムを備えるHMD2の一部分の代替的な実施形態を示す。図示されるように、各表示光学システム14は、別個のフレーム部分115l、115rに封入される。フレーム部分の各々は、モータ203によって別個に移動させることができる。可動表示光学システムを備えるHMDに関するさらなる情報は、2011年9月30日に出願された、「Personal Audio/Visual System」と題された米国特許出願第13/250,878号に見出すことができ、この出願は、その全体が参照によって本明細書に組み込まれる。
[0057] 図2Gは、フレーム115の眼鏡テンプル102を含むHMD2の一部分の側面の一実施形態を示す。フレーム115の正面には、ビデオおよび静止画像をキャプチャすることができる正面向きのビデオカメラ113がある。いくつかの実施形態において、正面向きのカメラ113は、可視光カメラまたはRGBカメラだけでなく、奥行きカメラも含み得る。一例において、奥行きカメラは、IR照明器用送信器と、可視光を通過させ、照明器によって送信される1つの波長範囲内またはほぼ所定の波長の反射されたIR放射をCCDまたは他のタイプの奥行きセンサへ向ける可視画像センサの前のホットミラーのようなホット反射面とを含み得る。他のタイプの可視光カメラ(例えば、RGBカメラまたは画像センサ)および奥行きカメラが使用されてもよい。奥行きカメラに関するさらなる情報は、その全体が参照によって本明細書に組み込まれる、2010年6月11日に出願された米国特許出願第12/813,675号に見出すことができる。カメラからのデータは、画像分割技法および/またはエッジ検出技法を通じて物体を識別するために、処理のために制御回路136へ送信され得る。
[0058] テンプル102内にあるものは、またはテンプル102に取り付けられるものは、イヤホン130、慣性センサ132、GPS受信機144、および温度センサ138である。一実施形態において、慣性センサ132は、三軸磁力計、三軸ジャイロ、および三軸加速度計を含む。慣性センサは、HMD2の位置、向き、および突然の加速を感知するためのものである。これらの動作から、頭部位置も決定することができる。
[0059] 場合によっては、HMD2は、1つまたは複数の仮想物体を含む、1つまたは複数の画像を生成することができる画像生成ユニットを含み得る。いくつかの実施形態において、マイクロディスプレイが、画像生成ユニットとして使用され得る。図示されるように、マイクロディスプレイ部品173は、光処理要素と可変焦点調整器135とを備える。光処理要素の例は、マイクロディスプレイユニット120である。他の例は、レンズシステム122の1つまたは複数のレンズなどの1つまたは複数の光学要素、および表面124などの1つまたは複数の反射要素を含む。レンズシステム122は、単一のレンズまたは複数のレンズを備え得る。
[0060] テンプル102に取り付けられ、またはテンプル102内にあるマイクロディスプレイユニット120は、画像ソースを含み、仮想物体の画像を生成する。マイクロディスプレイユニット120は、レンズシステム122および反射面124と光学的に位置合わせされる。光学的な位置合わせは、1つまたは複数の光軸を含む光軸133または光路133に沿ったものとすることができる。マイクロディスプレイユニット120は、仮想物体の画像を、レンズシステム122を通じて投影し、レンズシステム122は、その画像を反射要素124上へ向けることができる。可変焦点調整器135は、マイクロディスプレイ部品の光路における1つまたは複数の光処理要素間のずれを、またはマイクロディスプレイ部品の1つの要素の光パワーを変化させる。レンズの光パワーは、一方における変化が他方に影響を及ぼすように、その焦点距離の逆数(すなわち、1/焦点距離)として定義される。焦点距離における変化は、マイクロディスプレイ部品173によって生成される画像に焦点が合った視野の領域における変化をもたらす。
[0061] ずれを変化させるマイクロディスプレイ部品173の一例において、ずれの変化は、レンズシステム122およびマイクロディスプレイ120などの少なくとも1つの光処理要素を支持する電機子内で誘導される。電機子137は、選択されたずれまたは光パワーを達成するために、要素の物理的な動作期間中の光路133に沿った位置合わせを安定化させることを支援する。いくつかの例において、調整器135は、電機子137内のレンズシステム122のレンズなどの、1つまたは複数の光学要素を移動させ得る。他の例において、電機子は、光処理要素を移動させることなく、要素、例えば、マイクロディスプレイ120上をスライドするように、光処理要素の周りの領域において溝または空間を有し得る。レンズシステム122などの、電機子における別の要素は、システム122またはその内部のレンズが、移動する電機子137と共にスライドまたは移動するように取り付けられる。ずれの範囲は、典型的には、数ミリメートル(mm)のオーダーである。一例において、その範囲は、1〜2mmである。他の例において、電機子137は、ずれよりも他の物理パラメータの調整を伴う焦点調整技法のためにレンズシステム122を支援し得る。そのようなパラメータの例は、偏光である。
[0062] マイクロディスプレイ部品の焦点距離を調整することに関するさらなる情報は、2010年11月8日に出願され、「Automatic Variable Virtual Focus for Augmented Reality Displays」と題された米国特許第12/941,825号に見出すことができ、この出願は、その全体が参照によって本明細書に組み込まれる。
[0063] 一実施形態において、調整器135は、圧電モータなどのアクチュエータとすることができる。アクチュエータについての他の技術が使用されてもよく、そのような技術のうちのいくつかの例は、コイルと永久磁石とから形成されるボイスコイル、磁歪要素、および電歪要素である。
[0064] マイクロディスプレイ120を実装するために、いくつかの異なる画像生成技術が使用され得る。一例において、マイクロディスプレイ120は、光源が光学活性材料によって変調され、白色光を用いて背後から光を当てられる透過型投影技術を使用して実装することができる。これらの技術は、通常、強力なバックライトおよび高い光エネルギー密度を備えるLCDタイプのディスプレイを使用して実装される。マイクロディスプレイ120は、外部光が光学活性材料によって反射および変調される反射技術を使用して実装されることもできる。照明は、技術に応じて、白色源またはRGB源のどちらかによって前方へ照らされ得る。デジタル光処理(DLP)、LCOS(liquid crystal on silicon)、およびQualcomm,Inc.のMirasol(登録商標)ディスプレイ技術は全て、大部分のエネルギーが変調された構造から反射されるため効率的であり、本明細書において説明されるシステムにおいて使用され得る反射技術の例である。また、マイクロディスプレイ120は、光がディスプレイによって生成される放射性技術を使用して実装することができる。例えば、Microvision,Inc.のPicoP(商標)エンジンは、マイクロミラーステアリングを用いてレーザ信号を、透過要素としての機能を果たす小さな画面上へ出射し、または直接眼の中へ発する(例えば、レーザ)。
[0065] 図2Hは、マイクロディスプレイ部品の三次元調整を支援するHMD2の一部分の側面の一実施形態を示す。上記図2Gにおいて例示された符号のうちのいくつかは、図面における混乱を回避するために除去されている。表示光学システム14が三次元のうちのいずれかに移動されるいくつかの実施形態において、反射面124およびマイクロディスプレイ部品173のその他の要素によって表される光学要素も、表示光学システムへの仮想画像の光の光路133を維持するために移動され得る。制御回路136の制御下のモータブロック203およびシャフト205によって表される1つまたは複数のモータから構成されるこの例におけるXYZ転送機構は、マイクロディスプレイ部品173の要素の動作を制御する。使用され得るモータの例は、圧電モータである。例示される例においては、1つのモータが電機子137に取り付けられ、可変焦点調整器135も同様に移動させ、別の代表的なモータ203が、反射要素124の動作を制御する。
[0066] 図3は、キャプチャデバイス20とコンピューティング環境12とを含むコンピューティングシステム10の一実施形態を示す。いくつかの実施形態において、キャプチャデバイス20およびコンピューティング環境12は、単一のモバイルコンピューティングデバイス内に統合されてもよい。単一の統合されたモバイルコンピューティングデバイスは、図1のモバイルデバイス19などのモバイルデバイスを含み得る。一例において、キャプチャデバイス20およびコンピューティング環境12は、HMD内に統合されてもよい。他の実施形態において、キャプチャデバイス20は、図2Aのモバイルデバイス19などの第1のモバイルデバイスと統合されてもよく、コンピューティング環境12は、図2Aのモバイルデバイス5などの、第1のモバイルデバイスと通信する第2のモバイルデバイスと統合されてもよい。
[0067] 一実施形態において、キャプチャデバイス20は、画像およびビデオをキャプチャするための1つまたは複数の画像センサを含み得る。画像センサは、CCD画像センサまたはCMOS画像センサを含んでもよい。いくつかの実施形態において、キャプチャデバイス20は、IR CMOS画像センサを含んでもよい。キャプチャデバイス20は、例えば、TOF(time-of-flight)、構造化された光、立体画像などを含む任意の適切な技法を用いた奥行き値を含み得る奥行き画像を含む奥行き情報と共にビデオをキャプチャするように構成された奥行きセンサ(または奥行き感知カメラ)も含み得る。
[0068] キャプチャデバイス20は、画像カメラ部品32を含み得る。一実施形態において、画像カメラ部品32は、シーンの奥行き画像をキャプチャすることができる奥行きカメラを含み得る。奥行き画像は、二次元(2D)画素領域における各画素が、キャプチャされたシーンにおける物体の画像カメラ部品32からの距離などの奥行き値を、例えば、センチメートル、ミリメートルなどで表し得る、キャプチャされたシーンの2D画素領域を含むことができる。
[0069] 画像カメラ部品32は、キャプチャ領域の奥行き画像をキャプチャするために使用されるIR光部品34、三次元(3D)カメラ36、およびRGBカメラ38を含み得る。例えば、TOF分析において、キャプチャデバイス20のIR光部品34は、キャプチャ領域上へ赤外光を出射し、例えば、3Dカメラ36および/またはRGBカメラ38を使用してキャプチャ領域における1つまたは複数の物体の表面からの後方散乱光を検出するためのセンサを使用し得る。いくつかの実施形態において、パルス状の赤外光は、出射光パルスと対応する入射光パルスとの間の時間が、キャプチャデバイス20からキャプチャ領域における1つまたは複数の物体上の特定の位置までの物理的距離を決定するために測定および使用されるように、使用され得る。また、出射光波の位相は、位相シフトを決定するために、入射光波の位相と比較され得る。次いで、位相シフトは、キャプチャデバイスから1つまたは複数の物体に関連付けられた特定の位置までの物理的距離を決定するために使用され得る。
[0070] 別の例において、キャプチャデバイス20は、奥行き情報をキャプチャするために、構造化された光を使用することができる。そのような分析において、パターン化された光(すなわち、格子パターンまたはストライプパターンなどの既知のパターンとして表示される光)は、例えば、IR光部品34を用いて、キャプチャ領域上へ投影され得る。キャプチャ領域における1つまたは複数の物体(または対象)の表面に突き当たると、パターンは、それに応じて変形することがある。パターンのそのような変形は、例えば、3Dカメラ36および/またはRGBカメラ38によってキャプチャされ、キャプチャデバイスから1つまたは複数の物体上の特定の位置までの物理的距離を決定するために分析され得る。キャプチャデバイス20は、コリメート光を生成するための光学素子を含み得る。いくつかの実施形態において、構造化された光のパターンを生成するために、レーザプロジェクタが使用されてもよい。光プロジェクタは、レーザ、レーザダイオード、および/またはLEDを含み得る。
[0071] いくつかの実施形態において、2つ以上の異なるカメラが、統合されたキャプチャデバイスに組み込まれてもよい。例えば、奥行きカメラおよびビデオカメラ(例えば、RGBビデオカメラ)は、共通のキャプチャデバイスに組み込まれてもよい。いくつかの実施形態において、同じタイプまたは異なるタイプの2つ以上の別個のキャプチャデバイスが協調して使用されてもよい。例えば、奥行きカメラおよび別個のビデオカメラが使用されてもよいし、2つのビデオカメラが使用されてもよいし、2つの奥行きカメラが使用されてもよいし、2つのRGBカメラが使用されてもよいし、または、任意の組み合わせおよび数のカメラが使用されてもよい。一実施形態において、キャプチャデバイス20は、奥行き情報を生成するために分解され得る立体視覚データを取得するために、異なる角度からキャプチャ領域を見得る2つ以上の物理的に別個のカメラを含み得る。奥行きは、白黒、赤外線、RGB、または任意の他のタイプの検出器とすることができる複数の検出器を使用して画像をキャプチャし、視差計算を実行することによっても決定され得る。他のタイプの奥行き画像センサも、奥行き画像を生成するために使用することができる。
[0072] 図3に図示されるように、キャプチャデバイス20は、1つまたは複数のマイクロホン40を含み得る。1つまたは複数のマイクロホン40の各々は、音を受信し、電気信号に変換し得るトランスデューサまたはセンサを含み得る。1つまたは複数のマイクロホンは、1つまたは複数のマイクロホンが所定のレイアウトに配置され得るマイクロホンアレイを含み得る。
[0073] キャプチャデバイス20は、画像カメラ部品32と動作可能に通信し得るプロセッサ42を含み得る。プロセッサ42は、標準プロセッサ、専用プロセッサ、マイクロプロセッサなどを含み得る。プロセッサ42は、フィルタもしくはプロファイルを記憶し、画像を受信および分析し、特定の状況が発生したかを決定するための命令、または任意の他の適切な命令を含み得る命令を実行することができる。少なくともいくつかの画像分析および/または対象分析ならびに追跡動作は、キャプチャデバイス20などの1つまたは複数のキャプチャデバイス内に含まれるプロセッサによって実行され得ることが理解されるべきである。
[0074] キャプチャデバイス20は、プロセッサ42によって実行され得る命令、3DカメラまたはRGBカメラによってキャプチャされた画像もしくは画像のフレーム、フィルタもしくはプロファイル、または任意の他の適切な情報、画像などを記憶し得るメモリ44を含むことができる。一例において、メモリ44は、ランダムアクセスメモリ(RAM:random access memory)、読み出し専用メモリ(ROM:read only memory)、キャッシュ、フラッシュメモリ、ハードディスク、または任意の他の適切な記憶部品を含み得る。図示されるように、メモリ44は、画像キャプチャ部品32およびプロセッサ42と通信する別個の部品とすることができる。別の実施形態において、メモリ44は、プロセッサ42および/または画像キャプチャ部品32に統合されてもよい。他の実施形態において、キャプチャデバイス20の部品32、34、36、38、40、42および44のうちの一部または全部は、単一の筐体に収納されてもよい。
[0075] キャプチャデバイス20は、通信リンク46を介してコンピューティング環境12と通信し得る。通信リンク46は、例えば、USB接続、FireWire接続、イーサネットケーブル接続などを含む有線接続、および/または、無線802.11b、g、a、もしくはn接続などの無線接続とすることができる。コンピューティング環境12は、例えば、シーンをいつキャプチャすべきかを決定するために使用され得るクロックを、通信リンク46を介してキャプチャデバイス20に提供し得る。一実施形態において、キャプチャデバイス20は、例えば、3Dカメラおよび/またはRGBカメラ38によってキャプチャされた画像を、通信リンク46を介してコンピューティング環境12へ提供し得る。
[0076] 図3に図示されるように、コンピューティング環境12は、アプリケーション196と通信する、画像およびオーディオ処理エンジン194を含む。アプリケーション196は、オペレーティングシステムアプリケーション、またはゲーミングアプリケーションなどの他のコンピューティングアプリケーションを備え得る。画像およびオーディオ処理エンジン194は、全てが互いに通信する、仮想データエンジン197、物体およびジェスチャ認識エンジン190、構造データ198、処理ユニット191、ならびにメモリユニット192を含む。画像およびオーディオ処理エンジン194は、キャプチャデバイス20から受信されるビデオデータ、画像データ、およびオーディオデータを処理する。物体の検出および/または追跡を支援するために、画像およびオーディオ処理エンジン194は、構造データ198、ならびに、物体およびジェスチャ認識エンジン190を利用し得る。仮想データエンジン197は、仮想物体を処理し、メモリユニット192に記憶された現実世界環境の様々な地図に対する仮想物体の位置および向きを登録する。
[0077] 処理ユニット191は、物体認識アルゴリズム、顔認識アルゴリズム、および音声認識アルゴリズムを実行するための1つまたは複数のプロセッサを含み得る。一実施形態において、画像およびオーディオ処理エンジン194は、物体認識技法および顔認識技法を画像データまたはビデオデータに利用し得る。例えば、物体認識は、特定の物体(例えば、サッカーボール、車、人々、またはランドマーク)を検出するために使用することができ、顔認識は、特定の人物の顔を検出するために使用することができる。画像およびオーディオ処理エンジン194は、オーディオ認識技法および音声認識技法をオーディオデータに利用し得る。例えば、オーディオ認識は、特定の音を検出するために使用することができる。検出されるべき特定の顔、音声、音、および物体は、メモリユニット192に含まれる1つまたは複数のメモリに記憶され得る。処理ユニット191は、本明細書において議論されるプロセスを実行するために、メモリユニット192に記憶されたコンピュータ読取可能な命令を実行し得る。
[0078] 画像およびオーディオ処理エンジン194は、物体認識を実行しつつ、構造データ198を利用し得る。構造データ198は、追跡されるべき対象および/または物体に関する構造情報を含み得る。例えば、人間の骨格モデルが、身体の部分を認識することを支援するために記憶されてもよい。別の実施形態において、構造データ198は、1つまたは複数の無生物を認識することを支援するために、1つまたは複数の無生物に関する構造情報を含み得る。
[0079] 画像およびオーディオ処理エンジン194は、ジェスチャ認識を実行しつつ、物体およびジェスチャ認識エンジン190も利用し得る。一例において、物体およびジェスチャ認識エンジン190は、各々が骨格モデルによって実行され得るジェスチャに関する情報を含む、ジェスチャフィルタのコレクションを含むことができる。物体およびジェスチャ認識エンジン190は、骨格モデルおよび骨格モデルに関連付けられた動作の形式でキャプチャデバイス20によってキャプチャされたデータを、ジェスチャライブラリ内のジェスチャフィルタと比較して、(骨格モデルによって表されるような)ユーザが1つまたは複数のジェスチャを実行した場合に識別する。一例において、画像およびオーディオ処理エンジン194は、物体およびジェスチャ認識エンジン190を使用して、骨格モデルの動作を解釈することを支援し、特定のジェスチャの実行を検出し得る。
[0080] いくつかの実施形態において、追跡されている1つまたは複数の物体は、物体検出および/または物体追跡を改良するために、IR再帰性反射マーカーなどの1つまたは複数のマーカーを用いて拡張され得る。平面的な参照画像、符号化されたARマーカー、QR符号、および/またはバーコードも、物体検出および/または物体追跡を改良するために使用され得る。1つまたは複数の物体および/またはジェスチャを検出すると、画像およびオーディオ処理エンジン194は、検出された各物体またはジェスチャの識別と、妥当な場合には、対応する位置および/または向きとを、アプリケーション196へ報告し得る。
[0081] 物体を検出および追跡することに関するさらなる情報は、2009年12月18日に出願された、米国特許出願第12/641,788号、「Motion Detection Using Depth Images」、および、米国特許出願第12/475,308号、「Device for Identifying and Tracking Multiple Humans over Time」に見出すことができ、これらの出願の双方は、それらの全体が参照によって本明細書に組み込まれる。物体およびジェスチャ認識エンジン190に関するさらなる情報は、その全体が参照によって本明細書に組み込まれる、2009年4月13日に出願された、米国特許出願第12/422,661号、「Gesture Recognizer System Architecture」に見出すことができる。ジェスチャを認識することに関するさらなる情報は、2009年2月23日に出願された、米国特許出願第12/391,150号、「Standard Gestures」、および、2009年5月29日に出願された、米国特許出願第12/474,655号、「Gesture Tool」に見出すことができ、これらの出願の双方は、それらの全体が参照によって本明細書に組み込まれる。
[0082] 図4A〜図4Bは、人間トリガのホログラフィックリマインダが使用され得る様々な拡張現実環境の様々な実施形態を示す。いくつかの実施形態において、特定の人物がHMDの視野内に存在する場合、または、特定の人物がHMDから特定の距離内に存在する場合、HMDは、その特定の人物に関連付けられたリマインダが表示され得る拡張現実環境を生成し、HMDのエンドユーザに表示するために使用され得る。
[0083] 図4Aは、HMD29を装着した第1のエンドユーザ(すなわち、「ジョー」)が、第1のエンドユーザと環境400内で第2のHMD28を装着した第2のエンドユーザ(すなわち、「ティム」)との双方に関連付けられたリマインダ25を含む拡張現実環境を見る環境400の一実施形態を示す。図示されるように、リマインダ25は、「スーの誕生日に関してティムと話す」ための、第1のエンドユーザ(「ジョー」)に対応する第1のリマインダと、特定の写真をジョーに見せるための、その写真(画像_123)へのリンクを備える、第2のエンドユーザ(「ティム」)に対応する第2のリマインダとを含む。この場合において、ジョーは、ジョーに関連付けられた、ティムのリマインダのうちの1つを見ることができる。第2のHMD28を装着した第2のエンドユーザは、リマインダ24を含む第2の拡張現実環境を見ることができる。図示されるように、リマインダ24は、「忘れずにジョーに20ドルを払う」ための第3のリマインダと、「ジョーに写真(画像_123)を見せる」ための第4のリマインダとを含む。したがって、HMDの拡張現実環境内で表示されるリマインダは、HMDのエンドユーザと、そのエンドユーザに対応するリマインダを有する他の人々とに関連付けられたことができる。さらに、HMD29および第2のHMD28の双方は、それらのそれぞれの拡張現実環境内で同じリマインダを表示することができる。
[0084] 図4Bは、HMD29を装着した第1のエンドユーザ(すなわち、「ジョー」)が、リマインダ27を含む拡張現実環境を見、第2のHMD28を装着した第2のエンドユーザ(すなわち、「ティム」)が、リマインダ26を含む第2の拡張現実環境を見る環境400の一実施形態を示す。図示されるように、リマインダ27は、「シニアプログラマ」の肩書に対応する肩書を有する人物と統合問題に関して話すためのリマインダと、その対応する肩書を有する人物(すなわち、「ティム」)がHMD29からのある距離内で識別されたこととを含む。(HMD28上に表示されるような)リマインダ26は、「仕様の更新に関してジョーと話す」ためのリマインダを含み、ジョーが近く(または、ティムの近接内)にいること、ジョーが明日から出張に行くことなどの関連するリマインダ情報をさらに含む。したがって、リマインダは、個人としての、または特定のグループに所属するもの(例えば、プログラマまたは管理者などの特定の肩書を有するグループのメンバ)としての特定の人物に対応し得る。
[0085] 図5は、人間トリガのホログラフィックリマインダを生成および表示するための方法の一実施形態を説明するフローチャートである。一実施形態において、図5のプロセスは、図1におけるモバイルデバイス19などのモバイルデバイスによって実行され得る。
[0086] 工程502において、1つまたは複数のリマインダが決定される。1つまたは複数のリマインダは、個人情報マネージャ、タスクマネージャ、電子メールアプリケーション、カレンダアプリケーション、ソーシャルネットワーキングアプリケーション、オンラインデータベースアプリケーション、ソフトウェアバグ追跡アプリケーション、問題追跡アプリケーション、および/または時間管理アプリケーションへ入力されるタスク、または、これらからアクセス可能なタスクに基づいて、決定され得る。場合によっては、1つまたは複数のリマインダは、オンラインデータベース(例えば、ソーシャルネットワーキングデータベース)からアクセス可能な情報を使用して自動的に生成され得る。例えば、エンドユーザの友人(または連絡先)に関連付けられたソーシャルネットワーキングデータベースまたはアプリケーションから取得される誕生日情報は、エンドユーザからの関与なしに誕生日のリマインダを自動的に生成するために使用され得る。1つまたは複数のリマインダの各々は、完了されるべき特定のタスク、その特定のタスクに関連付けられた1人もしくは複数の人々、その特定のタスクに関連付けられた位置、(例えば、特定のリマインダは2週間ごとに発行されるという)リマインダの頻度、および/または、その特定のタスクの完了時間に対応し得る。特定のタスクに関連付けられた1人または複数の人々は、個々に識別され、または、特定のグループに所属するもの(例えば、プログラマまたは管理者などの特定の肩書を有するグループのメンバ)として識別され得る特定の人物を含むことができる。
[0087] 一実施形態において、HMDのエンドユーザは、ラップトップコンピュータ、デスクトップコンピュータ、携帯電話、または他のコンピューティングデバイスを使用して、1つまたは複数のリマインダを個人情報管理アプリケーションに入力することができる。HMDのエンドユーザは、音声コマンドおよび/またはジェスチャを使用して、1つまたは複数のリマインダをHMD上で実行されている個人情報管理アプリケーションに入力することもできる。例えば、HMDのエンドユーザは、「私が両親に会ったときにコンサートに関して私にリマインドして」などの音声コマンドを発行し得る。一実施形態において、1つまたは複数のリマインダは、HMDのエンドユーザに対応するリマインダ、および、エンドユーザに関連付けられた環境内の他の人物に対応する他のリマインダ(例えば、エンドユーザの上司はエンドユーザとプロジェクトを議論するためのリマインダを有する)を含み得る。1つまたは複数のリマインダを決定するためのプロセスの一実施形態は、図6Aを参照しつつ後述される。
[0088] 工程504において、環境内で識別すべき1人または複数の人物が決定される。環境内で識別すべき1人または複数の人物は、特定のリマインダに関連付けられた1人または複数の人々を含む。一例において、特定のリマインダが、受賞について特定の人物を祝うことを含む場合、識別すべき1人または複数の人物は、その特定の人物を含み得る。場合によっては、識別すべき1人または複数の人物は、顔認識技法を使用して識別され得る。
[0089] 工程506において、1人または複数の人物のうちの第2の人物が環境内で検出される。第2の人物は、顔認識技法および/または音声認識技法を使用して検出され得る。第2の人物は、環境内の第2の人物に対応する第2のモバイルデバイスを検出することによって、その環境内で検出されることもできる。いくつかの実施形態において、第2の人物は、ユーザ識別子に対応してもよく、環境内で第2の人物を検出することは、環境内の人物がそのユーザ識別子に関連付けられていると決定することを含む。環境内の第2の人物を検出するためのプロセスの一実施形態は、図6Bを参照しつつ後述される。
[0090] 工程508において、1つまたは複数のリマインダに関連付けられた、1つまたは複数のリマインダ期限が決定される。1つまたは複数のリマインダ期限は、特定のタスクを完了すべき完了時間(または期間)を含み得る。工程510において、環境、環境内の第2の人物の検出、および1つまたは複数のリマインダ期限に基づいて、1つまたは複数のスコアが、1つまたは複数のリマインダに割り当てられる。一実施形態において、環境の識別は、1つまたは複数のリマインダのサブセットを評価するために使用され得る。例えば、仕事環境に関連付けられたリマインダは、HMDのエンドユーザがその仕事環境内に存在する場合、より重く評価され得る。環境内の特定の人々(例えば、エンドユーザの配偶者またはマネージャ)に対応するリマインダ、および/または特定の時間フレーム内にある(例えば、次の2日間の間に完了されなければならない)リマインダ期限には、他のリマインダに関してより高いスコアが与えられ得る。
[0091] 工程512において、1つまたは複数のリマインダは、1つまたは複数のスコアに基づいて順序付けられる。一実施形態において、1つまたは複数のリマインダは、最も高いスコアを有するリマインダから最も低いスコアを有するリマインダへ降順で順序付けられる。工程514において、1つまたは複数のリマインダの順序付けに基づいて、少なくとも、1つまたは複数のリマインダのサブセットが表示される。一実施形態において、少なくとも、1つまたは複数のリマインダのサブセットは、HMDを使用して表示され得る。別の実施形態において、少なくとも、1つまたは複数のリマインダのサブセットは、タブレットコンピューティングデバイスまたは他の非HMDタイプのコンピューティングデバイスを使用して表示され得る。
[0092] 工程516において、第2の人物に関連付けられた、1つまたは複数のリマインダの第2のセットが決定される。工程518において、1つまたは複数のリマインダの第2のセットは、第2の人物に関連付けられた第2のモバイルデバイスへプッシュされる。一例において、1つまたは複数のリマインダの第2のセットは、無線接続(例えば、WiFi接続)を介して第2のモバイルデバイスへ送信され得る。いくつかの実施形態において、第2の人物がHMDの視野内に存在する場合、または、第2の人物がHMDから特定の距離内(例えば、HMDから100メートル以内)に存在する場合、第2のセットは、第2のモバイルデバイスへプッシュされ得る。
[0093] 工程520において、1つまたは複数のリマインダのうちの第1のリマインダの完了が、自動的に検出される。いくつかの実施形態において、リマインダの完了は、エンドユーザと特定の人物との間で発生する会話のキャプチャされたオーディオに(例えば、キーワード、語句、または名前を識別するために)スピーチ認識技法を利用することによって、自動的に検出され得る。第1のリマインダの完了は、エンドユーザによるユーザインタフェースボタンの明示的な選択時に、またはエンドユーザによる音声コマンドの発行(例えば、エンドユーザは「コンサートに関するリマインダは完了」と言い得る)によっても検出され得る。一旦リマインダが完了したものと見なされると、そのリマインダは、1つまたは複数のリマインダから削除され得る。リマインダの完了を自動的に検出するためのプロセスの一実施形態は、図6Cを参照しつつ後述される。
[0094] 一実施形態において、1つまたは複数のリマインダのうちの第1のリマインダは、第1のリマインダに関連付けられた期間が経過した場合、または第1のリマインダに関連付けられた完了日が過ぎた場合、自動的に削除され得る。例えば、第1のリマインダが、友人の誕生日に割り当てられた完了日を有する場合、第1のリマインダは、友人の誕生日の翌日に自動的に削除され得る。
[0095] 図6Aは、1つまたは複数のリマインダを決定するためのプロセスの一実施形態を説明するフローチャートである。図6Aにおいて説明されるプロセスは、図5における工程502を実装するためのプロセスの一例である。一実施形態において、図6Aのプロセスは、図1におけるモバイルデバイス19などのモバイルデバイスによって実行され得る。
[0096] 工程602において、第1の人物の識別子に関連付けられたリマインダの第1のセットが決定される。第1の人物は、HMDのエンドユーザに対応し得、第1の人物の識別子は、第1の人物に関連付けられた英数字のユーザ識別子を含み得る。工程604において、第1の人物の識別子に関連付けられた1つまたは複数の連絡先が決定される。1つまたは複数の連絡先は、第1の人物に関連付けられた、個人情報管理アプリケーション、電子メールアプリケーションもしくはカレンダアプリケーション、および/またはソーシャルネットワーキングアプリケーションに入力された連絡先に対応し得る。
[0097] 工程606において、1つまたは複数の連絡先のうちの第2の連絡先が、環境内で検出される。一実施形態において、第2の連絡先は、顔認識技法および/または音声認識技法を使用して、環境内で検出され得る。別の実施形態において、第2の連絡先は、第2の連絡先に関連付けられた第2のモバイルデバイスが環境内で検出される場合、環境内で検出され得る。第2のモバイルデバイスがHMDから特定の距離内に存在する場合(例えば、第2のモバイルデバイスおよびHMDの双方に対応するGPS位置情報を使用して決定される)、第2のモバイルデバイスは、環境内に存在すると見なされ得る。
[0098] 工程608において、第2の連絡先に対応する第2の人物の識別子が取得される。第2の人物の識別子は、第2の連絡先に関連付けられた英数字のユーザ識別子を含み得る。一実施形態において、第2の連絡先の識別を第2の人物の識別子(または、1つよりも多くの第2の人物のユーザ識別子)にマッピングするために、テーブルルックアップが使用される。
[0099] 工程610において、第2の人物の識別子に関連付けられたリマインダの第2のセットが取得される。一実施形態において、リマインダの第2のセットは、第2の連絡先に関連付けられた第2のモバイルデバイスから取得される。場合によっては、第2のモバイルデバイスは、第2のHMDを含み得る。工程612において、リマインダの第1のセットおよびリマインダの第2のセットが出力される。
[00100] 図6Bは、環境内で第2の人物を検出するためのプロセスの一実施形態を説明するフローチャートである。図6Bにおいて説明されるプロセスは、図5における工程506を実装するためのプロセスの一例である。一実施形態において、図6Bのプロセスは、図1におけるモバイルデバイス19などのモバイルデバイスによって実行され得る。
[00101] 工程622において、特定の人物に関連付けられた位置情報が取得される。位置情報は、特定の人物によって使用されるモバイルデバイスに関連付けられたGPS座標を含み得る。位置情報は、奥行き情報またはHMDからの特定の人物の距離も含み得る。工程624において、環境の1つまたは複数の画像が取得される。1つまたは複数の画像は、図2Bにおけるキャプチャデバイス213などの、キャプチャデバイスを使用してキャプチャされ得る。1つまたは複数の画像は、カラー画像および/または奥行き画像を含み得る。工程626において、環境内の特定の人物は、1つまたは複数の画像および位置情報に基づいて識別される。一実施形態において、顔認識技法は、特定の人物の位置がHMDから特定の距離内(例えば、100メートル以内)にある場合、1つまたは複数の画像に利用され得る。別の実施形態において、顔認識は、HMDに記憶される1つまたは複数のリマインダに関連付けられた各人物についての1つまたは複数の画像を使用して実行される。工程628において、特定の人物の識別が出力される。一例において、特定の人物に関連付けられたユーザ識別子が出力され得る。
[00102] 図6Cは、リマインダの完了を自動的に検出するためのプロセスの一実施形態を説明するフローチャートである。図6Cにおいて説明されるプロセスは、図5における工程520を実装するためのプロセスの一例である。一実施形態において、図6Cのプロセスは、図1におけるモバイルデバイス19などのモバイルデバイスによって実行され得る。
[00103] 工程632において、環境の1つまたは複数の画像が取得される。1つまたは複数の画像は、図2Bにおけるキャプチャデバイス213などのキャプチャデバイスを使用してキャプチャされ得る。工程634において、第2の人物に関連付けられたオーディオ信号がキャプチャされる。オーディオ信号は、図2Bにおけるキャプチャデバイス213などのキャプチャデバイスを使用してキャプチャされ得る。工程636において、第2の人物によって話された特定の語句が、オーディオ信号に基づいて検出される。特定の語句は、オーディオ信号処理技法および/またはスピーチ認識技法を使用して検出され得る。
[00104] 工程638において、第2の人物とのインタラクションは、1つまたは複数の画像に基づいて検出される。一実施形態において、インタラクションは、第2の人物がHMDのエンドユーザの方に顔を向けること、第2の人物がHMDのエンドユーザに向かって話すこと、および/または第2の人物がHMDのエンドユーザと握手することを含み得る。工程640において、インタラクションの検出および特定の語句の検出に基づいて、リマインダは完了したと決定される。一実施形態において、インタラクションは、第2の人物がHMDのエンドユーザの方に顔を向けて、特定の語句を言うことを含み得る。場合によっては、特定の語句は、プロジェクトのコード名および/または特定の人物の名前を含み得る。
[00105] 図7は、人間トリガのホログラフィックリマインダを生成および表示するための方法の代替的な実施形態を説明するフローチャートである。一実施形態において、図7の処理は、図1におけるモバイルデバイス19などのモバイルデバイスによって実行され得る。
[00106] 工程702において、第1のモバイルデバイスを使用する第1の人物に関連付けられたリマインダの第1のセットが決定される。リマインダの第1のセットは、第1の人物に対応する、個人情報マネージャ、タスクマネージャ、電子メールアプリケーション、カレンダアプリケーション、ソーシャルネットワーキングアプリケーション、および/または時間管理アプリケーションに入力されるタスク、または、これらからアクセス可能なタスクに基づいて、決定され得る。リマインダの第1のセットは、第1の人物にタグを付け、または別の方法で第1の人物に関連付けられた、ソフトウェアバグ追跡アプリケーションまたは問題追跡アプリケーションなどの仕事関連アプリケーションに入力されたタスクに基づいて決定されることもできる。場合によっては、リマインダの第1のセットは、オンラインデータベース(例えば、ソーシャルネットワーキングデータベース)からアクセス可能な情報を使用して自動的に生成され得る。例えば、ソーシャルネットワーキングデータベース、または第1の人物の友人(もしくは連絡先)に関連付けられたアプリケーションから取得される誕生日情報は、第1の人物からの関与なしに誕生日リマインダを自動的に生成するために使用され得る。リマインダの第1のセットは、完了されるべきタスクの第1のセット、完了されるべきタスクの第1のセットの各々に関連付けられた1人または複数の人々、(例えば、特定のリマインダは2週間ごとに発行されるという)リマインダの頻度、および/または、完了されるべきタスクの第1のセットの各々に対応する完了時間(もしくは期限)に対応し得る。1人または複数の人々は、個々に識別され、または、特定のグループに所属するもの(例えば、プログラマまたは管理者などの特定の肩書を有するグループのメンバ)として識別され得る。
[00107] 工程704において、第1の人物と異なる第2の人物が、第1のモバイルデバイスの視野内で検出される。第1のモバイルデバイスは、HMDを含み得る。第2の人物は、HMDによってキャプチャされた画像に物体認識技法および/または顔認識技法を利用することによって、第1のモバイルデバイスの視野内で検出され得る。工程706において、リマインダの第2のセットが、第2の人物に関連付けられた第2のモバイルデバイスから取得される。場合によっては、第2のモバイルデバイスは、第2の人物に関連付けられた第2のHMDを含み得る。
[00108] 工程708において、リマインダの第1のセットに対応するリマインダ期限の第1のセットが決定される。工程710において、リマインダの第2のセットに対応するリマインダ期限の第2のセットが決定される。リマインダ期限は、特定のタスクを完了させるべき完了時間(または期間)を含み得る。工程712において、リマインダの第1のセットおよびリマインダの第2のセットは、第2の人物の検出、リマインダ期限の第1のセット、およびリマインダ期限の第2のセットに基づいて、優先順位付けがされる。一実施形態において、リマインダの第1のセットおよびリマインダの第2のセットにおける各リマインダに、スコアが割り当てられる。場合によっては、第2の人物が第1の人物から特定の距離内または第1のモバイルデバイスから特定の距離内に存在すると決定される場合、スコアは、リマインダの第2のセットにのみ割り当てられる。一例において、第2の人物に関連付けられたリマインダは、第2の人物が第1のモバイルデバイスに近付くにつれて、より重く評価され(および、そのため、より高いスコアを導き)得る。リマインダの第1のセットおよびリマインダの第2のセットの優先順位付けは、第1のモバイルデバイスと第2のモバイルデバイスとの間の距離、および、リマインダ期限の第1のセットおよび/またはリマインダ期限の第2のセットが特定の時間フレーム内に存在する(例えば、次の2日間の間に完了されなければならない)かに基づき得る。
[00109] 工程714において、リマインダの第1のセットの第1のサブセット、およびリマインダの第2のセットの第2のサブセットは、リマインダの第1のセットおよびリマインダの第2のセットの優先順位付けに基づいて表示される。一実施形態において、第1の人物に関連付けられた第1のサブセットおよび第2の人物に関連付けられた第2のサブセットは、第1のモバイルデバイスを使用して第1の人物に表示され得る。第1のモバイルデバイスは、HMDを含み得る。場合によっては、リマインダの第2のセットに対応する1つまたは複数の仮想物体は、第1のモバイルデバイスを使用して第1の人物に表示され得る。一例において、1つまたは複数の仮想物体は、第2の人物が特定の話題に関して第1の人物と話したいというリマインダ情報を提供し得る。別の実施形態において、1つまたは複数の仮想物体は、(例えば、第1の人物と第2の人物との双方が参加者である次回の会議時に、第2の人物が休暇を取る場合には)タスク関連情報を提供し得る。1つまたは複数の仮想物体は、第1の人物と第2の人物との間で共有されるべきコンテンツ(例えば、写真または画像)へのリンクも提供し得る。1つまたは複数の仮想物体は、特定のタスク(例えば、第2の人物のために贈り物を購入すること)を完了することを支援するために、オンラインショッピングウェブサイトへのリンクも提供し得る。
[00110] 工程716において、リマインダの第1のセットの第1のリマインダの完了は、自動的に検出される。いくつかの実施形態において、第1のリマインダの完了は、第1の人物と第2の人物との間で発生する会話のキャプチャされたオーディオに(例えば、キーワード、語句、または名前を識別するために)スピーチ認識技法を利用することによって、自動的に検出され得る。第1のリマインダの完了は、第1の人物によるユーザインタフェースボタンの明示的な選択時に、または第1の人物による音声コマンドの発行(例えば、第1の人物は「コンサートに関するリマインダは完了」と言い得る)によっても検出され得る。一旦第1のリマインダが完了したものと見なされると、そのリマインダは、リマインダの第1のセットから削除され得る。
[00111] いくつかの実施形態において、リマインダの完了は、そのリマインダに関連付けられた特定の人物にフォローアップメッセージを送信するようにHMDのエンドユーザを促すように、HMDをトリガし得る。例えば、エンドユーザが特定の人物に借金している場合、HMDは、「小切手はメール内にあります」と述べるメッセージをエンドユーザが特定の人物へ送信したいかをエンドユーザに質問し得る。場合によっては、特定の人物へ送信されるべきメッセージのフォーマットまたはメッセージのタイプ(例えば、電子メールまたはテキストメッセージ)は、特定の人物によって使用されるコンピューティングデバイス(例えば、別のHMD)のタイプに依存し得る。
[00112] いくつかの実施形態において、HMDは、HMDのエンドユーザとは異なる特定の人物に関連付けられたリマインダの第2のセットを、特定の人物に関連付けられた第2のモバイルデバイスから取得し、特定の人物がHMDの視野内に存在する場合、または特定の人物がHMDから特定の距離内に存在する場合、リマインダの第2のセット(または、そのサブセット)が表示され得る拡張現実環境をエンドユーザに提供し得る。場合によっては、リマインダの第2のセットに対応する1つまたは複数の仮想物体が、エンドユーザに表示され得る。一例において、1つまたは複数の仮想物体は、特定の人物がエンドユーザと特定の話題に関して話すためのリマインダを有するというリマインダ情報を提供し得る。別の例において、1つまたは複数の仮想物体は、(例えば、エンドユーザと特定の人物との双方が参加者である次回の会議時に、特定の人物が休暇を取る場合には)タスク関連情報を提供し得る。1つまたは複数の仮想物体は、エンドユーザと特定の人物との間で共有されるべきコンテンツ(例えば、写真または画像)へのリンクも提供し得る。
[00113] 開示される技術の一実施形態は、モバイルデバイスを使用して、第1の人物に関連付けられたリマインダの第1のセットを決定することと、モバイルデバイスの視野内の第1の人物とは異なる第2の人物を検出することと、第2の人物に関連付けられた第2のモバイルデバイスからリマインダの第2のセットを取得することと、リマインダの第1のセットに対応するリマインダ期限の第1のセットを決定することと、第2の人物の識別およびリマインダ期限の第1のセットに基づいて、リマインダの第1のセットおよびリマインダの第2のセットを優先順位付けすることと、リマインダの第1のセットおよびリマインダの第2のセットの優先順位付けに基づいて、リマインダの第1のセットの第1のサブセットおよびリマインダの第2のセットの第2のサブセットを表示することとを含む。
[00114] 開示される技術の一実施形態は、メモリと、このメモリと通信する1つまたは複数のプロセッサと、この1つまたは複数のプロセッサと通信するシースルーディスプレイとを含む。メモリは、電子デバイスを使用して、第1の人物に関連付けられたリマインダの第1のセットを記憶する。1つまたは複数のプロセッサは、電子デバイスの視野内の第2の人物を検出し、第2の人物に関連付けられたリマインダの第2のセットを取得し、第2の人物の検出に基づいて、リマインダの第1のセットおよびリマインダの第2のセットを優先順位付けする。シースルーディスプレイは、リマインダの第1のセットおよびリマインダの第2のセットの優先順位付けに基づいて、リマインダの第1のセットおよびリマインダの第2のセットのサブセットに対応する1つまたは複数の仮想物体を含む拡張現実環境を表示する。
[00115] 開示される技術の一実施形態は、HMDのエンドユーザに関連付けられた1つまたは複数のリマインダを決定することと、HMDの視野内のエンドユーザとは異なる第2の人物の識別を決定することと、第2の人物の識別に基づいて、1つまたは複数のスコアを1つまたは複数のリマインダに割り当てることと、1つまたは複数のスコアに基づいて、1つまたは複数のリマインダを順序付けることと、HMDを使用して、拡張現実環境内の1つまたは複数の仮想物体を表示することとを含み、1つまたは複数の仮想物体は1つまたは複数のリマインダの順序付けに基づいて、1つまたは複数のリマインダのサブセットに対応する。
[00116] 図8は、図1におけるモバイルデバイス19などのモバイルデバイス8300の一実施形態のブロック図である。モバイルデバイスは、無線受信機/送信機技術と統合された、ラップトップコンピュータ、ポケットコンピュータ、携帯電話、HMD、携帯情報端末、およびハンドヘルドメディアデバイスを含み得る。
[00117] モバイルデバイス8300は、1つまたは複数のプロセッサ8312およびメモリ8310を含む。メモリ8310は、アプリケーション8330および不揮発性記憶装置8340を含む。メモリ8310は、不揮発性メモリおよび揮発性メモリを含む、任意の様々なメモリ記憶媒体タイプとすることができる。モバイルデバイスオペレーティングシステムは、モバイルデバイス8300の種々の動作を処理し、電話を掛けおよび受けること、テキストメッセージを送受信すること、ボイルメールを確認することなどの動作のためのユーザインタフェースを含み得る。アプリケーション8330は、写真および/またはビデオのためのカメラアプリケーション、住所録、カレンダアプリケーション、メディアプレーヤ、インターネットブラウザ、ゲーム、アラームアプリケーション、および他のアプリケーションなどの、任意のプログラムの組み合わせとすることができる。メモリ8310内の不揮発性記憶部品8340は、音楽、写真、連絡先データ、スケジューリングデータ、および他のファイルなどのデータを含み得る。
[00118] 1つまたは複数のプロセッサ8312は、シースルーディスプレイ8309と通信する。シースルーディスプレイ8309は、現実世界環境に関連付けられた1つまたは複数の仮想物体を表示し得る。1つまたは複数のプロセッサ8312はまた、アンテナ8302とさらに結合されるRF送信機/受信機8306と、赤外線送信機/受信機8308と、全地球測位システム(GPS:global positioning service)受信機8365と、および、加速度計および/または磁力計を含み得る動作/向きセンサ8314と通信する。RF送信機/受信機8306は、ブルートゥース(登録商標)またはIEEE802.11標準などの様々な無線技術標準を用いた無線通信を可能にすることができる。加速度計は、ユーザにジェスチャを通じてコマンドを入力させるインテリジェントなユーザインタフェースアプリケーション、および、モバイルデバイスが回転された場合に、縦方向から横方向へディスプレイを自動的に変化させることができる向きアプリケーションなどのアプリケーションを有効化するために、モバイルデバイスに組み込まれている。加速度計は、例えば、半導体チップ上に構築される小さな機械デバイスである微小電気機械システム(MEMS:micro-electromechanical system)によって、提供され得る。加速度方向、ならびに、向き、振動、および衝撃が感知され得る。1つまたは複数のプロセッサ8312は、リンガ/バイブレータ8316、ユーザインタフェースキーパッド/画面8318、スピーカ8320、マクロホン8322、カメラ8324、光センサ8326、および温度センサ8328とさらに通信する。ユーザインタフェースキーパッド/画面は、タッチセンサ画面ディスプレイを含み得る。
[00119] 1つまたは複数のプロセッサ8312は、無線信号の送信および受信を制御する。送信モードの期間中、1つまたは複数のプロセッサ8312は、マイクロホン8322からの音声信号または他のデータ信号をRF送信機/受信機8306へ提供する。送信機/受信機8306は、アンテナ8302を通じて信号を送信する。リンガ/バイブレータ8316は、着信、テキストメッセージ、カレンダリマインダ、アラーム時計リマインダ、または他の通知をユーザに知らせるために使用される。受信モードの期間中、RF送信機/受信機8306は、遠隔局からアンテナ8302を通じて音声信号またはデータ信号を受信する。受信された音声信号は、スピーカ8320に提供される一方で、他の受信されたデータ信号は、適当に処理される。
[00120] また、物理コネクタ8388は、電池8304を再充電するために、モバイルデバイス8300をACアダプタまたはパワードッキングステーションなどの外部電源に接続するために使用され得る。物理コネクタ8388は、外部コンピューティングデバイスへのデータ接続としても使用され得る。データ接続は、モバイルデバイスデータを別のデバイス上のコンピューティングデータと同期させるなどの動作を可能にする。
[00121] 開示される技術は、多くの他の汎用または専用コンピューティングシステム環境または構成と共に動作可能である。本技術と共に使用する上で適切となり得る周知のコンピューティングシステム、環境、および/または構成の例は、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドデバイスまたはラップトップデバイス、マイクロプロセッサシステム、マイクロプロセッサベースのシステム、セットトップボックス、プログラム可能な家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記システムまたはデバイスのうちの任意のものを含む分散コンピューティング環境などを含むが、これらに限定されない。
[00122] 開示される技術は、コンピュータによって実行される、プログラムモジュールなどのコンピュータ実行可能な命令の一般的な文脈において説明され得る。一般に、本明細書において説明されるようなソフトウェアおよびプログラムモジュールは、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、および、特定のタスクを実行し、または特定の抽象データ型を実装する他のタイプの構造を含む。ハードウェアまたはハードウェアとソフトウェアとの組み合わせは、本明細書において説明されるようなソフトウェアモジュールと置換され得る。
[00123] 開示される技術は、通信ネットワークを通じてリンクされる遠隔処理デバイスによってタスクが実行される分散コンピューティング環境においても実施され得る。分散コンピューティング環境において、プログラムモジュールは、メモリ記憶デバイスを含む、ローカルコンピュータ記憶媒体および遠隔コンピュータ記憶媒体の双方に位置し得る。
[00124] 本文書の目的のために、開示される技術に関連付けられた各プロセスは、連続的に、および、1つまたは複数のコンピューティングデバイスによって、実行され得る。プロセスにおける各工程は、他の工程において使用されるものと同じまたは異なるコンピューティングデバイスによって実行されてもよく、各工程は、必ずしも単一のコンピューティングデバイスによって実行されることを必要としない。
[00125] 本文書の目的のために、明細書における「ある実施形態」、「一実施形態」、「いくつかの実施形態」、または「別の実施形態」への言及は、異なる実施形態を説明するために使用されており、必ずしも同じ実施形態に言及しない。
[00126] 本文書の目的のために、接続は、直接接続または(例えば、別の部分を介した)間接接続とすることができる。
[00127] 本文書の目的のために、物体の「セット」という用語は、1つまたは複数の物体の「セット」を指す。
[00128] 本主題は、構造的な特徴および/または方法論的な動作に固有の文言において説明されてきたが、添付の特許請求の範囲において定義される本主題は、上述された特定の特徴または動作に必ずしも限定されないことが理解されるべきである。むしろ、上述された特定の特徴および動作は、請求項を実装する例示的な形式として開示される。

Claims (10)

  1. 拡張現実環境を表示するための電子デバイスであって、
    前記電子デバイスを使用する第1の人物に関連付けられたリマインダの第1のセットを記憶するメモリと、
    前記メモリと通信する1つまたは複数のプロセッサであって、前記電子デバイスの視野内の第2の人物を検出し、前記第2の人物に関連付けられたリマインダの第2のセットを取得し、前記第2の人物の前記検出に基づいて、前記リマインダの第1のセットおよび前記リマインダの第2のセットを優先順位付けする1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサと通信するシースルーディスプレイであって、前記リマインダの第1のセットおよび前記リマインダの第2のセットの前記優先順位付けに基づいて、前記リマインダの第1のセットおよび前記リマインダの第2のセットのサブセットに対応する1つまたは複数の仮想物体を含む前記拡張現実環境を表示するシースルーディスプレイと、
    を備える、電子デバイス。
  2. 前記1つまたは複数のプロセッサが、前記第2の人物と前記電子デバイスとの間の距離を決定し、前記1つまたは複数のプロセッサが、前記第2の人物と前記電子デバイスとの間の前記距離に基づいて、前記リマインダの第1のセットおよび前記リマインダの第2のセットを優先順位付けする、
    請求項1に記載の電子デバイス。
  3. 前記1つまたは複数のプロセッサが、前記リマインダの第1のセットに関連付けられたリマインダ期限の第1のセット、および前記リマインダの第2のセットに関連付けられたリマインダ期限の第2のセットを決定し、前記1つまたは複数のプロセッサが、前記リマインダ期限の第1のセットおよび前記リマインダ期限の第2のセットに基づいて、前記リマインダの第1のセットおよび前記リマインダの第2のセットを優先順位付けする、
    請求項1に記載の電子デバイス。
  4. 前記1つまたは複数のプロセッサが、前記第2の人物に関連付けられた前記リマインダの第1のセットのサブセットを決定し、前記1つまたは複数のプロセッサが、前記第2の人物に関連付けられた第2のモバイルデバイスへ前記サブセットをプッシュする、
    請求項1〜3のいずれかに記載の電子デバイス。
  5. 前記1つまたは複数のプロセッサが、前記リマインダの第1のセットの第1のリマインダの完了を検出する、
    請求項1〜4のいずれかに記載の電子デバイス。
  6. 前記1つまたは複数のプロセッサが、特定のグループを用いて、前記第2の人物がグループのメンバであることを識別することによって、前記第2の人物を検出する、
    請求項1〜5のいずれかに記載の電子デバイス。
  7. 人間トリガのホログラフィックリマインダを生成および表示するための方法であって、
    HMDのエンドユーザに関連付けられた1つまたは複数のリマインダを決定することと、
    前記HMDの視野内の前記エンドユーザとは異なる第2の人物の識別を決定することと、
    前記第2の人物の前記識別に基づいて、1つまたは複数のスコアを前記1つまたは複数のリマインダに割り当てることと、
    前記1つまたは複数のスコアに基づいて、前記1つまたは複数のリマインダを順序付けることと、
    前記1つまたは複数のリマインダの前記順序付けに基づいて、前記1つまたは複数のリマインダのサブセットに対応する、1つまたは複数の仮想物体を、前記HMDを使用して、拡張現実環境内に表示することと、
    を含む、方法。
  8. 前記第2の人物と前記HMDとの間の距離を決定することをさらに含み、前記1つまたは複数のスコアを割り当てることは、前記第2の人物の前記識別および前記第2の人物と前記HMDとの間の前記距離に基づいて、1つまたは複数のスコアを前記1つまたは複数のリマインダに割り当てることを含む、
    請求項7に記載の方法。
  9. 前記1つまたは複数のリマインダに関連付けられた1つまたは複数のリマインダ期限を決定することをさらに含み、前記1つまたは複数のスコアを割り当てることは、前記1つまたは複数のリマインダ期限および前記第2の人物の前記識別に基づいて、1つまたは複数のスコアを前記1つまたは複数のリマインダに割り当てることを含む、
    請求項7または8のいずれかに記載の方法。
  10. 前記第2の人物に関連付けられた前記1つまたは複数のリマインダの第2のセットを決定することと、
    前記第2の人物に関連付けられた第2のモバイルデバイスへ前記第2のセットをプッシュすることと、
    をさらに含む、請求項7〜9のいずれかに記載の方法。
JP2015545949A 2012-12-11 2013-12-11 人間トリガのホログラフィックリマインダ Pending JP2016506565A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/711,351 2012-12-11
US13/711,351 US20140160157A1 (en) 2012-12-11 2012-12-11 People-triggered holographic reminders
PCT/US2013/074369 WO2014093477A1 (en) 2012-12-11 2013-12-11 People-triggered holographic reminders

Publications (1)

Publication Number Publication Date
JP2016506565A true JP2016506565A (ja) 2016-03-03

Family

ID=49881105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015545949A Pending JP2016506565A (ja) 2012-12-11 2013-12-11 人間トリガのホログラフィックリマインダ

Country Status (6)

Country Link
US (1) US20140160157A1 (ja)
EP (1) EP2932355A1 (ja)
JP (1) JP2016506565A (ja)
KR (1) KR20150086388A (ja)
CN (1) CN105103082A (ja)
WO (1) WO2014093477A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061557A (ja) * 2017-09-27 2019-04-18 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP2020161177A (ja) * 2016-05-20 2020-10-01 マジック リープ, インコーポレイテッドMagic Leap,Inc. ユーザインターフェースメニューのコンテキスト認識
JP2022079067A (ja) * 2020-11-16 2022-05-26 Kddi株式会社 スマートグラス、プログラム及び表示制御方法
US11397320B2 (en) 2017-09-28 2022-07-26 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium
JP7176792B1 (ja) 2021-09-09 2022-11-22 株式会社Synamon 情報処理システム及び情報処理方法

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823737B2 (en) * 2008-04-07 2017-11-21 Mohammad A Mazed Augmented reality personal assistant apparatus
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US20150277120A1 (en) 2014-01-21 2015-10-01 Osterhout Group, Inc. Optical configurations for head worn computing
US9366867B2 (en) 2014-07-08 2016-06-14 Osterhout Group, Inc. Optical systems for see-through displays
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9500865B2 (en) * 2013-03-04 2016-11-22 Alex C. Chen Method and apparatus for recognizing behavior and providing information
EP2983137B1 (en) * 2013-04-04 2019-05-22 Sony Corporation Information processing device, information processing method and program
CN103353667B (zh) 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103424891B (zh) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103431840B (zh) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 眼睛光学参数检测系统及方法
CN103439801B (zh) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
CN103431980A (zh) 2013-08-22 2013-12-11 北京智谷睿拓技术服务有限公司 视力保护成像系统及方法
CN103605208B (zh) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN103500331B (zh) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 提醒方法及装置
CN103558909B (zh) * 2013-10-10 2017-03-29 北京智谷睿拓技术服务有限公司 交互投射显示方法及交互投射显示系统
US20150145887A1 (en) * 2013-11-25 2015-05-28 Qualcomm Incorporated Persistent head-mounted content display
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9366868B2 (en) 2014-09-26 2016-06-14 Osterhout Group, Inc. See-through computer display systems
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9310610B2 (en) 2014-01-21 2016-04-12 Osterhout Group, Inc. See-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9588342B2 (en) * 2014-04-11 2017-03-07 Bank Of America Corporation Customer recognition through use of an optical head-mounted display in a wearable computing device
US10121142B2 (en) 2014-04-11 2018-11-06 Bank Of America Corporation User authentication by token and comparison to visitation pattern
US9514463B2 (en) 2014-04-11 2016-12-06 Bank Of America Corporation Determination of customer presence based on communication of a mobile communication device digital signature
US20150294322A1 (en) * 2014-04-11 2015-10-15 Bank Of America Corporation Security-monitoring implementing customer recognition via an augmented reality display
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US20150309534A1 (en) 2014-04-25 2015-10-29 Osterhout Group, Inc. Ear horn assembly for headworn computer
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US20160137312A1 (en) 2014-05-06 2016-05-19 Osterhout Group, Inc. Unmanned aerial vehicle launch system
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
CN106797423B (zh) * 2014-06-27 2019-12-06 Fove股份有限公司 视线检测装置
KR20160015972A (ko) * 2014-08-01 2016-02-15 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
CN104267805A (zh) * 2014-09-15 2015-01-07 联想(北京)有限公司 一种信息处理方法及头戴式电子设备
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
USD743963S1 (en) 2014-12-22 2015-11-24 Osterhout Group, Inc. Air mouse
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US9652035B2 (en) 2015-02-23 2017-05-16 International Business Machines Corporation Interfacing via heads-up display using eye contact
US9911232B2 (en) 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments
JP2016167219A (ja) * 2015-03-10 2016-09-15 株式会社コロプラ ヘッドマウントディスプレイへ表示するためのユーザインタフェース表示方法、及びプログラム
US9672725B2 (en) 2015-03-25 2017-06-06 Microsoft Technology Licensing, Llc Proximity-based reminders
KR101883090B1 (ko) * 2015-04-01 2018-07-27 포브, 아이엔씨. 헤드 마운트 디스플레이
WO2016157486A1 (ja) * 2015-04-01 2016-10-06 フォーブ インコーポレーテッド ヘッドマウントディスプレイ
US9355499B1 (en) 2015-04-20 2016-05-31 Popcards, Llc Augmented reality content for print media
US9171404B1 (en) 2015-04-20 2015-10-27 Popcards, Llc Augmented reality greeting cards
US9760790B2 (en) 2015-05-12 2017-09-12 Microsoft Technology Licensing, Llc Context-aware display of objects in mixed environments
US9898864B2 (en) 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US9836117B2 (en) 2015-05-28 2017-12-05 Microsoft Technology Licensing, Llc Autonomous drones for tactile feedback in immersive virtual reality
US20160379407A1 (en) * 2015-06-23 2016-12-29 Daryl Foster Virtual Fantasy System and Method of Use
US9520002B1 (en) 2015-06-24 2016-12-13 Microsoft Technology Licensing, Llc Virtual place-located anchor
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US9635167B2 (en) * 2015-09-29 2017-04-25 Paypal, Inc. Conversation assistance system
US10304247B2 (en) 2015-12-09 2019-05-28 Microsoft Technology Licensing, Llc Third party holographic portal
CN105395252A (zh) * 2015-12-10 2016-03-16 哈尔滨工业大学 具有人机交互的可穿戴式血管介入手术三维立体图像导航装置
CN105527711A (zh) * 2016-01-20 2016-04-27 福建太尔电子科技股份有限公司 带增强现实的智能眼镜
US10850116B2 (en) 2016-12-30 2020-12-01 Mentor Acquisition One, Llc Head-worn therapy device
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US9826299B1 (en) 2016-08-22 2017-11-21 Osterhout Group, Inc. Speaker systems for head-worn computer systems
CN105700688A (zh) * 2016-03-17 2016-06-22 京东方科技集团股份有限公司 虚拟现实/增强现实装置
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US9910284B1 (en) 2016-09-08 2018-03-06 Osterhout Group, Inc. Optical systems for head-worn computers
US10824253B2 (en) 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US11025779B1 (en) 2016-04-22 2021-06-01 Wells Fargo Bank, N.A. Automated payment reminders
CN106203280A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 一种增强现实ar图像处理方法、装置及智能终端
CN106293810B (zh) * 2016-07-28 2020-09-11 北京小米移动软件有限公司 基于vr设备的应用处理方法、装置和vr设备
US10690936B2 (en) 2016-08-29 2020-06-23 Mentor Acquisition One, Llc Adjustable nose bridge assembly for headworn computer
US10394317B2 (en) 2016-09-15 2019-08-27 International Business Machines Corporation Interaction with holographic image notification
CN106502388B (zh) * 2016-09-26 2020-06-02 惠州Tcl移动通信有限公司 一种互动式运动方法及头戴式智能设备
US20180096504A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
USD840395S1 (en) 2016-10-17 2019-02-12 Osterhout Group, Inc. Head-worn computer
CN108169898B (zh) * 2016-12-07 2020-11-06 上海易景信息科技有限公司 一种具有通信功能的vr设备
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US10422995B2 (en) 2017-07-24 2019-09-24 Mentor Acquisition One, Llc See-through computer display systems with stray light management
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
US10803832B2 (en) * 2017-08-01 2020-10-13 Samsung Electronics Co., Ltd. Synchronizing holographic displays and 3D objects with physical video panels
US10969584B2 (en) 2017-08-04 2021-04-06 Mentor Acquisition One, Llc Image expansion optic for head-worn computer
JP7013757B2 (ja) * 2017-09-20 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US11146775B2 (en) * 2017-11-07 2021-10-12 Symbol Technologies, Llc Methods and apparatus for dimensioning an object using proximate devices
CN107943293B (zh) * 2017-11-24 2021-01-15 联想(北京)有限公司 一种信息交互方法及信息处理装置
WO2019104511A1 (zh) * 2017-11-29 2019-06-06 深圳市柔宇科技有限公司 用于头戴式显示器上的信息提示方法、装置和设备
JP2021509482A (ja) * 2018-01-02 2021-03-25 ルムス エルティーディー. アクティブアライメントを備えた拡張現実ディスプレイおよび対応する方法
CN108170278A (zh) * 2018-01-09 2018-06-15 三星电子(中国)研发中心 沟通辅助方法及装置
US10969600B2 (en) 2018-03-08 2021-04-06 Apple Inc. Electronic devices with optical markers
CN108417218B (zh) * 2018-03-09 2020-12-22 福州米鱼信息科技有限公司 一种基于声纹的备忘提醒方法及终端
TWI686087B (zh) * 2018-10-26 2020-02-21 中興保全科技股份有限公司 具隱私保護功能的影像擷取裝置
CN109472225A (zh) * 2018-10-26 2019-03-15 北京小米移动软件有限公司 会议控制方法及装置
US10691767B2 (en) 2018-11-07 2020-06-23 Samsung Electronics Co., Ltd. System and method for coded pattern communication
US11513355B2 (en) * 2019-03-13 2022-11-29 Google Llc Method and system for pervasive memory augmentation via a heads-up display
CN111832360A (zh) * 2019-04-19 2020-10-27 北京三星通信技术研究有限公司 提示信息的处理方法、装置、电子设备以及可读存储介质
EP4172738A1 (en) * 2020-06-29 2023-05-03 Snap Inc. Augmented reality experiences using social distancing
US11784961B2 (en) 2020-10-30 2023-10-10 Honda Research Institute Europe Gmbh Social interaction opportunity detection method and system
US11622002B2 (en) * 2021-01-14 2023-04-04 International Business Machines Corporation Synchronizing virtual reality notifications
WO2023158566A1 (en) * 2022-02-18 2023-08-24 Apple Inc. Contextual reminders
US20230403309A1 (en) * 2022-06-14 2023-12-14 Microsoft Technology Licensing, Llc Dynamic control of the delivery of notifications capable of invoking event recordings

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030113002A1 (en) * 2001-12-18 2003-06-19 Koninklijke Philips Electronics N.V. Identification of people using video and audio eigen features
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US20050273493A1 (en) * 2004-06-04 2005-12-08 John Buford Proximity reminder system using instant messaging and presence
WO2007057843A1 (en) * 2005-11-15 2007-05-24 Koninklijke Philips Electronics, N.V. Subtle info personalization on public displays
US20090157672A1 (en) * 2006-11-15 2009-06-18 Sunil Vemuri Method and system for memory augmentation
US20080186196A1 (en) * 2007-02-01 2008-08-07 Sony Ericsson Mobile Communications Ab Non-time based snooze
US9026447B2 (en) * 2007-11-16 2015-05-05 Centurylink Intellectual Property Llc Command and control of devices and applications by voice using a communication base system
US8670597B2 (en) * 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
US8380804B2 (en) * 2010-01-22 2013-02-19 Research In Motion Limited Identifying and presenting reminders based on opportunity for interaction
US8810684B2 (en) * 2010-04-09 2014-08-19 Apple Inc. Tagging images in a mobile communications device using a contacts list
US10198775B2 (en) * 2010-06-23 2019-02-05 Microsoft Technology Licensing, Llc Acceleration of social interactions
WO2012003844A1 (en) * 2010-07-05 2012-01-12 Sony Ericsson Mobile Communications Ab Method for displaying augmentation information in an augmented reality system
JP5621421B2 (ja) * 2010-09-06 2014-11-12 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
KR101740435B1 (ko) * 2010-10-18 2017-05-26 엘지전자 주식회사 이동 단말기 및 이것의 객체 관련 정보 관리 방법

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020161177A (ja) * 2016-05-20 2020-10-01 マジック リープ, インコーポレイテッドMagic Leap,Inc. ユーザインターフェースメニューのコンテキスト認識
JP7168612B2 (ja) 2016-05-20 2022-11-09 マジック リープ, インコーポレイテッド ユーザインターフェースメニューのコンテキスト認識
US12014464B2 (en) 2016-05-20 2024-06-18 Magic Leap, Inc. Contextual awareness of user interface menus
JP2019061557A (ja) * 2017-09-27 2019-04-18 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
US11194535B2 (en) 2017-09-27 2021-12-07 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
JP7056055B2 (ja) 2017-09-27 2022-04-19 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US11397320B2 (en) 2017-09-28 2022-07-26 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium
JP2022079067A (ja) * 2020-11-16 2022-05-26 Kddi株式会社 スマートグラス、プログラム及び表示制御方法
JP7360775B2 (ja) 2020-11-16 2023-10-13 Kddi株式会社 スマートグラス、プログラム及び表示制御方法
JP7176792B1 (ja) 2021-09-09 2022-11-22 株式会社Synamon 情報処理システム及び情報処理方法
WO2023037845A1 (ja) * 2021-09-09 2023-03-16 株式会社Synamon 情報処理システム及び情報処理方法
JP2023039827A (ja) * 2021-09-09 2023-03-22 株式会社Synamon 情報処理システム及び情報処理方法

Also Published As

Publication number Publication date
US20140160157A1 (en) 2014-06-12
CN105103082A (zh) 2015-11-25
KR20150086388A (ko) 2015-07-27
EP2932355A1 (en) 2015-10-21
WO2014093477A1 (en) 2014-06-19

Similar Documents

Publication Publication Date Title
US10643389B2 (en) Mechanism to give holographic objects saliency in multiple spaces
JP2016506565A (ja) 人間トリガのホログラフィックリマインダ
US9524081B2 (en) Synchronizing virtual actor's performances to a speaker's voice
US9442567B2 (en) Gaze swipe selection
US9035970B2 (en) Constraint based information inference
US9105210B2 (en) Multi-node poster location
US9384737B2 (en) Method and device for adjusting sound levels of sources based on sound source priority
KR102408318B1 (ko) 실세계 객체들의 가상 표현들
EP3097461B1 (en) Automated content scrolling
US9285871B2 (en) Personal audio/visual system for providing an adaptable augmented reality environment
US9552060B2 (en) Radial selection by vestibulo-ocular reflex fixation
US20140152558A1 (en) Direct hologram manipulation using imu
US20130307855A1 (en) Holographic story telling
US20130083007A1 (en) Changing experience using personal a/v system
US20130083008A1 (en) Enriched experience using personal a/v system