JP6254193B2 - 拡張現実デバイスを制御するための装置および方法 - Google Patents

拡張現実デバイスを制御するための装置および方法 Download PDF

Info

Publication number
JP6254193B2
JP6254193B2 JP2015552830A JP2015552830A JP6254193B2 JP 6254193 B2 JP6254193 B2 JP 6254193B2 JP 2015552830 A JP2015552830 A JP 2015552830A JP 2015552830 A JP2015552830 A JP 2015552830A JP 6254193 B2 JP6254193 B2 JP 6254193B2
Authority
JP
Japan
Prior art keywords
boundary
region
optical device
real scene
count
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015552830A
Other languages
English (en)
Other versions
JP2016503217A5 (ja
JP2016503217A (ja
Inventor
リウ、ケシー
キム、フレデリック・ディー.
レンシュラー・マーティン・エイチ.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016503217A publication Critical patent/JP2016503217A/ja
Publication of JP2016503217A5 publication Critical patent/JP2016503217A5/ja
Application granted granted Critical
Publication of JP6254193B2 publication Critical patent/JP6254193B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

[0001]本開示は一般に、拡張現実デバイスを制御するための装置および方法に関する。
[0002]モバイル・デバイス・ディスプレイ上の拡張現実のためのユーザ・インタフェースは、十分に直感的ではない。モバイル・デバイスにおける拡張現実とインタラクト(interacting)する従来の方法は、ユーザが、拡張コンテンツに対するターゲットの近傍のデバイスを示し、さらなる制御のためにモバイル・デバイスのディスプレイに触れることを必要とする。これは、ディスプレイを見ることと、現実のシーンにおいて実際の物体を見ることとの間でのコンスタントなコンテンツ切換を必要とする。したがって、拡張現実とインタラクトする従来の方法は、十分に直観的ではない。そのため、拡張現実とインタラクトする改善された方法は、効率のみならず、ユーザ体験および制御をも高めることが必要とされる。
[0003]コンテンツを表示するように構成されたヘッド・マウント式の光学デバイスのような高度なモバイル・デバイスを用いて、視野が非常に拡大される。したがって、興味のある物体を示し、拡張させるための効率的な処理技法およびヘテロジニアスなユーザ入力が、拡張現実システムのために役に立つ機能である。
[0004]本開示の態様では、装置、方法、およびコンピュータ・プログラム製品が提供される。装置は、現実のシーンにおける第1の領域における視線を検知し、第1の領域を囲む境界を設定し、その境界は現実のシーンにおける少なくとも第2の領域を除外し、境界内の第1の領域において物体認識手順を実行し、少なくとも第2の領域において物体認識手順を実行することを控える。
[0005]図1は、コンテンツを表示するように構成された光学デバイスを例示するブロック図である。 [0006]図2は、現実のシーンを例示する。 [0007]図3は、光学デバイスのレンズを介してユーザによって観察されている現実のシーンを例示する。 [0008]図4は、光学デバイスのレンズを介してユーザによって観察されている現実のシーンを例示する。 [0009]図5は、光学デバイスのレンズを介してユーザによって観察されている現実のシーンを例示する。 [0010]図6は、光学デバイスのレンズを介してユーザによって観察されている現実のシーンを例示する。 [0011]図7は、光学デバイスのレンズを介してユーザによって観察されている現実のシーンを例示する。 [0012]図8は、光学デバイスのレンズを介してユーザによって観察されている現実のシーンを例示する。 [0013]図9は、光学デバイスのレンズを介してユーザによって観察されている現実のシーンを例示する。 [0014]図10は、光学デバイスのレンズを介してユーザによって観察されている現実のシーンを例示する。 [0015]図11は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャートである。 [0016]図12は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャートである。 [0017]図13は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャートである。 [0018]図14は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャートである。 [0019]図15は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャートである。 [0020]図16は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャートである。 [0021]図17は、典型的な装置における異なるモジュール/手段/構成要素の動作を例示する概念的なフロー図である。 [0022]図18は、処理システムを適用する装置のためのハードウェア実装の例を例示する図解である。
[0023]添付図面とともに以下に説明する詳細な説明は、さまざまな構成の説明として意図されており、本明細書に記載された概念が実現される唯一の構成を表すことは意図されていない。この詳細な説明は、さまざまな概念の完全な理解を提供することを目的とした具体的な詳細を含んでいる。しかしながら、これらの概念は、これら具体的な詳細無しで実現されうることが当業者に明らかになるであろう。いくつかの事例では、周知の構成および構成要素が、このような概念を曖昧にすることを避けるために、ブロック図形式で示されている。
[0024]拡張現実デバイスを制御するためのいくつかの態様が、さまざまな装置および方法に関して示されるであろう。これらの装置および方法は、さまざまなブロック、モジュール、構成要素、回路、ステップ、処理、アルゴリズム等によって、後述する詳細な説明に記述されており、添付図面に例示される。(集合的に「要素」と称される)これらの要素は、電子ハードウェア、コンピュータ・ソフトウェア、またはこれら任意の組み合わせを用いて実現されうる。それら要素がハードウェアとしてまたはソフトウェアとして実現されるかは、特定のアプリケーションおよびシステム全体に課せられている設計制約に依存する。
[0025]例として、要素、要素の任意の部分、または、要素の任意の組み合わせは、1または複数のプロセッサを含む「処理システム」を用いて実現されうる。プロセッサの例は、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、プログラマブル論理デバイス(PLD)、順序回路、ゲート・ロジック、ディスクリート・ハードウェア回路、およびこの開示の全体にわたって記載されたさまざまな機能を実行するように構成されたその他の適切なハードウェアを含んでいる。処理システムにおける1または複数のプロセッサは、ソフトウェアを実行しうる。ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはその他で称されるに関わらず、命令群、命令群セット、コード、コード・セグメント、プログラム・コード、プログラム、サブプログラム、ソフトウェア・モジュール、アプリケーション、ソフトウェア・アプリケーション、パッケージ・ソフト、ルーチン、サブルーチン、オブジェクト、実行形式、実行スレッド、手順、機能等を意味するように広く解釈されるものとする。
[0026]したがって、1または複数の典型的な実施形態では、記載された機能は、ハードウェア、ソフトウェア、ファームウェア、あるいはそれらの任意の組み合わせによって実現されうる。ソフトウェアで実現される場合、これら機能は、コンピュータ読取可能な媒体上に格納されるか、あるいは、コンピュータ読取可能な媒体上の1または複数の命令群またはコードとして符号化されうる。コンピュータ読取可能な媒体は、コンピュータ記憶媒体を含む。記憶媒体は、コンピュータによってアクセスされうる利用可能な任意の媒体である。例として、限定することなく、このようなコンピュータ読取可能な媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたはその他の光ディスク記憶装置、磁気ディスク記憶装置またはその他の磁気記憶デバイス、あるいは、所望のプログラム・コード手段を命令群またはデータ構造の形式で搬送または格納するために使用され、しかも、コンピュータによってアクセスされうるその他任意の媒体を備えうる。本明細書で使用されるようにディスク(diskおよびdisc)は、コンパクト・ディスク(disc)(CD)、レーザ・ディスク(disc)(登録商標)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、Blu−ray(登録商標)ディスク(disc)を含む。ここで、diskは通常、データを磁気的に再生し、discは、レーザを用いてデータを光学的に再生する。上記の組み合わせもまた、コンピュータ読取可能な媒体の範囲内に含まれるべきである。
[0027]図1は、コンテンツを表示するように構成された光学デバイス100を例示する図解である。図1に図示されるように、光学デバイス100は、フレーム102と、つる104,106と、フレーム102に搭載されたレンズ108,110とを含む。光学デバイス100はさらに、背面カメラ112,118と、正面カメラ114,120と、センサ116,122とを含む。態様では、センサ116,122の各々は、ハンド・ジェスチャを検知するための1つまたは複数の近接タイプ・センサと、音声コマンドを検知するための1つまたは複数のマイクロホンとを含みうる。
[0028]態様では、光学デバイス100は、ユーザが直観的な方式で毎日の環境とインタラクトすることを可能にする拡張現実(AR)ディスプレイ(「ARグラス」または「ヘッド・マウント・ディスプレイ」とも称される)として構成されうる。1つの構成では、レンズ108および/またはレンズ110は、ユーザが、光学デバイス100を装着した場合に、現実のシーンをクリアに観察することを可能にする、ガラスまたはプラスチックのようなクリアまたは透明な材料から形成されうる。光学デバイス100は、当該技術分野で周知の方法を用いて、レンズ108および/またはレンズ110を介して、デジタルAR画像のようなコンテンツを投影するように構成されうる。したがって、ユーザは、光学デバイス100を装着している間、現実のシーンと、投影されたデジタル・コンテンツとを同時に観察しうる。
[0029]態様では、図1に関して、正面カメラ114および/または背面カメラ120が、ユーザの視野をキャプチャしうる。ユーザがレンズ108,110を介して現実のシーンを観察すると、背面カメラ112および/または背面カメラ118は、ユーザの視線を検知しうる。レンズ108,110を介してユーザによって観察されたような現実のシーンの例が、図2に例示されている。図2に図示されるように、現実のシーン200は、前景に自動車202を含み、背景にマーケット204、バス標識206、およびビルディング208を含んでいる。
[0030]図3は、光学デバイス100のレンズ108,110を介してユーザによって観察される現実のシーン300を例示する。図3では、ユーザは、自動車202を見つめ、光学デバイス100は、現実のシーン300内の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。その後、光学デバイス100は、領域を囲む境界310を設定しうる。光学デバイス100は、境界310内の領域において物体認識手順を実行し、境界310の外側の領域において物体認識手順を実行することを控えうる。
[0031]図4は、光学デバイス100のレンズ108,110を介してユーザによって観察される現実のシーン400を例示する。図4では、自動車202が道路422に沿って移動すると、ユーザがこの自動車202を見つめ、光学デバイス100は、ユーザの視線が、移動している自動車202を追うと、この視線を検知しうる。図4に図示されるように、光学デバイス100は先ず、ユーザの検知された視線に対応する現実のシーン400の領域に、境界409を設定しうる。その後、ユーザの視線が自動車202を追うと、光学デバイス100は、ユーザの視線を追跡し、検知された視線に対応する現実のシーン400の領域に境界410を動的に設定しうる。光学デバイス100はその後、境界410内の領域において物体認識手順を実行し、境界410の外側の領域において物体認識手順を実行することを控えうる。
[0032]図5は、光学デバイス100のレンズ108,110を介してユーザによって観察される現実のシーン500を例示する。図5では、ユーザは、自動車202を見つめ、光学デバイス100は、現実のシーン500内の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。その後、光学デバイス100は、領域を囲む境界510を設定しうる。光学デバイス100は、境界510内の領域において物体認識手順を実行し、境界510の外側の領域において物体認識手順を実行することを控えうる。態様では、物体認識手順が、物体の判定に失敗したのであれば、光学デバイス100は、境界510のサイズを動的に調節しうる。例えば、図5に図示されるように、物体認識手順が、境界510内の自動車202を特定することができないのであれば、光学デバイス100は、境界510のサイズを、境界520のサイズへと拡大させうる。1つの構成では、境界のサイズは、予め決定された量、拡大されうる。例えば、モバイル・デバイスは、オリジナルの境界のサイズを2倍にすることにより、境界のサイズを拡大させうる。
[0033]別の態様では、図6に図示されるように、光学デバイス100は境界のサイズを縮小させうる。例えば、光学デバイス100のバッテリ電力レベルが低く、光学デバイス100が省電力状態で動作しているのであれば、光学デバイス100は、境界630を、現実のシーン600の境界640のサイズへと縮小させうる。1つの構成では、境界のサイズは、予め決定された量、縮小されうる。例えば、光学デバイス100は、オリジナルの境界のサイズの半分に、境界のサイズを縮小させうる。光学デバイス100はその後、境界640内の領域において物体認識手順を実行し、境界640の外側の領域において物体認識手順を実行することを控えうる。したがって、境界のサイズを縮小し、縮小された境界内の領域において物体認識手順を実行することによって、光学デバイス100は、物体を認識するために必要な処理量を低減し、もって、バッテリ電力を節約しうる。
[0034]図7は、光学デバイス100のレンズ108,110を介してユーザによって観察される現実のシーン700を例示する。図7では、ユーザは、バス標識206を見つめ、光学デバイス100は、現実のシーン700の領域におけるユーザの視線を検知しうる。ここで、バス標識206は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。光学デバイス100は、領域を囲む境界710を設定しうる。光学デバイス100はその後、境界710内の領域において物体認識手順を実行し、境界710の外側の領域において物体認識手順を実行することを控えうる。態様では、光学デバイス100は、図8の現実のシーン800に図示されるような、境界710内の現実のシーン700の一部の拡大(「ズーム」とも称される)を調節しうる。態様では、光学デバイス100は、センサ116および/またはセンサ122を介して受け取られた音声コマンドおよび/またはハンド・ジェスチャに応じて拡大を実行しうる。1つの構成では、ハンド・ジェスチャは、「ピンチ・ズーム」ジェスチャでありうる。別の態様では、ユーザの視線の持続期間が、時間しきい値を超えた場合、光学デバイス100は、拡大を実行しうる。別の態様では、光学デバイス100は、物体をより良好に見せるために、境界710内の物体が時間しきい値を超える前に認識された場合に、拡大を実行しうる。1つの構成では、光学デバイス100によって物体に近接して表示される(図8に図示されていない)アプリケーション・アイコンもまた拡大されうる。
[0035]図9は、光学デバイス100のレンズ108,110を介してユーザによって観察される現実のシーン900を例示する。図9では、ユーザが、自動車202を見つめ、光学デバイス100が、現実のシーン900の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。その後、光学デバイス100は、領域を囲む境界910を設定しうる。光学デバイス100は、1つまたは複数の写真編集ツールを含む写真編集インタフェース912を表示しうる。これは、正面カメラ114および/または正面カメラ120を用いて現実のシーン900の写真をキャプチャする前に、境界910内の領域を編集するために使用されうる。例えば、写真編集ツールは、アート・フィルタ・アプリケーション・ツール914、および/または、例えば、クリップ・アート挿入ツール、彩度ツール、セピア・トーン変換ツール、および黒白変換ツールのようなその他の写真編集ツールを含みうる。態様では、写真編集ツールは、センサ116および/またはセンサ122を介して受け取られたハンド・ジェスチャおよび/または音声コマンドに応じて、適用または無効化されうる。光学デバイス100は、以前に説明された写真編集ツールを用いて編集されたような現実のシーン900の写真をキャプチャおよび記憶しうる。
[0036]図10は、光学デバイス100のレンズ108,110を介してユーザによって観察される現実のシーン1000を例示する。図10では、ユーザが、自動車202を見つめ、光学デバイス100が、現実のシーン1000の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。その後、光学デバイス100は、領域を囲む境界1010を設定しうる。光学デバイス100はその後、境界1010内の領域において物体認識手順を実行し、境界1010の外側の領域において物体認識手順を実行することを控えうる。光学デバイス100はその後、自動車202を認識し、図10に図示されているように、自動車202を強調しうる。図10の構成では、光学デバイス100は、センサ116および/またはセンサ122を介して受け取られたハンド・ジェスチャおよび/または音声コマンドに応じて、光学デバイス100のメモリに、認識された自動車202を記憶しうる。ユーザは、その後、自動車1002を見つめ、光学デバイス100は、現実のシーン1000の領域におけるユーザの視線を検知しうる。ここで、自動車1002は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。光学デバイス100は、領域を囲む境界1012を設定しうる。光学デバイス100はその後、境界1012内の領域において物体認識手順を実行し、境界1012の外側の領域において物体認識手順を実行することを控えうる。その後、光学デバイス100は、自動車1002を認識しうる。光学デバイス100は、センサ116および/またはセンサ122を介して受け取られたハンド・ジェスチャおよび/または音声コマンドに応じて、光学デバイス100のメモリに、認識された自動車1002を記憶しうる。その後、光学デバイス100は、以前に認識され記憶された自動車202を、自動車1002と比較しうる。光学デバイス100は、自動車202が、自動車1002と同じであるか、または異なっているのかを示しうる。
[0037]図11は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャート1100である。ステップ1102において、光学デバイス100は、現実のシーンにおける第1の領域における視線を検知する。態様では、図1に示すように、ユーザが、光学デバイス100のレンズ108,110を介して現実のシーンを観察すると、背面カメラ112および/または背面カメラ118が、ユーザの視線を検知しうる。現実のシーンは、光学デバイス100のユーザの視野内の物理的環境を含みうる。レンズ108,110を介してユーザによって観察されるような現実のシーンの例が、図2に例示されている。図2に図示されるように、現実のシーン200は、前景に自動車202を含み、背景にマーケット204、バス標識206、およびビルディング208を含んでいる。他の態様では、現実のシーンは、自宅、事務所、または図書館の内部のような屋内の現実のシーンでありうる。例えば、ユーザが、自動車202を見つめ、光学デバイス100は、現実のシーン200の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。
[0038]ステップ1104では、光学デバイス100が、第1の領域を囲む境界を設定する。この境界は、現実のシーンにおける少なくとも第2の領域を除外している。例えば、図3に関して、光学デバイス100は、自動車202が位置決めされる現実のシーン300の領域を囲む境界310を設定しうる。態様では、この境界は、ユーザが光学デバイス100を用いて現実のシーンを観察すると、現実のシーン300の一部を覆い隠すように、光学デバイス100のレンズ108および/またはレンズ110において表示されうる。本明細書では、光学デバイス100によって設定された境界が、長方形の形状を有するものとして記載されているが、境界は、円形状のような多くの異なる形状のうちの何れかを有することが理解されるべきである。
[0039]ステップ1106では、光学デバイス100が、境界内の第1の領域において物体認識手順を実行する。例えば、図3に関して、光学デバイス100は、境界310内の領域において物体認識手順を実行しうる。1つの構成では、光学デバイス100は、正面カメラ114および/または正面カメラ120を用いて現実のシーン300の画像をキャプチャし、境界310内の領域に対応する画像の領域において物体認識アルゴリズムを適用することによって、物体認識手順を実行しうる。光学デバイス100は、物体を認識するために、物体認識アルゴリズムによって生成されたデータが、物体データベース内の物体の何れかに一致するか否かを判定するために、このデータを、物体データベースと比較しうる。態様では、データベースは、光学デバイス100内に記憶されうる。例えば、図3に関して、光学デバイス100は、物体認識アルゴリズムによって生成されたデータが、物体データベースにおいて自動車として特定された物体に一致していると判定しうる。
[0040]ステップ1108では、光学デバイス100は、少なくとも第2の領域において物体認識手順を実行することを控える。例えば、図3に関して、光学デバイス100は、境界310の外側の、現実のシーン300の領域において物体認識手順を実行することを控えうる。
[0041]図12は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャート1200である。ステップ1202において、光学デバイス100は、現実のシーンにおける第1の領域における視線を検知する。態様では、図1に示すように、ユーザが、光学デバイス100のレンズ108,110を介して現実のシーンを観察すると、背面カメラ112および/または背面カメラ118が、ユーザの視線を検知しうる。現実のシーンは、光学デバイス100のユーザの視野内の物理的環境を含みうる。レンズ108,110を介してユーザによって観察されるような現実のシーンの例が、図2に例示されている。図2に図示されるように、現実のシーン200は、前景に自動車202を含み、背景にマーケット204、バス標識206、およびビルディング208を含んでいる。他の態様では、現実のシーンは、自宅、事務所、または図書館の内部のような屋内の現実のシーンでありうる。例えば、ユーザは自動車202を見つめ、光学デバイス100は、現実のシーン200の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。
[0042]ステップ1204では、光学デバイス100が、第1の領域を囲む境界を設定する。この境界は、現実のシーンにおける少なくとも第2の領域を除外している。例えば、図4に関して、光学デバイス100は、自動車202が位置決めされる領域を囲む境界409を設定しうる。態様では、ユーザが光学デバイス100を用いて現実のシーンを観察すると、境界が、現実のシーンの一部に重なるように、光学デバイス100のレンズ108および/またはレンズ110において表示されうる。本明細書では、光学デバイス100によって設定された境界が、長方形の形状を有するものとして記載されているが、境界は、円形状のような多くの異なる形状のうちの何れかを有することが理解されるべきである。
[0043]ステップ1206では、光学デバイス100が、境界内の第1の領域において物体認識手順を実行する。例えば、図4に関して、光学デバイス100は、境界409内の領域において物体認識手順を実行しうる。1つの構成では、光学デバイス100は、正面カメラ114および/または正面カメラ120を用いて現実のシーン400の画像をキャプチャし、境界409内の領域に対応する画像の領域において物体認識アルゴリズムを適用することによって、物体認識手順を実行しうる。光学デバイス100は、物体を認識するために、物体認識アルゴリズムによって生成されたデータが、物体データベース内の物体の何れかに一致するか否かを判定するために、このデータを、物体データベースと比較しうる。態様では、データベースは、光学デバイス100内に記憶されうる。例えば、図4に関して、光学デバイス100は、物体認識アルゴリズムによって生成されたデータが、物体データベースにおいて自動車として特定された物体に一致していると判定しうる。
[0044]ステップ1208では、光学デバイス100は、少なくとも第2の領域において物体認識手順を実行することを控える。例えば、図4に関して、光学デバイス100は、境界409の外側の、現実のシーン400の領域において物体認識手順を実行することを控えうる。
[0045]ステップ1210では、光学デバイス100は、現実のシーンにおける第3の領域における視線を検知する。例えば、ユーザは、自動車202が道路422に沿って移動すると、自動車202を見つめ、光学デバイス100は、現実のシーン400の領域においてユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。
[0046]ステップ1212では、光学デバイス100が、第3の領域を囲む境界を設定する。この境界は、現実のシーンにおける少なくとも第4の領域を除外する。例えば、図4に関して、光学デバイス100は、自動車202が位置決めされる領域を囲む境界410を設定しうる。態様では、ユーザが光学デバイス100を用いて現実のシーンを観察すると、境界が、現実のシーンの一部に重なるように、光学デバイス100のレンズ108および/またはレンズ110において表示されうる。
[0047]ステップ1214では、光学デバイス100が、境界内の第3の領域において物体認識手順を実行する。例えば、図4に関して、光学デバイス100は、境界410内の領域において物体認識手順を実行しうる。1つの構成では、光学デバイス100は、正面カメラ114および/または正面カメラ120を用いて現実のシーン400の画像をキャプチャし、境界410内の領域に対応する画像の領域において物体認識アルゴリズムを適用することによって、物体認識手順を実行しうる。光学デバイス100は、物体を認識するために、物体認識アルゴリズムによって生成されたデータが、物体データベース内の物体の何れかに一致するか否かを判定するために、このデータを、物体データベースと比較しうる。態様では、データベースは、光学デバイス100内に記憶されうる。例えば、図4に関して、光学デバイス100は、物体認識アルゴリズムによって生成されたデータが、物体データベースにおいて自動車として特定された物体に一致していると判定しうる。
[0048]ステップ1216では、光学デバイス100が、少なくとも第4の領域において物体認識手順を実行することを控える。例えば、図4に関して、光学デバイス100は、境界410の外側の、現実のシーン400の領域において物体認識手順を実行することを控えうる。
[0049]図13は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャート1300である。ステップ1302において、光学デバイス100は、現実のシーンにおける第1の領域における視線を検知する。態様では、図1に示すように、ユーザが、光学デバイス100のレンズ108,110を介して現実のシーンを観察すると、背面カメラ112および/または背面カメラ118が、ユーザの視線を検知しうる。現実のシーンは、光学デバイス100のユーザの視野内の物理的環境を含みうる。レンズ108,110を介してユーザによって観察されるような現実のシーンの例が、図2に例示されている。図2に図示されるように、現実のシーン200は、前景に自動車202を含み、背景にマーケット204、バス標識206、およびビルディング208を含んでいる。他の態様では、現実のシーンは、自宅、事務所、または図書館の内部のような屋内の現実のシーンでありうる。例えば、ユーザは自動車202を見つめ、光学デバイス100は、現実のシーン200の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。
[0050]ステップ1304では、光学デバイス100が、第1の領域を囲む境界を設定する。この境界は、現実のシーンにおける少なくとも第2の領域を除外している。例えば、図3に関して、光学デバイス100は、自動車202が位置決めされる領域を囲む境界310を設定しうる。態様では、境界は、光学デバイス100のレンズ108および/またはレンズ110に表示され、これによって、ユーザが、光学デバイス100を用いて現実のシーンを観察すると、この境界が、現実のシーンのユーザの視野重なるようになる。本明細書では、光学デバイス100によって設定された境界が、長方形の形状を有するものとして記載されているが、境界は、円形状のような多くの異なる形状のうちの何れかを有することが理解されるべきである。
[0051]ステップ1306では、光学デバイス100が、境界内の第1の領域において物体認識手順を実行する。例えば、図3に関して、光学デバイス100は、境界310内の領域において物体認識手順を実行しうる。1つの構成では、光学デバイス100は、1つまたは複数の画像フレームを生成するために、正面カメラ114および/または正面カメラ120を用いて、現実のシーン300の1つまたは複数の画像をキャプチャすることによって、物体認識手順を実行しうる。その後、光学デバイス100は、境界310内の領域に対応する1つまたは複数の画像フレームの領域において物体認識アルゴリズムを適用しうる。光学デバイス100は、物体を認識するために、各画像フレームについて物体認識アルゴリズムによって生成されたデータを、物体データベースと比較し、このデータが、物体データベースにおける物体の何れかにマッチするか否かを判定しうる。態様では、データベースは、光学デバイス100内に記憶されうる。例えば、図3に関して、光学デバイス100は、物体認識アルゴリズムによって生成されたデータが、物体データベースにおいて自動車として特定された物体に一致していると判定しうる。
[0052]ステップ1308では、光学デバイス100は、少なくとも第2の領域において物体認識手順を実行することを控える。例えば、図3に関して、光学デバイス100は、境界310の外側の、現実のシーン300の領域において物体認識手順を実行することを控えうる。
[0053]ステップ1310では、光学デバイス100は、物体が境界内で認識された連続回数のカウントを記憶する。1つの構成では、このカウントは、連続する画像フレームの各々において、境界内で物体が認識された回数を表しうる。態様では、光学デバイス100はさらに、正しく認識された各物体を記憶しうる。
[0054]ステップ1312では、光学デバイス100は、カウントがしきい値を超えたか否かを判定しうる。例えば、しきい値は、予め決定された整数でありうる。カウントがしきい値を超えるのであれば、ステップ1314において、光学デバイス100は、物体を強調しうる。態様では、光学デバイス100は、物体が位置する領域に対応する光学デバイス100のレンズ108および/またはレンズ110の領域に透明色(例えば、黄色)を表示することによって、物体を強調しうる。これによって、ユーザが物体を観察する場合、物体が強調されるように見える。別の態様では、光学デバイス100はさらに、カウントが、予め決定された期間内にしきい値を超えたか否かを判定し、予め決定された期間を超えているのであれば、最も早期の画像フレームを落としうる。
[0055]ステップ1316では、光学デバイス100は、物体に近接したアイコンを表示しうる。態様では、光学デバイス100は、物体が位置しているところに近接した領域に対応する光学デバイス100のレンズ108および/またはレンズ110の領域にアイコンを表示しうる。1つの構成では、アイコンは、光学デバイス100の機能を開始するように構成されうる。別の構成では、アイコンは、物体に関連する情報を提供するように構成されうる。
[0056]カウントがしきい値を超えない(1312)のであれば、ステップ1302において、光学デバイス100は、現実のシーンにおける第1の領域における視線を検知する。
[0057]図14は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャート1400である。ステップ1402において、光学デバイス100は、現実のシーンにおける第1の領域における視線を検知する。1つの構成では、光学デバイス100は、音声コマンドおよび/またはハンド・ジェスチャに応じて、視線検知を開始しうる。態様では、図1に示すように、ユーザが、光学デバイス100のレンズ108,110を介して現実のシーンを観察すると、背面カメラ112および/または背面カメラ118が、ユーザの視線を検知しうる。現実のシーンは、光学デバイス100のユーザの視野内の物理的環境を含みうる。レンズ108,110を介してユーザによって観察されるような現実のシーンの例が、図2に例示されている。図2に図示されるように、現実のシーン200は、前景に自動車202を含み、背景にマーケット204、バス標識206、およびビルディング208を含んでいる。他の態様では、現実のシーンは、自宅、事務所、または図書館の内部のような屋内の現実のシーンでありうる。例えば、ユーザが、自動車202を見つめ、光学デバイス100は、現実のシーン200の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。
[0058]ステップ1404では、光学デバイス100が、第1の領域を囲む境界を設定する。この境界は、現実のシーンにおける少なくとも第2の領域を除外している。例えば、図3に関して、光学デバイス100は、第1の領域を囲む境界310を設定しうる。態様では、境界は、光学デバイス100のレンズ108および/またはレンズ110に表示されうる。これによって、ユーザが、光学デバイス100を用いて、現実のシーンを観察すると、境界が、現実のシーンのユーザの視野に重なるようになる。本明細書では、光学デバイス100によって設定された境界が、長方形の形状を有するものとして記載されているが、境界は、円形状のような多くの異なる形状のうちの何れかを有することが理解されるべきである。
[0059]ステップ1406では、光学デバイス100が、境界内の第1の領域において物体認識手順を実行する。例えば、図3に関して、光学デバイス100は、境界310内の領域において物体認識手順を実行しうる。1つの構成では、光学デバイス100は、1つまたは複数の画像フレームを生成するために、正面カメラ114および/または正面カメラ120を用いて、現実のシーン300の1つまたは複数の画像をキャプチャすることによって、物体認識手順を実行しうる。その後、光学デバイス100は、境界310内の領域に対応する1つまたは複数の画像フレームの領域において物体認識アルゴリズムを適用しうる。光学デバイス100は、物体を認識するために、各画像フレームについて物体認識アルゴリズムによって生成されたデータを、物体データベースと比較し、このデータが、物体データベースにおける物体の何れかにマッチするか否かを判定しうる。態様では、データベースは、光学デバイス100内に記憶されうる。例えば、図3に関して、光学デバイス100は、物体認識アルゴリズムによって生成されたデータが、物体データベースにおいて自動車として特定された物体に一致していると判定しうる。
[0060]ステップ1408では、光学デバイス100は、少なくとも第2の領域において物体認識手順を実行することを控える。例えば、図3に関して、光学デバイス100は、境界310の外側の、現実のシーン300の領域において物体認識手順を実行することを控えうる。
[0061]ステップ1410では、光学デバイス100は、物体が境界内において認識された回数のカウントを記憶する。1つの構成では、カウントは、画像フレームのうちの1つまたは複数における境界内において物体が認識された回数を表しうる。態様では、光学デバイス100はさらに、正しく認識された各物体を記憶しうる。
[0062]ステップ1412では、光学デバイス100は、物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定しうる。態様では、しきい値は整数でありうる。例えば、物体のタイプが、ビルディングのように、静止しており、識別することが単純である場合、より低いしきい値が使用されうる。別の例として、物体のタイプが自動車のように、移動しており、識別することがより困難である場合、より高いしきい値が使用されうる。
[0063]ステップ1414では、光学デバイス100は、カウントがしきい値を超えたか否かを判定しうる。カウントがしきい値を超えるのであれば、ステップ1416において、光学デバイス100は、物体を強調しうる。態様では、光学デバイス100は、物体が位置する領域に対応する光学デバイス100のレンズ108および/またはレンズ110の領域に透明色(例えば、黄色)を表示することによって、物体を強調しうる。これによって、ユーザが物体を観察する場合、物体が強調されるように見える。別の態様では、光学デバイス100はさらに、カウントが、予め決定された期間内にしきい値を超えたか否かを判定し、予め決定された期間を超えているのであれば、最も早期の画像フレームを落としうる。
[0064]ステップ1418では、光学デバイス100は、物体に近接したアイコンを表示しうる。態様では、光学デバイス100は、物体が位置しているところに近接した領域に対応する光学デバイス100のレンズ108および/またはレンズ110の領域にアイコンを表示しうる。1つの構成では、アイコンは、光学デバイス100の機能を開始するように構成されうる。別の構成では、アイコンは、物体に関連する情報を提供するように構成されうる。
[0065]カウントがしきい値を超えない(1414)のであれば、ステップ1402において、光学デバイス100は、現実のシーンにおける第1の領域における視線を検知する。
[0066]図15は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャート1500である。ステップ1502において、光学デバイス100は、現実のシーンにおける第1の領域における視線を検知する。1つの構成では、光学デバイス100は、音声コマンドおよび/またはハンド・ジェスチャに応じて、視線検知を開始しうる。態様では、図1に示すように、ユーザが、光学デバイス100のレンズ108,110を介して現実のシーンを観察すると、背面カメラ112および/または背面カメラ118が、ユーザの視線を検知しうる。現実のシーンは、光学デバイス100のユーザの視野内の物理的環境を含みうる。レンズ108,110を介してユーザによって観察されるような現実のシーンの例が、図2に例示されている。図2に図示されるように、現実のシーン200は、前景に自動車202を含み、背景にマーケット204、バス標識206、およびビルディング208を含んでいる。他の態様では、現実のシーンは、自宅、事務所、または図書館の内部のような屋内の現実のシーンでありうる。例えば、ユーザは自動車202を見つめ、光学デバイス100は、現実のシーン200の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。
[0067]ステップ1504では、光学デバイス100が、第1の領域を囲む境界を設定する。この境界は、現実のシーンにおける少なくとも第2の領域を除外している。例えば、図3に関して、光学デバイス100は、自動車202が位置決めされる現実のシーン200の領域を囲む境界310を設定しうる。態様では、ユーザが光学デバイス100を用いて現実のシーンを観察すると、境界が、現実のシーンの一部に重なるように、光学デバイス100のレンズ108および/またはレンズ110において表示されうる。本明細書では、光学デバイス100によって設定された境界が、長方形の形状を有するものとして記載されているが、境界は、円形状のような多くの異なる形状のうちの何れかを有することが理解されるべきである。
[0068]ステップ1506では、光学デバイス100は、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取る。態様では、音声コマンドおよびジェスチャ・コマンドは、光学デバイス100のセンサ116および/またはセンサ122を介して受け取られうる。
[0069]ステップ1508では、光学デバイス100は、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに応じて、境界内の第1の領域の拡大を調節しうる。例えば、図7における現実のシーン700に関して、光学デバイス100は、図8の現実のシーン800において図示されるような、境界710内の現実のシーン700の部分の拡大を調節しうる。態様では、光学デバイス100は、音声コマンドおよび/またはハンド・ジェスチャに応じて拡大を実行しうる。1つの構成では、ハンド・ジェスチャは、「ピンチ・ズーム」ジェスチャであり、ユーザが、ピンチ・ジェスチャを実行すると、境界710内の現実のシーン700の一部の拡大が増加される。
[0070]ステップ1510では、光学デバイス100が、境界内の第1の領域において物体認識手順を実行する。例えば、図3に関して、光学デバイス100は、境界310内の領域において物体認識手順を実行しうる。1つの構成では、光学デバイス100は、正面カメラ114および/または正面カメラ120を用いて現実のシーン300の画像をキャプチャし、境界310内の領域に対応する画像の領域において物体認識アルゴリズムを適用することによって、物体認識手順を実行しうる。光学デバイス100は、物体を認識するために、物体認識アルゴリズムによって生成されたデータが、物体データベース内の物体の何れかに一致するか否かを判定するために、このデータを、物体データベースと比較しうる。態様では、データベースは、光学デバイス100内に記憶されうる。例えば、図3に関して、光学デバイス100は、物体認識アルゴリズムによって生成されたデータが、物体データベースにおいて自動車として特定された物体に一致していると判定しうる。
[0071]ステップ1512では、光学デバイス100は、少なくとも第2の領域において物体認識手順を実行することを控える。例えば、図3に関して、光学デバイス100は、境界310の外側の、現実のシーン300の領域において物体認識手順を実行することを控えうる。
[0072]ステップ1514では、光学デバイス100は、境界内の第1の領域の中心へとズームする動作、境界を拡大する動作、または省電力状態に入る動作、のうちの少なくとも1つを実行する。態様では、ユーザの視線の持続時間が、時間しきい値を超える場合、光学デバイス100は、境界内の第1の領域の中心にズームしうる。その他の態様では、物体をより良好に見るために、境界内の物体が、時間しきい値を超える前に認識された場合、光学デバイス100は、境界内の第1の領域の中心にズームしうる。1つの構成では、光学デバイス100はまた、物体に近接した1つまたは複数のアプリケーション・アイコンへズームしうる。
[0073]例えば、図5に関して、物体認識手順が物体を判定することに失敗したのであれば、光学デバイス100は、境界510のサイズを動的に調節しうる。例えば、物体認識手順が、境界510内の自動車202を識別することができないのであれば、光学デバイス100は、境界510のサイズを、境界520のサイズに拡大させうる。1つの構成では、境界のサイズは、予め決定された量、拡大されうる。例えば、光学デバイス100は、オリジナルの境界のサイズを2倍にすることにより、境界のサイズを拡大させうる。
[0074]ステップ1516では、光学デバイス100は少なくとも1つの写真編集ツールを表示する。態様では、図9に関して、光学デバイス100は、1つまたは複数の写真編集ツールを含む写真編集インタフェース912を表示しうる。例えば、写真編集ツールは、アート・フィルタ・アプリケーション・ツール914、および/または、例えば、クリップ・アート挿入ツール、彩度ツール、セピア・トーン変換ツール、および黒白変換ツールのようなその他の写真編集ツールを含みうる。態様では、写真編集ツールは、センサ116および/またはセンサ122を介して受け取られたハンド・ジェスチャおよび/または音声コマンドに応じて、適用または無効化されうる。
[0075]ステップ1518では、光学デバイス100は、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、少なくとも1つの写真編集ツールを使用して、境界内の第1の領域を編集しうる。例えば、図9に関して、少なくとも1つの写真編集ツールは、正面カメラ114および/または正面カメラ120を用いて、現実のシーン900の写真をキャプチャする前に、境界910内の領域を編集するために使用されうる。
[0076]ステップ1520では、光学デバイス100は、編集された第1の領域の画像を記憶しうる。例えば、図9に関して、光学デバイス100は、以前に説明された写真編集ツールを使用して編集されたものとして現実のシーン900の写真をキャプチャおよび記憶しうる。
[0077]図16は、コンテンツを表示するように構成された光学デバイスのための方法のフローチャート1600である。ステップ1602において、光学デバイス100は、現実のシーンにおける第1の領域における視線を検知する。態様では、図10に示すように、ユーザが、光学デバイス100のレンズ108,110を介して現実のシーンを観察すると、背面カメラ112および/または背面カメラ118が、ユーザの視線を検知しうる。現実のシーンは、光学デバイス100のユーザの視野内の物理的環境を含みうる。レンズ108,110を介してユーザによって観察されるような現実のシーンの例が、図10に例示されている。図10に図示されるように、現実のシーン1000は、前景に自動車202を含み、背景にマーケット204、バス標識206、およびビルディング208を含んでいる。他の態様では、現実のシーンは、自宅、事務所、または図書館の内部のような屋内の現実のシーンでありうる。例えば、ユーザは自動車202を見つめ、光学デバイス100は、現実のシーン1000の領域におけるユーザの視線を検知しうる。ここで、自動車202は、背面カメラ112および/または背面カメラ118を用いて位置決めされる。
[0078]ステップ1604では、光学デバイス100が、第1の領域を囲む境界を設定する。この境界は、現実のシーンにおける少なくとも第2の領域を除外している。例えば、図10に関して、光学デバイス100は、自動車202が位置決めされる領域を囲む境界1010を設定しうる。態様では、ユーザが光学デバイス100を用いて現実のシーンを観察すると、境界が、現実のシーンの一部を覆い隠すように、光学デバイス100のレンズ108および/またはレンズ110において表示されうる。本明細書では、光学デバイス100によって設定された境界が、長方形の形状を有するものとして記載されているが、境界は、円形状のような多くの異なる形状のうちの何れかを有することが理解されるべきである。
[0079]ステップ1606では、光学デバイス100が、境界内の第1の領域において物体認識手順を実行する。例えば、図10に関して、光学デバイス100は、境界1010内の領域において物体認識手順を実行しうる。1つの構成では、光学デバイス100は、正面カメラ114および/または正面カメラ120を用いて現実のシーン1000の画像をキャプチャし、境界1010内の領域に対応する画像の領域において物体認識アルゴリズムを適用することによって、物体認識手順を実行しうる。光学デバイス100は、物体を認識するために、物体認識アルゴリズムによって生成されたデータが、物体データベース内の物体の何れかに一致するか否かを判定するために、このデータを、物体データベースと比較しうる。態様では、データベースは、光学デバイス100内に記憶されうる。例えば、図10に関して、光学デバイス100は、物体認識アルゴリズムによって生成されたデータが、物体データベースにおいて自動車として特定された物体に一致していると判定しうる。
[0080]ステップ1608では、光学デバイス100は、少なくとも第2の領域において物体認識手順を実行することを控える。例えば、図10に関して、光学デバイス100は、境界1010の外側の、現実のシーン1000の領域において物体認識手順を実行することを控えうる。
[0081]ステップ1610では、モバイル・デバイスは、第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶する。例えば、図10に関して、光学デバイス100は、第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、光学デバイス100のメモリ内に自動車202を記憶しうる。
[0082]ステップ1612では、光学デバイス100は、第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶する。例えば、図10に関して、光学デバイス100は、境界1012内の自動車1002を認識し、第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、光学デバイス100のメモリに、自動車1002を記憶しうる。
[0083]ステップ1614では、光学デバイス100は、少なくとも第1の認識された物体を、第2の認識された物体と比較する。態様では、光学デバイス100は、自動車202が、自動車1002と同じであるか、または、異なっているのかを示しうる。
[0084]図17は、典型的な装置1702における異なるモジュール/手段/構成要素の動作を例示する概念的なフロー図1700である。装置1702は、図1に図示される光学デバイス100のような光学デバイスでありうる。装置1702は、視線検知モジュール1703、境界設定モジュール1704、物体認識モジュール1706、物体認識禁止モジュール1708、受け取りモジュール1710、拡大調節モジュール1712、写真編集ツール表示モジュール1714、編集モジュール1716、しきい値設定モジュール1718、判定モジュール1720、記憶モジュール1722、比較モジュール1724、強調モジュール1726、アイコン表示モジュール1728、および、動作実行モジュール1730を含む。
[0085]態様では、視線検知モジュール1703は、現実のシーンの領域におけるユーザの視線を検知する。境界設定モジュール1704は、現実のシーンの領域を囲む境界を設定する。物体認識モジュール1706は、境界内の領域において物体認識手順を実行する。1つの構成では、物体認識手順は、現実のシーンの複数の画像フレームのうちの1つまたは複数について境界内の第1の領域において実行される。物体認識禁止モジュール1708は、境界の外側の領域において物体認識手順を実行することを控える。視線検知モジュール1703は、現実のシーンにおける第3の領域における視線を検知し、境界設定モジュール1704は、現実のシーンにおける少なくとも第4の領域を除外しながら、第3の領域を囲む境界を設定しうる。
[0086]態様では、記憶モジュール1722は、境界内で物体が認識された連続回数である第1のカウントまたは、境界内で物体が認識された回数である第2のカウントを記憶する。判定モジュール1720は、第1のカウントまたは第2のカウントがしきい値を超えたか否かを判定する。第1のカウントまたは第2のカウントがしきい値を超えた場合、強調モジュール1726が、物体を強調する。第1のカウントまたは第2のカウントがしきい値を超えた場合、アイコン表示モジュール1728が、物体に近接したアイコンを表示する。
[0087]別の態様では、記憶モジュール1722が、第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶し、第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶する。比較モジュール1724はその後、第1の認識された物体が、第2の認識された物体と同じであるか異なっているかを判定するために、少なくとも、第1の認識された物体を、第2の認識された物体と比較する。
[0088]態様では、物体認識手順は、現実のシーンの複数の画像フレームの1つまたは複数について、境界内の第1の領域において実行され、記憶モジュール1722は、物体が境界内で認識された回数のカウントを記憶する。しきい値設定モジュール1718は、物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定する。判定モジュール1720は、カウントが、しきい値を超えたか否かを判定する。カウントがしきい値を超えた場合、強調モジュール1726が、物体を強調する。カウントがしきい値を超えた場合、アイコン表示モジュール1728が、物体に近接したアイコンを表示する。
[0089]動作実行モジュール1730は、物体が境界内の第1の領域で認識されていないのであれば、省電力状態に入る動作、境界を拡大させる動作、または、境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを実行する。
[0090]受け取りモジュール1710は、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取る。拡大調節モジュール1712は、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに応じて、境界内の第1の領域の拡大を調節する。
[0091]写真編集ツール表示モジュール1714は、少なくとも1つの写真編集ツールを表示する。編集モジュール1716は、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、少なくとも1つの写真編集ツールを使用して、境界内の第1の領域を編集する。記憶モジュール1722は、編集された第1の領域の画像を記憶する。
[0092]装置は、図11−16の前述したフローチャートにおけるアルゴリズムのステップの各々を実行する追加モジュールを含みうる。そのため、図11−16の前述したフローチャートにおける各ステップは、モジュールによって実行され、この装置は、これらモジュールのうちの1または複数を含みうる。これらモジュールは、前述した処理/アルゴリズムを実行するように特別に構成された1または複数のハードウェア構成要素であるか、前述した処理/アルゴリズムを実行するように構成されたプロセッサによって実行されうるか、プロセッサによる実施のためにコンピュータ読取可能な媒体内に格納されうるか、またはこれらのいくつかの組み合わせでありうる。
[0093]図18は、処理システム1814を適用する装置1702’のためのハードウェア実装の例を例示する概念図である。処理システム1814は、一般にバス1824によって表されるバス・アーキテクチャを用いて実現されうる。バス1824は、全体的な設計制約および処理システム1814の特定のアプリケーションに依存して、任意の数の相互接続バスおよびブリッジを含みうる。バス1824は、プロセッサ1804、モジュール1703,1704,1706,1708,1710,1712,1714,1716,1718,1720,1722,1724,1726,1728および1730、ならびにコンピュータ読取可能な媒体1806によって表される1つまたは複数のプロセッサ・モジュールおよび/またはハードウェア・モジュールを含むさまざまな回路をともに接続する。バス1824はさらに、例えば、タイミング・ソース、周辺機器、電圧制御装置、および電力管理回路のようなその他さまざまな回路をリンクしうる。これらは、当該技術分野で良く知られているので、さらなる説明はしない。
[0094]処理システム1814は、コンピュータ読取可能な媒体1806に接続されたプロセッサ1804を含む。プロセッサ1804は、コンピュータ読取可能な媒体1806に格納されたソフトウェアの実行を含む一般的な処理を担当する。ソフトウェアは、プロセッサ1804によって実行された場合、処理システム1814に対して、任意の特定の装置のために記載されたさまざまな機能を実行させる。コンピュータ読取可能な媒体1806はまた、ソフトウェアが実行されている場合に、プロセッサ1804によって操作されるデータを格納するためにも使用されうる。処理システムはさらに、モジュール1703,1704,1706,1708,1710,1712,1714,1716,1718,1720,1722,1724,1726,1728および1730のうちの少なくとも1つを含む。これらモジュールは、プロセッサ1804において動作するソフトウェア・モジュールでありうるか、コンピュータ読取可能な媒体1806に常駐/格納されうるか、プロセッサ1804に接続された1または複数のハードウェア・モジュールであるか、またはこれらのいくつかの組み合わせでありうる。
[0095]1つの構成において、装置1702/1702’は、現実のシーンにおける第1の領域における視線を検知するための手段と、第1の領域を囲む境界を設定するための手段であって、この境界は、現実のシーンにおける少なくとも第2の領域を除外する、設定するための手段と、境界内の第1の領域において物体認識手順を実行するための手段と、少なくとも第2の領域において物体認識手順を実行することを控えるための手段と、現実のシーンにおける第3の領域における視線を検知するための手段と、現実のシーンにおける少なくとも第4の領域を除外しながら、第3の領域を囲む境界を設定するための手段と、境界内で物体が認識される連続回数である第1のカウントと、境界内で物体が認識される回数である第2のカウントとを記憶するための手段と、第1のカウントまたは第2のカウントがしきい値を超えたか否かを判定するための手段と、第1のカウントまたは第2のカウントがしきい値を超えた場合に、物体を強調するための手段と、第1のカウントまたは第2のカウントがしきい値を超えた場合に、物体に近接したアイコンを表示するための手段と、少なくとも1つの動作を実行するための手段であって、少なくとも1つの動作は、物体が境界内の第1の領域において認識されていないのであれば、省電力状態に入る動作、境界を拡大する動作、または、境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを含む、実行するための手段と、物体が境界において認識された回数であるカウントを記憶するための手段と、物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定するための手段と、カウントがしきい値を超えたか否かを判定するための手段と、カウントがしきい値を超えた場合に、物体を強調するための手段と、カウントがしきい値を超えた場合に、物体に近接したアイコンを表示するための手段と、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取るための手段と、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに応じて、境界内の第1の領域の拡大を調節するための手段と、少なくとも1つの写真編集ツールを表示するための手段と、音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、少なくとも1つの写真編集ツールを用いて、境界内の第1の領域を編集するための手段と、編集された第1の領域の画像を記憶するための手段と、第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶するための手段と、第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶するための手段と、少なくとも第1の認識された物体と第2の認識された物体とを比較するための手段と、を含む。
[0096]前述した手段は、前述した手段によって記載されている機能を実行するように構成された装置1702’の処理システム1814および/または装置1702の前述したモジュールのうちの1または複数でありうる。
[0097]したがって、境界のサイズを縮小し、縮小された境界内の領域において物体認識手順を実行することによって、光学デバイスは、物体を認識するために必要な処理の量を低減し、もって、バッテリ電力を節約しうる。さらに、本明細書に開示された態様は、ハンド・ジェスチャ、目/頭追跡、および音声コマンドを調整することによって、拡張現実とのインタラクションを改善する。
[0098]開示された処理のステップの具体的な順序または階層は、典型的なアプローチの例示であることが理解される。設計選択に基づいて、これら処理におけるステップの具体的な順序または階層は、再構成されうることが理解される。さらに、いくつかのステップは、結合または省略されうる。方法請求項は、さまざまなステップの要素を、サンプル順で示しており、示された具体的な順序または階層に限定されないことが意味される。
[0099]前述の記載は、いかなる当業者であっても、ここで開示されたさまざまな態様を実現できるように提供される。これらの態様に対するさまざまな変形例は、当業者に容易に明らかになり、本明細書に定義された一般的な原理は、他の態様にも適用可能である。したがって、特許請求の範囲は、本明細書に示された態様に限定されず、請求項の文言と首尾一貫したすべての範囲が与えられることが意図されており、ここで、単数形による要素への参照は、明確に述べられていないのであれば、「1および1のみ」を意味するのではなく、「1または複数」を意味することが意図されている。特に明記されていない限り、用語「いくつか」は、1または複数を称する。当業者に周知であるか、または、後に周知になるべき本開示を通じて記載されたさまざまな態様の要素に対するすべての構造的および機能的な等価物が、参照によって本明細書に明確に組み込まれており、請求項に含められていると意図される。さらに、本明細書で開示されたいずれも、このような開示が請求項において明示的に述べられているかに関わらず、公衆に対して放棄されたものとは意図されていない。請求項の要素が、「〜する手段」という文言を用いて明示的に示されていないのであれば、請求項の何れの要素も、ミーンズ・プラス・ファンクション(means plus function)として解釈されるべきではない。
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
コンテンツを表示するように構成された光学デバイスを制御する方法であって、前記方法は下記を備える、
現実のシーンにおける第1の領域上の視線を検知することと、
前記第1の領域を囲む境界を設定すること、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行することと、
前記少なくとも第2の領域上の物体認識手順を実行することを控えること。
[C2]
前記現実のシーンにおける第3の領域上の視線を検知することと、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定することと、
をさらに備えるC1に記載の方法。
[C3]
前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数に関する前記境界内の第1の領域上の物体認識手順を実行することを備え、前記方法はさらに、
前記境界内で物体が認識された連続回数である第1のカウントと、前記境界内で物体が認識された回数である第2のカウントとを、メモリに記憶することを備える、C1に記載の方法。
[C4]
前記第1のカウントまたは前記第2のカウントがしきい値を超えたか否かを判定することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えた場合に、前記物体を強調することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えた場合に、前記物体に近接したアイコンを表示することと、
をさらに備えるC3に記載の方法。
[C5]
前記境界内の第1の領域において物体が認識されない場合、前記方法はさらに、前記境界内の第1の領域の中心へとズームする動作、前記境界を拡大する動作、または、省電力状態に入る動作、のうちの少なくとも1つを実行することを備える、C1に記載の方法。
[C6]
前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記方法はさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶することを備える、C1に記載の方法。
[C7]
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定することと、
前記カウントが、前記しきい値を超えたか否かを判定することと、
前記カウントが前記しきい値を超えた場合、前記物体を強調することと、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示することと、
をさらに備える、C6に記載の方法。
[C8]
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取ることと、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界の第1の領域の拡大を調節することと、
をさらに備えるC1に記載の方法。
[C9]
少なくとも1つの写真編集ツールを表示することと、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを用いて、前記境界内の第1の領域を編集することと、
前記編集された第1の領域の画像を記憶することと、
をさらに備えるC1に記載の方法。
[C10]
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶することと、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶することと、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較することと、
をさらに備えるC1に記載の方法。
[C11]
コンテンツを表示するように構成された光学デバイスを制御するための装置であって、前記装置は下記を備える、
現実のシーンにおける第1の領域上の視線を検知するための手段と、
前記第1の領域を囲む境界を設定するための手段、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行するための手段と、
前記少なくとも第2の領域上の物体認識手順を実行することを控えるための手段。
[C12]
前記現実のシーンにおける第3の領域上の視線を検知するための手段と、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定するための手段と、
をさらに備えるC11に記載の装置。
[C13]
前記物体認識手順を実行するための手段は、前記現実のシーンにおける複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行するように構成され、前記装置はさらに、
前記境界内で物体が認識された連続回数である第1のカウント、または、前記境界内で物体が認識された回数である第2のカウントを記憶するための手段を備える、C11に記載の装置。
[C14]
前記第1のカウントまたは前記第2のカウントがしきい値を超えたか否かを判定するための手段と、
前記第1のカウントまたは前記第2のカウントが前記しきい値を超えた場合に、前記物体を強調するための手段と、
前記第1のカウントまたは前記第2のカウントが前記しきい値を超えた場合に、前記物体に近接したアイコンを表示するための手段と、
をさらに備えるC11に記載の装置。
[C15]
少なくとも1つの動作を実行するための手段をさらに備え、前記少なくとも1つの動作は、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを備える、C11に記載の装置。
[C16]
前記物体認識手順を実行するための手段は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行するように構成され、前記装置はさらに、
前記境界内において物体が認識された回数のカウントを記憶するための手段を備える、C11に記載の装置。
[C17]
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定するための手段と、
前記カウントが、前記しきい値を超えたか否かを判定するための手段と、
前記カウントが前記しきい値を超えた場合、前記物体を強調するための手段と、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示するための手段と、
をさらに備えるC16に記載の装置。
[C18]
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取るための手段と、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節するための手段と、
をさらに備えるC11に記載の装置。
[C19]
少なくとも1つの写真編集ツールを表示するための手段と、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集するための手段と、
前記編集された第1の領域の画像を記憶するための手段と、
をさらに備えるC11に記載の装置。
[C20]
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶するための手段と、第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶するための手段と、少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較するための手段と、をさらに備えるC11に記載の装置。
[C21]
コンテンツを表示するように構成された光学デバイスを制御するための装置であって、前記装置は下記を備える、
現実のシーンにおける第1の領域上の視線を検知し、
前記第1の領域を囲む境界を設定し、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、
前記境界内の前記第1の領域上の物体認識手順を実行し、
前記少なくとも第2の領域上の物体認識手順を実行することを控える、
ように構成された処理システム。
[C22]
前記処理システムはさらに、
前記現実のシーンにおける第3の領域上の視線を検知し、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定するように構成された、C21に記載の装置。
[C23]
前記物体認識手順は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することによって実行され、前記処理システムはさらに、
前記境界内で物体が認識された連続回数である第1のカウントまたは、前記境界内で物体が認識された回数である第2のカウントをメモリに記憶するように構成された、C21に記載の装置。
[C24]
前記処理システムはさらに、
前記第1のカウントまたは前記第2のカウントがしきい値を超えているか否かを判定し、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体を強調し、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体に近接したアイコンを表示する、
ように構成された、C23に記載の装置。
[C25]
前記処理システムはさらに、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または、前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを実行するように構成された、C21に記載の装置。
[C26]
前記物体認識手順は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の体認識手順を実行することによって実行され、前記処理システムはさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶するように構成された、C21に記載の装置。
[C27]
前記処理システムはさらに、
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定し、
前記カウントが、前記しきい値を超えたか否かを判定し、前記カウントが前記しきい値を超えた場合、前記物体を強調し、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示する、
ように構成された、C26に記載の装置。
[C28]
前記処理システムはさらに、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取り、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節する、
ように構成された、C21に記載の装置。
[C29]
前記処理システムはさらに、
少なくとも1つの写真編集ツールを表示し、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集し、
前記編集された第1の領域の画像を記憶する、
ように構成された、C21に記載の装置。
[C30]
前記処理システムはさらに、
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶し、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶し、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較する、
ように構成された、C21に記載の装置。
[C31]
コンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品は下記を備える、
現実のシーンにおける第1の領域上の視線を検知することと、
前記第1の領域を囲む境界を設定すること、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
前記境界内の前記第1の領域上の物体認識手順を実行することと、
前記少なくとも第2の領域上の物体認識手順を実行することを控えることと、
のためのコードを備えるコンピュータ読取可能な媒体。
[C32]
前記コンピュータ読取可能な媒体はさらに、
前記現実のシーンにおける第3の領域上の視線を検知することと、
前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定することと、
のためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C33]
前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記コンピュータ読取可能な媒体はさらに、
前記境界内で物体が認識された連続回数である第1のカウントと、前記境界内で物体が認識された回数である第2のカウントとを、メモリに記憶するためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C34]
前記コンピュータ読取可能な媒体はさらに、
前記第1のカウントまたは前記第2のカウントがしきい値を超えているか否かを判定することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体を強調することと、
前記第1のカウントまたは前記第2のカウントがしきい値を超えている場合、前記物体に近接したアイコンを表示することと、
のためのコードを備える、C33に記載のコンピュータ・プログラム製品。
[C35]
前記コンピュータ読取可能な媒体はさらに、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または、前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを実行するためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C36]
前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記コンピュータ読取可能な媒体はさらに、
前記境界内で物体が認識された回数のカウントをメモリに記憶するためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C37]
前記コンピュータ読取可能な媒体はさらに、
物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定することと、
前記カウントが、前記しきい値を超えたか否かを判定することと、
前記カウントが前記しきい値を超えた場合、前記物体を強調することと、
前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示することと、
のためのコードを備える、C36に記載のコンピュータ・プログラム製品。
[C38]
前記コンピュータ読取可能な媒体はさらに、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取ることと、
前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節することと、
のためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C39]
前記コンピュータ読取可能な媒体はさらに、
少なくとも1つの写真編集ツールを表示することと、
音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを使用して、前記境界内の第1の領域を編集することと、
前記編集された第1の領域の画像を記憶することと、
のためのコードを備える、C31に記載のコンピュータ・プログラム製品。
[C40]
前記コンピュータ読取可能な媒体はさらに、
第1の音声コマンドおよび第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶することと、
第2の音声コマンドおよび第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶することと、
少なくとも前記第1の認識された物体と、前記第2の認識された物体とを比較することと、
のためのコードを備える、C31に記載のコンピュータ・プログラム製品。

Claims (15)

  1. コンテンツを表示するように構成された光学デバイスを制御する方法であって、前記方法は下記を備える、
    現実のシーンにおける第1の領域上の視線を検知することと、
    前記第1の領域を囲む境界を設定すること、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
    前記境界内の前記第1の領域上の物体認識手順を実行することと、
    前記少なくとも第2の領域上の物体認識手順を実行することを控えることと、
    第1の音声コマンドまたは第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶することと、
    第2の音声コマンドまたは第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶することと、
    前記光学デバイスにおいて、前記記憶された少なくとも第1の認識された物体と、前記記憶された少なくとも第2の認識された物体とを比較すること。
  2. 前記現実のシーンにおける第3の領域上の視線を検知することと、
    前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定することと、
    をさらに備える請求項1に記載の方法。
  3. 前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数に関する前記境界内の第1の領域上の物体認識手順を実行することを備え、前記方法はさらに、
    前記境界内で物体が認識された連続回数である第1のカウント、または、前記境界内で物体が認識された回数である第2のカウントを、メモリに記憶することを備える、請求項1に記載の方法。
  4. 前記第1のカウントまたは前記第2のカウントがしきい値を超えたか否かを判定することと、
    前記第1のカウントまたは前記第2のカウントがしきい値を超えた場合に、前記物体を強調することと、
    前記第1のカウントまたは前記第2のカウントがしきい値を超えた場合に、前記物体に近接したアイコンを表示することと、をさらに備える請求項3に記載の方法。
  5. 前記境界内の第1の領域において物体が認識されない場合、前記方法はさらに、前記境界内の第1の領域の中心へとズームする動作、前記境界を拡大する動作、または、省電力状態に入る動作、のうちの少なくとも1つを実行することを備える、請求項1に記載の方法。
  6. 前記物体認識手順を実行することは、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行することを備え、前記方法はさらに、
    前記境界内で物体が認識された回数のカウントをメモリに記憶することを備える、請求項1に記載の方法。
  7. 物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定することと、
    前記カウントが、前記しきい値を超えたか否かを判定することと、
    前記カウントが前記しきい値を超えた場合、前記物体を強調することと、
    前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示することと、をさらに備える、請求項6に記載の方法。
  8. 音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つを受け取ることと、
    前記音声コマンドおよび前記ジェスチャ・コマンドのうちの少なくとも1つに応じて、前記境界内の第1の領域の拡大を調節することと、
    をさらに備える請求項1に記載の方法。
  9. 少なくとも1つの写真編集ツールを表示することと、
    音声コマンドおよびジェスチャ・コマンドのうちの少なくとも1つに基づいて、前記少なくとも1つの写真編集ツールを用いて、前記境界内の第1の領域を編集することと、
    前記編集された第1の領域の画像を記憶することと、
    をさらに備える請求項1に記載の方法。
  10. コンテンツを表示するように構成された光学デバイスを制御するための装置であって、前記装置は下記を備える、
    現実のシーンにおける第1の領域上の視線を検知するための手段と、
    前記第1の領域を囲む境界を設定するための手段、前記境界は、前記現実のシーンにおける少なくとも第2の領域を除外する、と、
    前記境界内の前記第1の領域上の物体認識手順を実行するための手段と、
    前記少なくとも第2の領域上の物体認識手順を実行することを控えるための手段と、
    第1の音声コマンドまたは第1のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第1の認識された物体を記憶するための手段と、
    第2の音声コマンドまたは第2のジェスチャ・コマンドのうちの少なくとも1つに応じて、少なくとも第2の認識された物体を記憶するための手段と、
    前記光学デバイスにおいて、前記記憶された少なくとも第1の認識された物体と、前記記憶された少なくとも第2の認識された物体とを比較するための手段。
  11. 前記現実のシーンにおける第3の領域上の視線を検知するための手段と、
    前記現実のシーンにおける少なくとも第4の領域を除外しながら、前記第3の領域を囲む境界を設定するための手段と、
    をさらに備える請求項10に記載の装置。
  12. 前記物体認識手順を実行するための手段は、前記現実のシーンにおける複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行するように構成され、前記装置はさらに、
    前記境界内で物体が認識された連続回数である第1のカウント、または、前記境界内で物体が認識された回数である第2のカウントを記憶するための手段を備え、
    前記第1のカウントまたは前記第2のカウントがしきい値を超えたか否かを判定するための手段と、
    前記第1のカウントまたは前記第2のカウントが前記しきい値を超えた場合に、前記物体を強調するための手段と、
    前記第1のカウントまたは前記第2のカウントが前記しきい値を超えた場合に、前記物体に近接したアイコンを表示するための手段と
    をさらに備える請求項10に記載の装置。
  13. 少なくとも1つの動作を実行するための手段をさらに備え、前記少なくとも1つの動作は、前記境界内の第1の領域において物体が認識されていない場合省電力状態に入る動作、前記境界を拡大する動作、または前記境界内の第1の領域の中心へとズームする動作、のうちの少なくとも1つを備える、請求項10に記載の装置。
  14. 前記物体認識手順を実行するための手段は、前記現実のシーンの複数の画像フレームのうちの1つまたは複数について、前記境界内の第1の領域上の物体認識手順を実行するように構成され、前記装置はさらに、
    前記境界内において物体が認識された回数のカウントを記憶するための手段を備え、
    物体のタイプ、履歴、およびユーザ設定のうちの少なくとも1つに基づいて、しきい値を動的に設定するための手段と、
    前記カウントが、前記しきい値を超えたか否かを判定するための手段と、
    前記カウントが前記しきい値を超えた場合、前記物体を強調するための手段と、
    前記カウントが前記しきい値を超えた場合、前記物体に近接したアイコンを表示するための手段と
    をさらに備える請求項10に記載の装置。
  15. コンピュータ・プログラム製品であって、前記コンピュータによって実行された場合、前記コンピュータに、請求項1乃至9のうちのいずれか1項に記載の方法を実行させるコードを備えるコンピュータ読取り可能な媒体を備える、コンピュータ・プログラム製品。
JP2015552830A 2013-01-13 2014-01-10 拡張現実デバイスを制御するための装置および方法 Expired - Fee Related JP6254193B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/740,256 2013-01-13
US13/740,256 US10359841B2 (en) 2013-01-13 2013-01-13 Apparatus and method for controlling an augmented reality device
PCT/US2014/011134 WO2014110437A1 (en) 2013-01-13 2014-01-10 Apparatus and method for controlling an augmented reality device

Publications (3)

Publication Number Publication Date
JP2016503217A JP2016503217A (ja) 2016-02-01
JP2016503217A5 JP2016503217A5 (ja) 2017-02-02
JP6254193B2 true JP6254193B2 (ja) 2017-12-27

Family

ID=50033807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015552830A Expired - Fee Related JP6254193B2 (ja) 2013-01-13 2014-01-10 拡張現実デバイスを制御するための装置および方法

Country Status (7)

Country Link
US (2) US10359841B2 (ja)
EP (1) EP2943853B1 (ja)
JP (1) JP6254193B2 (ja)
KR (1) KR102159313B1 (ja)
CN (2) CN109901722B (ja)
ES (1) ES2899753T3 (ja)
WO (1) WO2014110437A1 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10359841B2 (en) * 2013-01-13 2019-07-23 Qualcomm Incorporated Apparatus and method for controlling an augmented reality device
JP6205189B2 (ja) * 2013-06-28 2017-09-27 オリンパス株式会社 情報提示システム及び情報提示システムの制御方法
JP6221535B2 (ja) * 2013-09-11 2017-11-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2015054562A1 (en) * 2013-10-11 2015-04-16 Interdigital Patent Holdings, Inc. Gaze-driven augmented reality
KR102173123B1 (ko) * 2013-11-22 2020-11-02 삼성전자주식회사 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
US20150145887A1 (en) * 2013-11-25 2015-05-28 Qualcomm Incorporated Persistent head-mounted content display
US10802582B1 (en) * 2014-04-22 2020-10-13 sigmund lindsay clements Eye tracker in an augmented reality glasses for eye gaze to input displayed input icons
US10282057B1 (en) * 2014-07-29 2019-05-07 Google Llc Image editing on a wearable device
JP2016033763A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
US9959591B2 (en) 2014-07-31 2018-05-01 Seiko Epson Corporation Display apparatus, method for controlling display apparatus, and program
JP6421543B2 (ja) * 2014-10-17 2018-11-14 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US10140768B2 (en) 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
JP6358038B2 (ja) * 2014-10-17 2018-07-18 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
CN104598138B (zh) * 2014-12-24 2017-10-17 三星电子(中国)研发中心 电子地图控制方法及装置
KR20160080851A (ko) * 2014-12-29 2016-07-08 엘지전자 주식회사 디스플레이 장치 및 제어 방법
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2016190773A1 (en) 2015-05-28 2016-12-01 Motorola Solutions, Inc. Virtual push-to-talk button
EP3109733B1 (en) * 2015-06-22 2020-07-22 Nokia Technologies Oy Content delivery
US9829976B2 (en) * 2015-08-07 2017-11-28 Tobii Ab Gaze direction mapping
KR102354458B1 (ko) * 2015-08-19 2022-01-21 삼성전자주식회사 디스플레이 장치 및 그의 제어방법
IL241446B (en) * 2015-09-10 2018-05-31 Elbit Systems Ltd Display adjustments on user screens and guiding users' attention
CN106372095B (zh) * 2015-10-16 2020-02-07 北京智谷睿拓技术服务有限公司 电子地图显示方法、装置及车载设备
IL243422B (en) 2015-12-30 2018-04-30 Elbit Systems Ltd Information management is displayed according to the directions of the user's gaze
US9939635B2 (en) * 2016-02-29 2018-04-10 Brillio LLC Method for providing notification in virtual reality device
US20170286785A1 (en) * 2016-04-05 2017-10-05 Ford Global Technologies, Llc Interactive display based on interpreting driver actions
WO2017193297A1 (en) * 2016-05-11 2017-11-16 Intel Corporation Movement mapping based control of telerobot
US10089071B2 (en) 2016-06-02 2018-10-02 Microsoft Technology Licensing, Llc Automatic audio attenuation on immersive display devices
CN109478339A (zh) * 2016-07-29 2019-03-15 三菱电机株式会社 显示装置、显示控制装置和显示控制方法
CN107728776A (zh) * 2016-08-11 2018-02-23 成都五维译鼎科技有限公司 信息采集的方法、装置、终端及系统及用户终端
US10339708B2 (en) * 2016-11-01 2019-07-02 Google Inc. Map summarization and localization
WO2018097632A1 (en) * 2016-11-25 2018-05-31 Samsung Electronics Co., Ltd. Method and device for providing an image
CN108347520A (zh) * 2017-01-23 2018-07-31 阿里巴巴集团控股有限公司 情景模式的发送方法及装置、应用的启动方法及装置
US10732826B2 (en) * 2017-11-22 2020-08-04 Microsoft Technology Licensing, Llc Dynamic device interaction adaptation based on user engagement
CN108089701A (zh) * 2017-12-07 2018-05-29 北京奇虎科技有限公司 一种虚拟现实vr场景的展示方法和装置
CN108280434A (zh) * 2018-01-25 2018-07-13 北京小米移动软件有限公司 显示信息的方法和装置
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
JP6711379B2 (ja) * 2018-08-22 2020-06-17 セイコーエプソン株式会社 頭部装着型表示装置、コンピュータープログラム
US20200082576A1 (en) * 2018-09-11 2020-03-12 Apple Inc. Method, Device, and System for Delivering Recommendations
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
CN111751987B (zh) 2019-03-29 2023-04-14 托比股份公司 全息眼睛成像设备
US11275889B2 (en) * 2019-04-04 2022-03-15 International Business Machines Corporation Artificial intelligence for interactive preparation of electronic documents
SE1950758A1 (en) * 2019-06-19 2020-10-27 Tobii Ab Method and system for determining a refined gaze point of a user
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
JP2021140085A (ja) * 2020-03-06 2021-09-16 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
CN113836973A (zh) * 2020-06-23 2021-12-24 中兴通讯股份有限公司 终端控制方法、装置、终端及存储介质
US12095865B2 (en) 2020-12-11 2024-09-17 International Business Machines Corporation Identifying a voice command boundary
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN113359996A (zh) * 2021-08-09 2021-09-07 季华实验室 生活辅助机器人控制系统、方法、装置及电子设备
CN114971764A (zh) * 2022-04-08 2022-08-30 浙江赟燊商业信息系统科技有限公司 一种基于HoloLens的存储和匹配系统及方法
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3372096B2 (ja) 1993-12-28 2003-01-27 株式会社東芝 画像情報アクセス装置
JPH11242733A (ja) 1998-02-24 1999-09-07 Sanyo Electric Co Ltd 省電力制御装置
GB0011438D0 (en) 2000-05-12 2000-06-28 Koninkl Philips Electronics Nv Memory aid
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US6707418B2 (en) * 2002-07-12 2004-03-16 Itt Manufacturing Enterprises, Inc. Correlating single continuous wave radar space object observation for initial orbit determination
JP4604597B2 (ja) 2004-07-30 2011-01-05 トヨタ自動車株式会社 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法
EP1775712A1 (en) * 2005-10-13 2007-04-18 Sony Ericsson Mobile Communications AB Automatic theme creator
JP2007184683A (ja) 2006-01-04 2007-07-19 Eastman Kodak Co 画像データ処理装置及び方法
JP4984640B2 (ja) 2006-05-17 2012-07-25 トヨタ自動車株式会社 認識装置、地図データ作成装置および認識方法
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
JP4810440B2 (ja) 2007-01-09 2011-11-09 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
US7954067B2 (en) * 2007-03-16 2011-05-31 Apple Inc. Parameter setting superimposed upon an image
US20080229232A1 (en) * 2007-03-16 2008-09-18 Apple Inc. Full screen editing of visual media
JP5159515B2 (ja) 2008-08-26 2013-03-06 キヤノン株式会社 画像処理装置およびその制御方法
KR20100028344A (ko) * 2008-09-04 2010-03-12 삼성전자주식회사 휴대단말의 영상 편집 방법 및 장치
WO2010118292A1 (en) 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
CN101943982B (zh) 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
US8897603B2 (en) * 2009-08-20 2014-11-25 Nikon Corporation Image processing apparatus that selects a plurality of video frames and creates an image based on a plurality of images extracted and selected from the frames
KR101598632B1 (ko) * 2009-10-01 2016-02-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 이동 단말기 및 그의 태그 편집 방법
US20120242698A1 (en) 2010-02-28 2012-09-27 Osterhout Group, Inc. See-through near-eye display glasses with a multi-segment processor-controlled optical layer
US20120212499A1 (en) 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content control during glasses movement
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US20110273466A1 (en) 2010-05-10 2011-11-10 Canon Kabushiki Kaisha View-dependent rendering system with intuitive mixed reality
US20120019557A1 (en) * 2010-07-22 2012-01-26 Sony Ericsson Mobile Communications Ab Displaying augmented reality information
JP5751898B2 (ja) 2011-04-05 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム及び記憶媒体
US8510166B2 (en) * 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US9117483B2 (en) * 2011-06-03 2015-08-25 Michael Edward Zaletel Method and apparatus for dynamically recording, editing and combining multiple live video clips and still photographs into a finished composition
JP5868618B2 (ja) 2011-06-14 2016-02-24 オリンパス株式会社 情報処理装置、画像処理システム及びプログラム
CA2750287C (en) * 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9131192B2 (en) * 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US20130241805A1 (en) * 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US9116666B2 (en) * 2012-06-01 2015-08-25 Microsoft Technology Licensing, Llc Gesture based region identification for holograms
US8736692B1 (en) * 2012-07-09 2014-05-27 Google Inc. Using involuntary orbital movements to stabilize a video
US8482527B1 (en) * 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US20140101608A1 (en) * 2012-10-05 2014-04-10 Google Inc. User Interfaces for Head-Mountable Devices
US9279983B1 (en) * 2012-10-30 2016-03-08 Google Inc. Image cropping
US10359841B2 (en) * 2013-01-13 2019-07-23 Qualcomm Incorporated Apparatus and method for controlling an augmented reality device

Also Published As

Publication number Publication date
KR20150107781A (ko) 2015-09-23
WO2014110437A1 (en) 2014-07-17
EP2943853B1 (en) 2021-11-17
ES2899753T3 (es) 2022-03-14
CN109901722A (zh) 2019-06-18
CN104937519A (zh) 2015-09-23
US11366515B2 (en) 2022-06-21
US20190278367A1 (en) 2019-09-12
EP2943853A1 (en) 2015-11-18
JP2016503217A (ja) 2016-02-01
KR102159313B1 (ko) 2020-09-23
CN109901722B (zh) 2022-07-29
US20140198129A1 (en) 2014-07-17
CN104937519B (zh) 2019-05-10
US10359841B2 (en) 2019-07-23

Similar Documents

Publication Publication Date Title
JP6254193B2 (ja) 拡張現実デバイスを制御するための装置および方法
JP6271573B2 (ja) 赤外非接触ジェスチャーシステムのための装置および方法
US20150331486A1 (en) Image processing device, image processing method and program
US10810444B2 (en) Automated capture of image data for points of interest
JP2016085487A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
EP3195201A1 (en) Temporal saliency map
KR20170056860A (ko) 이미지 생성 방법 및 장치
JP5917270B2 (ja) 音検出装置及びその制御方法、プログラム
US20170287192A1 (en) User terminal device for displaying an object image in which a feature part changes based on image metadata and the control method thereof
AU2015275252A1 (en) Systems and method to modify display of augmented reality content
KR20110055244A (ko) 디지털 촬영 장치 및 그 제어 방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
WO2024179070A1 (zh) 一种放大二维码的方法及电子设备
JP5776471B2 (ja) 画像表示システム
WO2022250683A1 (en) Machine learning based forecasting of human gaze
CN112541418B (zh) 用于图像处理的方法、装置、设备、介质和程序产品
CN111219940B (zh) 冰箱内灯光控制的方法及装置、冰箱
CN112319372A (zh) 一种基于流媒体后视镜的图像显示方法及装置
CN112950670A (zh) 眼睛跟踪方法和眼睛跟踪设备
TWI463416B (zh) 一種前景分離方法
TW202326611A (zh) 單目深度估計分割
CN118043859A (zh) 高效视觉感知

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150914

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171129

R150 Certificate of patent or registration of utility model

Ref document number: 6254193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees