JP2021536054A - 推奨を配信する方法、デバイス、及びシステム - Google Patents
推奨を配信する方法、デバイス、及びシステム Download PDFInfo
- Publication number
- JP2021536054A JP2021536054A JP2021509849A JP2021509849A JP2021536054A JP 2021536054 A JP2021536054 A JP 2021536054A JP 2021509849 A JP2021509849 A JP 2021509849A JP 2021509849 A JP2021509849 A JP 2021509849A JP 2021536054 A JP2021536054 A JP 2021536054A
- Authority
- JP
- Japan
- Prior art keywords
- objects
- user
- image data
- pass
- likelihood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Abstract
電子デバイスは、画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得し、パススルー画像データ内の認識された対象がユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定し、パススルー画像データ内の認識された対象が信頼スコア閾値を満たすと判定したことに応じて、認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成し、パススルー画像データを、視野内の認識された対象に近接した1つ以上のCGRコンテンツアイテムと合成する。
Description
関連出願の相互参照
本出願は、参照によりその全体が本明細書に組み込まれる、2018年9月11日出願の米国特許仮出願第62/729,960号に対する優先権を主張するものである。
本出願は、参照によりその全体が本明細書に組み込まれる、2018年9月11日出願の米国特許仮出願第62/729,960号に対する優先権を主張するものである。
技術分野
本出願は、概して、コンピュータ生成現実環境において推奨を配信することに関し、最適な推奨の配信を可能にする電子デバイスを含むが、これらに限定されない。
本出願は、概して、コンピュータ生成現実環境において推奨を配信することに関し、最適な推奨の配信を可能にする電子デバイスを含むが、これらに限定されない。
物理的環境とは、人々が電子システムの助けなしに、感知及び/又は相互作用することができる物理的世界を指す。物理的な公園などの物理的環境には、物理的な木々、物理的な建物、及び物理的な人々などの物理的物品を含む。人々は、視覚、触覚、聴覚、味覚、及び臭覚などを介して、物理的環境を直接感知し、及び/又はそれと相互作用することができる。
対照的に、コンピュータ生成現実(computer-generated reality、CGR)環境は、人々が電子システムを介して感知及び/又は相互作用する全体的又は部分的にシミュレーションされた環境を指す。CGRでは、人の物理的動作のサブセット又はその表現がトラッキングされ、それに応答して、CGR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特性が、少なくとも1つの物理学の法則に適合するように調整される。例えば、CGRシステムは、人の頭部が回転するのを検出し、それに応じて、その人に提示するグラフィックコンテンツ及び音場を、そのような視界及び音が物理的環境において変化するであろうと似たように調整することができる。状況によっては(例えば、利用しやすさの理由から)、CGR環境における仮想オブジェクト(単数又は複数)の特性(単数又は複数)に対する調整は、物理的動作の表現(例えば、音声コマンド)に応じて行われてもよい。
人は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちの任意の1つを使用して、CGRオブジェクトを感知し、かつ/又はCGRオブジェクトと相互作用してもよい。例えば、人は、3D空間において点音源の知覚を提供する、3D又は空間的広がりを有するオーディオ環境を作り出すオーディオオブジェクトを感知し、かつ/又はそれと相互作用することができる。別の例では、オーディオオブジェクトは、コンピュータ生成オーディオを含め、又は含めずに、物理的環境から周囲音を選択的に組み込むオーディオ透過性を可能にすることができる。いくつかのCGR環境では、人は、オーディオオブジェクトのみを感知し、及び/又はそれと相互作用することができる。
CGRの例としては、仮想現実及び複合現実が挙げられる。
仮想現実(virtual reality、VR)環境とは、1つ以上の感覚について、全面的にコンピュータ生成感覚の入力に基づくように設計されたシミュレーション環境を指す。VR環境は、人が感知及び/又は相互作用することができる複数の仮想オブジェクトを含む。例えば、木、建物、及び人々を表すアバターのコンピュータ生成画像は、仮想オブジェクトの例である。人は、コンピュータ生成環境内に人が存在することのシミュレーションを通じて、かつ/又はコンピュータ生成環境内での人の物理的動作のサブセットのシミュレーションを通じて、VR環境における仮想オブジェクトを感知し、かつ/又はそれと相互作用することができる。
コンピュータ生成感覚入力に全面的に基づくように設計されたVR環境とは対照的に、複合現実(mixed reality、MR)環境は、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計されたシミュレーション環境を指す。仮想性の連続体上において、複合現実環境は、一方の端部における完全な物理的環境と、他方の端部における仮想現実環境との間にあるがこれらを含まないどこかにある。
いくつかのMR環境では、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変化に応答し得る。また、MR環境を提示するためのいくつかの電子システムの一部は、仮想オブジェクトが現実のオブジェクト(すなわち、物理的環境からの物理的物品又はその表現)と相互作用することを可能にするために、物理的環境に関する所在場所及び/又は向きをトラッキングすることができる。例えば、システムは、仮想の木が物理的な地面に対して静止して見えるような動きに責任を有し得る。
複合現実の例としては、拡張現実及び拡張仮想現実が挙げられる。
拡張現実(augmented reality、AR)環境は、1つ以上の仮想オブジェクトが物理的環境上又はその表現上に重ねられたシミュレーション環境を指す。例えば、AR環境を提示するための電子システムは、人が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイ上に仮想オブジェクトを提示するように構成されていてもよく、それによって、人はシステムを使用して、物理的環境上に重ねられた仮想オブジェクトを知覚する。あるいは、システムは、不透明ディスプレイと、物理的環境の表現である、物理的環境の画像又は動画をキャプチャする1つ以上の撮像センサとを有してもよい。システムは、画像又は動画を仮想オブジェクトと合成し、その合成物を不透明なディスプレイ上に提示する。人は、システムを使用して、物理的環境の画像又は動画によって物理的環境を間接的に見て、物理的環境上に重ねられた仮想オブジェクトを知覚する。本明細書で使用するとき、不透明ディスプレイ上に示される物理的環境の動画は、「パススルー動画」と呼ばれ、システムが、1つ以上の撮像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明ディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に代替的に、システムは、仮想オブジェクトを、物理的環境に、例えば、ホログラムとして又は物理的表面上に投影するプロジェクションシステムを有してもよく、それによって、人は、システムを使用して、物理的環境上に重ねられた仮想オブジェクトを知覚する。
拡張現実環境はまた、物理的環境の表現がコンピュータ生成感覚情報によって変換されるシミュレーション環境を指す。例えば、パススルー動画を提供する際に、システムは、1つ以上のセンサ画像を変換して、撮像センサによってキャプチャされた遠近法とは異なる選択された遠近法(例えば、視点)による面付けを行うことができる。別の例として、物理的環境の表現は、その一部分をグラフィカルに変更(例えば、拡大)することによって変換されてもよく、それにより、変更された部分を元のキャプチャ画像を表すが写実的はないバージョンとすることができる。更なる例として、物理的環境の表現は、その一部分をグラフィカルに除去又は曖昧化することによって変換されてもよい。
拡張仮想(augmented virtuality、AV)環境は、物理的環境からの1つ以上の感覚入力を仮想環境又はコンピュータ生成環境が組み込むシミュレーション環境を指す。感覚入力は、物理的環境の1つ以上の特性の表現であり得る。例えば、AVパークには、仮想の木及び仮想の建物があり得るが、顔がある人々は、物理的な人々を撮った画像から顔が写実的に再現される。別の例として、仮想オブジェクトは、1つ以上の撮像センサによって撮像された物理的物品の形状又は色を採用してもよい。更なる例として、仮想オブジェクトは、物理的環境における太陽の位置と整合性のある影を採用することができる。
人が様々なCGR環境を感知し、かつ/又はCGR環境と相互作用することを可能とする、多くの様々に異なる電子システムが存在する。例としては、スマートフォン、タブレット、デスクトップ/ラップトップコンピュータ、ヘッドマウントシステム、プロジェクションベースシステム、ヘッドアップディスプレイ(heads-up display、HUD)、統合表示機能を有する車両ウィンドシールド、統合表示機能を有する窓、(例えば、コンタクトレンズと同様に)人の目に接して配置されるように設計されたレンズとして形成されたディスプレイ、ヘッドホン/イヤフォン、スピーカアレイ、入力システム(例えば、触覚フィードバックを有する若しくは有さないウェアラブル若しくはハンドヘルドコントローラ、並びに/又はハンドトラッキング機能及び/若しくは他の身体姿勢推定機能を有するカメラ)が挙げられる。
ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型不透明ディスプレイを有してもよい。あるいは、ヘッドマウントシステムは、外部の不透明ディスプレイ(例えば、スマートフォン)を受け入れるように構成されたヘッドマウントエンクロージャ(head-mounted enclosure、HME)であってもよい。ヘッドマウントシステムは、物理的環境の画像若しくは動画をキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境の音声をキャプチャするための1つ以上のマイクロフォンを組み込んでいてもよい。ヘッドマウントシステムは、不透明ディスプレイではなく、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、媒体であって、それを通って画像を表す光が人の目に向けられる媒体を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、液晶オンシリコン、レーザスキャン光源、又はこれらの技術の任意の組み合わせを利用することができる。媒体は、光導波路、ホログラム媒体、光結合器、光反射器、又はこれらの任意の組み合わせであってもよい。一実装形態において、透明又は半透明のディスプレイは、選択的に不透明になるように構成されていてもよい。プロジェクションベースシステムは、グラフィック画像を人間の網膜上に投影する網膜投影技術を採用することができる。プロジェクションシステムはまた、例えば、ホログラムとして、又は物理的表面上に、仮想オブジェクトを物理的環境内に投影するように構成されていてもよい。
CGR(AR)技術は、ユーザの日常生活の不可欠な部分となる可能性を有する。CGRを実装するデバイスは、ナビゲーションを初め、気象、建築、ゲームまで、及び更により多くの、あらゆる局面に関する情報をユーザに提供することができる。しかしながら、ユーザは提供される情報量に圧倒され、情報がユーザの関心に適さない場合がある。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサ及び非一時的メモリを備える電子デバイスにおいて実行される。方法は、画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得することを含む。この方法はまた、パススルー画像データ内の認識された対象がユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定することを含む。この方法は、パススルー画像データ内の認識された対象が信頼スコア閾値を満たすと判定したことに応じて、認識された対象に関連付けられた1つ以上のコンピュータ生成現実(AR)コンテンツアイテムを生成することを更に含む。この方法は、パススルー画像データを、視野内の認識された対象に近接した1つ以上のCGRコンテンツアイテムと合成することを追加的に含む。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサ及び非一時的メモリを備える電子デバイスにおいて実行される。この方法は、デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得することを含む。この方法はまた、ユーザコンテキスト及び第1の姿勢に基づいて、対象の第1のセットのそれぞれに対して尤度推定値を判定することを含む。この方法は、対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定することを更に含む。この方法は、少なくとも1つの尤度推定値が信頼閾値を上回ると判定したことに応じて、少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及びユーザコンテキストを使用して、少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成することを追加的に含む。
いくつかの実施形態では、電子デバイスは、ディスプレイと、1つ以上の入力デバイスと、1つ以上のプロセッサと、非一時的メモリと、1つ以上のプログラムと、を含み、1つ以上のプログラムは、非一時的メモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書に記載の方法のいずれかの動作を実行する又は実行させる命令を含む。いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体は、命令を内部に記憶し、命令はディスプレイ及び1つ以上の入力デバイスを備える電子デバイスの1つ以上のプロセッサによって実行されると、本明細書に説明する方法のうちのいずれかをデバイスに実行させる、又はその動作実行をもたらす。いくつかの実施形態によれば、電子デバイスは、ディスプレイ、1つ以上の入力デバイス、及び本明細書に開示される方法のいずれかの動作を実行する又は実行させる手段を含む。いくつかの実施形態によれば、ディスプレイ及び1つ以上の入力デバイスを備える電子デバイスにおいて使用するための情報処理装置は、本明細書に開示される方法のいずれかの動作を実行する又は実行させる手段を含む。
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
図面に示される例示的な実装形態の十分な理解を提供するために、数多くの詳細が記載されている。しかしながら、図面は単に本開示のいくつかの例示的な態様を示すものであり、したがって、限定的であると考慮されるべきではない。当業者であれば、他の有効な態様及び/又は変形が本明細書に記載される特定の詳細全てを含むものではないと理解するであろう。さらに、本明細書に記載される例示的な実装形態のより適切な態様を不明瞭にしないよう、周知のシステム、方法、構成要素、デバイス及び回路は、網羅的に詳細を記載していない。
以下に記載される実施形態では、画像センサによってキャプチャされた視野を特徴付けるパススルー画像データは、1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムと合成される。1つ以上のCGRコンテンツアイテムは、パススルー画像データ内の認識された対象と関連付けられ、パススルー画像データ内の認識された対象は、信頼スコア閾値を満たす。合成された画像内で、1つ以上のCGRコンテンツアイテムは、視野内の認識された対象に近接して配置される。したがって、以下に記載される実施形態は、ユーザ固有コンテンツのシームレスな統合を提供する。ユーザの関心の尤度に基づいて、ユーザ固有のコンテンツが生成され、ユーザに表示される。例えば、ユーザの視野内でカップケーキが認識されたときに、カップケーキのレシピ又はカップケーキの栄養情報が生成され、ユーザに表示される。したがって、本明細書に記載される様々な実施形態に従って生成された推奨されるCGRコンテンツアイテムにより、検索クエリに手動で入力する又は好みを示す必要なしに、ユーザがユーザの体験に没入したままでいることが可能になる。シームレスな統合はまた、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
以下に記載される実施形態では、デバイスの姿勢に関連付けられた対象のセットが取得され、対象のセットのそれぞれに対する尤度推定値は、ユーザコンテキスト及び姿勢に基づいて判定される。対象のセット内の少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションが生成される。推奨されるコンテンツ又はアクションは、対象のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回ると判定したことに応じて、少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子を使用して生成される。したがって、以下に記載される実施形態は、ユーザが対象に関心がある可能性の高さに基づいて、推奨されるCGRコンテンツを生成するプロセスを提供する。したがって、本明細書に記載される様々な実施形態によるコンテンツの推奨は、情報又は次のアクションを捜し出すときに必要な時間とユーザ入力を減少させ、シームレスなユーザ体験を提供する。またこれは、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることで、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
図1は、いくつかの実装形態に係る、例示的な動作環境100のブロック図である。関連する特徴が示されているが、当業者であれば、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないように簡潔化するために、様々な他の特徴が示されていないことを、本開示から理解するであろう。そのため、非限定的な実施例として、動作環境100は、コントローラ102と、CGRデバイス104とを含む。図1の実施例において、CGRデバイス104は、ユーザ10によって装着されている。
いくつかの実装形態では、CGRデバイス104は、タブレット又は携帯電話に対応する。様々な実装態様では、CGRデバイス104は、ヘッドマウントデバイス(head-mounted device、HMD)、又は内部に挿入されたタブレット若しくは携帯電話を有するヘッドマウントエンクロージャ(HME)などの、ヘッドマウントシステムに対応する。いくつかの実装形態では、CGRデバイス104は、CGRコンテンツをユーザに提示するように構成されている。いくつかの実装形態では、CGRデバイス104は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。
いくつかの実装態様によれば、CGRデバイス104は、ユーザがシーン106内に仮想的及び/又は物理的に存在している間に、ディスプレイ122を介して、CGRコンテンツをユーザに提示する。いくつかの実装態様では、CGRデバイス104は、仮想コンテンツ(例えば、仮想円筒109)を提示し、ディスプレイ上におけるシーン106の(例えば、テーブル107の表現117を含む)動画パススルーを可能にするように構成されている。いくつかの実装態様では、CGRデバイス104は、仮想コンテンツを提示し、シーン106の光学シースルーを可能にするように構成されている。
いくつかの実装態様では、ユーザは、自分の手(単数又は複数)でCGRデバイス104を保持する。いくつかの実装形態では、ユーザは、CGRデバイス104を自分の頭部に装着する。したがって、CGRデバイス104は、CGRコンテンツを表示するために提供された1つ以上のCGRディスプレイを含む。例えば、CGRデバイス104は、ユーザの視野を包囲する。いくつかの実装形態では、CGRデバイス104は、CGRコンテンツを提示するように構成され、ユーザがCGRデバイス104を装着しないCGRチャンバ、エンクロージャ、又は部屋に置き換えられる。
いくつかの実装形態では、コントローラ102は、ユーザに対するCGRコンテンツの提示を管理及び調整するように構成されている。いくつかの実装形態では、コントローラ102は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。いくつかの実装形態では、コントローラ102は、シーン106に対してローカル又はリモートであるコンピューティングデバイスである。例えば、コントローラ102は、シーン106内に位置するローカルサーバである。別の例では、コントローラ102は、シーン106の外側に位置するリモートサーバ(例えば、クラウドサーバ、中央サーバなど)である。いくつかの実装形態では、コントローラ102は、1つ以上の有線又は無線通信チャネル144(例えば、BLUETOOTH、IEEE 802.11x、IEEE 802.16x、IEEE 802.3xなど)を介して、CGRデバイス104と通信可能に結合される。いくつかの実装形態では、コントローラ102の機能は、CGRデバイス104によって提供され、かつ/又はCGRデバイス104と組み合わされる。
図1に示すように、CGRデバイス104は、シーン106の表現を提示する。いくつかの実装態様では、シーン106の表現は、コントローラ102及び/又はCGRデバイス104によって生成される。いくつかの実装態様では、シーン106の表現は、シーン106のシミュレートされた置換である仮想シーンを含む。換言すれば、いくつかの実装態様では、シーン106の表現は、コントローラ102及び/又はCGRデバイス104によってシミュレートされる。そのような実装態様では、シーン106の表現は、CGRデバイス104が位置するシーン106とは異なる。いくつかの実装態様では、シーン106の表現は、(例えば、仮想円筒109を含む)シーン106の修正されたバージョンである拡張されたシーンを含む。例えば、いくつかの実装態様では、コントローラ102及び/又はCGRデバイス104は、シーン106の表現を生成するために、シーン106を修正(例えば、拡張)する。いくつかの実装態様では、コントローラ102及び/又はCGRデバイス104は、シーン106の複製をシミュレートすることによってシーン106の表現を生成する。いくつかの実装態様では、コントローラ102及び/又はCGRデバイス104は、シーン106のシミュレートされた複製からアイテムを除去かつ/又は追加することによって、シーン106の表現を生成する。
図2A〜図2Gは、いくつかの実施形態に係る、ユーザ固有のコンピュータ生成現実(CGR)コンテンツをレンダリングするための例示的なユーザインタフェースを示す。これらの図でのユーザインタフェースは、図5でのプロセスを含む後述のプロセスを例示するために使用される。いくつかの実施形態では、デバイスは、ディスプレイとは別個の入力デバイス(例えば、音声起動コマンドを有するヘッドマウントデバイス(HMD)、別個のタッチパッド及びディスプレイを有するラップトップ、又は別個のマウス及びディスプレイを有するデスクトップ)を介して入力を検出する。
図2Aに示すように、デバイス104は、メディアキャプチャ/相互作用インタフェース202を表示する。いくつかの実施形態によれば、画像センサの視野内の対象を有するシーンを表示するメディアキャプチャ/相互作用インタフェース202。シーンを表す画像データ(又はパススルー画像データ)は、画像センサによってキャプチャされる。いくつかの実施形態では、パススルー画像データは、プレビュー画像、表面画像(例えば、平面)、深度マッピング、(例えば、深度マッピングのための)アンカー座標、及び/又は同様のものを含む。いくつかの実施形態では、パススルー画像データは、視覚コンテンツのみを含むのでなく、オーディオコンテンツ、3Dレンダリング、(表示された実際のフレームの)タイムスタンプ、ヘッダファイル(例えば、コントラスト、彩度、ホワイトバランスなどのカメラ設定)、及び/又はメタデータも含む。
図1を参照して上述したように、いくつかの実施形態では、シーンをキャプチャするための画像センサは、デバイス104の一部である、又はデバイス104に取り付けられており、一方、いくつかの他の実施形態では、画像センサは、例えば、デバイス104からリモートのカメラ上にあるなど、デバイス104から分離されている。様々な実施形態では、シーンは、図2C〜図2Gを参照して以下に示すように、画像センサの視野が変化するにつれて変化する。図2Aでは、メディアキャプチャ/相互作用インタフェース202は、「201」としてラベル付けされたドアサイン210を有する開放出入口を含む。メディアキャプチャ/相互作用インタフェース202はまた、開放出入口を通して、部屋内の絵画フレーム220及びテーブル230を示す。
図2Bは、メディアキャプチャ/相互作用インタフェース202内において、CGRコンテンツアイテムを有してレンダリングされた合成パススルー画像データを示す。いくつかの実施形態によれば、合成パススルー画像データは、部屋に関連付けられた部屋情報212及びフロアマップ214などの情報を含む。部屋情報212及びフロアマップ214は、デバイス104がドアサイン210を認識して、ユーザが部屋及び建物に関してより知ることに関心があると判定することに基づいて生成された、CGRコンテンツアイテムである。いくつかの実施形態では、ドアサイン210の周囲の点線によって示されるように、視野内における認識された対象は、追加のCGRコンテンツアイテム212及び214の認識された対象210との関連付けを示すために強調されている。いくつかの実施形態では、CGRコンテンツアイテム212及び214は、認識された対象210の近くでアニメーション化(例えば、点滅する、収縮する/拡大する、移動するなど)されて、認識された対象210との関連付けを示す。いくつかの実施形態では、デバイス104のディスプレイ上にCGRコンテンツアイテム212及び214を表示することに加えて、又はそれに代えて、CGRコンテンツアイテムとしてオーディオコンテンツが再生され、例えば、ドアサイン、部屋情報、及び/又はフロアマップをユーザに対して読み上げる。
図2B〜図2Cは、画像センサの視野の変化に基づいて、メディアキャプチャ/相互作用インタフェース202が更新されるシーケンスを示す。画像センサの視点又は展望点は、図2Bと図2Cとの間で変化する。例えば、図2Cでは、メディアキャプチャ/相互作用インタフェース202内に出入口はもはや表示されず、ユーザが部屋に入ったことを示す。結果として、図2Bに示すようなドアサイン210に関連付けられたCGRコンテンツアイテム212及び214は、もはやユーザに提供されない。代わりに、ユーザが部屋に入ると、ユーザは、部屋の全景を有する。結果として、図2Cに示すように、メディアキャプチャ/相互作用インタフェース202は、部屋の3つの壁を表示する。メディアキャプチャ/相互作用インタフェース202はまた、部屋内の絵画フレーム220、テーブル230、時計240、及び犬236を表示する。加えて、図2Cに示すように、メディアキャプチャ/相互作用インタフェース202は、テーブル230上のカップケーキ232及び本234を表示する。
図2D〜図2Eは、異なるユーザコンテキストに基づいてユーザにレンダリングされた異なるCGRコンテンツアイテムを示す。図2Dでは、合成パススルー画像データは、カップケーキ232に関連付けられたCGRコンテンツアイテム250を含む。CGRコンテンツアイテム250は、カップケーキ232に隣接して、又はカップケーキ232に対してレンダリングされる。更に、CGRコンテンツアイテム250は、カップケーキ232に関連付けられた情報、例えば、カップケーキのカロリーと、カップケーキ232のレシピへのリンク252及びカップケーキ232を食事ログに追加するためのボタン254を含むアフォーダンスとを含む。アフォーダンス252は、カップケーキ232に関連付けられたアクション、例えば、カップケーキ232のレシピを見つけるためにリンク252上でタップすること、又はカップケーキ232を食事ログに追加するためにボタン254をクリックすることを実行するために、オプションとしてユーザに提供される。
図2Dに示すCGRコンテンツアイテム250は、ユーザがカップケーキ232に関心があるとの判定に基づいて生成され、カップケーキ232に関する情報を提供するための推奨がなされる。比較すると、図2Eは、異なるCGRコンテンツアイテム256を示しており、CGRコンテンツアイテム256はカップケーキ232上に重ね合わされている。ユーザは、依然としてカップケーキ230に関心があるものの、CGRコンテンツアイテム256は、例えば、ユーザが食事制限を有するなどの異なるユーザコンテキストに基づいて作成される。
図2Fは、認識された対象(例えば、テーブル230)に近接したCGRコンテンツアイテム260を示し、CGRコンテンツアイテム260は、認識された対象230の少なくとも一部を含む領域262に近接した視線を検出したことに応じて生成されている。図2Fでは、デバイス104は、視線に近接した領域262が、テーブル230の一部、テーブル230上のカップケーキ232の一部、及びテーブル230上の本234の一部を含むことを検出する。デバイス104は、領域262に対応するパススルー画像データのサブセットを使用し、テーブル分類子を画像データのサブセットに適用して、テーブル230を認識する。
いくつかの実施形態では、テーブル分類子は、分類子のクラスタに割り当てられた重みに基づいて選択される。いくつかの実施形態では、分類子は、オブジェクト/対象、例えば、形状、数字、動物、食物、植物、人々、犬、正方形、花、形状、照明などのライブラリ内のエントリに対応する。1つ以上の分類子を使用して、画像データ内の対象を認識することができる。対象認識中、重みが異なる分類子に割り当てられ、1つ以上の分類子が各分類子に関連付けられた重みに基づいて選択され得る。次いで、選択された分類子(単数又は複数)を、画像データ内の対象を認識するために使用することができる。
例えば、領域262に近接した視線に基づいて、重みが、テーブル分類子、カップケーキ分類子、及び本分類子に割り当てられる。視線がテーブル表面上に据えられると、テーブル分類子に割り当てられた重みが増加し、一方、カップケーキ分類子及び本分類子に割り当てられた重みは減少する。分類子に割り当てられた重みに基づいて、視線領域262に近接したテーブル対象230を識別するために、テーブル分類子が選択される。テーブル230を認識すると、デバイス104は、テーブル230のスタイルに調和し得る椅子の推奨などのCGRコンテンツ260を、テーブル230に隣接してレンダリングする。
図2Gは、認識された対象234に近接してCGRコンテンツアイテム270(例えば、ポインタに構成された手のアイコン)を示し、そこで、視線領域272は、認識された対象234から閾値距離内にある。図2Gでは、デバイス104は、視線領域272が視野内の犬236の上にあることを検出する。しかしながら、ユーザコンテキストに基づくと、ユーザがメディアキャプチャ/相互作用インタフェース202内において犬236に関するより多くの情報が表示されるのを見ることに関心がある、例えば、ユーザが動物を怖がっている可能性は低い。更にユーザコンテキストに基づいて、デバイスは、ユーザにとって本234がより関心があり(例えば、ユーザは、図書館から本234を最近入手した)、かつ本234が視線領域272から閾値距離内にあると判定する。続いて、デバイス104は、より多くの対象が領域内に含まれ、分析されるように、視線領域272を拡張する。次いで、拡張された視線領域に対応する画像データから、本234が認識され、CGRコンテンツアイテム270が、本234の上方に生成され、レンダリングされる。
図2Gは、ユーザに関する先験的な情報並びに現在のパススルー画像データを入力とする尤度推定を介して、CGRコンテンツアイテム270が特定のユーザに対して生成されることを示す。これは、認識された対象が複数の検索可能要素を含み、それぞれが少なくとも分類子に関連付けられているときに特に有用である。例えば、図2A〜図2Gでは、絵画フレーム220は、フレーム自体、絵画内の花瓶、及び描かれた花瓶内の花を含む、複数の検索可能要素を含む。これらの検索可能要素を区別し、ユーザが関心がある可能性が最も高い要素に対してCGRコンテンツアイテムを生成するために、コンテンツ推奨は、図3を参照してより詳細に後述するように微調整される。
図3は、ユーザが関心がある可能性が最も高い対象を識別するための多重反復プロセス300に関連付けられた抽象ブロック図を示す。関連する特徴が示されているが、当業者は、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的のために、非限定的な例として、図3では、視線領域222が視野内の絵画フレーム220に近接しているとき、絵画フレーム220は、フレーム310、花320、及び花瓶330を含む複数の検索可能要素を含み、そのそれぞれが視線領域に近接している。尤度推定値は、多重反復の間に判定される。
いくつかの実施形態では、尤度推定値のそれぞれは、初期値を割り当てられ、例えば、全ての尤度推定値は、0である、又は尤度推定値は、等しく分配される。図3に示すように、第1の反復中、フレーム310、花320、及び花瓶330に対する尤度推定値は、等しく約1/3に、例えば、フレーム310に対して0.33、花320に対して0.33、及び花瓶330に対して0.34が割り当てられる。第2の反復中、尤度推定値は、第1の反復後の次の時間ステップにおいてユーザが関心があるものを反映するように更新される。更に、図4A〜図4Cを参照して以下で詳細に説明するように、姿勢及び/又はユーザコンテキストの変化が尤度推定値の変化に寄与し得る。したがって、第2の反復中、フレーム310に対する尤度推定値は、0.25であり、花320に対する尤度推定値は、0.00であり、花瓶330に対する尤度推定値は、0.75である。同様に、第3の反復中、姿勢及び/又はユーザコンテキストの更なる変化は、フレーム310に対する尤度推定値を0.75、花320に対する尤度推定値を0.00、及び花瓶330に対する尤度推定値を0.25に変化させる。花320に対する0.00の尤度推定値は、ユーザが花320に関してより知ることに関心がない可能性が最も高いことを示すが、いくつかの実施形態では、デバイスは、ユーザが最も関心がある1つの要素を特定するために、より多くの反復(単数又は複数)を必要とし、例えば、0.25及び0.75の値は、信頼閾値を上回らない。図3に示すように、第4かつ最終の反復中、フレーム310に対する尤度推定値は、0.90まで増加しており、ユーザがフレーム内に描かれた絵画ではなく、フレーム自体に関心がある可能性が最も高いことを示す。
図3に示す選択プロセスは、経時的に、例えば、第2及び第3の反復又は閾値時間の後には、閾値を下回る尤度推定値(例えば、0.00の尤度推定値を有する花)が次の反復に含まれないため、漏斗形状である。複数の反復の後に、尤度推定値は、特定の値に収束し、それにより、ユーザが関心がある可能性が最も高い特定の対象の推奨を行うことができる。
図4A〜図4Cを参照すると、図4A〜図4Cは、いくつかの実施形態に係る、ユーザコンテキスト及び/又は姿勢に基づいてユーザ固有のCGRコンテンツアイテムをレンダリングするための例示的なユーザインタフェースを示す。例示的なユーザインタフェースが図5の推奨コンテンツ生成プロセスを例示するために使用される。
例えば、図4Aでは、デバイス104は、デバイス104の姿勢に基づいて、点線によって示されるように、絵画フレーム220に近接した視線領域222を検出する。絵画フレーム220は、フレーム自体と、絵画内の花瓶と、描かれた花瓶内の花と、を含む。デバイス104の尤度推定器は、対象のそれぞれに対する尤度推定値、例えば、フレームに対する尤度推定値、花瓶に対する尤度推定値、及び花に対する尤度推定値を判定する。いくつかの実施形態では、尤度推定値は、ユーザコンテキスト及び姿勢の両方に基づいて判定される。図4Aでは、視線領域222aは、フレーム、花瓶、及び花に近接している。ユーザコンテキスト、例えば、ユーザが画家ではなく、植物学者であることを使用して、ユーザがフレーム220内に描かれた花に関心がある可能性がより高い。したがって、デバイス104は、推奨されるコンテンツ224を生成して、ユーザに花情報を提供する。
図4B〜図4Cは、メディアキャプチャ/相互作用インタフェース202が、図4Aに示すインタフェースに対して更新されることを示す。図4Aに示すビューに対して、図5B〜図5Cに示すようなデバイス104の視点又は展望点は、例えば、デバイス104の移動に起因して、視野が右にシフトするにつれて変化する。視線が右にシフトするにつれて、視線領域222bは、中央の絵画フレーム220から離れて移動し、右に移動する。図4Bは、姿勢の変化の結果として、デバイス104は、右の壁上の時計がユーザの関心の対象であることを予測し、時計240に隣接するイベントカレンダー242が生成されることを示す。図4Cは、視線領域222cが時計240に更に近づいて移動するにつれて、別の推奨されるコンテンツ244がインタフェース202内に示されることを示す。推奨されるコンテンツ244は、獣医に行くための時間であり、かつユーザが獣医訪問の準備のため、犬236に関連付けられた情報を取得することにより関心があるというユーザコンテキストに基づいて生成される。
図5は、いくつかの実施形態に係る、CGR環境において最適な推奨を配信するためのプロセス500に関連付けられた抽象ブロック図を示す。関連する特徴が示されているが、当業者は、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。例えば、プロセス500を実施するシステムは、複数の分散デバイスを含む異種システムであってもよい。したがって、点線で示されるように、計算負荷の高いタスクを実行するいくつかの構成要素は、リモートエージェント上に実装され、ローカル、ピアツーピア、及び分散型エージェントの間で動的に再構成することができる。
図5に示すように、スキャナ510(例えば、図8の画像キャプチャ制御モジュール850)は、画像を取得し、画像データ又はパススルー画像データを導出する。いくつかの実施形態では、パススルー画像データは、オーディオコンテンツ、視覚コンテンツ、3Dレンダリング、(表示された実際のフレームの)タイムスタンプ、ヘッダファイル(カメラ設定:コントラスト、彩度、ホワイトバランスなどの全てを含む)、及び/又はメタデータを含む。いくつかの実施形態では、パススルー画像データは、プレビュー画像、表面画像(例えば、平面)、深度マッピング、アンカー座標(例えば、深度マッピングのための)を含む。いくつかの実施形態では、パススルー画像データと共に、スキャナ510はまた、デバイスの姿勢情報、例えば、画像センサの視野内の焦点、画像センサから複数の現実世界オブジェクトまでの距離、視野内の対象によって占有される視覚空間の割合、及び/又は現在の視線なども提供する。
いくつかの実施形態では、ユーザコンテキスト505は、ユーザ固有の推奨プロファイル内に指定される。いくつかの実施形態では、ユーザ固有の推奨プロファイルは、ユーザ履歴、ユーザ固有リスト、ユーザ入力可能モジュール(例えば、エンジンの修理などの職業固有又はタスク固有の)、及び/又は同様のものを含む。
いくつかの実施形態では、分析器520は、複数の分類子522を含む。いくつかの実施形態では、複数の分類子522は、例えば、形状、数字、動物、食物、植物、人々などの対象のライブラリ内のエントリに対応する。例えば、犬を識別するための犬分類子などの分類子は、関連付けられた重みと共に尤度推定器530に提供される。
分析器520からの入力と共に、尤度推定器530は、スキャナ510から画像データ及び姿勢情報を受信し、ユーザコンテキスト505を受信する。受信した情報に基づいて、尤度推定器530は、ユーザが関心がある可能性が最も高い視野内の対象を特定し、図2A〜図2G及び図4A〜図4Cに示すように、ユーザが見るかつ/又は相互作用するための推奨されるCGRコンテンツアイテム560を生成する。
いくつかの実施形態では、カスケードキャッシュ550−1、550−2、550−3...550−Nが、対象の識別及びCGRコンテンツアイテム推奨を容易にするために使用される。対象及び関連付けられた推奨は、重みの順序でカスケードキャッシュに記憶される。例えば、1回の反復中、第1のカスケードキャッシュ550−1は、最も低い推奨重みを有する対象を記憶し、最後のカスケードキャッシュ550−Nは、最も高い推奨重みを有する対象を記憶する。したがって、第1のカスケードキャッシュ550−1は、この段階でユーザに最も重要でない又は関連性がないと判定された対象に関する情報を含み、最後のカスケードキャッシュ550−Nは、この段階でユーザに最も重要である又は関連性があると判定された対象に関する情報を含む。図3に示すような後続の段階又は反復の間、カスケードキャッシュ550に記憶された情報は、ユーザコンテキスト及び/又は姿勢の変化に従って調整することができる。
いくつかの実施形態では、尤度推定器530からの結果を微調整するために、微細整合540が実行される。いくつかの実施形態では、微細整合540は、ローカルデバイスの計算リソースを節約するためにリモートで(例えば、第2のデバイスで)実行される。そのような実施形態では、エンコーダ532を使用して、リモートソースへのデータの効率的な通信のためにベクトルの次元を低減する。エンコードされたデータを受信すると、リモートソース上のデコーダ542が、微細粒度整合が実行される前にデータをデコードする。いくつかの実施形態では、リモートソースにおいて、特定のユーザに対するより良い推奨を生成することができるように、機械学習が複数のユーザにわたって適用される。
図6は、いくつかの実施形態に係る、ユーザ固有のCGRコンテンツアイテムをレンダリングする方法600のフローチャート表現である。いくつかの実施形態では(また、一実施例として下記で詳述するように)、方法600は、1つ以上のプロセッサ及び非一時的メモリを含む、図1における電子デバイス104又は図3におけるデバイス300などの電子デバイス(又はその一部)によって実行される。いくつかの実施形態では、デバイスはまた、画像センサ又はカメラアセンブリと、ディスプレイと、1つ以上の入力デバイスとを含む。例えば、ディスプレイ及び1つ以上の入力デバイスは、タッチスクリーンディスプレイに統合される。この実施例では、電子デバイスは、スマートフォン又はタブレットに対応する。別の実施例では、ディスプレイ及び1つ以上の入力デバイスは別個である。この実施例では、電子デバイスは、ラップトップコンピュータ又はデスクトップコンピュータに対応する。例えば、電子デバイスは、ウェアラブルコンピューティングデバイス(ユーザの目(単数又は複数)を包囲する若しくは包囲しないHMD、又は1つ以上のCGRディスプレイを有するCGR提示デバイスを含む)、スマートフォン、タブレット、ラップトップコンピュータ、デスクトップコンピュータ、キオスク、セットトップボックス(set-top box、STB)、オーバーザトップ(over-the-top、OTT)ボックス、ゲーム機、及び/又は同様のものに対応する。いくつかの実施形態では、画像センサは、例えば、デバイス104からリモートのカメラ上にあるなど、デバイスから分離されている。
いくつかの実施形態では、方法600は、ハードウェア、ファームウェア、ソフトウェア、又はそれらの好適な組み合わせを含む処理ロジックによって実行される。いくつかの実施形態では、方法600は、非一時的コンピュータ可読記憶媒体(例えば、非一時的メモリ)に記憶されたコード、プログラム、又は命令を実行する1つ以上のプロセッサによって実行される。方法600の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。簡潔に述べると、方法600は、画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得することと、パススルー画像データ内の認識された対象がユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定することと、パススルー画像データ内の認識された対象が信頼スコア閾値を満たすと判定したことに応じて、認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成することと、パススルー画像データを、視野内の認識された対象に近接した1つ以上のCGRコンテンツアイテムと合成することと、を含む。
方法600は、ブロック602において、電子デバイスが、シーンデータを取得することで開始する。いくつかの実施形態によれば、デバイス104又はその構成要素(例えば、図8における画像キャプチャ制御モジュール850)は、画像センサ又はカメラアセンブリを用いて、第1の基準点/展望点(例えば、カメラ位置、姿勢、又は視野)からのシーンの画像(単数又は複数)をキャプチャすることによって、シーンデータ(例えば、画像データ又はパススルー画像データ))を取得する。デバイス104又はその構成要素(例えば、図8の画像処理モジュール852)は、視野を特徴付けるパススルー画像データを導出する。例えば、図2Aでは、デバイス104は、パススルー画像データを取得し、部屋のドア上のドアサイン210、テーブル230、及び部屋内の絵画フレーム220を有する部屋に対応するシーンを含むメディアキャプチャ/相互作用インタフェース202を表示する。この例を続けると、図2Cでは、メディアキャプチャ/相互作用インタフェース202は、右の壁上の時計240、左の壁に近い犬236、並びにテーブル230上のカップケーキ232及び本234も含む、部屋内のシーンを描写する。
方法600は、ブロック604において、電子デバイスが、パススルー画像データ内の認識された対象がユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定することで継続する。換言すれば、デバイス104又はその構成要素(例えば、図8の対象認識モジュール854又は図5の尤度推定器530)は、ユーザがパススルー画像データ内の認識された対象に関心がある可能性が高いかどうかを判定する。いくつかの実施形態では、電子デバイスは、ユーザ固有の推奨プロファイルに基づいて、ユーザの好みに関する情報を取得した。例えば、図2Aを参照すると、デバイス104は、ユーザ履歴、ユーザ固有リスト、ユーザ入力可能モジュール(例えば、エンジン修理などの職業固有又はタスク固有の)、及び/又は同様のものなどのユーザ固有の推奨プロファイルを使用して、ユーザがドアサイン210に関連付けられた部屋及び建物に関してより知ることに関心があるかどうかを判定する。
いくつかの実施形態では、ユーザ固有の推奨プロファイルは、デバイスと相互作用するユーザのコンテキスト、ユーザのバイオメトリクス、ユーザによる以前の検索、又はユーザのプロファイルのうちの少なくとも1つを含む。例えば、デバイスと相互作用するユーザのコンテキストは、ユーザによって行われた、獣医、カップケーキ屋などへの最近の注文を含む。別の実施例では、生体センサを使用して、ユーザのバイオメトリクス、例えば、ユーザが対象に対して経験する悲しみ又は興奮を示す血圧及び/又は心拍数の上昇を測定することができる。更に別の実施例では、ユーザ固有の推奨プロファイルは、ユーザによる以前の検索及び取られた関連付けられたアクション、例えば、ユーザが以前に複数回カップケーキを検索したが、以前の全ての場合にカップケーキに「いいえ」と言うことに決めたことを含む。更に別の実施例では、ユーザプロファイル内のメタデータは、重み及び/又は尤度推定値を割り当てるための先験的な情報を示すことができる。
いくつかの実施形態では、パススルー画像データ内の認識された対象は、ブロック606によって表される視野内の領域における視線を検出することと、ブロック608によって表される領域に対応するパススルー画像データのサブセットを取得することと、ブロック610によって提示されるパススルー画像データのサブセット及び分類子に基づいて認識された対象を識別することと、によって認識される。例えば、図2Bでは、ドアサイン210に近接した領域における視線を検出すると、デバイス104又はその構成要素(例えば、図8の画像処理モジュール852又は図5の尤度推定器530)は、ドアサイン210に近接した領域に対応するパススルー画像データのサブセットを更に処理する。次いで、デバイス104は、パススルー画像データのサブセット及びドアサイン分類子を使用して、ドアサイン210を識別する。
いくつかの実施形態では、方法600は、ブロック612において、電子デバイスが、視線に基づいて、分類子のそれぞれが視線領域内の対象に関連付けられた分類子に重みを割り当てて、視線の更新に基づいて分類子に対する重みを調整することとで更に継続する。いくつかの実施形態では、方法600は、ブロック614において、電子デバイスが分類子のうちから最も高い重みを有する分類子を選択することで更に継続する。
例えば、図2Cでは、視線を検出する前に、等しい重みが視野内の全ての対象に割り当てられ、例えば、等しい重みが絵画フレーム220、テーブル230、カップケーキ232、本234、時計240、及び犬236に割り当てられる。図2D及び図2Eに続き、視線がテーブル230上のカップケーキ232に据えられると、カップケーキ分類子に関連付けられた重みが増加し、他の分類子に関連付けられた重みは減少する。結果として、カップケーキ232の対象を認識し、カップケーキ232に関連付けられたCGRコンテンツアイテム、例えば、図2Dに示すようなカップケークのレシピへのリンク252及び追加アフォーダンス(例えば、ボタン254)を有するCGRコンテンツアイテム250、又は図2Eに示すようなカップケーキ禁止サイン(例えばCGRコンテンツアイテム256)を推奨するために、分類子からカップケーキ分類子が選択される。
いくつかの実施形態では、ブロック616によって表されるように、視線領域は、認識された対象の少なくとも一部を含む。例えば、図2Fでは、視線領域262は、テーブル230の一部、テーブル230上のカップケーキ232の一部、及びテーブル230上の本234の一部を含む。デバイス104は、テーブル230を識別するために、テーブル画像データの少なくとも一部を使用し、テーブル分類子をテーブル画像データに適用して、テーブル230を認識する。比較すると、いくつかの実施形態では、ブロック618によって表されるように、視線領域は、CGRコンテンツ推奨のために認識された対象から閾値距離内にあり、認識された対象は、ユーザ固有の推奨プロファイルに基づいて識別される。例えば、図2Gでは、視線領域272は、犬236に近接しているが、一方、認識された対象は、テーブル230上の本234である。ユーザ固有の推奨プロファイルは、ユーザが犬236よりも本234により関心があることを示し、かつ本234が視線領域272から閾値距離内にあるため、ユーザが関心がある可能性が最も高い対象として、本234が識別される。したがって、視線領域272は、本の画像データを含むように拡張されて、より高い重みが本分類子に割り当てられ、本分類子は、関心のある対象として本234を識別するために、拡張された画像データを処理するために使用される。
いくつかの実施形態では、ブロック620によって表されるように、認識された対象は、複数の検索可能要素を含み、それぞれが、少なくとも1つの分類子に関連付けられている。例えば、絵画フレーム220は、複数の検索可能要素、フレーム自体、絵画内の花瓶、及び描かれた花瓶内の花を含む。これらの検索可能要素を区別し、ユーザが関心がある可能性が最も高い要素に対してCGRコンテンツアイテムを生成するために、コンテンツ推奨は、図3を参照して上述したように微調整される。
更に図6を参照すると、方法600は、ブロック622において、電子デバイスが、パススルー画像データ内の認識された対象が信頼スコア閾値を満たすと判定したことに応じて、認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成することで、継続する。いくつかの実施形態によれば、デバイス104又はその構成要素(例えば、図8のCGRコンテンツ推奨モジュール856)によって生成された1つ以上のCGRコンテンツアイテムは、認識された対象に関連付けられた情報、又は認識された対象に関連付けられたアクションを実行するオプションのうちの少なくとも1つを含む。例えば、図2Bに示すような部屋に関するテキスト212及びフロアに関するテキスト214、図2Dに示すようなストア情報(例えば、CGRコンテンツアイテム250)、カップケーキレシピへのリンク252、及びカップケーキを食事ジャーナルに追加するボタン254、図2Eのカップケーキ禁止サイン(例えば、CGRコンテンツアイテム256)、図2Fに示すような椅子の推奨(例えば、CGRコンテンツアイテム260)、又は図2Gに示すような本234を指すインジケータ270である。
方法600は、ブロック624において、電子デバイスがパススルー画像データを1つ以上のCGRコンテンツアイテムと合成することで継続する。いくつかの実施形態では、電子デバイスは、視野内のパススルー画像データを、認識された対象に近接して表示された1つ以上のCGRコンテンツアイテムと共に更にレンダリングする。いくつかの他の実施形態では、1つ以上のCGRコンテンツアイテムは、デバイスを使用するユーザの視野に従って、認識された対象に隣接して表示される。例えば、CGR対応眼鏡の場合、画像センサを有するカメラとユーザの光列(optical train)は、別個の2つのものであってもよい。したがって、1つ以上のCGRコンテンツアイテムの位置(単数又は複数)は、画像センサ又はユーザの視野に基づいて判定することができる。あるいは、画像センサ及びユーザの視野は、一致させることができ、例えば、一方を他方に重ね合わせることができる。そのような実施形態では、1つ以上のCGRコンテンツアイテムの位置(単数又は複数)は、画像センサ及びユーザの視野に基づいて判定することができる。
例えば、デバイス104又はその構成要素(例えば、図8のCGRコンテンツレンダリングモジュール858、又は図5の閲覧及び相互作用モジュール560)は、例えば、図2Aに示すように、部屋情報212及びフロアマップ214をドアサイン210の隣に表示するなど、対象に関するテキスト又はサインを対象の隣に表示し、図2Eに示すように、カップケーキ232上にカップケーキ禁止サイン256を重ね合わせ、図2Fに示すように、椅子の推奨(例えば、CGRコンテンツアイテム260)をテーブル230の隣に表示し、図2Gに示すように、ポインティングサイン270を本234に対して浮かばせる。別の例では、デバイス104又はその構成要素(例えば、図8のCGRコンテンツレンダリングモジュール858、又は図5の閲覧及び相互作用モジュール560)は、例えば、図2Dに示すように、カップケーキレシピへのリンク252をカップケーキ232の上方に表示するなど、対象へのリンクを対象に隣接して表示する。更に別の例では、デバイス104又はその構成要素(例えば、図8のCGRコンテンツレンダリングモジュール858、又は図5の閲覧及び相互作用モジュール560)は、例えば、図2Dに示すように、ボタン254をカップケーキ232の隣に表示するなど、相互作用型アフォーダンスを対象に隣接して表示する。
図7は、いくつかの実施形態に係る、推奨されるCGRコンテンツを生成する方法700のフローチャート表現である。いくつかの実施形態では(また、一実施例として下記で詳述するように)、方法700は、1つ以上のプロセッサ及び非一時的メモリを含む、図1における電子デバイス104又は図3におけるデバイス300などの電子デバイス(又はその一部)によって実行される。いくつかの実施形態では、デバイスはまた、画像センサ又はカメラアセンブリと、ディスプレイと、1つ以上の入力デバイスとを含む。例えば、ディスプレイ及び1つ以上の入力デバイスは、タッチスクリーンディスプレイに統合される。この実施例では、電子デバイスは、スマートフォン又はタブレットに対応する。別の実施例では、ディスプレイ及び1つ以上の入力デバイスは別個である。この実施例では、電子デバイスは、ラップトップコンピュータ又はデスクトップコンピュータに対応する。例えば、電子デバイスは、ウェアラブルコンピューティングデバイス(ユーザの目(単数又は複数)を包囲する若しくは包囲しないHMD、又は1つ以上のCGRディスプレイを有するCGR提示デバイスを含む)、スマートフォン、タブレット、ラップトップコンピュータ、デスクトップコンピュータ、キオスク、セットトップボックス(set-top box、STB)、オーバーザトップ(over-the-top、OTT)ボックス、ゲーム機、及び/又は同様のものに対応する。いくつかの実施形態では、画像センサは、例えば、デバイス104からリモートのカメラ上にあるなど、デバイスから分離されている。
いくつかの実施形態では、方法700は、ハードウェア、ファームウェア、ソフトウェア、又はそれらの好適な組み合わせを含む処理ロジックによって実行される。いくつかの実施形態では、方法700は、非一時的コンピュータ可読記憶媒体(例えば、非一時的メモリ)に記憶されたコード、プログラム、又は命令を実行する1つ以上のプロセッサによって実行される。方法700の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。簡潔に述べると、方法700は、デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得することと、ユーザコンテキスト及び第1の姿勢に基づいて、対象の第1のセットのそれぞれに対して尤度推定値を判定することと、対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定することと、少なくとも1つの尤度推定値が信頼閾値を上回ると判定したことに応じて、少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及びユーザコンテキストを使用して、少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成することと、を含む。
方法700は、ブロック702において、電子デバイスが、デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得することで開始する。いくつかの実施形態によれば、デバイス104又はその構成要素(例えば、図8における画像キャプチャ制御モジュール850又は図5におけるスキャナ510)は、画像センサ又はカメラアセンブリを用いて、第1の基準点/展望点(例えば、カメラ位置、姿勢、又は視野)からのシーンの画像(単数又は複数)をキャプチャすることによって、シーンデータ(例えば、画像データ又はパススルー画像データ)を取得する。デバイス104又はその構成要素(例えば、図8の画像処理モジュール852)は、視野を特徴付ける画像データを導出し、視野内の対象のセットを認識した。いくつかの実施形態では、対象の第1のセットは、図6を参照して上述したように、デバイスの視野内の第1の領域に近接した視線を検出することと、第1の領域に対応する画像データを取得することと、画像データ及び1つ以上の分類子に基づいて、対象の第1のセットを分類することとによって、(例えば、デバイス104又は図8の対象認識モジュール854などのその構成要素によって)認識される。
方法700は、ブロック704において、電子デバイスが、ユーザコンテキスト及び第1の姿勢に基づいて、対象の第1のセットのそれぞれに対して尤度推定値を判定することで継続する。例えば、図5及び図4Aに示すように、デバイス104又はその構成要素(例えば、図8のCGRコンテンツ推奨モジュール856又は図5の尤度推定器530)は、フレーム自体310、花320、及び花瓶330を含む、視線領域222に近接した対象のセットを取得する。図3に示すように、デバイスは、フレーム310、花320、及び花瓶330に対する尤度推定値を判定する。いくつかの実施形態では、尤度推定値は、複数の対象において、複数の対象のそれぞれにユーザが関心がある可能性の高さの大きさ/重みに対応する。
いくつかの実施形態では、尤度推定値は、再帰的に判定される。ブロック706によって表されるように、いくつかの実施形態では、尤度推定値は、複数の期間中に更新されたユーザコンテキストに基づいて再帰的に判定される。例えば、図3では、第1の反復中の尤度推定値は、第1の期間中に割り当てられ、ユーザコンテキストの値は、第1の反復と第2の反復との間の第2の期間中に更新され得る。結果として、フレーム310、花320、及び花瓶330に対する尤度推定値は、ユーザコンテキストの更新された値、例えば、ユーザはもはや花320に関心がないことに基づいて更新される。ブロック708によって表されるように、いくつかの実施形態では、尤度推定値は、更新された姿勢に基づいて再帰的に判定される。いくつかの実施形態では、デバイス104又はその構成要素(例えば、図8の画像キャプチャ制御モジュール850及び/若しくは図8の画像処理モジュール852、又は図5のスキャナ510)は、デバイスの第2の姿勢に関連付けられた対象の第2のセットであって、少なくとも1つの対象が対象の第1のセット及び第2のセット内にある、対象の第2のセットを取得し、第2の姿勢、ユーザコンテキスト、及び第1の姿勢に基づいて、少なくとも1つの対象に対して少なくとも1つの尤度推定値を判定する。
例えば、図2A〜図2Bでは、デバイス104は、部屋に入る前の第1の基準点からのパススルー画像データを取得する。図2A〜図2Bに示すようなシーンは、部屋のドア上のドアサイン210、テーブル230、及び部屋内の絵画フレーム220などの対象を含む。図2Cでは、ユーザが部屋に入ると、基準点は変化しており、部屋内で、メディアキャプチャ/相互作用インタフェース202は、右の壁上の時計240、左の壁に近い犬236、並びにテーブル230上のカップケーキ232及び本234などの対象を含むシーンを描写する。結果として、基準点の変化により、ユーザがドアサインに関連付けられた部屋又は建物に関するより多くの情報を見る尤度が変化する。別の例として、図4Aでは、デバイス104は、絵画フレーム220が視野の中心にある状態のシーンを取得する。図4Bでは、姿勢の変化により、視野を、中央の絵画フレーム220を見ることから、右の壁に掛かっている時計240をより多く見ることにシフトさせる。結果として、絵画フレーム220及び時計240に対する尤度推定値は、変化する。
いくつかの実施形態では、尤度推定値は、初期尤度推定値を割り当てられる(例えば、全ての尤度推定値が0である)、又は尤度推定値が均等に分配される(例えば、図3に示すように、フレーム310、花320、及び花瓶330が最初に等しい値を割り当てられる)。いくつかの実施形態では、初期尤度推定値は、ユーザコンテキストによって判定される。一実施例では、電気技術者は、「電気技術者ブック」を使用することに関心を示し、電気技術者ブックは、電気工学に特有の話題(例えば、信号処理、はんだ付け、制御システムなど)を含む分類子のクラスタを含む。電気技術者ブックはまた、各話題のそれぞれの初期尤度推定値を含むことができる。例えば、信号処理は、機械よりも高い尤度推定値を有するであろう。いくつかの実施形態では、初期尤度推定値は、第1の姿勢情報(例えば、何が画像センサの視野内に現在あるか)、視野内の対象によって占有されている視覚空間の割合(例えば、ホワイトボードは、ホワイトボードマーカーよりも多くの空間を占有する)、画像センサから対象までの距離、及び/又は現在の視線などによって判定される。例えば、図2Cでは、ユーザが部屋に入ると、カップケーキ232は、ドアに対するその近い距離に起因して、絵画フレーム220と比較して、より高い初期尤度推定値を有してもよい。あるいは、例えば、図2Cでは、絵画フレーム220は、占有されている視覚空間のより高い割合のため、カップケーキ232と比較して、より高い初期尤度推定値を有してもよい。
方法700は、ブロック710において、電子デバイスが、対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定することで継続する。例えば、尤度推定値がA=0.4、B=0.3、C=0.3である対象A、B、及びCを所与として、デバイス104又はその構成要素(例えば、図8のCGRコンテンツ推奨モジュール856又は図5の尤度推定器530)は、対象Aが信頼閾値0.3を上回ると判定する。いくつかの実施形態では、ブロック712によって表されるように、判定は、他の尤度推定値に対する比較を含む。例えば、尤度推定値がA=0.6、B=0.2、C=0.2である対象A、B、及びCを所与として、対象に対する尤度推定値は、A>(B+C)であり、したがって、対象Aは、信頼閾値を上回る。
いくつかの実施形態では、尤度推定値のいずれもが、閾値を上回らない、又は複数の尤度推定値が閾値を同点で上回る。そのような実施形態では、ステップ706及び708を参照して上述したように、更新された尤度推定値を再帰的に判定するために、1回より多くの反復が必要とされる。換言すれば、尤度推定値のうちの少なくとも1つが閾値を上回るかどうかを判定することは、ブロック714によって表されるように、単一の対象に対応する単一の尤度推定値への収束を示す。例えば、デバイス104又はその構成要素(例えば、図8のCGRコンテンツ推奨モジュール856又は図5の尤度推定器530)は、対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が、第1の対象に対する第1の尤度推定値と、第2の対象に対する第2の尤度推定値とを含むと判定する。複数の尤度推定値が閾値を同点で上回るとの判定に応じて、デバイス104は、第1の対象に対する更新された第1の尤度推定値と、第2の対象に対する更新された第2の尤度推定値とを生成することを含めて、更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、対象の第1のセットのそれぞれに対する尤度推定値を更新する。デバイス104は、更新された第1の尤度推定値と更新された第2の尤度推定値とに基づいて、第1の対象と第2の対象との間で更に選択する。図3に示すように、フレーム310及び花瓶330は、第2及び第3の反復中に同点である。第4の反復中に更新された尤度推定値を使用して、尤度推定値は、フレーム310に対応する単一の尤度推定値に収束する。
方法700は、ブロック716において、電子デバイスが、少なくとも1つの尤度推定値が信頼閾値を上回ると判定したことに応じて、少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及びユーザコンテキストを使用して、少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成することで継続する。いくつかの実施形態では、デバイス104又はその構成要素(例えば、図8のCGRコンテンツレンダリングモジュール858、又は尤度推定器530)は、ブロック718によって表されるように、第2のコンピューティングデバイスに微細整合などの計算負荷の高いタスクを分配する。そのような実施形態では、図5を参照して上述したように、デバイス104は、ユーザコンテキスト及び第1の姿勢に関連付けられた対象の第1のセットを表す圧縮ベクトルを(例えば、図5のエンコーダ532において)生成する。次いで、デバイス104は、対象の第1のセットに関連付けられた分類子の推奨される重みを生成するために、圧縮ベクトルを第2のデバイスにリモートで送信する。例えば、ユーザ全体にわたる機械学習によって、第2のデバイスにおいて微細粒度整合を実行した後に、デバイス104は、推奨されるコンテンツ又はアクションを生成するために、第2のデバイスから推奨される重みを受信する。いくつかの実施形態では、ブロック720によって表されるように、推奨生成を更に容易にするために、デバイス104は、対象の第1のセット及び関連付けられた重みを複数のカスケードキャッシュ(例えば、図5のカスケードキャッシュ550−1、550−2、550−3...550−N)に記憶する。そのような実施形態では、対象は、重みの順序でカスケードキャッシュに記憶される。
いくつかの実施形態では、方法700は、ブロック722において、電子デバイスが、信頼閾値を上回る更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて異なる対象を予測し、異なる対象に関連付けられた推奨されるコンテンツ又はアクションのセットを生成することで継続する。例えば、第1の姿勢及び第2の姿勢が、焦点が視野内で右に移動していることを示す場合、ユーザコンテキストに基づいて、尤度推定器は、視野の右側の次の対象を予測して、推奨されるコンテンツを提供する。例えば、図4Aに示すように、最初に、第1の姿勢に関連付けられた焦点は、視野の中心のフレーム上にあった。この例を続けると、図4Bに示すように、第2の姿勢に関連付けられた焦点が右に移動するにつれて、カレンダー内の会議のユーザコンテキストに基づいて、視線領域222が依然として時計240から閾値距離内にあるとしても、ユーザが右の壁上の時計を見ることを意図している可能性がより高くなる。対照的に、第1の姿勢から第2の姿勢への変化は、視線領域が右にシフトしていることを示すため、ユーザが左側の犬236に関する情報を取得することを意図している可能性は低い。更新された姿勢情報に基づいて、デバイス104は、ユーザが時計240に関連して、イベントカレンダー242に関心がある可能性が最も高いと予測する。しかしながら、図4Cに示すように、例えば、今度の獣医への訪問は犬236のためのものであるなどの更新されたユーザコンテキスト情報に基づいて、デバイス104は、犬236に関するより多くの情報を提供すること、及び獣医における予約情報(例えば、推奨されるコンテンツ244)が生成されることを予測する。
図8は、いくつかの実施形態に係る、コンピューティングデバイス800のブロック図である。いくつかの実施形態では、コンピューティングデバイス800は、図1のデバイス104の少なくとも一部に対応し、上述した機能のうちの1つ以上を実行する。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。そのために、非限定的な実施例として、いくつかの実施形態では、コンピューティングデバイス800は、1つ以上の処理ユニット(CPU)802(例えば、プロセッサ)、1つ以上の入出力(I/O)インタフェース803(例えば、ネットワークインタフェース、入力デバイス、出力デバイス、及び/又はセンサインタフェース)、メモリ810、プログラミングインタフェース805、並びにこれら及び様々な他の構成要素を相互接続するための1つ以上の通信バス804を含む。
いくつかの実施形態では、1つ以上の通信バス804は、システム構成要素を相互接続し、システム構成要素間の通信を制御する回路を含む。メモリ810は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、いくつかの実施形態では、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ810は、1つ以上のCPU802からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ810は、非一時的コンピュータ可読記憶媒体を含む。更に、いくつかの実施形態では、メモリ810又はメモリ810の非一時的コンピュータ可読記憶媒体は、任意選択のオペレーティングシステム820、画像キャプチャ制御モジュール850、画像処理モジュール852、対象認識モジュール854、CGRコンテンツ推奨モジュール856、及びCGRコンテンツレンダリングモジュール858を含む、プログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。いくつかの実施形態では、1つ以上の命令が論理メモリ及び非一時的メモリの組み合わせに含まれる。オペレーティングシステム820は、様々な基本システムサービスを処理するための手順及びハードウェア依存タスクを実行するための手順を含む。
いくつかの実施形態では、画像キャプチャ制御モジュール850は、画像をキャプチャする、又は画像データを取得するための画像センサ又はカメラアセンブリの機能を制御するように構成されている。そのために、画像キャプチャ制御モジュール850は、命令セット851a並びにヒューリスティックス及びメタデータ851bを含む。
いくつかの実施形態では、画像処理モジュール852は、画像センサ又はカメラアセンブリからの生画像データを前処理する(例えば、RAW画像データをRGB画像データ又はYCbCr画像データに変換し、姿勢情報を導出する)ように構成されている。そのために、画像処理モジュール852は、命令セット853a並びにヒューリスティックス及びメタデータ853bを含む。
いくつかの実施形態では、対象認識モジュール854は、画像データから対象(単数又は複数)を認識するように構成されている。そのために、対象認識モジュール854は、命令セット855a並びにヒューリスティックス及びメタデータ855bを含む。
いくつかの実施形態では、CGRコンテンツ推奨モジュール856は、認識された対象(単数又は複数)に関連付けられたCGRコンテンツアイテム(単数又は複数)を推奨するように構成されている。そのために、CGRコンテンツ推奨モジュール856は、命令セット857a並びにヒューリスティックス及びメタデータ857bを含む。
いくつかの実施形態では、CGRコンテンツレンダリングモジュール858は、認識された対象に近接した視野内のCGRコンテンツアイテムを合成してレンダリングするように構成されている。そのために、CGRコンテンツレンダリングモジュール858は、命令セット859a並びにヒューリスティックス及びメタデータ859bを含む。
画像キャプチャ制御モジュール850、画像処理モジュール852、対象認識モジュール854、CGRコンテンツ推奨モジュール856、及びCGRコンテンツレンダリングモジュール858は、単一のコンピューティングデバイス上に存在するものとして示されているが、他の実施形態では、画像キャプチャ制御モジュール850、画像処理モジュール852、対象認識モジュール854、CGRコンテンツ推奨モジュール856、及びCGRコンテンツレンダリングモジュール858の任意の組み合わせが、様々な実施形態における別個のコンピューティングデバイス内に存在することができることを理解されたい。例えば、いくつかの実施形態では、画像キャプチャ制御モジュール850、画像処理モジュール852、対象認識モジュール854、CGRコンテンツ推奨モジュール856、及びCGRコンテンツレンダリングモジュール858のそれぞれは、別個のコンピューティングデバイス上又はクラウド内に存在することができる。
更に、図8は、本明細書に開示される実施形態の構造概略図としてではなく、特定の実装形態に存在する様々な特徴の機能的説明を更に意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図8に別々に示すいくつかの機能モジュールは、単一のモジュール内に実装することができ、単一の機能ブロックの様々な機能は、様々な実施形態において1つ以上の機能ブロックによって実装することができる。モジュールの実際の数並びに特定の機能の分割及びそれらにどのように機能が割り当てられるかは、実施形態によって異なり、特定の実施形態のために選択されたハードウェア、ソフトウェア及び/又はファームウェアの特定の組み合わせに部分的に依存することができる。
添付の特許請求の範囲内の実装形態の様々な態様を上述したが、上述の実装形態の様々な特徴は、多種多様な形態で具現化されてもよく、上記の特定の構造及び/又は機能は単なる例示に過ぎないことは明らかである。本開示に基づいて、当業者は、本明細書に記載される態様は、任意の他の態様とは独立して実施されてもよく、これらの態様のうちの2つ以上が様々な方法で組み合わされてもよいことを理解すべきである。例えば、本明細書に記載される任意の数の態様を使用して、装置が実装されてもよく、かつ/又は方法が実行されてもよい。加えて、本明細書に記載される態様のうちの1つ以上に加えて、又はその他の構造及び/又は機能を使用して、このような装置が実装されてもよく、かつ/又はこのような方法が実行されてもよい。
本明細書では、様々な要素を説明するために「第1の」、「第2の」などの用語が使用される場合があるが、これらの要素は、これらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、「第1ノード」の全ての出現について一貫して名前が変更され、「第2ノード」のすべての出現について一貫して名前が変更される限り、説明の意味を変えることなく、第1ノードは第2ノードと呼ぶことができ、同様に、第2ノードは第1ノードと呼ぶことができる。第1のノードと第2のノードは両方ともノードであるが、それらは同じノードではない。
本明細書で使用される用語は、特定の実装形態を説明する目的のためであり、特許請求の範囲を限定することを意図するものではない。説明される実装形態の説明及び添付の特許請求の範囲で使用されるとき、単数形の「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形も含むことを意図している。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「comprises(含む)」及び/又は「comprising(含む)」が、本明細書で使用される場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことを更に理解されたい。
本明細書で使用されるときには、用語「if」は、文脈に応じて、「時」又は「際に」又は、先に述べた条件が正しいとの「判定に応じて」又は「判定に従って」、「検出に応じて」を意味するものと解釈できる。同様に、「[先に述べた条件が正しい]と判定される場合」又は「[先に述べた条件が正しい]場合」、又は「[先に述べた条件が正しい]時」というフレーズは、先に述べた条件が正しいとの「判定に際して」又は「判定に応じて」又は「判定に従って」又は「検出した際に」又は「検出に応じて」ということを意味するものと解釈できる。
図2Dに示すCGRコンテンツアイテム250は、ユーザがカップケーキ232に関心があるとの判定に基づいて生成され、カップケーキ232に関する情報を提供するための推奨がなされる。比較すると、図2Eは、異なるCGRコンテンツアイテム256を示しており、CGRコンテンツアイテム256はカップケーキ232上に重ね合わされている。ユーザは、依然としてカップケーキ232に関心があるものの、CGRコンテンツアイテム256は、例えば、ユーザが食事制限を有するなどの異なるユーザコンテキストに基づいて作成される。
Claims (38)
- 1つ以上のプロセッサ及び非一時的メモリを含むデバイスにおいて、
画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得することと、
前記パススルー画像データ内の認識された対象が、ユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定することと、
前記パススルー画像データ内の前記認識された対象が、前記信頼スコア閾値を満たすと判定したことに応じて、前記認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成することと、
前記パススルー画像データを、前記視野内の前記認識された対象に近接した前記1つ以上のCGRコンテンツアイテムと合成することと、
を含む、方法。 - 前記パススルー画像データ内の前記認識された対象が、
前記視野内の領域における視線を検出することと、
前記領域に対応する前記パススルー画像データのサブセットを取得することと、
前記パススルー画像データの前記サブセット及び分類子に基づいて、前記認識された対象を識別することと、
によって認識される、請求項1に記載の方法。 - 前記視線に基づいて、それぞれが前記領域内の対象に関連付けられた分類子に重みを割り当てることと、
前記視線に対する更新に基づいて、前記分類子に対する前記重みを調整することと、
前記分類子を最も高い重みの前記分類子から選択することと、
を更に含む、請求項2に記載の方法。 - 前記領域が、前記認識された対象の少なくとも一部を含む、請求項2又は3に記載の方法。
- 前記視野内の領域に近接した視線を検出することを更に含み、前記認識された対象が、前記領域から閾値距離内にあり、かつ前記ユーザ固有の推奨プロファイルに基づいて識別され、
拡張された領域に対応する前記パススルー画像データのサブセットを取得することと、
前記パススルー画像データの前記サブセット及び分類子に基づいて前記認識された対象を識別することと、
を含む、請求項1から4のいずれか一項に記載の方法。 - 前記視野内の前記パススルー画像データを前記認識された対象に近接して表示された前記1つ以上のCGRコンテンツアイテムと共にレンダリングすることを更に含む、請求項1から5のいずれか一項に記載の方法。
- 前記1つ以上のCGRコンテンツアイテムが、前記認識された対象に関連付けられた情報、又は前記認識された対象に関連付けられたアクションを実行するオプションのうちの少なくとも1つを含む、請求項1から6のいずれか一項に記載の方法。
- 前記認識された対象が、複数の検索可能要素を含み、それぞれが、少なくとも1つの分類子に関連付けられている、請求項1から7のいずれか一項に記載の方法。
- 前記ユーザ固有の推奨プロファイルが、ユーザが前記デバイスと相互作用するコンテキスト、前記ユーザのバイオメトリクス、前記ユーザによる以前の検索、又は前記ユーザのプロファイルのうちの少なくとも1つを含む、請求項1から8のいずれか一項に記載の方法。
- 非一時的メモリと、
1つ以上のプロセッサとを備える、デバイスであって、
前記1つ以上のプロセッサが、画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得し、
前記パススルー画像データ内の認識された対象が、ユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定し、
前記パススルー画像データ内の前記認識された対象が、前記信頼スコア閾値を満たすと判定したことに応じて、前記認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成し、
前記パススルー画像データを、前記視野内の前記認識された対象に近接した前記1つ以上のCGRコンテンツアイテムと合成する、
ように構成されている、デバイス。 - 前記パススルー画像データ内の前記認識された対象が、
前記視野内の領域における視線を検出することと、
前記領域に対応する前記パススルー画像データのサブセットを取得することと、
前記パススルー画像データの前記サブセット及び分類子に基づいて、前記認識された対象を識別することと、
によって認識される、請求項10に記載のデバイス。 - 前記1つ以上のプロセッサが、
前記視線に基づいて、それぞれが前記領域内の対象に関連付けられた分類子に重みを割り当て、
前記視線に対する更新に基づいて、前記分類子に対する前記重みを調整し、
前記分類子を最も高い重みの前記分類子から選択する、
ように更に構成されている、請求項11に記載のデバイス。 - 前記領域が、前記認識された対象の少なくとも一部を含む、請求項11又は12に記載のデバイス。
- 前記1つ以上のプロセッサが、前記視野内の領域に近接した視線を検出するように更に構成されており、前記認識された対象が、前記領域から閾値距離内にあり、かつ前記ユーザ固有の推奨プロファイルに基づいて、
拡張された領域に対応する前記パススルー画像データのサブセットを取得することと、
前記パススルー画像データの前記サブセット及び分類子に基づいて、前記認識された対象を識別することと、
によって識別される、請求項10から13のいずれか一項に記載のデバイス。 - 前記1つ以上のプロセッサが、前記視野内の前記パススルー画像データを前記認識された対象に近接して表示された前記1つ以上のCGRコンテンツアイテムと共にレンダリングするように更に構成されている、請求項10から14のいずれか一項に記載のデバイス。
- 前記1つ以上のCGRコンテンツアイテムが、前記認識された対象に関連付けられた情報、又は前記認識された対象に関連付けられたアクションを実行するオプションのうちの少なくとも1つを含む、請求項10から15のいずれか一項に記載のデバイス。
- 前記認識された対象が、複数の検索可能要素を含み、それぞれが、少なくとも1つの分類子に関連付けられている、請求項10から16のいずれか一項に記載のデバイス。
- 前記ユーザ固有の推奨プロファイルが、ユーザが前記デバイスと相互作用するコンテキスト、前記ユーザのバイオメトリクス、前記ユーザによる以前の検索、又は前記ユーザのプロファイルのうちの少なくとも1つを含む、請求項10から17のいずれか一項に記載のデバイス。
- エンコードされた命令を有する非一時的コンピュータ可読媒体であって、前記命令が、デバイスの1つ以上のプロセッサによって実行されると、前記デバイスに、
画像センサによってキャプチャされた視野を特徴付けるパススルー画像データを取得させ、
前記パススルー画像データ内の認識された対象が、ユーザ固有の推奨プロファイルに関連付けられた信頼スコア閾値を満たすかどうかを判定させ、
前記パススルー画像データ内の前記認識された対象が、前記信頼スコア閾値を満たすと判定したことに応じて、前記認識された対象に関連付けられた1つ以上のコンピュータ生成現実(CGR)コンテンツアイテムを生成させ、
前記パススルー画像データを、前記視野内の前記認識された対象に近接した前記1つ以上のCGRコンテンツアイテムと合成させる、
非一時的コンピュータ可読媒体。 - 1つ以上のプロセッサ及び非一時的メモリを含むデバイスにおいて、
前記デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得することと、
ユーザコンテキスト及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対して尤度推定値を判定することと、
前記対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定することと、
前記少なくとも1つの尤度推定値が前記信頼閾値を上回ると判定したことに応じて、前記少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及び前記ユーザコンテキストを使用して、前記少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成することと、
を含む、方法。 - 前記対象の第1のセットが、第1の期間中に画像センサによってキャプチャされ、前記方法が、第2の期間中に、
前記ユーザコンテキストの第2の期間中に更新された値を取得することと、
前記ユーザコンテキストの前記更新された値及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を更新することと、
を更に含む、請求項20に記載の方法。 - 前記ユーザコンテキスト及び前記第1の姿勢に基づいて前記対象の第1のセットのそれぞれに対して前記尤度推定値を判定することが、
前記デバイスの第2の姿勢に関連付けられた対象の第2のセットであって、少なくとも1つの対象が前記対象の第1のセット及び前記対象の第2のセット内にある、対象の第2のセットを取得することと、
前記第2の姿勢、前記ユーザコンテキスト、及び前記第1の姿勢に基づいて、前記少なくとも1つの対象に対する少なくとも1つの尤度推定値を判定することと、
を含む、請求項20又は21に記載の方法。 - 前記対象の第1のセット内の前記少なくとも1つのそれぞれの対象に対する前記少なくとも1つの尤度推定値が、前記信頼閾値を上回るかどうかを判定することが、前記少なくとも1つの尤度推定値を前記対象の第1のセット内の他の対象に対する尤度推定値と比較することを含む、請求項20から22のいずれか一項に記載の方法。
- 前記対象の第1のセット内の前記少なくとも1つのそれぞれの対象に対する前記少なくとも1つの尤度推定値が、第1の対象に対する第1の尤度推定値と、第2の対象に対する第2の尤度推定値と、を含み、
前記方法が、
前記第1の対象に対する更新された第1の尤度推定値と、前記第2の対象に対する更新された第2の尤度推定値とを生成することを含めて、更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を更新することと、
前記更新された第1の尤度推定値と前記更新された第2の尤度推定値とに基づいて、前記第1の対象と前記第2の対象との間で選択することと、
を更に含む、請求項20から23のいずれか一項に記載の方法。 - 前記ユーザコンテキスト及び前記第1の姿勢に関連付けられた前記対象の第1のセットを表す圧縮ベクトルを生成することと、
前記対象の第1のセットに関連付けられた分類子の推奨される重みを生成するために、前記圧縮ベクトルを第2のデバイスに送信することと、
前記推奨されるコンテンツ又はアクションを生成するために、前記第2のデバイスから前記推奨される重みを受信することと、
を更に含む、請求項20から24のいずれか一項に記載の方法。 - 前記対象の第1のセット内の対象に対する分類子に関連付けられた重みによって順序付けられた複数のカスケードキャッシュに、前記対象の第1のセット及び関連付けられた重みを記憶することを更に含む、請求項20から25のいずれか一項に記載の方法。
- 前記信頼閾値を上回る更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、異なる対象を予測することと、
前記異なる対象に関連付けられた推奨されるコンテンツ又はアクションのセットを生成することと、
を更に含む、請求項20から26のいずれか一項に記載の方法。 - 前記対象の第1のセットが、
前記デバイスの視野内の第1の領域に近接した視線を検出することと、
前記第1の領域に対応する画像データを取得することと、
前記画像データ及び1つ以上の分類子に基づいて、前記対象の第1のセットを分類することと、
によって認識される、請求項20から27のいずれか一項に記載の方法。 - 非一時的メモリと、
1つ以上のプロセッサを備えるデバイスであって、前記1つ以上のプロセッサが、
前記デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得し、
ユーザコンテキスト及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対して尤度推定値を判定し、
前記対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定し、
前記少なくとも1つの尤度推定値が前記信頼閾値を上回ると判定したことに応じて、前記少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及び前記ユーザコンテキストを使用して、前記少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成する、
ように構成されている、デバイス。 - 前記対象の第1のセットが、第1の期間中に画像センサによってキャプチャされ、前記1つ以上のプロセッサが、第2の期間中に、
前記ユーザコンテキストの第2の期間中に更新された値を取得し、
前記ユーザコンテキストの前記更新された値及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を更新する、
ように更に構成されている、請求項29に記載のデバイス。 - 前記1つ以上のプロセッサが、
前記デバイスの第2の姿勢に関連付けられた対象の第2のセットであって、少なくとも1つの対象が前記対象の第1のセット及び前記第2のセット内にある、対象の第2のセットを取得することと、
前記第2の姿勢、前記ユーザコンテキスト、及び前記第1の姿勢に基づいて、前記少なくとも1つの対象に対する少なくとも1つの尤度推定値を判定することと、
によって、前記ユーザコンテキスト及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を判定するように構成されている、請求項29又は30に記載のデバイス。 - 前記1つ以上のプロセッサが、前記少なくとも1つの尤度推定値を前記対象の第1のセット内の他の対象に対する尤度推定値と比較することによって、前記対象の第1のセット内の前記少なくとも1つのそれぞれの対象に対する前記少なくとも1つの尤度推定値が前記信頼閾値を上回るかどうかを判定するように構成されている、請求項29から31のいずれか一項に記載のデバイス。
- 前記対象の第1のセット内の前記少なくとも1つのそれぞれの対象に対する前記少なくとも1つの尤度推定値が、第1の対象に対する第1の尤度推定値と、第2の対象に対する第2の尤度推定値と、を含み、
前記1つ以上のプロセッサが、
前記第1の対象に対する更新された第1の尤度推定値と、前記第2の対象に対する更新された第2の尤度推定値とを生成することを含めて、更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、前記対象の第1のセットのそれぞれに対する前記尤度推定値を更新し、
前記更新された第1の尤度推定値と前記更新された第2の尤度推定値とに基づいて、前記第1の対象と前記第2の対象との間で選択する、
ように更に構成されている、請求項29から32のいずれか一項に記載の方法。 - 前記1つ以上のプロセッサが、
前記ユーザコンテキスト及び前記第1の姿勢に関連付けられた前記対象の第1のセットを表す圧縮ベクトルを生成し、
前記対象の第1のセットに関連付けられた分類子の推奨される重みを生成するために、前記圧縮ベクトルを第2のデバイスに送信し、
前記推奨されるコンテンツ又はアクションを生成するために、前記第2のデバイスから前記推奨される重みを受信する、
ように更に構成されている、請求項29から33のいずれか一項に記載の方法。 - 前記1つ以上のプロセッサが、前記対象の第1のセット内の対象に対する分類子に関連付けられた重みによって順序付けられた複数のカスケードキャッシュに、前記対象の第1のセット及び関連付けられた重みを記憶するように更に構成されている、請求項29から34のいずれか一項に記載のデバイス。
- 前記1つ以上のプロセッサが、
前記信頼閾値を上回る更新されたユーザコンテキスト及び更新された第1の姿勢情報のうちの少なくとも1つに基づいて、異なる対象を予測し、
前記異なる対象に関連付けられた推奨されるコンテンツ又はアクションのセットを生成する、
ように更に構成されている、請求項29から35のいずれか一項に記載のデバイス。 - 前記対象の第1のセットが、
前記デバイスの視野内の第1の領域に近接した視線を検出することと、
前記第1の領域に対応する画像データを取得することと、
前記画像データ及び1つ以上の分類子に基づいて、前記対象の第1のセットを分類することと、
によって認識される、請求項29から36のいずれか一項に記載のデバイス。 - エンコードされた命令を有する非一時的コンピュータ可読媒体であって、前記命令が、デバイスの1つ以上のプロセッサによって実行されると、前記デバイスに、
前記デバイスの第1の姿勢に関連付けられた対象の第1のセットを取得させ、
ユーザコンテキスト及び前記第1の姿勢に基づいて、前記対象の第1のセットのそれぞれに対して尤度推定値を判定させ、
前記対象の第1のセット内の少なくとも1つのそれぞれの対象に対する少なくとも1つの尤度推定値が信頼閾値を上回るかどうかを判定させ、
前記少なくとも1つの尤度推定値が前記信頼閾値を上回ると判定したことに応じて、前記少なくとも1つのそれぞれの対象に関連付けられた少なくとも1つの分類子及び前記ユーザコンテキストを使用して、前記少なくとも1つのそれぞれの対象に関連付けられた推奨されるコンテンツ又はアクションを生成させる、
非一時的コンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022111950A JP7379603B2 (ja) | 2018-09-11 | 2022-07-12 | 推奨を配信する方法、デバイス、及びシステム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862729960P | 2018-09-11 | 2018-09-11 | |
US62/729,960 | 2018-09-11 | ||
PCT/US2019/050498 WO2020055935A1 (en) | 2018-09-11 | 2019-09-11 | Method, device, and system for delivering recommendations |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022111950A Division JP7379603B2 (ja) | 2018-09-11 | 2022-07-12 | 推奨を配信する方法、デバイス、及びシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021536054A true JP2021536054A (ja) | 2021-12-23 |
Family
ID=68051973
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021509849A Pending JP2021536054A (ja) | 2018-09-11 | 2019-09-11 | 推奨を配信する方法、デバイス、及びシステム |
JP2022111950A Active JP7379603B2 (ja) | 2018-09-11 | 2022-07-12 | 推奨を配信する方法、デバイス、及びシステム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022111950A Active JP7379603B2 (ja) | 2018-09-11 | 2022-07-12 | 推奨を配信する方法、デバイス、及びシステム |
Country Status (6)
Country | Link |
---|---|
US (2) | US20200082576A1 (ja) |
EP (2) | EP3850467B1 (ja) |
JP (2) | JP2021536054A (ja) |
KR (1) | KR20210034669A (ja) |
CN (1) | CN112639684A (ja) |
WO (1) | WO2020055935A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020226832A1 (en) * | 2019-05-06 | 2020-11-12 | Apple Inc. | Device, method, and computer-readable medium for presenting computer-generated reality files |
US11315326B2 (en) * | 2019-10-15 | 2022-04-26 | At&T Intellectual Property I, L.P. | Extended reality anchor caching based on viewport prediction |
US11815679B2 (en) * | 2021-04-16 | 2023-11-14 | Industrial Technology Research Institute | Method, processing device, and display system for information display |
US11587316B2 (en) * | 2021-06-11 | 2023-02-21 | Kyndryl, Inc. | Segmenting visual surrounding to create template for user experience |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012059263A (ja) * | 2010-09-09 | 2012-03-22 | Pantech Co Ltd | オブジェクト間の関連性を利用した拡張現実提供装置及び方法 |
JP2014093050A (ja) * | 2012-11-06 | 2014-05-19 | Sony Corp | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
JP2016507833A (ja) * | 2013-01-22 | 2016-03-10 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 複合現実フィルタリング |
JP2016173693A (ja) * | 2015-03-17 | 2016-09-29 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
JP2017033334A (ja) * | 2015-08-03 | 2017-02-09 | 株式会社オプティム | ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。 |
WO2017127571A1 (en) * | 2016-01-19 | 2017-07-27 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
JP2017182628A (ja) * | 2016-03-31 | 2017-10-05 | 株式会社エヌ・ティ・ティ・データ | 拡張現実ユーザインタフェース適用装置および制御方法 |
JP2018049624A (ja) * | 2016-09-23 | 2018-03-29 | 雨暹 李 | ロケーションベース空間オブジェクト遠隔管理方法及びロケーションベース空間オブジェクト遠隔管理システム |
WO2018154933A1 (ja) * | 2017-02-23 | 2018-08-30 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100975128B1 (ko) | 2010-01-11 | 2010-08-11 | (주)올라웍스 | 뷰잉 프러스텀을 이용하여 객체에 대한 정보를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체 |
US8670183B2 (en) * | 2011-03-07 | 2014-03-11 | Microsoft Corporation | Augmented view of advertisements |
US9547938B2 (en) * | 2011-05-27 | 2017-01-17 | A9.Com, Inc. | Augmenting a live view |
CN103105926A (zh) * | 2011-10-17 | 2013-05-15 | 微软公司 | 多传感器姿势识别 |
US9443414B2 (en) * | 2012-08-07 | 2016-09-13 | Microsoft Technology Licensing, Llc | Object tracking |
US9092600B2 (en) * | 2012-11-05 | 2015-07-28 | Microsoft Technology Licensing, Llc | User authentication on augmented reality display device |
JP2014120114A (ja) | 2012-12-19 | 2014-06-30 | Aisin Aw Co Ltd | 走行支援システム、走行支援方法及びコンピュータプログラム |
US10359841B2 (en) * | 2013-01-13 | 2019-07-23 | Qualcomm Incorporated | Apparatus and method for controlling an augmented reality device |
KR102099086B1 (ko) * | 2013-02-20 | 2020-04-09 | 삼성전자주식회사 | 디지털 텔레비전 및 사용자 디바이스를 이용하여 사용자 맞춤형 인터랙션을 제공하는 방법, 그 디지털 텔레비전 및 사용자 디바이스 |
EP2965291A4 (en) * | 2013-03-06 | 2016-10-05 | Intel Corp | METHODS AND APPARATUS FOR UTILIZING OPTICAL RECOGNITION OF CHARACTERS TO PROVIDE INCREASED REALITY |
JP6108926B2 (ja) | 2013-04-15 | 2017-04-05 | オリンパス株式会社 | ウェアラブル装置、プログラム及びウェアラブル装置の表示制御方法 |
JP6344125B2 (ja) | 2014-07-31 | 2018-06-20 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
US20160055377A1 (en) * | 2014-08-19 | 2016-02-25 | International Business Machines Corporation | Real-time analytics to identify visual objects of interest |
US10147399B1 (en) * | 2014-09-02 | 2018-12-04 | A9.Com, Inc. | Adaptive fiducials for image match recognition and tracking |
US9554030B2 (en) * | 2014-09-29 | 2017-01-24 | Yahoo! Inc. | Mobile device image acquisition using objects of interest recognition |
US9671862B2 (en) * | 2014-10-15 | 2017-06-06 | Wipro Limited | System and method for recommending content to a user based on user's interest |
WO2016210354A1 (en) * | 2015-06-24 | 2016-12-29 | Magic Leap, Inc. | Augmented reality devices, systems and methods for purchasing |
US9740951B2 (en) | 2015-09-11 | 2017-08-22 | Intel Corporation | Technologies for object recognition for internet-of-things edge devices |
CN109791295A (zh) * | 2016-07-25 | 2019-05-21 | 奇跃公司 | 使用增强和虚拟现实眼镜的成像修改、显示和可视化 |
US11461820B2 (en) * | 2016-08-16 | 2022-10-04 | Adobe Inc. | Navigation and rewards involving physical goods and services |
US11283915B2 (en) | 2016-10-07 | 2022-03-22 | Sony Corporation | Server, client terminal, control method, and storage medium |
CN109154979A (zh) * | 2016-10-26 | 2019-01-04 | 奥康科技有限公司 | 用于分析图像和提供反馈的可佩戴设备和方法 |
WO2018100877A1 (ja) | 2016-11-29 | 2018-06-07 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
US10348964B2 (en) * | 2017-05-23 | 2019-07-09 | International Business Machines Corporation | Method and system for 360 degree video coverage visualization |
US10949667B2 (en) * | 2017-09-14 | 2021-03-16 | Ebay Inc. | Camera platform and object inventory control |
KR102601622B1 (ko) * | 2017-12-14 | 2023-11-10 | 매직 립, 인코포레이티드 | 가상 아바타들의 콘텍스추얼 기반 렌더링 |
JP6714632B2 (ja) | 2018-03-20 | 2020-06-24 | マクセル株式会社 | 情報表示端末及び情報表示方法 |
JP2021096490A (ja) * | 2018-03-28 | 2021-06-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7420741B2 (ja) * | 2018-05-07 | 2024-01-23 | グーグル エルエルシー | リアルタイムのオブジェクト検出および追跡 |
US20210165484A1 (en) * | 2018-08-24 | 2021-06-03 | Sony Corporation | Information processing device, information processing method, and program |
-
2019
- 2019-09-10 US US16/566,742 patent/US20200082576A1/en not_active Abandoned
- 2019-09-11 EP EP19773666.3A patent/EP3850467B1/en active Active
- 2019-09-11 CN CN201980056127.6A patent/CN112639684A/zh active Pending
- 2019-09-11 KR KR1020217006264A patent/KR20210034669A/ko not_active Application Discontinuation
- 2019-09-11 JP JP2021509849A patent/JP2021536054A/ja active Pending
- 2019-09-11 WO PCT/US2019/050498 patent/WO2020055935A1/en unknown
- 2019-09-11 EP EP23156861.9A patent/EP4206871A1/en active Pending
-
2021
- 2021-01-28 US US17/161,240 patent/US20210150774A1/en not_active Abandoned
-
2022
- 2022-07-12 JP JP2022111950A patent/JP7379603B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012059263A (ja) * | 2010-09-09 | 2012-03-22 | Pantech Co Ltd | オブジェクト間の関連性を利用した拡張現実提供装置及び方法 |
JP2014093050A (ja) * | 2012-11-06 | 2014-05-19 | Sony Corp | 画像表示装置及び画像表示方法、並びにコンピューター・プログラム |
JP2016507833A (ja) * | 2013-01-22 | 2016-03-10 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 複合現実フィルタリング |
JP2016173693A (ja) * | 2015-03-17 | 2016-09-29 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
JP2017033334A (ja) * | 2015-08-03 | 2017-02-09 | 株式会社オプティム | ヘッドマウントディスプレイ、データ出力方法、及びヘッドマウントディスプレイ用プログラム。 |
WO2017127571A1 (en) * | 2016-01-19 | 2017-07-27 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
JP2017182628A (ja) * | 2016-03-31 | 2017-10-05 | 株式会社エヌ・ティ・ティ・データ | 拡張現実ユーザインタフェース適用装置および制御方法 |
JP2018049624A (ja) * | 2016-09-23 | 2018-03-29 | 雨暹 李 | ロケーションベース空間オブジェクト遠隔管理方法及びロケーションベース空間オブジェクト遠隔管理システム |
WO2018154933A1 (ja) * | 2017-02-23 | 2018-08-30 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20200082576A1 (en) | 2020-03-12 |
KR20210034669A (ko) | 2021-03-30 |
CN112639684A (zh) | 2021-04-09 |
JP2022172061A (ja) | 2022-11-15 |
EP4206871A1 (en) | 2023-07-05 |
US20210150774A1 (en) | 2021-05-20 |
EP3850467A1 (en) | 2021-07-21 |
EP3850467B1 (en) | 2023-08-23 |
WO2020055935A1 (en) | 2020-03-19 |
JP7379603B2 (ja) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220245906A1 (en) | Location-based virtual element modality in three-dimensional content | |
JP7379603B2 (ja) | 推奨を配信する方法、デバイス、及びシステム | |
CN110633617B (zh) | 使用语义分割的平面检测 | |
US20210279898A1 (en) | Object detection using multiple three dimensional scans | |
US11710283B2 (en) | Visual search refinement for computer generated rendering environments | |
JP7155291B2 (ja) | 環境の動き回り | |
US10984607B1 (en) | Displaying 3D content shared from other devices | |
US11703944B2 (en) | Modifying virtual content to invoke a target user state | |
WO2019217182A1 (en) | Augmented visual capabilities | |
US11321926B2 (en) | Method and device for content placement | |
US11726562B2 (en) | Method and device for performance-based progression of virtual content | |
CN112740280A (zh) | 计算高效的模型选择 | |
CN112189183A (zh) | 用于呈现音频和合成现实体验的方法和设备 | |
US11468611B1 (en) | Method and device for supplementing a virtual environment | |
US11804014B1 (en) | Context-based application placement | |
CN113678173A (zh) | 用于虚拟对象的基于图绘的放置的方法和设备 | |
CN112654951A (zh) | 基于现实世界数据移动头像 | |
US11308716B1 (en) | Tailoring a computer-generated reality experience based on a recognized object | |
US11282171B1 (en) | Generating a computer graphic for a video frame | |
US10964056B1 (en) | Dense-based object tracking using multiple reference images | |
US20220012924A1 (en) | Generating Content for Physical Elements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220418 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221114 |