JP2023512166A - 仮想及び拡張現実hmdシステムにおける高速予測追跡及びレイテンシ補償のための光強度ベースのcmos及びイベント検出センサの組み合わせ - Google Patents

仮想及び拡張現実hmdシステムにおける高速予測追跡及びレイテンシ補償のための光強度ベースのcmos及びイベント検出センサの組み合わせ Download PDF

Info

Publication number
JP2023512166A
JP2023512166A JP2022542462A JP2022542462A JP2023512166A JP 2023512166 A JP2023512166 A JP 2023512166A JP 2022542462 A JP2022542462 A JP 2022542462A JP 2022542462 A JP2022542462 A JP 2022542462A JP 2023512166 A JP2023512166 A JP 2023512166A
Authority
JP
Japan
Prior art keywords
image
isp
eds
rgb
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022542462A
Other languages
English (en)
Other versions
JP7356596B2 (ja
Inventor
アール. スタフォード、ジェフリー
イエ、シャオヨン
裕 横川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2023512166A publication Critical patent/JP2023512166A/ja
Application granted granted Critical
Publication of JP7356596B2 publication Critical patent/JP7356596B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】AR HMD(46、200)の制御を容易にするために、カメラセンサシステム(202、210、214)のカメラユニットは、RGB/IR画像を生成し、そのうえ、システムは、HMDポーズトラッキング、ハンドトラッキング、及びアイトラッキングのために、イベント検出センサ(EDS)(204、212、216)からの光強度変化信号に基づいて将来時刻の画像を外挿する。【解決手段】将来時刻は、将来時刻を定義する(402)HMDアプリケーション(310)によって提供され、RGB/IR画像及び外挿された画像は、アプリケーションに送り返される(506)。このようにして、カメラセンサシステムは、より低い帯域幅及び消費電力で改善されたパフォーマンスの追跡(非常に高速なカメラを使用するのと同等)を可能にする。【選択図】図1

Description

本出願は、一般に、コンピュータ技術に必然的に根差し、具体的な技術的改善をもたらす、技術的に独創的で非定型的な解決策に関する。
拡張現実(AR)ヘッドマウントディスプレイ(HMD)は、透明または半透明のディスプレイ上に画像を提示することで、HMDの着用者は、ディスプレイを通した実世界とディスプレイ上の画像との両方を見ることができる。本明細書で理解されるように、HMD上に仮想現実(VR)画像を適切に提示するために、また他の理由のために、現在のAR HMDシステムは、HMDのポーズ、HMDの着用者の目、及び着用者の手を追跡する必要がある。これを行うには、HMDは、赤-緑-青(RGB)及び赤外線(IR)のカメラセンサの組み合わせを使用する。この組み合わせは、シーン画像の位置推定とマッピングの同時実行(SLAM)処理を用いて、ハンドトラッキングコンピュータビジョン技法を使用するHMDユーザの手の画像を処理することでHMDユーザの手部認識及び6自由度(6DOF)ポーズを用いて、そして視線追跡方法を使用するHMDユーザの目の位置及び視線を用いて、6DOFでのHMDのポーズの追跡を実行する。
これによってもたらされる技術的な課題は、より良い操作のために、レイテンシを短縮し、追跡パフォーマンスを改善するためには、カメラデータのフレームレートを上げることが必要であるうえ、そのようにフレームレートが高いほど、帯域幅が大きくなることが必要であり、高度な処理が必要であるので、HMDでの消費電力及び発熱が比較的大きくなるため、高速度カメラが必要であり得ることである。
本明細書に述べられている課題に対処するために、カメラセンサシステムは、提供され、RGB及びIR画像をキャプチャするためにカラーフィルタ及び赤外線フィルタの下で両方の光強度フォトダイオードを備えたセンサセルだけでなく、イベント検出センサ(EDS)の原理によって動きを検出するEDS感知セルも含む。EDSは、1つ以上のカメラピクセルによって感知された光強度の変化を動きのインジケーションとして使用する。
カメラセンサシステムは、RGB/IRフレームを中速、例えば毎秒200フレーム(200FPS)で、また比較的高速、例えば毎秒2000フレーム(2000FPS)超でキャプチャするように構成されることができる。
スマート画像信号プロセッサ(ISP)は、アルゴリズムプロセスを使用して、中速RGB/IR画像を取得し、EDSセルから取得されたピクセルモーションイベントのコレクションから決定された動きに基づいて予測画像を作成する。このISPプロセスは、オプティカルモーションフローを外挿するアルゴリズムを用いてもよい、または1つ以上のニューラルネットワークで具現化された機械学習アルゴリズムを使用してもよい。既存のカメラセンサとは異なり、組み合わされたRGB/IR/EDSセンサシステムは、将来の予測カメラ画像フレームを要求するために使用されるデジタル時間値D(例えば、マイクロ秒単位)を入力として受け入れる。それに応じて、カメラセンサシステムは、2つのカメラ画像フレーム出力、すなわち、現在のタイムスタンプを有する最新のRGB/IRカメラフレームと、現在のタイムスタンプ足す時間値Dに等しいタイムスタンプを有する、要求された予測RGB/IRカメラフレームとを提供する。
カメラセンサシステムは、ポーリングモード(画像データを絶えず送信する)ではなく、要求モード(要求に応じた画像データのみを送信する)で機能することができる。EDSの使用により、カメラシステムは、ダイナミックレンジが比較的広いことで、弱い光または強い逆光のシーン内でキャプチャすることができる、予測画像フレームを提供することができる。いかなる場合でも、カメラセンサシステムは、より低い帯域幅及び消費電力で改善されたパフォーマンスの追跡(非常に高速なカメラを使用するのと同等)を可能にする。
例示的なアプリケーションでは、AR HMD上で実行しているARアプリケーションは、ユーザがAR HMDのディスプレイ内に新しい仮想画像を見るであろう予測時刻を計算する。この予測時刻は、所与の画像フレームに対してすべてのHMDアプリケーション処理(追跡、レンダリングなど)が完了するのにかかる時間、及び画像フレームをディスプレイに転送してユーザの目に光を発するまでの時間に基づいている。この合計予測時刻は、HMD 6DOFポーズSLAM RGB/IRシステム、ハンドトラッキングRGB/IRセンサ、及びアイトラッキングRGB/IRセンサを含むカメラセンサシステムへの入力として使用され得ることで、ヘッドビューからのシーンの将来の予測カメラ画像、手が存在しているシーンの将来の予測カメラ画像、及びユーザの目の画像が導出され得る。
追跡の改善に加えて、RGB/IR+EDSカメラが将来画像フレーム予測を備えることで、超低レイテンシのビデオの実世界画像(拡張現実システムを通して見る)が提供され得る。
したがって、システムは、少なくとも1つの拡張現実(AR)ヘッドマウントディスプレイ(HMD)を含み、このAR HMDは、赤-緑-青(RGB)画像を生成するように構成される少なくとも1つのカメラユニットを含む。このシステムは、少なくとも1つの画像信号プロセッサ(ISP)及び少なくとも1つのイベント検出センサ(EDS)を含み、少なくとも1つのEDSは、照明強度における変化を表す信号をISPに出力して、ISPがカメラユニットを制御し、現在時刻=tでの第一RGB画像を生成し、このRGB画像から、将来時刻=t+Dの予測画像を外挿することを可能にするように構成される。
例では、カメラユニットは、赤外線(IR)画像を生成するように構成され得る。
非限定的な実施形態では、カメラユニット、ISP、及びEDSは、単一のチップに配置され得る。これらのコンポーネントによって行われる処理は、デジタルシグナルプロセッサ(DSP)によって実装され得る。
実装例では、ISPは、HMDに関連する少なくとも1つのアプリケーションから時間値Dを受信し、第一画像及び予測画像をアプリケーションに返すように構成される。
いくつかの実施形態では、ISPは、ISPによって実行可能な、時刻t+Dで第二RGB画像を生成する命令で構成され得る。それらのような実施形態では、ISPは、ISPによって実行可能な、少なくとも1つのニューラルネットワーク(NN)を実行して予測画像を生成し、第二画像をNNにフィードバックしてNNをトレーニングする命令で構成され得る。具体的な実施形態では、第一(非予測)画像と早期の第二(予測)画像との間の差分は、第二画像に関連するタイムスタンプにマッチングする第一画像に関連するタイムスタンプに少なくとも部分的に基づいて、NNにフィードバックされる。
時刻t+Dでの第二RGB画像が、時間内の早期に以前に格納された、履歴バッファから取得されることができることに留意されたい。また、EDSデータは、時間内の早期に以前に格納された、履歴バッファから取得され得、第二RGB画像全体を再作成するために使用され得る。
別の態様では、システムは、赤-緑-青(RGB)画像及び/または赤外線(IR)画像を生成するように構成される少なくとも1つのカメラユニット、少なくとも1つの画像信号プロセッサ(ISP)、及び少なくとも1つのイベント検出センサ(EDS)を含み、少なくとも1つのEDSは、ISPがカメラユニットを制御して現在時刻=tでの第一RGB及び/またはIR画像を生成し、RGB及び/またはIR画像から、将来時刻=t+Dの予測画像を外挿することを可能にする信号を出力するように構成される。
別の態様では、方法は、時間値Dを受信すること、現在時刻で第一画像を生成すること、及び光強度における変化を表す信号を受信することを含む。光強度における変化を表す信号を使用して、この方法は、現在時刻足す時間値Dに等しい将来時刻の予測画像を生成することを含む。
本願の詳細は、その構造及び動作の両方に関して、添付図面を参照して最もよく理解することができ、図面中、同様の参照番号は同様の部分を指す。
本原理に従った例を含む例示的なシステムのブロック図である。 拡張現実(AR)ヘッドマウントデバイス(HMD)の概略図である。 例示的な環境でのカメラセンサシステムのブロック図である。 HMDアプリケーションの例示的なロジックのフローチャートである。 カメラセンサシステムの例示的なロジックのフローチャートである。
本開示は、概して、限定ではないが、コンピュータゲームネットワークのようなコンピュータシミュレーションネットワークなどの家電製品(CE)デバイスネットワークだけでなく、スタンドアロンコンピュータシミュレーションシステムの態様を含むコンピュータエコシステムに関する。本明細書のシステムは、クライアントコンポーネントとサーバコンポーネントとの間でデータが交換され得るようにネットワークを介して接続されたサーバコンポーネント及びクライアントコンポーネントを備え得る。クライアントコンポーネントは、Sony PlayStation(登録商標)等のゲーム機またはMicrosoft(登録商標)もしくはNintendo(登録商標)もしくは他の製造者らによって作成されたゲーム機、仮想現実(VR)ヘッドセット、拡張現実(AR)ヘッドセット、ポータブルテレビ(例えば、スマートTV、インターネット対応TV)、ラップトップ及びタブレットコンピュータ等のポータブルコンピュータ、ならびにスマートフォン及び下記に説明される追加の例を含む他のモバイルデバイスを含む、1つ以上のコンピューティングデバイスを含み得る。これらのクライアントデバイスは、様々な動作環境で動作し得る。例えば、クライアントコンピュータの一部は、例として、Linux(登録商標)オペレーティングシステム、Microsoft(登録商標)のオペレーティングシステム、またはUnix(登録商標)オペレーティングシステム、またはApple(登録商標)コンピュータもしくはGoogle(登録商標)によって製造されたオペレーティングシステムを使用し得る。これらの動作環境を使用して、Microsoft(登録商標)もしくはGoogle(登録商標)もしくはMozilla(登録商標)によって作成されたブラウザ、または下記に説明されるインターネットサーバによってホストされるウェブサイトにアクセスできる他のブラウザプログラム等の1つ以上の閲覧プログラムを実行し得る。また、1つ以上のコンピュータゲームプログラムを実行するために、本原理による動作環境が用いられ得る。
サーバ及び/またはゲートウェイは、インターネット等のネットワークを介してデータの受信及び送信を行うようにサーバを構成する命令を実行する1つ以上のプロセッサを含み得る。または、クライアント及びサーバは、ローカルイントラネットまたは仮想プライベートネットワークを介して接続することができる。サーバまたはコントローラは、Sony PlayStation(登録商標)等のゲーム機、パーソナルコンピュータ等によってインスタンス化され得る。
情報は、クライアントとサーバとの間のネットワークを介して交換され得る。この目的のために及びセキュリティのために、サーバ及び/またはクライアントは、ファイアウォール、ロードバランサ、テンポラリストレージ、及びプロキシ、ならびに信頼性及びセキュリティのための他のネットワークインフラストラクチャを含み得る。1つ以上のサーバは、ネットワークメンバーにオンラインソーシャルウェブサイト等のセキュアコミュニティを提供する方法を実施する装置を形成し得る。
本明細書で使用される場合、命令は、システムにおいて情報を処理するためにコンピュータにより実施されるステップを指す。命令は、ソフトウェア、ファームウェア、またはハードウェア内に実装され得、システムのコンポーネントによって実行される任意のタイプのプログラムされたステップを含み得る。
プロセッサは、アドレスライン、データライン、及び制御ラインなどの様々なライン、ならびにレジスタ及びシフトレジスタによってロジックを実行できる、任意の従来の汎用のシングルチッププロセッサまたはマルチチッププロセッサであり得る。
本明細書のフローチャート及びユーザインタフェースによって説明されるソフトウェアモジュールは、様々なサブルーチン、プロシージャなどを含むことができる。本開示を制限することなく、特定のモジュールによって実行されると述べられているロジックは、他のソフトウェアモジュールに再配信され得る、及び/または単一のモジュール内に一緒に組み合わされ得る、及び/または共有可能なライブラリで利用可能になり得る。
本明細書に記載された本原理は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせとして実装することができる。したがって、実例となるコンポーネント、ブロック、モジュール、回路、及びステップは、それらの機能性の観点から説明されている。
さらに上記に指摘したものについて、下記に説明される論理ブロック、モジュール、及び回路は、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)もしくは特定用途向け集積回路(ASIC)等の他のプログラマブル論理デバイス、個別ゲートもしくはトランジスタ論理、個別ハードウェアコンポーネント、または本明細書に説明される機能を行うように設計されたそれらのいずれかの組み合わせによって実装できるまたは行うことができる。プロセッサは、コントローラもしくは状態機械、またはコンピューティングデバイスの組み合わせによって実装することができる。
以下で説明される機能及び方法は、ソフトウェアにおいて実装されるとき、限定ではないが、Java(登録商標)、C#、またはC++等の適切な言語において記述することができ、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、コンパクトディスクリードオンリメモリ(CD-ROM)、またはデジタル多用途ディスク(DVD)等の他の光ディスクストレージ、磁気ディスクストレージもしくは着脱可能サムドライブ等を含む他の磁気記憶装置等のコンピュータ可読記憶媒体に記憶することができ、またはそれらを通して伝送することができる。接続は、コンピュータ可読媒体を確立し得る。このような接続は、例として、光ファイバ、同軸ワイヤ、デジタル加入者回線(DSL)、及びツイストペアワイヤを含む有線ケーブルを含み得る。このような接続には、赤外線及び無線を含む無線通信接続が含まれ得る。
ある実施形態に含まれるコンポーネントを、他の実施形態において任意の適切な組み合わせで使用することができる。例えば、本明細書で説明される、及び/または図に描かれる様々なコンポーネントのいずれも、組み合わされてもよく、交換されてもよく、または他の実施形態から除外されてもよい。
「A、B、及びCの少なくとも1つを有するシステム」(同様に「A、B、またはCの少なくとも1つを有するシステム」及び「A、B、Cのうちの少なくとも1つを有するシステム」)は、Aを単独で、Bを単独で、Cを単独で、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、及び/またはA、B、及びCを一緒に有するシステム等を含む。
ここで具体的に図1を参照すると、例示的なシステム10は、示されており、本発明の原理による、上述されており、さらに以下で説明される、例示的なデバイスのうちの1つ以上を含み得る。システム10に含まれる例示的な第一デバイスは、限定されないがTVチューナ(同等に、TVを制御するセットトップボックス)を備えたインターネット対応TVなど、オーディオビデオデバイス(AVD)12などの家電製品(CE)デバイスである。しかし、AVD12は、代わりに、電気器具または家庭用品、例えば、コンピュータ制御でインターネット対応の冷蔵庫、洗濯機、または乾燥機であってよい。あるいは、AVD12はまた、コンピュータ制御型インターネット対応(「スマート」)電話、タブレットコンピュータ、ノートブックコンピュータ、例えば、コンピュータ制御型インターネット対応時計、コンピュータ制御型インターネット対応ブレスレット、他のコンピュータ制御型インターネット対応デバイス等のウェアラブルコンピュータ制御デバイス、コンピュータ制御型インターネット対応ミュージックプレイヤ、コンピュータ制御型インターネット対応ヘッドフォン、インプラント可能な皮膚用デバイス等のコンピュータ制御型インターネット対応のインプラント可能なデバイス等であってよい。いずれにしても、AVD12は、本原理を実施する(例えば、本原理を実施するように他のCEデバイスと通信し、本明細書に説明されるロジックを実行し、本明細書に説明されるいずれかの他の機能及び/または動作を行う)ように構成されることを理解されたい。
したがって、このような原理を実施するために、AVD12は、図1に示すコンポーネントの一部または全てによって確立され得る。例えば、AVD12は、高解像度フラットスクリーンまたは「4K」以上の超高解像度フラットスクリーンによって実装してもよく、ユーザ入力信号をディスプレイ上のタッチを介して受け取るためのタッチ対応であってもよい、1つ以上のディスプレイ14を含むことが可能である。AVD12は、本原理に従ってオーディオを出力するための1つ以上のスピーカ16と、例えば、可聴コマンドをAVD12に入力して、AVD12を制御するための、例えば、オーディオ受信機/マイクロフォン等の少なくとも1つの追加の入力デバイス18とを備え得る。例示的AVD12は、また、1つ以上のプロセッサ24の制御の下、インターネット、WAN、LAN等の少なくとも1つのネットワーク22を通じて通信するための1つ以上のネットワークインタフェース20を含み得る。グラフィックプロセッサ24Aを含んでいてもよい。従って、インタフェース20は、Wi-Fi(登録商標)送受信器であり得るが、これに限定されず、Wi-Fi(登録商標)送受信器は、非限定的にメッシュネットワーク送受信器などの無線コンピュータネットワークインターフェースの例である。プロセッサ24は、例えば、画像を提示するようにディスプレイ14を制御することや、ディスプレイ14から入力を受信すること等の本明細書に説明されるAVD12の他の要素を含むAVD12が本原理を実施するように制御することが理解されよう。更に、ネットワークインタフェース20は、例えば、有線もしくは無線モデムもしくはルータ、または、例えば、無線テレフォニ送受信機もしくは上述したWi-Fi(登録商標)送受信機などの他の適切なインタフェースであってもよい。
上記のものに加えて、AVD12はまた、例えば、別のCEデバイスに(例えば、有線接続を使用して)物理的に接続する高精細度マルチメディアインタフェース(HDMI(登録商標))ポートもしくはUSBポート、及び/またはヘッドフォンを通してAVD12からユーザにオーディオを提供するためにAVD12にヘッドフォンを接続するヘッドフォンポート等の1つまたは複数の入力ポート26を備えてよい。例えば、入力ポート26は、オーディオビデオコンテンツのケーブルソースまたは衛星ソース26aに、有線または無線を介して接続され得る。従って、ソース26aは、例えば、別個のもしくは統合されたセットトップボックス、または衛星受信器であり得る。あるいは、ソース26aは、さらに以下で説明される、チャネル割り当て目的でユーザがお気に入りとみなし得るコンテンツを含むゲームコンソールまたはディスクプレーヤであってもよい。ソース26aは、ゲームコンソールとして実装されるとき、CEデバイス44に関連して以下で説明される構成要素のいくつかまたは全てを含んでもよい。
AVD12は、ディスクベースまたはソリッドステートストレージ等の1つ以上のコンピュータメモリ28であって、一時的信号でなく、場合により、スタンドアロンデバイスとしてAVDのシャーシに具現化され、またはAVDのシャーシの内部もしくは外部のいずれかでAVプログラムを再生するためのパーソナルビデオレコーディングデバイス(PVR)もしくはビデオディスクプレイヤとして具現化され、またはリムーバブルメモリ媒体として具現化されるコンピュータメモリ28をさらに含んでもよい。また、いくつかの実施形態では、AVD12は、限定されるものではないが、例えば、少なくとも1つの衛星または携帯電話塔から地理的位置情報を受信し、その情報をプロセッサ24に提供するように構成され、及び/またはAVD12がプロセッサ24と併せて配置される高度を判定するように構成される携帯電話受信機、GPS受信機、及び/または高度計30等の位置または場所の受信機を含み得る。しかし、例えば全3次元において、例えば、AVD12の場所を判定するために、本原理に従って、携帯電話受信機、GPS受信機、及び/または高度計以外の別の適切な位置受信機が使用され得ることを理解されたい。
AVD12の説明を続けると、ある実施形態では、AVD12は、1つまたは複数のカメラ32を備えてよく、1つまたは複数のカメラ32は、例えば、サーマルイメージングカメラ、ウェブカメラなどのデジタルカメラ、及び/またはAVD12に統合され、本原理に従って写真/画像及び/またはビデオを収集するようプロセッサ24によって制御可能なカメラであってよい。AVD12にはまた、ブルートゥース(登録商標)及び/または近距離無線通信(NFC)技術をそれぞれ使用した他のデバイスとの通信のためのブルートゥース(登録商標)送受信機34及び他のNFC素子36が含まれ得る。例示のNFC素子は、無線周波数識別(RFID)素子であってもよい。
さらにまた、AVD12は、プロセッサ24に入力を提供する1つ以上の補助センサ37(例えば、加速度計、ジャイロスコープ、サイクロメータ等の運動センサ、または磁気センサ、赤外線(IR)センサ、光学センサ、速度センサ及び/またはケイデンスセンサ、ジェスチャセンサ(例えば、ジェスチャコマンドを検知するためのセンサ等)を含み得る。AVD12は、プロセッサ24への入力をもたらすOTA(無線経由)TV放送を受信するための無線経由TV放送ポート38を含み得る。上述したものに加え、AVD12は、赤外線(IR)送信機及び/またはIR受信機及び/または赤外線データアソシエーション(IRDA)デバイスなどのIR送受信機42も備えてよいことに留意されよう。AVD12に給電するためのバッテリ(図示せず)が備えられてよい。
さらに図1を参照して、AVD12に加えて、システム10は、1つまたは複数の他のCEデバイスタイプを含んでもよい。一実施例では、コンピュータゲームのオーディオ及びビデオを、AVD12に直接送信されるコマンドを介して、及び/または後述のサーバを通じて、AVD12に送信するために、第一CEデバイス44が使用され得、第一CEデバイス44と同様のコンポーネントを第二CEデバイス46が含み得る。示される例では、第二CEデバイス46は、示されるようにプレイヤ47が装着するARヘッドセットとして構成され得る。図示の例では、2つのCEデバイス44、46のみが示されるが、より少ないまたはより多くのデバイスが使用されてよいことは理解されよう。
図示の例では、本原理を示すために、3つのデバイス12、44、46は全て、例えば家庭のエンターテインメントネットワークのメンバーであること、または少なくとも、住宅等の場所において相互に近接して存在していることが想定される。しかし、本原理は、他に明確に主張されない限り、破線48によって示される特定の場所に限定されない。
例示的な非限定的な第一CEデバイス44は、上述のデバイス、例えば、ポータブル無線ラップトップコンピュータまたはノートブックコンピュータまたはゲームコントローラのいずれか1つによって確立されてもよく、したがって、以下で説明される1つ以上のコンポーネントを有してもよい。第一CEデバイス44は、例えば、AV再生コマンド及び一時停止コマンドをAVD12に発行するためのリモート制御(RC)であってもよく、またはタブレットコンピュータ、有線もしくは無線リンクを介してAVD12と通信するゲームコントローラ及び/またはゲームコンソール、パーソナルコンピュータ、無線電話等のより高性能のデバイスであってもよい。
従って、第一CEデバイス44は、ディスプレイをタッチしてユーザ入力信号を受信するためにタッチ対応であってよい1つまたは複数のディスプレイ50を備えてよい。第一CEデバイス44は、本原理に従って音声を出力するための1つまたは複数のスピーカ52と、例えば、デバイス44を制御するために可聴コマンドを第一CEデバイス44に入力するための、例えば、音声受信機/マイクロフォン等の少なくとも1つの追加の入力デバイス54とを備えてよい。例示の第一CEデバイス44はまた、1つ以上のCEデバイスプロセッサ58の制御下で、ネットワーク22を介して通信するための1つ以上のネットワークインタフェース56を含み得る。グラフィックプロセッサ58Aを含んでいてもよい。従って、インタフェース56は、Wi-Fi送受信器であり得るが、これに限定されず、Wi-Fi(登録商標)送受信器は、メッシュネットワークインタフェースを含む無線コンピュータネットワークインタフェースの例である。プロセッサ58は、例えば、ディスプレイ50を画像を提示するように制御することや、そこから入力を受信すること等の本明細書に説明される第一CEデバイス44の他の要素を含む、本原理を実施するように第一CEデバイス44を制御することが理解されよう。更に、ネットワークインタフェース56は、例えば、有線もしくは無線モデムもしくはルータ、または、例えば、無線テレフォニ送受信機もしくは上述したWi-Fi送受信機などの他の適切なインタフェースであってもよい。
上記のものに加えて、第一CEデバイス44はまた、例えば、別のCEデバイスに(例えば、有線接続を使用して)物理的に接続するHDMI(登録商標)ポートもしくはUSBポート、及び/またはヘッドフォンを通して第一CEデバイス44からユーザにオーディオを提供するために第一CEデバイス44にヘッドフォンを接続するヘッドフォンポート等の1つまたは複数の入力ポート60を備えてよい。第一CEデバイス44はさらに、ディスクベースストレージまたはソリッドステートストレージなどの1つ以上の有形コンピュータ可読記憶媒体62を含み得る。また、ある実施形態では、第一CEデバイス44は、限定ではないが、携帯電話及び/またはGPS受信機及び/または高度計64など、位置または場所の受信機を備えることができ、位置または場所の受信機は、例えば、三角測量を使用して、少なくとも1つの衛星タワー及び/または携帯電話タワーから地理的位置情報を受信し、その情報をCEデバイスプロセッサ58に提供し、及び/または第一CEデバイス44がCEデバイスプロセッサ58と共に配置される高度を決定するように構成される。しかしながら、本原理に従って、例えば、全ての3つの次元において第一CEデバイス44の位置を決定するために、携帯電話及び/またはGPS受信機及び/または高度計以外の他の適切な位置受信機が使用されてもよいことを理解されたい。
第一CEデバイス44の説明を続けると、ある実施形態では、第一CEデバイス44は、1つまたは複数のカメラ66を備えてよく、1つまたは複数のカメラ66は、例えば、サーマルイメージングカメラ、ウェブカメラなどのデジタルカメラ、及び/または第一CEデバイス44に統合され、本原理に従って写真/画像及び/またはビデオを収集するようにCEデバイスプロセッサ58によって制御可能であるカメラであってよい。また、第一CEデバイス44は、ブルートゥース(登録商標)送受信器68と他の近距離無線通信(NFC)素子70とを含み得、これらは、ブルートゥース(登録商標)及び/またはNFC技術をそれぞれ使用して、他のデバイスと通信する。例示のNFC素子は、無線周波数識別(RFID)素子であってもよい。
さらにまた、第一CEデバイス44は、CEデバイスプロセッサ58に入力を提供する1つ以上の補助センサ72(例えば、加速度計、ジャイロスコープ、サイクロメータ等の運動センサ、または磁気センサ、赤外線(IR)センサ、光学センサ、速度センサ及び/またはケイデンスセンサ、ジェスチャセンサ(例えば、ジェスチャコマンドを検知するためのセンサ)等)を含み得る。第一CEデバイス44は、例えば、1つ以上の気候センサ74(例えば、気圧計、湿度センサ、ウィンドセンサ、光センサ、温度センサなど)及び/または入力をCEデバイスプロセッサ58に提供する1つ以上のバイオメトリックセンサ76などのさらに他のセンサを含み得る。前述に加えて、いくつかの実施形態では、第一CEデバイス44はまた、赤外線データ協会(IRDA)デバイス等の赤外線(IR)送信機及び/またはIR受信機及び/またはIR送受信機78を含み得ることに留意されたい。第一CEデバイス44に給電するためのバッテリ(図示せず)が備えられてよい。CEデバイス44は、上記の通信モード及び関連コンポーネントのいずれかを介してAVD12と通信し得る。
第2のCEデバイス46は、CEデバイス44について示したコンポーネントの一部または全部を含むことができる。一方または両方のCEデバイスは、1つ以上のバッテリにより電力供給され得る。
次に、上記の少なくとも1つのサーバ80についてであるが、このサーバ80は、少なくとも1つのサーバプロセッサ82と、ディスクベースまたはソリッドステートストレージ等の少なくとも1つの有形コンピュータ可読記憶媒体84と、サーバプロセッサ82の制御下で、ネットワーク22を通じて図1の他のデバイスとの通信を可能にし、実際に、本原理に従ってサーバとクライアントデバイスとの間の通信を促進し得る少なくとも1つのネットワークインタフェース86とを含む。ネットワークインタフェース86は、例えば、有線もしくは無線のモデムもしくはルータ、Wi-Fi送受信機、または、例えば、無線テレフォニ送受信機等の他の適切なインタフェースであり得ることに留意されたい。
したがって、いくつかの実施形態では、サーバ80は、インターネットサーバまたはサーバ「ファーム」全体であってもよく、「クラウド」機能を含んでもよく、「クラウド」機能を実行してもよく、その結果、システム10のデバイスは、例えば、ネットワークゲーミングアプリケーションについての例示的な実施形態においてサーバ80を介して「クラウド」環境にアクセスすることができる。あるいは、サーバ80は、図1に示す他のデバイスと同じ部屋かまたはその近くにある1つ以上のゲームコンソールまたは他のコンピュータによって実装されてもよい。
本明細書における方法は、当業者によって認識されるように、プロセッサ、適切に構成された特定用途向け集積回路(ASIC)もしくはフィールドプログラマブルゲートアレイ(FPGA)モジュール、またはいずれかの他の便利な方式によって実行されるソフトウェア命令として実装されてもよい。採用される場合、ソフトウェア命令は、CD ROMまたはフラッシュドライブ等の非一時的デバイスにおいて具体化されてもよい。代わりに、ソフトウェアコード命令は、無線信号もしくは光信号などの一時的構成で、またはインターネットを通したダウンロードを介して具体化されてよい。
ここで図2を参照すると、拡張現実(AR)ヘッドマウントディスプレイ200は、示されており、図1の適切に構成されたCEデバイス46によって実装されることができ、人間47が着用して、HMD200を通して実世界オブジェクトを見ることができ、HMD200に提示される仮想オブジェクトを見ることができる。HMD200は、1つ以上のカメラセンサシステム(CSS)202を含むことができる。CSS202は、赤-緑-青(RGB)画像だけでなく赤外線(IR)画像をも生成することができる。また、HMD200は、イベント検出センサ(EDS)204を含んでもよい、またはその他の方法で関連付けられてもよい。USPN7,728,269と、スイスのチューリッヒにあるiniVation AGのモノクロ強度及びDVSセンサ複合カメラをhttps://inivation.com/dvpで開示している「Dynamic Vision Platform」との両方は、参照により本明細書に援用されており、これらのセンサを実装する際に参照されることができる。
本開示と一致するEDSは、光感知アレイの少なくとも1つのピクセルによって感知される光強度における変化を示す出力を提供する。例えば、ピクセルによって感知される光が減少している場合、EDSの出力は-1であり得、増加している場合、EDSの出力は+1であり得る。特定の閾値を下回る光強度における変化がないことは、0の出力バイナリ信号によって示され得る。
また、図2は、HMD200を装着している人間47の両目206及び人間47の片手または両手208を追跡することができることを示す。これは、HMD200に使用されているものと同じCSS202及びEDS204を使用して行われ得る。ただし、示される例では、別個のCSS210及びEDS212は両目206を追跡するために使用され、別個のCSS214及びEDS216は手208を追跡するために使用される。
図2のCSS及びEDSからの画像は、HMD200を装着している人間47の手及び両目を追跡するためにも、SLAM情報を取得してHMD200の6DOFポーズ情報を導出するためにも使用され得る。
図3は、HMD200のCSS202及びEDS204を一例として使用した実装例を示す。示される例では、EDS204は、その信号を画像信号プロセッサ(ISP)パラメータ調整ブロック(PAB)300に送信し、このISP PABは、CSS202によって生成された画像のピクセル値に調整信号を生成して、以下の開示と一致している予測画像をレンダリングする。ISP PAB300は、1つ以上のニューラルネットワーク(NN)304などのアルゴリズムを実行するISP302によって制御され得る。また、非機械学習アルゴリズムは、PAB300で調整を生成して予測画像をレンダリングするために実行され得る。
示されている例では、CSS202、EDS204、及びISP302はすべて、EDS生成画像及びCSS生成画像を含む画像を格納するためのローカルメモリを含み得る単一のチップ306に実装される。コンポーネントの処理は、単一のデジタルシグナルプロセッサ(DSP)によって実行されることができる。いずれの場合も、ISP302は、CSS202からRGB/IRを、そしてNN304からデータによって生成された予測画像を画像208として、6DOFポーズアプリケーション、VRオブジェクト生成アルゴリズムなどの1つ以上の外部アプリケーション310に出力する。
図4は、図3でのアプリケーション310が実行することができるロジックを示し、図5は、CSS202/EDS204/ISP302が実行することができるロジックを示す。ブロック400は、追跡しようとしているオブジェクトのそれぞれに対して、すなわち、HMDポーズ、またはHMDの着用者の目もしくは手を追跡するために、ロジックが実行され得ることを示す。ブロック402では、アプリケーションは、追跡しようとしているオブジェクトの予測画像を知りたいと望む将来への本質的に時間差分であるものを決定する。本明細書では「D」と称されるこの時間差分は、長さが数ミリ秒であり得、システム内のさまざまなレイテンシに依存している。例えば、AR HMD200上で実行しているARアプリケーション310は、ユーザがAR HMDのディスプレイ内に新しい仮想画像を見るであろう予測時刻を計算することができる。この予測時刻は、所与の画像フレームに対してすべてのHMDアプリケーション処理(追跡、レンダリングなど)が完了するのにかかる時間、及び画像フレームをディスプレイに転送してユーザの目に光を発するまでの時間に基づいている。アプリケーションは、追跡しようとしているオブジェクトの予測された位置またはポーズ、例えば、シーン内のHMDのポーズ、または着用者の目もしくは手がわかっている場合、仮想画像をより適切にレンダリングすることができる。
ブロック404に移ると、時間差分「D」は、カメラシステム、例えば、ISP302に送信される。それに応答して、ブロック406では、アプリケーション310は、EDS204からの光強度変化情報に基づいている将来時刻t+Dの予測画像に加えて、現在時刻「t」でCSS202によって生成された現在のRGB/IR画像を返信する。ブロック408は、予測された(EDS)フレーム及び現在のRGB/IRフレームを使用して、例えば、VRオブジェクトのエミュレートされた実世界位置とユーザの手が同位置にあるであろうなど、例えば、VRオブジェクトがイベント内に提示され得るHMD200上の位置を変更することを示す。ブロック406では、受信した画像も、目206の視線方向、手208のポーズ、及びHMD200のポーズを決定するために使用され得る。
ここで図5を参照すると、ブロック500では、ISP302は、現在時刻の画像及び現在時刻+Dでの予測画像の要求に加えて、またはその要求を構成する、時間値「D」をアプリケーション310から受信する。次に、RGB/IR画像はCSS202によって現在時刻「t」で取得され、差分光強度値はEDS204から受信される。これらの値は、ブロック504で、ISPパラメータ調整ブロック300によるRGB/IR画像のコピーでの将来時刻=t+Dのピクセル値を変更し、時刻t+Dの予測画像を生成するために使用される。そうすることで、EDS204によってピクセルごとに示される光強度における変化が、RGB画像が時刻t+Dによってどのように変化すると予想され得るかと相関し、この相関がNN304によって学習され得ることに留意されたい。初期に、NN304は、グラウンドトゥルース画像対EDS値のトレーニングセットに関してトレーニングされてから、以下で議論されるようにさらにトレーニングされることができる。
ブロック506では、現在時刻tのRGB/IR画像、及び予測画像は、アプリケーション310に返される。予測画像を生成する際に、新しいRGB/IR画像が実際にすぐに取得されるのではなく、現在のRGB/IR画像のコピーのみが変更されることで、電力が節約され、カメラ速度の1秒あたりのフレーム数(FPS)を多くする必要性が軽減されることに留意されたい。
ブロック506から、ロジックはブロック508に移り、時間Dで、すなわち、「D」が時間デルタを表すとき、新しい現在時刻がブロック502で画像を生成した「古い」現在時刻足すDに等しいとき、CSS202を使用して新しいRGB/IR画像を取得する。この第二RGB/IR画像がグラウンドトゥルースとして機能し得ることで、ブロック510では、ブロック508で生成された第二RGB/IR画像と、ブロック504でレンダリングされた予測画像との間の差分を使用して、NN304がさらにトレーニングされ得る。それは、それらの画像の両方が本質的にマッチングするタイムスタンプを有することで、例えば、ローカルにメモリに保存されてからトレーニングのために取得されるときに、それらのデータ構造が伴われることができるため、NNがトレーニングされることができる。トレーニングは、処理能力を節約するために、ブロック504で生成されたEDS変更画像ごとに、またはそれらの画像のサブセットのみに行われ得る。
いくつかの例示的な実施形態を参照して本原理を説明したが、これらは限定することを意図しておらず、各種の代替的な構成が本明細書で特許請求される主題を実施するために使用されてよいことが理解されよう。

Claims (20)

  1. 少なくとも1つの仮想現実または拡張現実(AR)ヘッドマウントディスプレイ(HMD)を含むシステムであって、
    前記少なくとも1つの仮想現実またはAR HMDは、
    赤-緑-青(RGB)画像を生成するように構成される少なくとも1つのカメラユニットと、
    少なくとも1つの画像信号プロセッサ(ISP)と、
    少なくとも1つのイベント検出センサ(EDS)と、
    を含み、
    前記少なくとも1つのEDSは、
    照明強度における変化を表す信号を前記ISPに出力し、前記ISPが前記カメラユニットを制御して現在時刻=tでの第一RGB画像を生成し、前記RGB画像から、将来時刻=t+Dの予測画像を外挿するように構成され、Dは時間値である、
    前記システム。
  2. 前記カメラユニットは赤外線(IR)画像を生成するように構成される、請求項1に記載のシステム。
  3. 前記カメラユニット、前記ISP、及び前記EDSは、単一のチップに配置される、請求項1に記載のシステム。
  4. 前記カメラユニット、前記ISP、及び前記EDSの処理は、デジタルシグナルプロセッサ(DSP)によって実施される、請求項1に記載のシステム。
  5. 前記ISPは、前記HMDに関連する少なくとも1つのアプリケーションから前記時間値Dを受信するように構成される、請求項1に記載のシステム。
  6. 前記ISPは、前記ISPによって実行可能な、前記第一画像及び前記予測画像を前記アプリケーションに返す命令で構成される、請求項5に記載のシステム。
  7. 前記ISPは、前記ISPによって実行可能な、前記時刻t+Dに第二RGB画像を生成する命令で構成される、請求項1に記載のシステム。
  8. 前記ISPは、前記ISPによって実行可能な命令で構成され、前記命令は、
    少なくとも1つのニューラルネットワーク(NN)を実行して前記予測画像を生成することと、
    前記第一画像と早期の第二画像との間の差分を、前記第二画像に関連するタイムスタンプにマッチングする前記第一画像に関連するタイムスタンプに少なくとも部分的に基づいて、前記NNにフィードバックすることと、
    のためのものである、請求項7に記載のシステム。
  9. 赤-緑-青(RGB)画像及び/または赤外線(IR)画像を生成するように構成される少なくとも1つのカメラユニットと、
    少なくとも1つの画像信号プロセッサ(ISP)と、
    少なくとも1つのイベント検出センサ(EDS)と、
    を含み、
    前記少なくとも1つのEDSは、
    前記ISPが前記カメラユニットを制御して、現在時刻=tでの第一RGB及び/またはIR画像を生成し、前記RGB及び/またはIR画像から、将来時刻=t+Dの予測画像を外挿することを可能にする信号を出力するように構成される、
    システム。
  10. 前記カメラユニットはRGB画像を生成するように構成される、請求項9に記載のシステム。
  11. 前記カメラユニット、前記ISP、及び前記EDSは、単一のチップに配置される、請求項9に記載のシステム。
  12. 前記カメラユニット、前記ISP、及び前記EDSは、デジタルシグナルプロセッサ(DSP)に実装される、請求項9に記載のシステム。
  13. 前記ISPは、ヘッドマウントディスプレイ(HMD)に関連する少なくとも1つのアプリケーションからDを受信するように構成される、請求項9に記載のシステム。
  14. 前記ISPは、前記ISPによって実行可能な、前記第一画像及び前記予測画像を前記アプリケーションに返す命令で構成される、請求項13に記載のシステム。
  15. 前記ISPは、前記ISPによって実行可能な、前記時刻t+Dに第二画像を生成する命令で構成される、請求項1に記載のシステム。
  16. 前記ISPは、前記ISPによって実行可能な命令で構成され、前記命令は、
    少なくとも1つのニューラルネットワーク(NN)を実行して前記予測画像を生成することと、
    前記第二画像を前記NNにフィードバックして前記NNをトレーニングすることと、
    のためのものである、請求項15に記載のシステム。
  17. 前記EDSによって出力される前記信号は、照明強度における変化を表す、請求項9に記載のシステム。
  18. 時間Dを受信することと、
    現在時刻で第一画像を生成することと、
    光強度における変化を表す信号を受信することと、
    前記光強度における変化を表す前記信号を使用して、前記現在時刻足すDに等しい将来時刻の予測画像を生成することと、
    を含む、方法。
  19. 前記第一画像及び前記予測画像を、ヘッドマウントディスプレイ(HMD)に関連する少なくとも1つのアプリケーションに返すことを含む、請求項18に記載の方法。
  20. 少なくとも1つのニューラルネットワーク(NN)を使用して前記予測画像を生成することと、
    前記第一画像が生成された前記現在時刻足すDに等しい時刻での第二画像を生成することと、
    前記第二画像を前記NNに提供して、前記NNをトレーニングすることと、
    を含む、請求項18に記載の方法。
JP2022542462A 2020-01-13 2021-01-08 仮想及び拡張現実hmdシステムにおける高速予測追跡及びレイテンシ補償のための光強度ベースのcmos及びイベント検出センサの組み合わせ Active JP7356596B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/741,285 US11635802B2 (en) 2020-01-13 2020-01-13 Combined light intensity based CMOS and event detection sensor for high speed predictive tracking and latency compensation in virtual and augmented reality HMD systems
US16/741,285 2020-01-13
PCT/US2021/012693 WO2021146113A1 (en) 2020-01-13 2021-01-08 Combined light intensity based cmos and event detection sensor for high speed predictive tracking and latency compensation in virtual and augmented reality hmd systems

Publications (2)

Publication Number Publication Date
JP2023512166A true JP2023512166A (ja) 2023-03-24
JP7356596B2 JP7356596B2 (ja) 2023-10-04

Family

ID=76763632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022542462A Active JP7356596B2 (ja) 2020-01-13 2021-01-08 仮想及び拡張現実hmdシステムにおける高速予測追跡及びレイテンシ補償のための光強度ベースのcmos及びイベント検出センサの組み合わせ

Country Status (5)

Country Link
US (1) US11635802B2 (ja)
EP (1) EP4091015A4 (ja)
JP (1) JP7356596B2 (ja)
CN (1) CN114981706A (ja)
WO (1) WO2021146113A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230398434A1 (en) * 2022-06-10 2023-12-14 Sony Interactive Entertainment Inc. Deployment of dynamic vision sensor hybrid element in method for tracking a controller and simultaneous body tracking, slam or safety shutter

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140010305A1 (en) * 2012-07-03 2014-01-09 Samsung Electronics Co., Ltd. Method of multi-view video sequence coding/decoding based on adaptive local correction of illumination of reference frames without transmission of additional parameters (variants)
US20160026253A1 (en) * 2014-03-11 2016-01-28 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9595083B1 (en) * 2013-04-16 2017-03-14 Lockheed Martin Corporation Method and apparatus for image producing with predictions of future positions
US20170213388A1 (en) * 2016-01-25 2017-07-27 Jeffrey Neil Margolis Frame Projection For Augmented Reality Environments
US20170334066A1 (en) * 2016-05-20 2017-11-23 Google Inc. Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment
US20180137389A1 (en) * 2016-11-16 2018-05-17 Facebook, Inc. Deep Multi-Scale Video Prediction
WO2018176015A1 (en) * 2017-03-24 2018-09-27 Magic Leap, Inc. Accumulation and confidence assignment of iris codes
WO2019226374A1 (en) * 2018-05-24 2019-11-28 Microsoft Technology Licensing, Llc Dead reckoning and latency improvement in 3d game streaming scenario

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5837995A (en) * 1996-11-25 1998-11-17 Alan Y. Chow Wavelength-controllable voltage-phase photodiode optoelectronic switch ("opsistor")
US20020097322A1 (en) * 2000-11-29 2002-07-25 Monroe David A. Multiple video display configurations and remote control of multiple video signals transmitted to a monitoring station over a network
US7403646B2 (en) * 2002-10-24 2008-07-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and recording medium for generating a difference image from a first radiographic image and second radiographic image
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
JP2010256242A (ja) * 2009-04-27 2010-11-11 Hitachi High-Technologies Corp 欠陥検査装置及び欠陥検査方法
GB2476258A (en) * 2009-12-16 2011-06-22 Thales Holdings Uk Plc Motion detection using histogram analysis
US9041298B2 (en) * 2011-08-10 2015-05-26 Brian R. Andy Motion activated toilet bowl lighting device
US10585472B2 (en) * 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9087471B2 (en) * 2011-11-04 2015-07-21 Google Inc. Adaptive brightness control of head mounted display
US20130248691A1 (en) * 2012-03-23 2013-09-26 Google Inc. Methods and Systems for Sensing Ambient Light
US9702977B2 (en) * 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9063330B2 (en) * 2013-05-30 2015-06-23 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
US10694106B2 (en) * 2013-06-14 2020-06-23 Qualcomm Incorporated Computer vision application processing
KR20150034558A (ko) * 2013-09-26 2015-04-03 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9645654B2 (en) * 2013-12-04 2017-05-09 Leap Motion, Inc. Initializing predictive information for free space gesture control and communication
US9659403B1 (en) * 2014-01-06 2017-05-23 Leap Motion, Inc. Initializing orientation in space for predictive information for free space gesture control and communication
WO2015139005A1 (en) * 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Methods and systems tracking head mounted display (hmd) and calibrations for hmd headband adjustments
KR20150116260A (ko) * 2014-04-07 2015-10-15 삼성전자주식회사 마커 추적 방법 및 그 전자 장치
EP2933707B1 (en) * 2014-04-14 2017-12-06 iOnRoad Technologies Ltd. Head mounted display presentation adjustment
US9767613B1 (en) * 2015-01-23 2017-09-19 Leap Motion, Inc. Systems and method of interacting with a virtual object
US10684485B2 (en) * 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US9910275B2 (en) * 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
US9898091B2 (en) * 2015-06-03 2018-02-20 Oculus Vr, Llc Virtual reality system with head-mounted display, camera and hand-held controllers
WO2017044795A1 (en) * 2015-09-10 2017-03-16 Google Inc. Playing spherical video on a limited bandwidth connection
KR102501752B1 (ko) * 2015-09-21 2023-02-20 삼성전자주식회사 헤드 마운트 디스플레이의 움직임을 보상하는 방법 및 이를 위한 장치
US10359806B2 (en) * 2016-03-28 2019-07-23 Sony Interactive Entertainment Inc. Pressure sensing to identify fitness and comfort of virtual reality headset
US10110913B2 (en) * 2016-09-30 2018-10-23 Intel Corporation Motion estimation using hybrid video imaging system
KR20180065756A (ko) * 2016-12-08 2018-06-18 삼성전자주식회사 무인비행체를 제어하는 전자 장치 및 그 제어 방법
US10237481B2 (en) * 2017-04-18 2019-03-19 Facebook Technologies, Llc Event camera for generation of event-based images
US10466779B1 (en) * 2017-07-24 2019-11-05 Facebook Technologies, Llc Event camera for eye tracking
US10839547B2 (en) * 2017-09-28 2020-11-17 Samsung Electronics Co., Ltd. Camera pose determination and tracking
US11190753B1 (en) * 2017-09-28 2021-11-30 Apple Inc. Head-mountable device with object movement detection
US11442539B2 (en) * 2018-01-24 2022-09-13 Apple Inc. Event camera-based gaze tracking using neural networks
US10845601B1 (en) * 2018-02-07 2020-11-24 Apple Inc. AR/VR controller with event camera
US10509467B1 (en) * 2018-06-01 2019-12-17 Facebook Technologies, Llc Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display
US10824864B2 (en) * 2018-06-25 2020-11-03 Apple Inc. Plane detection using semantic segmentation
US11170521B1 (en) * 2018-09-27 2021-11-09 Apple Inc. Position estimation based on eye gaze
US10782779B1 (en) * 2018-09-27 2020-09-22 Apple Inc. Feedback coordination for a virtual interaction
US11288818B2 (en) * 2019-02-19 2022-03-29 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for estimation of optical flow, depth, and egomotion using neural network trained using event-based learning
US10944912B2 (en) * 2019-06-04 2021-03-09 Ford Global Technologies, Llc Systems and methods for reducing flicker artifacts in imaged light sources
US11367416B1 (en) * 2019-06-27 2022-06-21 Apple Inc. Presenting computer-generated content associated with reading content based on user interactions
US11503202B1 (en) * 2022-01-03 2022-11-15 Varjo Technologies Oy Optical focus adjustment

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140010305A1 (en) * 2012-07-03 2014-01-09 Samsung Electronics Co., Ltd. Method of multi-view video sequence coding/decoding based on adaptive local correction of illumination of reference frames without transmission of additional parameters (variants)
US9595083B1 (en) * 2013-04-16 2017-03-14 Lockheed Martin Corporation Method and apparatus for image producing with predictions of future positions
US20160026253A1 (en) * 2014-03-11 2016-01-28 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20170213388A1 (en) * 2016-01-25 2017-07-27 Jeffrey Neil Margolis Frame Projection For Augmented Reality Environments
US20170334066A1 (en) * 2016-05-20 2017-11-23 Google Inc. Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment
US20180137389A1 (en) * 2016-11-16 2018-05-17 Facebook, Inc. Deep Multi-Scale Video Prediction
WO2018176015A1 (en) * 2017-03-24 2018-09-27 Magic Leap, Inc. Accumulation and confidence assignment of iris codes
WO2019226374A1 (en) * 2018-05-24 2019-11-28 Microsoft Technology Licensing, Llc Dead reckoning and latency improvement in 3d game streaming scenario

Also Published As

Publication number Publication date
EP4091015A1 (en) 2022-11-23
US20210216133A1 (en) 2021-07-15
WO2021146113A1 (en) 2021-07-22
CN114981706A (zh) 2022-08-30
EP4091015A4 (en) 2024-01-24
US11635802B2 (en) 2023-04-25
JP7356596B2 (ja) 2023-10-04

Similar Documents

Publication Publication Date Title
US11590416B2 (en) Multipoint SLAM capture
US11967087B2 (en) Dynamic vision sensor for visual audio processing
JP7356596B2 (ja) 仮想及び拡張現実hmdシステムにおける高速予測追跡及びレイテンシ補償のための光強度ベースのcmos及びイベント検出センサの組み合わせ
JP2020532352A (ja) プレイヤ選択についての注意ベースのai決定
US11445269B2 (en) Context sensitive ads
US20210129031A1 (en) Adaptive time dilation based on player performance
US11689704B2 (en) User selection of virtual camera location to produce video using synthesized input from multiple cameras
US11553020B2 (en) Using camera on computer simulation controller
US20220180854A1 (en) Sound effects based on footfall
US11373342B2 (en) Social and scene target awareness and adaptation of an occlusion system for increased social and scene interaction in an optical see-through augmented reality head mounted display
US20190020808A1 (en) Remotely controllable camera on head-mount for the blind
JP2023509454A (ja) 発光ダイオード(led)アレイのイベント駆動型センサ(eds)による追跡
US20200278759A1 (en) Controller inversion detection for context switching
US20190124251A1 (en) Remotely controllable camera on eyeglass-type mount for the blind

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230922

R150 Certificate of patent or registration of utility model

Ref document number: 7356596

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150