JP2023512937A - 無線仮想拡張現実システムでのレイテンシの隠蔽 - Google Patents

無線仮想拡張現実システムでのレイテンシの隠蔽 Download PDF

Info

Publication number
JP2023512937A
JP2023512937A JP2022543703A JP2022543703A JP2023512937A JP 2023512937 A JP2023512937 A JP 2023512937A JP 2022543703 A JP2022543703 A JP 2022543703A JP 2022543703 A JP2022543703 A JP 2022543703A JP 2023512937 A JP2023512937 A JP 2023512937A
Authority
JP
Japan
Prior art keywords
head pose
difference
frame
receiver
fov
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022543703A
Other languages
English (en)
Inventor
ミロノフ ミハイル
コルスニク ゲンナジー
シニアヴィン パーベル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATI Technologies ULC
Original Assignee
ATI Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATI Technologies ULC filed Critical ATI Technologies ULC
Publication of JP2023512937A publication Critical patent/JP2023512937A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/16Determination of a pixel data signal depending on the signal applied in the previous frame
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

無線仮想現実(VR)及び拡張現実(AR)アプリケーションのレイテンシを隠すシステム、装置及び方法が開示される。無線VR又はARシステムは、ビデオフレームのレンダリング、エンコード、及び、ヘッドマウントディスプレイ(HMD)に結合された受信機への送信を行う送信機を含む。1つのシナリオでは、受信機は、システムがフレームをレンダリングし、フレームを表示するのに準備するために必要な総レイテンシを測定する。受信機は、総レイテンシに基づいて、ユーザの将来の頭のポーズを予測する。次に、送信機にあるレンダリングユニットは、予測された将来の頭のポーズに基づいて、ヘッドセットの視野(FOV)よりも大きいレンダリングされたFOVを備えた新しいフレームをレンダリングする。受信機は、実際の頭のポーズと予測された将来の頭のポーズとの差によって決定される量だけ新しいフレームを回転させて、表示用の新しいフレームの回転バージョンを生成する。【選択図】図6

Description

(関連技術の説明)
ユーザに対する没入型環境を作り出すために、仮想現実(VR)及び拡張現実(AR)ビデオストリーミングアプリケーションは、通常、高解像度及び高フレームレートを必要とし、これは高データレートに相当する。VR及びARヘッドセット又はヘッドマウントディスプレイ(HMD)の場合、高速で一貫したフレームレートでレンダリングすることで、スムーズで没入型のエクスペリエンスが提供される。しかしながら、シーンの複雑さによってはレンダリング時間が変動する場合があり、レンダリングされたフレームがプレゼンテーションに遅れて配信されることがある。さらに、ユーザがVR又はARシーン内で向きを変えると、レンダリングユニットは、シーンがレンダリングされる視点を変更する。
多くの場合、ユーザは、自分の動きとそれに対応するディスプレイに表示される画像の更新との間に遅延を感じることがある。この遅延は、システムに固有のレイテンシによって引き起こされ、レイテンシとは、ユーザの動きがキャプチャされてから、この動きを反映する画像がHMDの画面に表示されるまでの時間を指す。例えば、システムがフレームをレンダリングしている間にユーザが頭を動かすと、ユーザの新しい頭のポーズ(head pose)に基づいて、フレームにレンダリングされている風景の位置が不正確になる可能性がある。一実施形態では、「頭のポーズ」という用語は、頭の位置(例えば、三次元空間におけるX、Y、Z座標)及び頭の向きの両方として定義される。頭の向きは、四元数として、オイラー角と呼ばれる3つの角度のセットとして、又は、他の方法で指定できる。
無線VR/ARシステムは、通常、有線システムと比較して追加のレイテンシをもたらす。この追加のレイテンシを隠すための特別な技術がないと、HMDに表示される画像は、頭が動いた場合にジャダー(judder)及び遅延が発生し、没入感が失われ、吐き気と眼精疲労を引き起こす。
本明細書に記載される方法及びメカニズムの利点は、添付の図面と併せて以下の説明を参照することによって、より良く理解され得る。
システムの一実施形態のブロック図である。 システムの一実施形態のブロック図である。 VR/ARアプリケーションのためのレンダリング環境の一例の図である。 VR/ARアプリケーションにおける遅い頭の動きを妨げるための技術の一例の図である。 遅い頭の動きに基づいて、無線VR/ARアプリケーションのために表示されているフレームを調整する一例の図である。 無線VR/ARシステムのレイテンシを隠す方法の一実施形態を示す一般化されたフロー図である。 無線VR/ARが最初から最後までフレームをレンダリング及び表示するための総レイテンシを測定する方法の一実施形態を示す一般化されたフロー図である。 ユーザの将来の頭のポーズを予測するためのモデルを更新する方法の一実施形態を示す一般化されたフロー図である。 将来の頭のポーズの予測の誤差に基づいて、レンダリングFOVのサイズを動的に調整する方法の一実施形態を示す全般的なフローチャートである。 レンダリングFOVを動的に調整する方法の一実施形態を示す一般化されたフロー図である。
以下の説明では、本明細書で提示される方法及びメカニズムの十分な理解をもたらすために、多数の特定の詳細が示されている。しかしながら、当業者は、これらの特定の詳細を用いないで、様々な実施形態を実施し得ることを認識するはずである。いくつかの例では、本明細書で説明する手法を不明瞭にすることを回避するために、周知の構造、構成要素、信号、コンピュータプログラム命令及び技術が詳細に示されていない。説明を簡潔及び明瞭にするために、図面に示す要素が必ずしも縮尺通りに描かれていないことを理解されたい。例えば、いくつかの要素の寸法は、他の要素に対して誇張される場合がある。
無線仮想及び拡張現実アプリケーションのレイテンシを隠すための様々なシステム、装置、方法及びコンピュータ可読媒体が本明細書に開示されている。一実施形態では、仮想現実(VR)又は拡張現実(AR)システムは、ビデオフレームのレンダリング、エンコード、及び、ヘッドマウントディスプレイ(HMD)に結合された受信機への送信を行う送信機を含む。1つのシナリオでは、受信機は、システムがフレームをレンダリングし、表示用にフレームを準備するために必要な総レイテンシを測定する。受信機は、レイテンシの測定値とユーザの頭の動きの予測とに基づいて、ユーザの将来の頭のポーズを予測する。次に、受信機は、予測された将来の頭のポーズのインジケーションを送信機のレンダリングユニットに伝達する。次に、レンダリングユニットは、予測された将来の頭のポーズに基づいて、ヘッドセットの視野(FOV)よりも大きいレンダリングされたFOVを備えた新しいフレームをレンダリングする。次に、レンダリングユニットは、レンダリングされた新しいフレームを受信機に伝達して表示する。受信機は、新しいフレームを表示する準備として、ユーザの実際の頭のポーズを測定する。次に、受信機は、実際の頭のポーズと予測された頭のポーズとの差を計算する。受信機は、差によって決定される量だけ新しいフレームを回転させて、新しいフレームの回転バージョンを生成する(例えば、レンダリング開始後にユーザが頭を動かした方法に一致するように、視野が垂直方向及び/又は水平方向にシフトされる)。次に、受信機は、新しいフレームの回転バージョンを表示する。
図1を参照すると、システム100の一実施形態のブロック図が示されている。一実施形態では、システム100は、送信機105と、チャネル110と、受信機115と、ヘッドマウントディスプレイ(HMD)120と、を含む。他の実施形態では、システム100は、図1に示す以外の構成要素を含むことができることに留意されたい。一実施形態では、チャネル110は、送信機105と受信機115との間の無線接続である。別の実施形態では、チャネル110は、送信機105と受信機115との間のネットワーク接続を表す。送信機105と受信機115との間の接続を提供するために、実施形態に応じて、任意のタイプ及び数のネットワークを使用することができる。例えば、送信機105は、1つの特定の実施形態におけるクラウドサービスプロバイダの一部である。
一実施形態では、送信機105は、エンコードされて受信機115に送信されるビデオシーケンスを受信する。別の実施形態では、送信機105は、エンコードされて受信機115に送信されるビデオシーケンスをレンダリングするレンダリングユニットを含む。一実施形態では、レンダリングユニットは、グラフィックス情報(例えば、生の画像データ)から、レンダリングされた画像を生成する。「画像」、「フレーム」及び「ビデオフレーム」という用語は、本明細書では交換可能に使用できることに留意されたい。一実施形態では、HMD120に表示される各画像内で、画像の右目部分がHMD120の右側125Rに送られ、画像の左目部分がHMD120の左側125Lに送られる。一実施形態では、受信機115は、HMD120から分離されており、受信機115は、有線又は無線接続を使用してHMD120と通信する。別の実施形態では、受信機115は、HMD120内に統合されている。
システム100によって実行されている様々な操作のレイテンシを隠すために、将来の頭のポーズを予測し、予測された未来の頭のポーズに基づいてディスプレイよりも広い視野(FOV)をレンダリングし、予測された将来の頭のポーズと、最終フレームが表示のために準備されているときの実際の頭のポーズとの間の差に基づいて、最終フレームを調整するための様々な技術がシステム100によって使用される。一実施形態では、ユーザの頭のポーズは、HMD120内の1つ以上の頭追跡センサ140に基づいて決定される。一実施形態では、受信機115は、システム100の総レイテンシを測定し、現在の頭のポーズの測定値及び測定された総レイテンシに基づいて、ユーザの将来の頭のポーズを予測する。言い換えれば、受信機115は、測定された総レイテンシに基づいて、次のフレームが表示される時点を決定し、受信機115は、ユーザの頭及び/又は目がその時点で何処に向けられるかを予測する。一実施形態では、「総レイテンシ」という用語は、ユーザの頭のポーズの測定を行ってから、この頭のポーズを反映する画像を表示するまでの時間として定義される。様々な実施形態では、シーンの複雑さによっては、レンダリングに必要となる時間の量が変動する場合があり、レンダリングされたフレームがプレゼンテーションに遅れて配信されることがある。レンダリング時間が変動するにつれて総レイテンシが変化し、システム100の総レイテンシを追跡するために受信機115によって得られる測定値の重要性が増す。
予測を行った後に、受信機115は、予測された将来の頭のポーズのインジケーションを送信機105に送信する。一実施形態では、予測された将来の頭のポーズの情報は、チャネル110とは別の通信インタフェース145を使用して、受信機115から送信機105に送信される。別の実施形態では、予測された将来の頭のポーズの情報は、チャネル110を使用して、受信機115から送信機105に送信される。一実施形態では、送信機105は、予測された将来の頭のポーズに基づいてフレームをレンダリングする。また、送信機105は、ヘッドセットFOVよりも広いFOVを備えたフレームをレンダリングする。送信機105は、フレームをエンコードして受信機115に送信し、受信機115は、フレームをデコードする。受信機115が、デコードされたフレームを表示するために準備している場合、受信機115は、ユーザの現在の頭のポーズを決定し、予測された将来の頭のポーズと現在の頭のポーズとの間の差を計算する。次に、受信機115は、差に基づいてフレームを回転させ、回転したフレームをディスプレイに送る。これら及び他の技術は、本開示の残りの部分を通してさらに詳細に説明される。
送信機105及び受信機115は、任意のタイプの通信デバイス及び/又はコンピューティングデバイスを表す。例えば、様々な実施形態では、送信機105及び/又は受信機115は、携帯電話、タブレット、コンピュータ、サーバ、HMD、別のタイプのディスプレイ、ルータ、又は、他のタイプのコンピューティングデバイス若しくは通信デバイスであってもよい。一実施形態では、システム100は、レンダリングされた仮想環境のフレームを送信機105から受信機115に無線で送信するための仮想現実(VR)アプリケーションを実行する。他の実施形態では、本明細書で説明する方法及びメカニズムを利用したシステム100によって、他のタイプのアプリケーション(例えば、拡張現実(AR)アプリケーション)が実装されてもよい。
図2を参照すると、システム200の一実施形態のブロック図が示されている。システム200は、相互に無線で通信するように動作可能な少なくとも第1の通信デバイス(例えば、送信機205)及び第2の通信デバイス(例えば、受信機210)を含む。また、送信機205及び受信機210は、送受信機と呼ばれる場合もあることに留意されたい。一実施形態では、送信機205及び受信機210は、非認可の60ギガヘルツ(GHz)周波数帯域を通じて無線で通信する。例えば、この実施形態では、送信機205及び受信機210は、Institute of Electrical and Electronics Engineers(IEEE)802.11ad標準規格(すなわち、WiGig)に従って通信する。他の実施形態では、送信機205及び受信機210は、他の周波数帯域を通じて、及び/又は、標準規格若しくは他に従っているかどうかに関わらず、他の無線通信プロトコルに準拠することによって、無線で通信する。例えば、使用することができる他の無線通信プロトコルには、これらに限定されないが、Bluetooth(登録商標)、種々の無線ローカルエリアネットワーク(WLAN)で利用されるプロトコル、Institute of Electrical and Electronics Engineers(IEEE)802.11の規格に基づいたWLAN(すなわち、WiFi(登録商標))、モバイル通信規格(例えば、CDMA、LTE、GSM、WiMAX)等が含まれる。
送信機205及び受信機210は、任意のタイプの通信デバイス及び/又はコンピューティングデバイスを表す。例えば、様々な実施形態では、送信機205及び/又は受信機210は、携帯電話、タブレット、コンピュータ、サーバ、ヘッドマウントディスプレイ(HMD)、テレビ、別のタイプのディスプレイ、ルータ、又は、他のタイプのコンピューティングデバイス若しくは通信デバイスであってもよい。一実施形態では、システム200は、レンダリングされた仮想環境のフレームを送信機205から受信機210に無線で送信するための仮想現実(VR)アプリケーションを実行する。他の実施形態では、本明細書で説明する方法及びメカニズムを利用したシステム200によって、他のタイプのアプリケーションが実装されてもよい。
一実施形態では、送信機205は、少なくとも無線周波数(RF)送受信機モジュール225と、プロセッサ230と、メモリ235と、アンテナ240と、を含む。RF送受信機モジュール225は、RF信号を送受信する。一実施形態では、RF送受信機モジュール225は、60GHz帯域において1つ以上のチャネルを介して信号を無線で送受信するように動作可能なミリ波送受信機モジュールである。RF送受信機モジュール225は、無線伝送のためにベースバンド信号をRF信号に変換し、RF送受信機モジュール225は、送信機205によるデータの抽出のためにRF信号をベースバンド信号に変換する。RF送受信機モジュール225は、例示の目的で単一のユニットとして示されていることに留意されたい。実施形態に応じて、RF送受信機モジュール225が、任意の数の異なるユニット(例えば、チップ)により実装され得ることを理解されたい。同様に、プロセッサ230及びメモリ235は、それぞれが送信機205の一部として実装される、任意の数及びタイプのプロセッサ及びメモリデバイスを表す。一実施形態では、プロセッサ230は、ビデオストリームのフレームをレンダリングするレンダリングユニット231と、受信機210にビデオストリームを送信する前にビデオストリームをエンコードする(すなわち、圧縮する)エンコーダ232と、を含む。他の実施形態では、レンダリングユニット231及び/又はエンコーダ232は、プロセッサ230とは別に実装される。様々な実施形態では、レンダリングユニット231及びエンコーダ232は、ハードウェア及び/又はソフトウェアの任意の適切な組み合わせを使用して実装される。
また、送信機205は、RF信号を送受信するためのアンテナ240を含む。アンテナ240は、無線信号の送受信の方向性を変更するように構成可能なフェーズドアレイ、単一要素のアンテナ、スイッチビームアンテナのセット等の1つ以上のアンテナを表す。一例として、アンテナ240は、1つ以上のアンテナアレイを含み、アンテナアレイ内の各々のアンテナについての振幅又は位相は、アレイ内の他のアンテナとは独立して構成することができる。アンテナ240が送信機205の外部にあるものとして示されているが、様々な実施形態では、アンテナ240が送信機205の内部に含まれてもよいことを理解されたい。さらに、送信機205は、図を曖昧にすることを回避するために示されていない任意の数の他の構成要素をも含んでもよいことを理解されたい。送信機205と同様に、受信機210内に実装される構成要素は、送信機205について上述した構成要素と同様に、少なくともRF送受信機モジュール245と、プロセッサ250と、デコーダ252と、メモリ255と、アンテナ260と、を含む。受信機210が、他の構成要素(例えば、ディスプレイ)も含む、又は、これらの他の構成要素に結合され得ることを理解されたい。
図3を参照すると、VR/ARアプリケーションのためのレンダリング環境の一例の図が示されている。図3の左上において、視野(FOV)302は、VR/ARアプリケーションにおけるフレームの一例に従ってレンダリングされている風景を示し、FOV302は、ユーザが真正面を向いている状態でのユーザの現在の頭のポーズに従って方向付けられる。図3の左下にある古いフレーム306は、VR/ARアプリケーションの風景に基づいて、及び、FOV302によってキャプチャされた時点でのユーザの頭の位置及び向きに基づいて、ユーザに表示される風景を示している。
次に、図3の右上において、FOV304は、ユーザが頭を動かすことに基づく新しいFOVを示している。しかしながら、フレームのレンダリングが開始された後に頭の動きが発生した場合、フレームのレンダリングを更新するのに間に合うように頭の動きがキャプチャされなかったため、図3の右下にある古いフレーム308がユーザに表示される。これは、ユーザが期待するように風景が変化しないため、ユーザの視聴エクスペリエンスに不快な影響を及ぼす。したがって、このネガティブな視聴エクスペリエンスを防止及び/又は相殺するための技術が望まれる。頭を動かすユーザの例が図3に示されている一方で、フレームのレンダリングが開始された後にユーザが目の視線方向を動かす場合、同様の効果が発生する可能性があることに留意されたい。
本明細書では、頭のポーズの例を使用してユーザの視線方向を説明しているが、ユーザの体の他の部分の位置を検出するために異なるタイプのセンサを使用できることを理解されたい。例えば、いくつかのアプリケーションでは、センサが、ユーザの眼球運動を検出できる。別の例では、ユーザが風景と相互作用すると考えられるオブジェクトを持っている場合、センサは、このオブジェクトの動きを検出できる。例えば、一実施形態では、オブジェクトは、懐中電灯として機能することができ、オブジェクトが指している方向をユーザが変更すると、ユーザは、照らされた風景内の別の領域を見ることを期待する。新しい領域が期待どおりに照らされていない場合、ユーザは、矛盾に気づき、全体的なエクスペリエンスが低下する。他のタイプのVR/ARアプリケーションは、ユーザがディスプレイに表示されるのを見ること期待する他のオブジェクトや効果を利用できる。これらの他のタイプのVR/ARアプリケーションも、本明細書で提示する技術の恩恵を受けることができる。
図4を参照すると、VR/ARアプリケーションにおける頭の動きの遅れを妨げるための技術の一例の図が示されている。図4の左上にあるFOV402は、VR/ARアプリケーションでレンダリングされているシーンに対するユーザの頭の元の位置及び向きを示している。図4の左下にある古いフレーム406は、レンダリングされており、ユーザの現在の頭のポーズに基づいてHMD上でユーザに表示されるフレームを示している。したがって、古いフレーム406は、レンダリングが開始される直前にキャプチャされたユーザの頭のポーズに基づいて、FOV402のためにレンダリングされている風景の適切な配置を反映している。
図4の右上にあるFOV404は、レンダリングが開始された後のユーザによる頭の動きを示している。しかしながら、ユーザの頭の動きに基づいて風景を更新するために何もしなければ、古いフレーム408が依然としてユーザに表示される。一実施形態では、タイムワープ技術を使用して、遅い動きに基づいて、ユーザに提示されるフレームを調整する。したがって、図4の右下の古いフレーム408の隣のタイムワープフレーム410は、タイムワープ技術を使用して、更新されたFOV404を表示される風景に反映させることを示している。タイムワープフレーム410を生成するために使用されるタイムワープ技術は、コンテンツギャップを埋め、没入感を維持するために再投影技術を使用することを含む。再投影は、タイムワープフレーム410の欠落部分を合成するために前のフレームからのピクセルデータに様々な技術を適用することを含む。タイムワープ技術は、ヘッドセットのセンサからの最新の頭のポーズデータを使用してユーザのFOVをシフトし、前のフレームを表示したまま、ユーザが頭を動かした場合にスムーズな動きの錯覚を提供する。しかしながら、一般的なタイムワープ技術では、頭の動きの方向のフレームマージンが不完全になり、通常では黒で塗りつぶされ、ヘッドセットの有効なFOVが低下する。
図5を参照すると、遅い頭の動きに基づいて、無線VR/ARアプリケーションのために表示されているフレームを調整する一例の図が示されている。FOV502は、ユーザの現在の頭のポーズのVR/ARアプリケーションの風景の一例として図5の左上に示されている。図5の左下にある古いフレーム506は、ユーザの現在の頭のポーズに基づいてレンダリングされるフレームを示している。しかしながら、レンダリングされている風景は、実際には左右両方向に拡張して、レンダリング開始後にユーザが頭を動かした場合に最終フレームに使用できる追加の領域を提供できる。
図5の右上において、FOV504は、ユーザが頭を動かした後の更新されたFOVを示している。是正措置が取られていない場合、ユーザは、古いフレーム506を見ることになる。図5の右下に示されている古いフレーム510は、遅い頭の動きを補正するために一実施形態で使用される技術を示している。この場合、図5の左下のオーバースキャン領域508に示されるフレームの周りの余分な領域がレンダリングされ、HMDに送信される。図5の右下のタイムワープフレーム514において、フレームの境界は、オーバースキャン領域512内のピクセルを使用して右にシフトされ、ユーザの新しい頭のポーズに合わせて調整される。タイムワープフレーム514の破線によって示されるように、古いフレーム510の境界を右にシフトすることによって、レンダリングされてHMDに送られた元のフレーム506の右側のオーバースキャン領域508内の余分な領域が使用され、ユーザに表示される。図5に示すように、タイムワープ技術は、オーバースキャン技術と組み合わされて、もはや用いられないヘッド位置でレンダリングされたフレームの代わりに画像を合成する。これらの技術の組み合わせは、よりスムーズな動きの錯覚を作り出す。
図6を参照すると、無線VR/ARシステムのレイテンシを隠す方法600の一実施形態が示されている。説明のために、本実施形態でのステップ及び図7~図10でのステップを順番に示す。しかしながら、説明する方法の様々な実施形態では、説明する要素のうち1つ以上が、同時に実行されてもよいし、図示した順序とは異なる順序で実行されてもよいし、完全に省略されてもよいことに留意されたい。他の追加の要素も必要に応じて実行される。本明細書に記載される様々なシステム又は装置の何れも、方法600を実施するように構成されている。
受信機は、無線VR/ARシステムの総レイテンシを測定する(ブロック605)。一実施形態では、総レイテンシは、所定の頭のポーズが測定される第1の時点から、所定の頭のポーズを反映するフレームが表示される第2の時点まで測定される。無線VR/ARシステムのレイテンシを測定する一例は、(図7の)方法700に関連する説明において、以下にさらに詳細に説明される。いくつかの場合では、平均総レイテンシがいくつかのフレームサイクルにわたって計算され、ブロック605で使用される。別の実施形態では、最後に計算された総レイテンシがブロック605で使用される。
ヘッドセットは、総レイテンシの測定値に基づいて、ユーザの将来の頭のポーズを適応的に予測する(ブロック610)。言い換えれば、ヘッドセットは、次のフレームが表示される時点でユーザの視線が何処に向けられるかを予測する。次のフレームが表示される時点は、現在の時刻にレイテンシの測定値を加算することによって計算される。一実施形態では、ヘッドセットは、過去の頭のポーズデータを使用して、次のフレームが表示される時点まで前方に外挿(extrapolate)して、ユーザの将来の頭のポーズの予測を生成する。次に、ヘッドセットは、予測された頭のポーズのインジケーションをレンダリングユニットに送信する(ブロック615)。
その後、レンダリングユニットは、予測された将来の頭のポーズを使用して、ヘッドセットの視野(FOV)よりも大きいFOVを備えた新しいフレームをレンダリングする(ブロック620)。一実施形態では、新しくレンダリングされたフレームのFOVは、水平方向においてヘッドセットのFOVよりも大きい。別の実施形態では、新しくレンダリングされたフレームのFOVは、垂直方向及び水平方向の両方でヘッドセットのFOVよりも大きい。次に、新しくレンダリングされたフレームがヘッドセットに送信される(ブロック625)。その後、ヘッドセットは、新しいフレームがヘッドセットに表示されるために準備されている時点でのユーザの実際の頭のポーズを測定する(ブロック630)。次に、ヘッドセットは、実際の頭のポーズと予測された将来の頭のポーズとの差を計算する(ブロック635)。その後、ヘッドセットは、差によって決定される量だけ新しいフレームを調整する(ブロック640)。ブロック640で実行される新しいフレームへの調整は、回転(rotation)とも呼ばれ得ることに留意されたい。この調整は、2次元の直線運動、3次元の回転運動、又は、線形運動と回転運動との組み合わせに適用できる。
次に、新しいフレームの調整されたバージョンがディスプレイに送られる(ブロック645)。また、実際の頭のポーズと予測された頭のポーズとの差は、ユーザの将来の頭のポーズを予測するモデルを更新するために使用される(ブロック650)。実際の頭のポーズと予測された頭のポーズとの差を使用して、ユーザの将来の頭のポーズを予測するモデルを更新する一例は、図8の方法800に関連する説明に記載されている。ブロック650の後に、方法600は終了する。方法600は、ヘッドセット上にレンダリング及び表示されるフレームごとに実行できることに留意されたい。
図7を参照すると、無線VR/ARが、最初から最後までフレームをレンダリング及び表示するための総レイテンシを測定する方法700の一実施形態が示されている。受信機は、ユーザの位置を測定し、測定時間のインジケーションを記録する(ブロック705)。ユーザの位置は、ユーザの頭のポーズ、ユーザの目の視線方向、又は、ユーザの体の他の部分の位置を参考にすることができる。例えば、いくつかの実施形態では、受信機は、手のジェスチャ又は体の他の部分(例えば、足、脚)の位置を検出する。一実施形態では、測定時間のインジケーションは、タイムスタンプである。別の実施形態では、測定時間のインジケーションは、実行中のカウンタの値である。受信機がユーザの位置を測定する時間を記録する他の方法が可能であり、企図されている。
次に、受信機は、ユーザの将来の位置を予測し、予測された将来の位置をレンダリングユニットに送信する(ブロック710)。レンダリングユニットは、ディスプレイのFOVよりも大きいFOVを備えた新しいフレームをレンダリングし、新しいフレームは、ユーザの予測された将来の位置に基づいてレンダリングされる(ブロック715)。次に、レンダリングユニットは、新しいフレームをエンコードして、エンコードされた新しいフレームを受信機に送信する(ブロック720)。その後、ヘッドセットは、エンコードされた新しいフレームをデコードする(ブロック725)。次に、デコードされた新しいフレームを表示用に準備する場合に、受信機は、現在の時刻を、記録されたタイムスタンプと比較する(ブロック730)。現在の時刻と、ユーザ位置測定時に取得された記録されたタイムスタンプとの差が、総レイテンシの測定値として使用される(ブロック735)。ブロック735の後に、方法700は終了する。
図8を参照すると、ユーザの将来の頭のポーズを予測するためのモデルを更新する方法800の一実施形態が示されている。モデルは、ユーザの現在の頭のポーズの測定値を受信する(ブロック805)。モデルは、VR/ARシステムの総レイテンシの測定値も受信する(ブロック810)。モデルは、ユーザの現在の頭のポーズ及び総レイテンシに基づいて、次のフレームが表示される時点での将来の頭のポーズの予測を行う(ブロック815)。後に、次のフレームが表示用に準備されている場合にユーザの実際の頭のポーズが測定される場合に、モデルの予測と実際の頭のポーズとの間の差が計算される(ブロック820)。その後、その差が、モデルへの誤差入力として提供される(ブロック825)。次に、モデルは、誤差入力に基づいて、1つ以上の設定を更新する(ブロック830)。一実施形態では、モデルは、誤差フィードバックに応じてネットワークの重みを調整するために後方伝搬(backward propagation)を使用するニューラルネットワークである。ブロック830の後に、方法800はブロック805に戻る。方法800による次の反復では、モデルは、1つ以上の更新された設定を使用して、後続の予測を行う。
図9を参照すると、将来の頭のポーズの予測の誤差に基づいて、レンダリングFOVのサイズを動的に調整する方法900の一実施形態が示されている。受信機は、将来の頭のポーズの複数の予測のために誤差を追跡する(ブロック905)。受信機は、将来の頭のポーズの最新のN個の予測について平均誤差を計算する。ここで、Nは正の整数である(ブロック910)。次に、レンダリングユニットは、平均誤差に少なくとも部分的に基づいて決定されるサイズを有する、レンダリングされたFOVを生成し、ここで、レンダリングされたFOVのサイズがディスプレイのサイズよりも大きい量は、平均誤差に比例する(ブロック915)。ブロック915の後に、方法900は終了する。方法900を実行することにより、誤差が増加した場合に、レンダリングされたFOVのサイズが増加し、受信機は、最終フレームを調整することができ、これは、最終フレームが、予測された将来の頭のポーズと実際の頭のポーズとの間の比較的大きな誤差を考慮して、表示する準備ができているからである。逆に、誤差が比較的小さい場合、レンダリングユニットは、比較的小さい、レンダリングされたFOVを生成し、これにより、生成されて受信機に送信されるピクセル数が減り、VR/ARシステムがより効率的になる。これは、誤差が小さい場合に表示するフレームの準備に伴うレイテンシと消費電力とを削減するのを助ける。
図10を参照すると、レンダリングFOVを動的に調整する方法1000の一実施形態が示されている。受信機は、前のフレームについて、第1の実際の頭のポーズと第1の予測された将来の頭のポーズとの間の第1の差を検出する(ブロック1005)。次に、受信機は、第1の差のインジケーションをレンダリングユニットに伝達する(ブロック1010)。その後、レンダリングユニットは、第1の差のインジケーションを受信したことに応じて、第1のレンダリングされたFOVを備えた第1のフレームをレンダリングする(ブロック1015)。一実施形態では、第1のレンダリングされたFOVのサイズは、第1の差に比例する。
次に、後の時点で、受信機は、第2の実際の頭のポーズと第2の予測された将来の頭のポーズとの間の第2の差を検出し、第2の差は第1の差よりも大きい(ブロック1020)。その後、受信機は、第2の差のインジケーションをレンダリングユニットに伝達する(ブロック1025)。次に、レンダリングユニットは、第2の差のインジケーションを受信したことに応じて、第2のレンダリングされたFOVを備えた第2のフレームをレンダリングし、第2のレンダリングされたFOVのサイズは、第1のレンダリングされたFOVのサイズよりも大きい(ブロック1030)。ブロック1030の後に、方法1000は終了する。
様々な実施形態では、ソフトウェアアプリケーションのプログラム命令を使用して、本明細書で説明する方法及び/又はメカニズムを実装する。例えば、汎用又は特殊目的プロセッサによって実行可能なプログラム命令が企図される。様々な実施形態では、このようなプログラム命令は、高レベルプログラミング言語で表すことができる。他の実施形態では、プログラム命令は、高レベルプログラミング言語からバイナリ形式、中間形式又は他の形式にコンパイルされてもよい。代わりに、ハードウェアの振る舞い又は設計を記述したプログラム命令が書き込まれてもよい。このようなプログラム命令をC等の高レベルプログラミング言語によって表現することができる。代わりに、Verilog等のハードウェア設計言語(HDL)を使用することができる。様々な実施形態では、プログラム命令は、様々な非一時的なコンピュータ可読記憶媒体に記憶される。記憶媒体は、プログラム実行のためにプログラム命令をコンピューティングシステムに提供するために、使用中にコンピューティングシステムによってアクセス可能である。一般的に言えば、そのようなコンピューティングシステムは、少なくとも1つ以上のメモリと、プログラム命令を実行するように構成された1つ以上のプロセッサと、を含む。
上述した実施形態が、実施形態の非限定的な例にすぎないことを強調しておきたい。上記の開示を十分に理解した場合に、多くの変形及び修正が当業者に明らかになる。以下の特許請求の範囲は、全てのそのような変形及び修正を包含するものと解釈されることが意図される。

Claims (20)

  1. システムであって、
    受信機と、
    レンダリングユニットと、
    ディスプレイデバイスと、を備え、
    前記受信機は、
    前記システムが表示用のフレームをレンダリングして準備するための総レイテンシを測定することと、
    前記総レイテンシの測定値及びユーザの現在の頭のポーズに少なくとも部分的に基づいて、前記ユーザの将来の頭のポーズを予測することと、
    を行うように構成されており、
    前記レンダリングユニットは、
    予測された将来の頭のポーズに基づいて、ディスプレイの視野(FOV)よりも大きいレンダリングされたFOVを備えた新しいフレームをレンダリングするように構成されており、
    前記ディスプレイデバイスは、
    前記新しいフレームを表示するように構成されている、
    システム。
  2. 前記受信機は、
    前記ユーザの実際の頭のポーズを決定することと、
    前記実際の頭のポーズと前記予測された将来の頭のポーズとの間の差を計算することと、
    前記差に基づく量だけ前記新しいフレームを回転させて、前記新しいフレームの回転バージョンを生成することと、
    前記新しいフレームの回転バージョンを表示することと、
    を行うように構成されている、
    請求項1のシステム。
  3. 前記受信機は、前記実際の頭のポーズと前記予測された将来の頭のポーズとの間の差に基づいてモデルを更新するように構成されており、
    前記モデルは、将来の頭のポーズの予測を生成する、
    請求項1のシステム。
  4. 前記受信機は、
    実際の頭のポーズと前記予測された将来の頭のポーズとの間の差を計算することと、
    前記差に基づいて、後続のフレームのレンダリングされたFOVのサイズを動的に調整することと、
    を行うように構成されている、
    請求項1のシステム。
  5. 前記受信機は、以前の実際の頭のポーズと以前の予測された将来の頭のポーズとの間の差に少なくとも部分的に基づいて、前記新しいフレームをレンダリングするための前記レンダリングされたFOVのサイズを決定するように構成されている、
    請求項1のシステム。
  6. 前記システムは、
    第1の実際の頭のポーズと第1の予測された将来の頭のポーズとの間の第1の差を検出することと、
    前記第1の差の検出に応じて、第1のレンダリングされたFOVを備えた第1のフレームをレンダリングすることと、
    第2の実際の頭のポーズと第2の予測された将来の頭のポーズとの間の第2の差を検出することであって、前記第2の差は前記第1の差よりも大きい、ことと
    前記第2の差を検出したことに応じて、第2のレンダリングされたFOVを備えた第2のフレームをレンダリングすることであって、前記第2のレンダリングされたFOVのサイズは、前記第1のレンダリングされたFOVのサイズよりも大きい、ことと、
    を行うように構成されている、
    請求項5のシステム。
  7. 前記総レイテンシは、所定の頭のポーズが測定される第1の時点から、前記所定の頭のポーズに対応するフレームが表示される第2の時点まで測定される、
    請求項1のシステム。
  8. 受信機が、フレームをレンダリングし、前記フレームを表示するのに準備するための総レイテンシを測定することと、
    前記受信機が、前記総レイテンシの測定値及びユーザの現在の頭のポーズに少なくとも部分的に基づいて、前記ユーザの将来の頭のポーズを予測することと、
    予測された将来の頭のポーズに基づいて、ディスプレイの視野(FOV)よりも大きいレンダリングされたFOVを備えた新しいフレームをレンダリングすることと、
    レンダリングされた新しいフレームを表示するために伝達することと、を含む、
    方法。
  9. 前記ユーザの実際の頭のポーズを決定することと、
    実際の頭のポーズと前記予測された将来の頭のポーズとの間の差を計算することと、
    前記差に基づく量だけ前記新しいフレームを回転させて、前記新しいフレームの回転バージョンを生成することと、
    前記新しいフレームの回転バージョンを表示することと、を含む、
    請求項8の方法。
  10. 実際の頭のポーズと前記予測された将来の頭のポーズとの間の差に基づいてモデルを更新することを含み、
    前記モデルは、将来の頭のポーズの予測を生成する、
    請求項8の方法。
  11. 前記実際の頭のポーズと前記予測された将来の頭のポーズとの間の差を計算することと、
    前記差に基づいて、後続のフレームのレンダリングされたFOVのサイズを動的に調整することと、を含む、
    請求項8の方法。
  12. 以前の実際の頭のポーズと以前の予測された将来の頭のポーズとの間の差に少なくとも部分的に基づいて、前記新しいフレームをレンダリングするための前記レンダリングされたFOVのサイズを決定することを含む、
    請求項8の方法。
  13. 第1の実際の頭のポーズと第1の予測された将来の頭のポーズとの間の第1の差を検出することと、
    前記第1の差の検出に応じて、第1のレンダリングされたFOVを備えた第1のフレームをレンダリングすることと、
    第2の実際の頭のポーズと第2の予測された将来の頭のポーズとの間の第2の差を検出することであって、前記第2の差は前記第1の差よりも大きい、ことと、
    前記第2の差を検出したことに応じて、第2のレンダリングされたFOVを備えた第2のフレームをレンダリングすることであって、前記第2のレンダリングされたFOVのサイズは、前記第1のレンダリングされたFOVのサイズよりも大きい、ことと、を含む、
    請求項12の方法。
  14. 前記総レイテンシは、所定の頭のポーズが測定される第1の時点から、前記所定の頭のポーズに対応するフレームが表示される第2の時点まで測定される、
    請求項8の方法。
  15. 装置であって、
    受信機と、
    レンダリングユニットと、
    エンコーダと、を備え、
    前記受信機は、
    前記装置がフレームをレンダリングして前記フレームを表示用に準備するための総レイテンシを測定することと、
    前記総レイテンシの測定値及びユーザの現在の頭のポーズに少なくとも部分的に基づいて、前記ユーザの将来の頭のポーズを予測することと、
    を行うように構成されており、
    前記レンダリングユニットは、
    予測された将来の頭のポーズのインジケーションを受信することと、
    前記予測された将来の頭のポーズに基づいて、ディスプレイの視野(FOV)よりも大きいレンダリングされたFOVを備えた新しいフレームをレンダリングすることと、
    を行うように構成されており、
    前記エンコーダは、
    レンダリングされた新しいフレームをエンコードして、エンコードされたフレームを生成することと、
    前記レンダリングされた新しいフレームを表示するために前記受信機に伝達することと、
    を行うように構成されている、
    装置。
  16. 前記受信機は、
    前記新しいフレームを表示するための準備として、前記ユーザの実際の頭のポーズを決定することと、
    前記実際の頭のポーズと前記予測された将来の頭のポーズとの間の差を計算することと、
    前記差に基づく量だけ前記新しいフレームを回転させて、前記新しいフレームの回転バージョンを生成することと、
    前記新しいフレームの回転バージョンを表示することと、
    を行うように構成されている、
    請求項15の装置。
  17. 前記受信機は、実際の頭のポーズと前記予測された将来の頭のポーズとの間の差に基づいてモデルを更新するように構成されており、
    前記モデルは、将来の頭のポーズの予測を生成する、
    請求項15の装置。
  18. 前記受信機は、
    実際の頭のポーズと前記予測された将来の頭のポーズとの間の差を計算することと、
    前記差に基づいて、後続のフレームのレンダリングされたFOVのサイズを動的に調整することと、
    を行うように構成されている、
    請求項15の装置。
  19. 前記受信機は、以前の実際の頭のポーズと以前の予測された将来の頭のポーズとの間の差に少なくとも部分的に基づいて、前記新しいフレームをレンダリングするための前記レンダリングされたFOVのサイズを決定するように構成されている、
    請求項15の装置。
  20. 前記装置は、
    第1の実際の頭のポーズと第1の予測された将来の頭のポーズとの間の第1の差を検出することと、
    前記第1の差を検出したことに応じて、第1のレンダリングされたFOVを備えた第1のフレームをレンダリングすることと、
    第2の実際の頭のポーズと第2の予測された将来の頭のポーズとの間の第2の差を検出することであって、前記第2の差は前記第1の差よりも大きい、ことと、
    前記第2の差を検出したことに応じて、第2のレンダリングされたFOVを備えた第2のフレームをレンダリングすることであって、前記第2のレンダリングされたFOVのサイズは、前記第1のレンダリングされたFOVのサイズよりも大きい、ことと、
    を行うように構成されている、
    請求項19の装置。
JP2022543703A 2020-01-31 2021-01-25 無線仮想拡張現実システムでのレイテンシの隠蔽 Pending JP2023512937A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/778,767 2020-01-31
US16/778,767 US20210240257A1 (en) 2020-01-31 2020-01-31 Hiding latency in wireless virtual and augmented reality systems
PCT/IB2021/050561 WO2021152447A1 (en) 2020-01-31 2021-01-25 Hiding latency in wireless virtual and augmented reality systems

Publications (1)

Publication Number Publication Date
JP2023512937A true JP2023512937A (ja) 2023-03-30

Family

ID=77061909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022543703A Pending JP2023512937A (ja) 2020-01-31 2021-01-25 無線仮想拡張現実システムでのレイテンシの隠蔽

Country Status (6)

Country Link
US (1) US20210240257A1 (ja)
EP (1) EP4097713A4 (ja)
JP (1) JP2023512937A (ja)
KR (1) KR20220133892A (ja)
CN (1) CN114981880A (ja)
WO (1) WO2021152447A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11510750B2 (en) * 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US20220072381A1 (en) * 2020-09-04 2022-03-10 Rajiv Trehan Method and system for training users to perform activities
CN112380989B (zh) * 2020-11-13 2023-01-24 歌尔科技有限公司 一种头戴显示设备及其数据获取方法、装置和主机
CN114125301B (zh) * 2021-11-29 2023-09-19 卡莱特云科技股份有限公司 一种虚拟现实技术拍摄延迟处理方法及装置
US11880503B1 (en) 2022-12-19 2024-01-23 Rockwell Collins, Inc. System and method for pose prediction in head worn display (HWD) headtrackers

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105229719B (zh) * 2013-03-15 2018-04-27 奇跃公司 显示系统和方法
CA3034384A1 (en) * 2016-08-22 2018-03-01 Magic Leap, Inc. Virtual, augmented, and mixed reality systems and methods
EP3535644B1 (en) * 2016-11-04 2023-02-22 Koninklijke KPN N.V. Streaming virtual reality video
US10687050B2 (en) * 2017-03-10 2020-06-16 Qualcomm Incorporated Methods and systems of reducing latency in communication of image data between devices
WO2018200993A1 (en) * 2017-04-28 2018-11-01 Zermatt Technologies Llc Video pipeline
US10395418B2 (en) * 2017-08-18 2019-08-27 Microsoft Technology Licensing, Llc Techniques for predictive prioritization of image portions in processing graphics
JP2021530790A (ja) * 2018-07-23 2021-11-11 マジック リープ, インコーポレイテッドMagic Leap, Inc. 頭部姿勢予測のための深層予測器再帰ニューラルネットワーク

Also Published As

Publication number Publication date
CN114981880A (zh) 2022-08-30
EP4097713A1 (en) 2022-12-07
KR20220133892A (ko) 2022-10-05
WO2021152447A1 (en) 2021-08-05
US20210240257A1 (en) 2021-08-05
EP4097713A4 (en) 2024-01-10

Similar Documents

Publication Publication Date Title
JP2023512937A (ja) 無線仮想拡張現実システムでのレイテンシの隠蔽
US20220091808A1 (en) Antenna Control for Mobile Device Communication
US20180091791A1 (en) Streaming volumetric video for six degrees of freedom virtual reality
US11429337B2 (en) Displaying content to users in a multiplayer venue
JP7477600B2 (ja) マルチストリーム中心窩ディスプレイトランスポート
US11882267B2 (en) Adapting video images for wearable devices
KR102296139B1 (ko) 가상 현실 이미지를 송신하는 방법 및 장치
US20220394225A1 (en) Cloud-based Rendering of Interactive Augmented/Virtual Reality Experiences
US20240033624A1 (en) 5g optimized game rendering
JP7436484B2 (ja) 人工現実のためのレイテンシ減少
CN115668953A (zh) 使用边缘计算服务的图像内容传输方法和设备
KR20130066121A (ko) 단말들간의 영상 공유 요청에 대응하여 단말들로 3d 영상 데이터를 제공하는 서버 및 방법, 그리고 단말
US11671189B2 (en) Systems and methods for managing energy detection thresholds
TW201929929A (zh) 用於行動裝置通訊之天線控制
TW202344064A (zh) 用於全像通訊的發訊資訊的系統和方法
KR20190135259A (ko) 고품질 콘텐츠 재생 방법, 이를 이용하는 클라이언트 단말 및 콘텐츠 스트리밍 시스템