JP7276753B2 - ディスプレイデバイスの追跡を使用した画像表示制御の方法およびシステム - Google Patents

ディスプレイデバイスの追跡を使用した画像表示制御の方法およびシステム Download PDF

Info

Publication number
JP7276753B2
JP7276753B2 JP2020540331A JP2020540331A JP7276753B2 JP 7276753 B2 JP7276753 B2 JP 7276753B2 JP 2020540331 A JP2020540331 A JP 2020540331A JP 2020540331 A JP2020540331 A JP 2020540331A JP 7276753 B2 JP7276753 B2 JP 7276753B2
Authority
JP
Japan
Prior art keywords
display device
mounted display
head
time
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020540331A
Other languages
English (en)
Other versions
JP2021514070A (ja
Inventor
ストール、ゴードン、ウェイン
グッドソン、モンゴメリー、ヴィンセント
Original Assignee
バルブ コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バルブ コーポレーション filed Critical バルブ コーポレーション
Publication of JP2021514070A publication Critical patent/JP2021514070A/ja
Application granted granted Critical
Publication of JP7276753B2 publication Critical patent/JP7276753B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G3/2096Details of the interface to the display terminal specific for a flat panel
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/49Miscellaneous game characteristics with provisions for connecting to a part of the body
    • A63F2250/497Head
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

以下の開示は、一般にディスプレイデバイス上の画像データの表示を制御するためのディスプレイデバイスの追跡位置から情報を使用する技術に関連し、例えば、ヘッドマウントディスプレイデバイス上に対応する画像がどのように表示されるかを制御するためにヘッドマウントディスプレイデバイスの位置の追跡からの時間の量に関する情報を使用するようにする。
視覚ディスプレイ解像度を増加させる必要性は、画像データサイズおよび関連する伝送帯域幅の使用が大幅に対応して増加した。例えば、より高い伝送帯域幅は、ゲームデバイス、ビデオディスプレイデバイス、モバイルコンピューティング、汎用コンピューティングなどの視覚的ディスプレイ解像度の増加からもたらされた。加えて、仮想現実(「VR」)および拡張現実(「AR」)システム、特にヘッドマウントディスプレイ(「HMD」)デバイスを使用するものの人気の拡大は、そのような必要性を更に増加させた。仮想現実システムは、一般的に着用者の眼を完全に包み込み、着用者の前の実際の視野(または実際の現実)を「仮想」現実に置き換え、一方、拡張現実システムは、一般的に着用者の眼の前の1または複数の画面の半透明または透明オーバーレイを提供し、実際の視野は、追加の情報で拡張されるようになる。
しかしながら、そのようなHMDデバイスの画像の生成およびそれらのディスプレイのタイミングは、周囲の物理的環境と連携し、そのようなデバイスの使用に関連する課題を増加させた。
例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。 例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。 例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。 例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。 例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。 例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。 例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。 例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。 例示的な環境および状況における本開示で説明された少なくともいくつかの技術の使用の例を示す。
本開示の例示的な実施形態による双眼ディスプレイパネルを含むHMDデバイスの上部平面図を示す。
本開示に説明され少なくともいくつかの技術を実行するディスプレイデバイスの例示的な構成されたハードウェア回路を示す概略図である。
説明される技術の少なくともいくつかを実行する例示的なデバイスおよびシステムを示すブロック図であり、追跡ベースのディスプレイマネージャ(TDM)システムの実施形態を含む。
TDMシステムの画像追跡データエンコーダルーチンの例示的な実施形態のフロー図である。
TDMシステムの画像追跡データデコーダルーチンの例示的な実施形態のフロー図である。
本開示は一般的に、ディスプレイデバイスを追跡することからの情報を使用して、ディスプレイデバイス上での画像データの表示を制御する技術に関連する。少なくともいくつかの実施形態において、ディスプレイデバイスは、画像レンダリングシステムにより提供された画像のVRおよび/またはARディスプレイに使用されるヘッドマウントディスプレイ(「HMD」)デバイスであり、例えば、ユーザ着用HMDデバイス周辺の実際の物理的環境よりもシミュレート環境の全体または一部である画像を生成および提示するようにし、HMDデバイスの追跡は、実際の物理的環境におけるHMDデバイスの位置(例えば、3次元空間の位置および/またはHMDデバイスの向き)を決定することを含む。例えば、HMDデバイスまたは他のディスプレイデバイスの追跡された位置は、デバイス上に表示するための1または複数の画像を決定するために使用され得、例えば、追跡された位置に対応するユーザに表示される全部または一部でユーザを囲むシミュレート環境のサブセットの視野を決定し、デバイス位置の変化に応じて視野を変更するようにし、-しかしながら、追跡データの使用は、表示の時間でデバイスの位置に実際に対応しない画像が表示される場合(例えば、追跡データが取得された場合と結果として生じる画像が表示された場合との間の十分な遅延に起因する)、ディスプレイシステムの性能は、ユーザおよび/またはデバイスを負傷のリスクにおそらくさらして低下し得る(例えば、HMDデバイスを備えたユーザは、物理的環境の周辺で移動して、HMDデバイス上に表示されたVR画像に反映されない環境の物理的障害に近づく)。
従って、少なくともいくつかの実施形態において、HMDデバイスまたは他のディスプレイデバイスならびに関連する画像レンダリングシステムの動作は、レイテンシまたはデバイスの位置追跡データを取得することとデバイス上の対応する画像を表示することとの間のレイテンシまたは他の遅延に関する情報を使用および決定することにより改善される表示用の画像を提供する。特に、決定された遅延が余りにも大きい場合(例えば、定義された閾値を超えるか、さもなければ1または複数の定義された基準を満たす)、少なくともいくつかの実施形態において、HMDデバイスまたは他のディスプレイデバイスがセーフモード動作に入り、例えば、他の画像でデバイス上に表示されたシミュレート環境の画像を置き換え、ユーザの潜在的な問題を識別し、および/またはさもなければ潜在的な問題をユーザに通知するようにする。加えて決定された遅延情報は、少なくともいくつかの実施形態において使用され得、セーフモード動作を開始するために決定された遅延情報を使用することに加えてまたはその代わりに表示用にデバイスに提供されるシミュレート環境の画像を改善し、例えば、画像レンダリングシステムがデバイスの将来の時間の将来の位置を予測することを可能にするようにし、これは、決定された遅延に対応する量だけデバイスの現在の位置に関する追跡データを取得する時間とは異なり、将来の時間の予測された将来の位置に対応するデバイス上の表示用の画像を生成、提供するようにする。本明細書で説明される技術のいくつかまたはすべては、以下により詳細に説明されているように追跡ベースのディスプレイマネージャ(「TDM」)システムの複数の実施形態の自動化された動作により実行され得る。
HMDデバイスまたは他のディスプレイデバイスの位置の追跡は、いくつかの実施形態においてHMDデバイスまたは他のディスプレイデバイスから提供された情報により全部または一部が生じることを含む様々な実施形態の様々な方式で実行され得、(例えば、IMUまたは慣性測定ユニットを介して、GPSまたは他のセンサを介して加速度計および/またはジャイロスコープおよび/または磁力計を提供し、外部デバイスから信号を受信し、位置情報を決定するために信号を使用するなど)、いくつかの実施形態において、HMDデバイスまたは他のディスプレイデバイス(例えば、モーションセンサ、カメラなど)の外部の1または複数の他のデバイスから提供された情報により全部または一部で生じる。追跡された位置情報の位置および/または向きは、1または複数の他の対象物または基準点(例えば、ユーザが移動している実際の物理的環境の固定点)との相対を含む様々な実施形態の様々な方式および/または絶対的な方式(例えば、GPS座標システムの使用により)で更に決定され得る。一つの非限定的な例として、HMDデバイスまたは他のディスプレイデバイスが配置される物理的環境(例えば、部屋の15フィートx15フィートの領域)は、1または複数のハードウェアデバイス(「基地局」と呼ばれることがある)を含み得、繰り返し(例えば、1秒に60回)赤外線フラッシュを伝送し、続いて回転する赤外線レーザを伝送し、HMDデバイスまたは他のディスプレイデバイスは、様々なフォトセンサを含み(例えば、数十または数百のフォトセンサ)、それらは、赤外線フラッシュを検出し、特定のフォトセンサがレーザ光を検出し、高精度(例えば、ミリメートル以下)の物理的環境の3D位置および向きを決定するまで後続の時間の量を使用する。更にいくつかの実施形態において、HMDデバイスまたは他のディスプレイデバイスの位置の追跡は、デバイス上の1または複数の点または他の位置を追跡することを含み得、位置を決定するディスプレイデバイス上の1または複数のセンサにより位置を決定する外部デバイスにより使用されるマーカまたはトラッカなどである。他の実施形態において、HMDデバイスまたは他のディスプレイデバイスの位置の追跡は、デバイスに関連する1または複数の他の近接対象物を追跡することにより一部または全部に基づき得、デバイスのユーザの体(例えば、ユーザの頭)の上の1または複数の点または他の位置など、および/または1または複数の他の関連するデバイス(例えば、ユーザによって着用されるか、携帯されるハンドヘルドコントローラ、センサまたは他のデバイスなどユーザによって使用され、ユーザによって着用されるか、携帯される対象物に取り付けられる入力/出力デバイス)の1または複数の点または他の位置などである。位置追跡情報を取得し、使用することに関連する更なる詳細は、以下に含まれる。
HMDデバイスまたは他のディスプレイデバイス上に表示された画像は、デバイスの追跡された位置に基づき、様々な実施形態で様々な形式を有し得、様々な方式で生成され、さもなければ決定または選択され得る。例えば、少なくともいくつかの実施形態において、画像レンダリングシステムは、ビデオフレームである一連の画像を生成する(例えば、毎秒30、60、または90などのフレームのレートで)ことなどによりHMDデバイスまたは他のディスプレイデバイスの周辺のシミュレート環境のサブセットの視野に対応する画像を生成し、―そのような画像レンダリングシステムは、例えば、ユーザは、シミュレート環境が表示するゲームに参加する(例えば、インタラクトする)ゲームシステムの一部であり得る。そのような画像は、多くのピクセル値を含み得、HMDデバイスまたは他のディスプレイデバイスへの伝送用の様々な形式に符号化され得、例えば、画像内(例えば、ヘッダー内)のメタデータの1または複数の種類を含むか、さもなければ任意で画像などを圧縮するために画像に関連するそのようなメタデータを伝送するようにする。1つの特定の例として、画像は、符号化され得、画像の生成または他の決定あるいは選択に関連する時間に関するタイミング情報を有するか、さもなければそれに関係し、対応する追跡された位置が決定される時間、対応する追跡された位置を反映するために画像が生成されるか、さもなければ決定される時間、画像などに反映されたHMDデバイスまたは他のディスプレイデバイスの将来の推定位置に対応する画像を生成するか、他の決定をした後の将来の時間などである。他の実施形態において、画像に符号化されているか、さもなければ画像に含まれている関連情報は、画像がタイミング情報の代わりに、またはそれに加えて画像が対応するHMDデバイスまたは他のディスプレイデバイスの実際の(例えば、現在の)および/または推定された将来の追跡された位置に関する情報を位置決めすることを含み得る。加えて、本明細書で使用されているように、「ピクセル」は、ディスプレイの最も小さなアドレス指定可能な画像要素を指し、そのディスプレイ用のすべての可能な色値を提供するために起動され得、多くの場合、ピクセルは、人間の視聴者による知覚のために、赤、緑、および青の光を別々に生じさせるための個別のそれぞれのサブ要素(いくつかの場合では、別個の「サブピクセル」として)を含み、本明細書で使用されているように、ピクセル「値」は、単一のピクセルのこれらのそれぞれのRGB要素のうちの1または複数の刺激のそれぞれのレベルに対応するデータ値を指す。
加えてHMDデバイスまたは他のディスプレイデバイス(例えば、スマートフォンまたは他のハンドヘルドデバイス)のセーフモード動作は、様々な方式で実装され得る。例えば、いくつかの実施形態において、テキストおよび/または他(例えば、聴覚的、触覚など)の警告は、ユーザに提供され、例えば、ユーザに移動を停止させおよび/またはHMDデバイスを除去するか、さもなければディスプレイデバイスの使用を停止することを促すようにする。加えて、いくつかの実施形態において、1または複数の代替画像は、HMDデバイスまたは他のディスプレイデバイス上でユーザに表示され、警告を提供する代わりにまたはそれに加えて周囲の実際の物理的環境のユーザの位置に関する情報を提供し得、少なくともいくつかの実施形態において、追跡された位置情報に基づいてデバイス上の表示用に提供される1つまたは他の画像を置き換え得-そのような代替画像は、例えば、周囲の実際の物理的環境の画像(例えば、HMDデバイスまたは他のディスプレイデバイス上の前向きカメラから)および/または周囲の実際の物理的環境の仮想視野を含み得る(例えば、ユーザが移動を意図する周囲の実際の物理的環境内の物理的領域の一部の境界を示し、任意で物理的領域の外側にあり、その境界のうちの1または複数に近い対象物などの周囲の実際の物理的環境の1または複数の物理的対象物の表示を備えるグリッド)。更に、画像レンダリングシステムは、少なくともいくつかの実施形態において、シミュレート環境の画像の生成に関連する動作を停止または終了することも通知され得、いくつかの実施形態において、HMDデバイスは、差し迫った衝突のために任意で準備され得る。加えて、HMDデバイスまたは他のディスプレイデバイスに対してセーフモード動作が開始された後に、セーフモードは、様々な実施形態の様々な方式で終了され得、定義された時間の量の後、そうするためにユーザが手動で示した後(例えば、ディスプレイデバイスおよび/または画像レンダリングシステムを再開またはリセットすることにより)、シミュレート環境の追加の画像を関連する十分な遅延がないか、さもなければセーフモード動作の開始に関連する基準などをトリガせずに受信された後などである。セーフモード動作を実装することに関連する更なる詳細は、以下に含まれる。
更に、説明される技術の少なくともいくつかの実施形態における利点は、HMDデバイスまたは他のディスプレイデバイスおよび表示用の画像を提供する関連する画像レンダリングシステムの動作を改善することを含み、周囲の実際の物理的環境の物理的対象物を備えるデバイスおよび/またはユーザの衝突を最小化することなどにより、デバイス用の位置追跡データを取得してから、デバイス上の対応する画像を表示するまでの間で判定される遅延に関する情報を使用することに少なくとも部分的に基づいてデバイスおよび/またはそのユーザへの損害を最小化または取り除くことを含む。また、より正確な実際の遅延情報を取得して使用することにより、表示するための画像の生成または他の判定もしくは選択が更に改善され得て、画像表示の時間にデバイスの将来の位置を推定および/またはその画像表示の将来の時間を推定するシステムを含み-そのような正確な実際の遅延情報は、更に画像レンダリングシステムがより効率的に動作することを可能にし得て(例えば、1または複数の画像が対応する表示の将来の時間を決定しようとするためにより少ない処理電力と時間を使用することにより)、より正確な画像が生成されることなどを可能にし得る(例えば、表示の時間にHMDデバイスまたは他のディスプレイデバイスの位置をより良く反映するために)。
図示のため、いくつかの実施形態は、以下で説明され、様々な特定の詳細は、図示のために含まれ、いくつかの実施形態のいくつかの場合では、よく知られた構成要素を示さないように簡潔にするために簡略化される。非排他的な一例として、いくつかの実施形態において、特定の種類の技術追跡デバイス、ハードウェアセンサ、ディスプレイデバイス(例えば、HMDデバイス)およびディスプレイパネル(例えば、OLED、または有機発光ダイオードを使用、LCD、または液晶ディスプレイの使用など)および光学レンズ、入力/出力デバイスなどが、特定の方式で使用され、構造化され(例えば、ハードウェアセンサはディスプレイデバイスの一部である)および特定の使用(例えば、仮想現実および/または拡張現実)のための特定の方式で使用され、HMDデバイスの動作制御の一部として特定の種類の技術の使用を含む。別の例として、いくつかの実施形態において、デバイスは、追跡され、その位置は、1または複数の人間のユーザにより使用される対応する位置ベースの画像を生成するか、さもなければ選択するために使用される。しかしながら、発明技術は、他の状況の多種多様な状況で使用され得、そのいくつかは、本明細書で説明され、他の種類のディスプレイデバイスおよび技術追跡デバイス、および/または人間によって使用されないデバイスを含み、従って、本発明は、提供される例示的な詳細に限定されないことが理解されよう。加えて、様々な詳細が、例示的な目的のために図面およびテキストに提供されるが、本発明の範囲を限定することを意図していない。
図1Aから図1Hは、例示的な環境および状況で本開示で説明された少なくともいくつかの技術の使用の例を示し、図1Iは、そのような例示的な環境の情報交換およびタイミング情報の使用の例を示す。特に、図1Aの例では、人間のユーザ105は、実際の物理的環境147に存在し、この例では視野100aに示されるように建築物の部屋である(例えば、その一部はコーナー125で示されている)。ユーザは、HMDデバイス110を着用しており、それを介してユーザは、図1C、図1Dおよび図1Fに関連してより詳細に説明される実際の物理的環境とは異なるシミュレート環境の表示された情報を受信し得る。示されている実施形態では、HMDデバイス110は、ケーブル145(「テザー」とも呼ばれる)を介してコンピューティングシステム140に接続されるが、他の実施形態において、HMDデバイスは、無線接続(不図示)を介してコンピューティングシステム140とのいくつかまたはすべてのインタラクションを実行し得-この例では、コンピューティングシステム140は、ユーザに表示するためにシミュレート環境の画像をHMDデバイスに供給する画像レンダリングシステムとして機能する。ユーザ105は、実際の物理的環境の周辺を更に移動可能であり、この例では、物理的環境(境界151a、151b、151cおよび151dを使用)のサブセットである領域150内に滞在することを予想され、例えば、テーブル160aまたはエンドテーブル160bなどの実際の物理的環境の障害物にぶつからないようにする。この例では、ユーザ105は、ユーザが更にシミュレート環境とインタラクトすることができる1または複数のI/O(「入力/出力」)デバイスを更に有し得、この例では、ハンドヘルドコントローラ115を含む。
ユーザが、領域150内に位置を移動および/またはHMDデバイス110の向きを変更するため、例えば、図1C、図1Dおよび図1Fに関連してより詳細に説明されているように、シミュレート環境の対応する一部が、HMDデバイス上でユーザに表示できるようになるよう、HMDデバイスの位置が追跡される。いくつかの実施形態において、HMDデバイス110の位置の追跡は、HMDデバイス自体により一部または全部に実行され得、追跡は、この例では、1または複数の外部デバイスによって更に支援される。特に、図1Aの例の外部デバイスは、HMDデバイス110が検出および使用する信号122(例えば、光パルス)を発する2つの基地局120を含み、HMDデバイスの位置を決定するが、他の実施形態において、1または複数の外部センサは、代わりに他の方式で追跡を実行し得る。本例では、コントローラ115は、コントローラの位置を追跡する際に使用するための同様の技術を更に使用し得(およびHMDデバイスの位置を決定および/または検証するのを支援するための情報を任意で使用する)るが、他の実施形態において、コントローラは、その方式で追跡され得ずおよび/またはユーザ上のまたは付近の他のデバイス/センサ(不図示)で同様に追跡され得ない。HMDデバイス110の追跡された位置が、そのような追跡に基づく特定の時間にわたって認識された後で、対応する情報は、ケーブル145を介してコンピューティングシステム140に伝送され、それは、ユーザ105に表示するためのシミュレート環境の1または複数の次の画像を生成するために追跡された位置情報を使用する。加えて、ここで示されていないが、そのような外部デバイスおよび/またはHMDデバイスが(例えば、外部カメラを介して)、図1Hに関連して説明したように、実際の物理的環境の後で人工バージョンを生成する際に使用するなど実際の物理的環境の実際の物理的対象物に関する情報を取得し得る。
図1Iは、そのような例示的な環境の情報交換およびタイミング情報の使用の例を示す。特に、例示的な画像レンダリングシステム(例えば、図1Aのコンピューティングシステム140)の動作は、図1Iの第1タイムライン190aに沿って示され、例示的なHMDデバイス(例えば、図1AのHMDデバイス110)の動作は、図1Iの第2タイムライン190bに沿って示される。図1Aに関連して上で述べたように、HMDデバイスは、時間TでHMDデバイスによって開始される伝送の図1Iに示されるHMDデバイスと画像レンダリングシステムとの間の制御データ伝送経路に沿って、時折、画像レンダリングシステムに情報を送信し得、追跡情報は、その追跡情報に対応するユーザの周辺のシミュレート環境の視野を生成する際に画像レンダリングシステムによって使用するなど時間TでHMDデバイスの位置および向きを反映して-他の実施形態において、画像レンダリングシステムは、HMDデバイスの追跡情報を自体で判定し得(例えば、HMDデバイスの外部のセンサを使用する)、そうである場合、時間Tでそのような追跡情報伝送(および、制御データ伝送経路に沿った時間Tでの同様の後の追跡情報伝送)が、実行され得ない。
図1Iに更に示されるように、画像レンダリングシステムは、様々な実施形態の様々な方式で、画像レンダリングシステムからHMDデバイスに情報を送信することとHMDデバイスにより後でその情報を表示することとの間のレイテンシまたは他の遅延に関する情報を決定し得る。いくつかの実施形態において、画像レンダリングシステムは、制御データ伝送経路に沿って専用のタイミング伝送を送信し得(例えば、「ピン」コマンドに同様の方式で、画像データを含まない1または複数のタイミングパケット)、HMDデバイスは、対応するタイミング応答で制御データ伝送経路に沿って直ちに応答し、画像レンダリングシステムは、画像レンダリングシステムからHMDデバイスに情報を送信し、例えば、制御データ伝送経路に沿って応答情報を受信するために往復レイテンシまたは他の遅延を測定することができるようになり、そこから画像レンダリングシステムは、一方向レイテンシまたは他の遅延を推定し得る(例えば、往復時間の半分に一部に基づいて、または画像レンダリングシステムとHMDデバイスとの間のアップロードおおよびダウンロード速度が異なる場合、さもなければ一方向時間判定を調整し、任意で制御データ伝送経路のレイテンシを、別個のビデオデータ伝送経路に沿ったレイテンシの初期推定値として使用する)。そのようなタイミング伝送および応答の例は、画像レンダリングシステムから時間Tで送信されたタイミング伝送およびHMDデバイスから時間Tで受信されたタイミング応答によって示され-そうである場合、画像レンダリングシステムは、時間TとTとの間の差に一部に基づいて、最初に一方向レイテンシまたは他の遅延をLに決定し得る。画像レンダリングシステムは、更にいくつかの実施形態においてそのような初期推定遅延時間Lを変え得、ビデオデータ伝送経路に沿ってHMDデバイスによる画像の受信と画像の後の表示との間の追加の推定された時間の量を反映するが、そのような調整は、初期遅延時間Lを使用する図1Iの例には示されていない。
他の実施形態において、画像レンダリングシステムは、そのようなタイミング伝送および応答の使用に加えてまたはその代わりに他の方式で一方向レイテンシまたは他の遅延を決定し得る。例えば、図1Iに示されるように、画像レンダリングシステムは、ビデオデータ伝送経路に沿って時間TでHMDデバイスに画像を伝送し得、HMDデバイスは、時間T+L'で後に画像を表示し得、L'は、画像遅延の時間まで画像伝送の時間からそのような画像の測定された実際の一方向レイテンシまたは他の遅延を表しそうである場合、HMDデバイスは、伝送のその時間Tに関する追跡情報も含む制御データ伝送経路に沿った時間TでのHMDデバイスからの情報伝送に示されるように、後の使用のために画像レンダリングシステムに戻る画像表示のその時間T+L'に関する情報を提供し得る。
画像レンダリングシステムは、HMDに対する追跡情報および表示された画像の生成の一部として一方向レイテンシまたは他の遅延情報に関する情報を更に使用し得る。例えば、画像レンダリングシステムによって生成され時間Tで伝送された画像について示されるように、画像レンダリングシステムは最新の追跡情報を取得し、画像が表示されると予想される将来の時間まで(決定された一方向レイテンシまたは他の遅延情報に一部に基づいて)追跡情報が生成されたときからの時間差を判定し、その将来の時間の将来の追跡情報を予測し、その予測された将来の追跡情報に対応する画像を生成する。従って、例えば、時間Tで画像レンダリングシステムによって生成および伝送された画像は、T+Lの将来の時間を反映するように生成される。同様に時間Tで画像レンダリングシステムによって生成および伝送された画像は、時間Tで画像レンダリングシステムが受信したL'の修正済みの一方向レイテンシまたは他の遅延値を使用してT+L'の将来の時間を反映するように生成される。そのような将来の追跡情報の予測は、ユーザの移動の変更の以前のレートを使用して、その変更のレートが継続する場合、将来の位置および向きを推定し、将来の位置および向きなどを推定するためにユーザの移動の変更の以前のレートにおける加速の増加または減少を使用するなどして、様々な方式で実行され得る。T+L'の将来の時間を反映するように生成された時間Tで伝送された画像に関して、図1Iは、HMDデバイスによる画像の実際の受信が、より長い時間L'遅延することを更に示し、少なくとも時間T(最新の追跡情報が生成されたとき)から時間T(その追跡情報を使用して表示される結果として生じる画像が受信されたとき)までの遅延の場合、任意でTと対応する画像表示が考慮される遅延の一部として開始するときとの間の時間の量を更に含み、定義された閾値時間を超える場合、HMDデバイスは、図1Bから図1Hに関連して更に説明するように、画像を表示するのではなく、セーフモード動作を開始する。
図1Bは、図1Aの例を続けるが、図1Aに示される実際の物理的環境155内の他の様々な対象物を示すことなく、領域150およびHMDデバイス110の視野100bを示す。代わりに、仮想グリッド165が図1Bに示され、この例では、ほぼ右から左へのX軸、ほぼ遠くから近くへのY軸、および垂直の上下軸のZ軸が含まれ、0、0、0の位置は、表示されている最も遠いコーナーの部屋の床に関連付けられる。表示されるように、HMDデバイス110の位置の追跡は、所与の時間における1または複数の特定の点でのx、y、z位置(この例では、HMDデバイスの上部中央にほぼ対応する8、5、7の位置が含まれる)情報を決定することを含み得るが、他の実施形態において他の方式で位置を追跡し得、HMDデバイスの位置を決定(例えば、HMDデバイスの向きを決定することの一部として)するために、多数の異なる点または位置を同時に追跡して使用し得ることが理解されよう。HMDデバイス110上の位置を3次元で追跡することに加えて、HMDデバイスの追跡された位置は、位置170を指す指向性光線によってこの例に視覚的に示されるように、この例ではHMDデバイスの追跡された向きを更に含み、ユーザの視線の方向は、空間150(この例では、位置13、8、4)の長方形の筐体空間を出発する。前述のように、いくつかの実施形態において、追跡される位置および向きは、基地局120(図1A)などの外部デバイスから受信する情報に基づいてHMDデバイスによって決定され得るが、他の実施形態において、情報のいくつかまたはすべて(例えば、向き情報)は、HMDデバイス自体によって(例えば、この例では不図示の1または複数の慣性測定ユニットを介して)生成された情報に少なくとも部分的に基づき得-例示的なHMDデバイスに関連する更なる詳細を図2Aに示す。領域150全体を移動するユーザは、絶えず変化する追跡された位置を有し得、位置の追跡は、HMDデバイス上でユーザに表示される各画像に対して任意で1回繰り返し実行され得る(例えば、毎秒60回など、毎秒複数回)ことを理解されよう。
図1Cは、この例に示されている様々なシミュレート対象物180などで、ユーザを仮想的に囲む単純なシミュレート環境148の視野100cの例を提供する(例えば、ユーザが保持し、シミュレート環境と様々な方式でインタラクトできるシミュレート岩180b、180iおよび180j、シミュレート魚180c、180f、180gおよび180h、シミュレート難破船180a、シミュレート対象物180dおよび180eなど)。HMDデバイス上に表示される単一の画像は、この例では表示された画像が360°ラップアラウンド画像ではないのに対し、シミュレート環境はユーザを囲んでいるため、この例ではシミュレート環境のごく一部の視野のみを示し得る(ただし、他の実施形態において、供給された画像および/またはシミュレート環境は他の形態を有し得る)ことが理解されよう。更に、ユーザがHMDデバイスの位置を移動するため、追跡された位置情報を使用すると、変更された追跡された位置を反映するために、表示用に提供される画像を更に変化させる。
この例を続けると、図1Dは、図1Bおよび1Cに関連して上で説明したように、HMDデバイスの現在の位置に基づいてHMDデバイス上でユーザに表示され得る画像の視野100dを示す。この例では、現在の追跡されたHMD位置に基づく画像には、シミュレート対象物180d、180f、180gおよび180jの視覚的表示が含まれているが、現在の追跡された位置に対応しない図1Cに示されている他のシミュレート対象物は含まれず、また、この例では、実際の物理的環境(例えば、テーブル160、壁など)に関する情報は含まれていないが、他の実施形態において、表示された画像は、シミュレート環境と実際の物理的環境の両方からの情報を同時に含み得る。
図1Eは、ユーザが領域150内を移動するときのこの例の更なる視野100eを示す-特に、この例では、ユーザは領域150の境界151dの近くを向き、その近くにいて、実際の物理的対象物160aおよび140は、ユーザの直前にある。ユーザがシミュレート環境のみを見ている場合は、図1Fに関連して更に説明するように境界および/または実際の物理的対象物に近づいていることをユーザに警告する通知を(例えば、表示された画像の一部として、および/または表示された画像とは別個に)提供することが適切である。ただし、そのような通知は、HMDデバイスの位置を正確に追跡し、その情報を(例えば、画像レンダリングシステムによって)表示用に提供される画像(またはHMDデバイスに使用のために提供される他の通知情報)の一部として迅速に使用することに基づいている。従って、位置が追跡されるときと、対応する生成された画像が後でHMDデバイス上でユーザに表示されるときとの間に十分な遅延が生じた場合、ユーザが移動を続け、対応する画像またはその他の警告通知がHMDデバイス上に提供されおよび表示される前に境界を越えて実際の物理的環境の1または複数の対象物に影響を与えると、ユーザおよび/またはHMDデバイスおよび/または実際の物理的環境の対象物への負傷の可能性など問題が発生する可能性がある。
図1Fは、HMDデバイスの新しい位置が、対応する画像を表示用に提供するために遅延なく追跡され、使用される場合に図1Eの位置でユーザに提示され得るシミュレート環境の更なる視野100fを示す。この例では、差し迫った境界151dは、境界(岩壁180iなど)またはその近くに配置されたシミュレート対象物および/または境界(グリッド180kなど)またはその近くに配置された仮想的に追加された障壁などによる様々な方法でユーザに示され得る。他のシミュレート対象物180dおよび180hも示されている。
ただし、ユーザが図1Eに示すように移動したときから、対応する追跡された位置情報を使用して表示用の新しい画像を生成するまでの遅延が余りにも大きい(例えば、定義された閾値を超える)場合、図1Eの位置のHMDデバイス上の画像は、図1Fの画像を反映し得ず、引き続きなおも図1Dのものと同様の例であり得る。そうである場合、ユーザは、領域150からの差し迫った逸脱および実際の物理的環境における対象物との衝突に気付き得ない。
従って、図1Gは、HMDデバイスのためのセーフモード動作を実装することにより、ユーザおよび他の物理的対象物を保護することを支援するために説明される技術の使用の一例を示し、特に、さもなければ示されるであろう(例えば、図1Cに示されるような)シミュレート環境の1または複数の画像の代わりに表示される置換画像の視野100gを示す。この例では、HMDデバイスの外部にある前方カメラを使用して、HMDデバイスがユーザに着用されていなかった場合にユーザが目にするであろう視野を表示するなどにより、置換画像は実際の物理的環境のビデオまたはその他の画像情報を反映している。この方式では、ユーザは、その方向への更なる移動を防止するために、彼または彼女が境界151dの近くまたは境界151dにあり、物理的対象物160aおよび140によって直ぐにわかる。他の実施形態において、HMDデバイスは、移動するまで前方視野をさもなければブロックする可動シャッターを設けることなどによって、前方カメラを使用することなく、またはHMDデバイスを取り外すことなく、ユーザが前方を見ることを可能にする機構を含み得る。
図1Hは、HMDデバイスのセーフモード動作を実装する代替の実施形態の視野100hを示し、特に、図1Gに示すように、シミュレート環境の画像または実際の物理的環境の視野の代わりに、実際の物理的環境の仮想視野が生成され、HMDデバイス上でユーザに表示される。特に、図1Hの例では、修正済みの画像には、シミュレート環境に関する他の情報なしで、グリッド床と壁180mが含まれており、他の実施形態において、仮想表示は、仮想グリッドに加えて、または仮想グリッドの代わりに、実際の物理的環境内の(例えば、対象物160aおよび/または140の)1または複数の実際の対象物を示し得る。図1Hは、HMDデバイスのセーフモード動作に関連する警告メッセージ180lを更に示し、例えば、位置追跡が正しく機能していないため、ユーザは、通常の動作が一時停止または終了したことを理解できることを示すようにし、一方、図1Gには示されていないが、1または複数のそのような警告メッセージを、そのような実施形態において同様に使用し得る。また、実際の環境からの様々な他の種類の情報および/または他の種類の警告情報が、ユーザに表示または提供され得ることが理解されよう。加えて、この例には示されていないが、図1Gおよび/または1Hのセーフモード動作は、可聴音、触覚情報(例えば、振動)などの他の種類の警告情報で補完され得、そして、コンピューティングシステム140およびその画像レンダリングシステムは、シミュレート環境の画像を生成することに関連する動作を一時停止するように更に通知され得る。少なくともいくつかの実施形態において、実際の物理的環境の仮想視野のいくつかまたはすべてが、表示される前にHMDデバイス上でローカルに生成され、例えば、表示の生成の遅延を最小化するのを支援し(例えば、ユーザが気分を害するのを防止する)、実際の物理的環境(例えば、壁)で床および/または他の要素を正しい向きなどに示すのを支援するようにする。
図2Aは、図1A~1Iの例で使用され得るか、またはさもなければ説明される技術とともに使用され得るような、一対の近接眼ディスプレイシステム202および204を含むHMDデバイス200aの簡略化された上部平面図である。近接眼ディスプレイシステム202および204は、それぞれディスプレイパネル206および208(例えば、OLEDまたはLCDマイクロディスプレイ)と、それぞれが1または複数の光学レンズを有するそれぞれの光学レンズシステム210および212と、を含む。ディスプレイシステム202および204は、フレーム214に取り付けられ得、これは、HMDデバイスがユーザによって着用されたときに、着用者のユーザ224の顔に接触するかまたは隣接する、前部216、左テンプル218、右テンプル220および内面221を含む。2つのディスプレイシステム202および204は、着用者のユーザ224の頭222に着用することができる眼鏡構成でフレーム214に固定し得る。左テンプル218および右テンプル220は、それぞれユーザの耳226および228の上に載り得、一方、内面221のノーズアセンブリ(不図示)は、ユーザの鼻230の上に載り得る。フレーム214は、2つの光学システム210および212のそれぞれを、それぞれユーザの眼232および234の一方の前に配置するような形状およびサイズにされ得る。フレーム214は、説明の目的で眼鏡と同様に簡略化した方式で示されているが、実際には、より洗練された構造(例えば、ゴーグル、統合ヘッドバンド、ヘルメット、ストラップなど)を使用して、ユーザ224の頭222上にディスプレイシステム202および204を支持、配置し得ることを理解されたい。
図2AのHMDデバイス200aは、表示レート(例えば、毎秒30、60、90などのフレームまたは画像)で提示される対応するビデオを介してなど、仮想現実ディスプレイをユーザ224に提示することができ、一方、同様のシステムの他の実施形態は、同様の方式で拡張現実ディスプレイをユーザ224に提示し得る。ディスプレイ206および208のそれぞれは、それぞれの光学システム210および212を介して透過され、ユーザ124の眼232および234にそれぞれ集束される光を生成し得る。ここで示されていないが、眼のそれぞれは、通常、光が眼を通過する瞳孔開口を含み、-瞳孔(および虹彩を囲む)は、通常、開いたまぶたの下で眼の可視部分内で数ミリメートル水平方向および/または垂直方向に移動する可能性があり、また、眼球がその中心の周辺を旋回するにつれて、瞳孔がディスプレイの光学レンズまたはディスプレイの他の物理的要素から異なる水平位置と垂直位置に異なる深度に移動する(結果として、瞳孔が移動できる3次元のボリュームになる)。ユーザの瞳孔に入る光は、画像および/またはビデオとしてユーザ224によって見られる。
図示された実施形態では、HMDデバイス200aは、セーフモード動作をトリガする条件を識別するため、および/またはセーフモード動作を実装するための説明される技術の一部として、開示される実施形態によって使用し得るハードウェアセンサおよび追加の構成要素を更に含む。この例のハードウェアセンサには、1または複数の加速度計および/またはジャイロスコープ290が含まれ(例えば、1または複数のIMUユニットの一部として)本明細書の他の箇所でより詳細に説明しているように、加速度計および/またはジャイロスコープからの値を使用して、HMDデバイスの向きをローカルに決定し得る。加えて、HMDデバイス200aは、前部216の外部にあるカメラ285などの1または複数の前向きカメラを含み得、セーフモード動作中に、その情報を使用して、シミュレート環境の画像をHMDデバイスの前にある実際の物理的環境の画像に置き換え得る(またはより一般に、AR機能を提供するためなど、HMDデバイスの他の動作の一部として使用し得る)。図示された実施形態におけるハードウェアセンサは、光学レンズシステム210および212の近くの内面221上に配置されるなど、ユーザの瞳孔/視線を追跡するための1または複数のセンサまたは他の構成要素295を更に含み、-本明細書の他の箇所でより詳細に説明されているように、構成要素295からの情報は、HMDデバイスの位置(例えば、位置および向き)に関する他の情報と組み合わせたユーザの視線の方向に基づくなどシミュレート環境の特定の視野を識別してユーザに表示するために使用され得る。更に、HMDデバイス200aは、本明細書の他の箇所でより詳細に説明されるように、他の構成要素275(例えば、内部ストレージ、1または複数のバッテリ、外部基地局とインタラクトする位置追跡デバイスなど)を更に含み得る。他の実施形態は、構成要素275、285、290および/または295のうちの1または複数を含み得ない。ここで示されていないが、そのようなHMDのいくつかの実施形態は、ユーザの体の他の様々な種類の移動および位置などを追跡するためなど、様々な他の種類の追加の内部および/または外部センサを含み得る。
説明される技術は、図2Aに示されるものと同様のディスプレイシステムを有するいくつかの実施形態において使用され得るが、他の実施形態において、単一の光学レンズおよびディスプレイデバイス、または複数のそのような光学レンズおよびディスプレイデバイスを含む、他の種類のディスプレイシステムを使用し得る。他のそのようなデバイスの非排他的な例には、カメラ、望遠鏡、顕微鏡、双眼鏡、スポッティングスコープ、測量スコープなどが含まれる。加えて、説明される技術は、光を発して画像を形成する多種多様なディスプレイパネルまたは他のディスプレイデバイスとともに使用され得、1または複数のユーザが1または複数の光学レンズを通して見る。他の実施形態において、ユーザは、別の光源からの光を一部または全部に反射する表面上になど、ディスプレイパネルを介する以外の方式で生じさせられる1または複数の光学レンズを通して1または複数の画像を見得る。
図2Bは、ディスプレイデバイス(例えば、図2AのHMDデバイス200aおよび/または図3のHMDデバイス380aおよび/または図1A~1Iの例で説明された、またはさもなければ説明される技術に関して説明されたHMDデバイス)上のハードウェア回路の一例を示し、これは、説明される技術に従って1または複数のディスプレイパネル上で画像データを受信して表示し、HMDデバイスのタイミング遅延情報および/または追跡情報を画像レンダリングシステムに提供する自動化された動作を実行するように構成され得る。特に、図2Bは、複数のピクセルPが行Rおよび列Cに配置されるピクセルアレイ253を有する例示的なディスプレイシステム200bを含む。行(標識R)と列(標識C)の一例のみが示され、それらの交点にあるピクセル(標識Pxy)の一例が表示されているが、実際には、ピクセルアレイ253は、任意の望ましいM×Nアレイであり得、ここで、Mは、ピクセルアレイにおける行の数であり、Nは、列の数である。ディスプレイシステム200bは、例えば、LCDシステムまたはOLEDシステムであり得る。ディスプレイシステム200bがカラーディスプレイである実装態様では、ピクセルPは、それぞれが異なる色(例えば、赤、緑、青)を生じさせるサブピクセルを含み得る。
ディスプレイシステム200bのピクセルアレイ253に隣接するのは、ピクセルアレイ253の個別のピクセルを駆動するため、ならびに任意で他の機能を実行するためのハードウェア回路を含む周辺領域である。特に、ハードウェア回路は、ゲートまたはスキャンドライバ回路とも呼ばれることがある行ドライバ回路(例えば、ICまたは集積回路)256、およびデータドライバ回路とも呼ばれることがある列ドライバ回路(例えば、IC)258を含み、-行ドライバ回路256および列ドライバ回路258は、本明細書では「ピクセルドライバサブシステム」と総称されることがある。ドライバ回路256および258のそれぞれは、例えば、1または複数の集積回路から形成され得る。実際には、ビデオ入力ポート263(例えば、DisplayPortポート)は、任意で符号化された形式で外部ビデオソースシステム266(例えば、図3の画像レンダリングシステム335または図1A~1Iの例に関して説明された画像レンダリングシステム)から入力された画像データを受信し、受信されたデータをブリッジIC267に伝送する。ブリッジIC267は、自動化された動作を実行して、符号化されている場合は受信されたデータをデコードし、結果として生じるピクセル値を実装するためにそれぞれの情報を行および列ドライバ回路に転送するロジックを実装するように構成される。特に、行ドライバ回路256は、ピクセルアレイ253内のピクセル(またはサブピクセル)の行Rのそれぞれに1つずつ、複数の行選択ライン262を含み、行選択ライン262のそれぞれは、ピクセルアレイ253の対応する行のピクセルのスキャン電極に電気的に結合されている。列ドライバ回路258は、同様に、ピクセルアレイ253内のピクセル(またはサブピクセル)の列Cのそれぞれに1つずつ、複数のデータライン264を含み、データライン264のそれぞれは、ピクセルアレイ253の対応する列のピクセルのデータ電極に電気的に結合されている。行ドライバ回路256は、ブリッジIC267の制御下で、行選択ライン262を介して一度にピクセルアレイ253の1または複数の行を選択的に有効にし、ブリッジIC267の制御下で列ドライバ回路258は、ピクセルアレイ253内のピクセルの列のそれぞれについて、データ(例えば、電圧レベル)をデータライン264に出力する。従って、ピクセルのスキャン電極が、行選択ライン262を介して行ドライバ回路256によってハイにパルスされるとき、各ピクセルによって透過される光の強度は、列ドライバ回路258によってデータライン264を介してピクセルのデータ電極に適用される駆動電圧によって決定される。少なくともいくつかの実装形態では、ドライバ回路256および258および/またはブリッジIC267は、同じデータまたは同様のデータを含む複数の行を同時にロードするように構成され得る。
前述のように、ブリッジIC267は、ビデオ入力ポート263を介してビデオソースシステム266に動作可能に結合され、それは、画像ストリーム(例えば、処理されたビデオデータ)をディスプレイシステム200b上の表示用にブリッジIC267に供給する。ビデオソースシステム266は、例えばフラットパネルテレビ、ラップトップ、タブレットコンピュータ、携帯電話、ヘッドマウントディスプレイ、ウェアラブルコンピュータなどのディスプレイシステムを利用する任意のビデオ出力ソースシステムであり得る。ビデオソースシステム266は、より大きなシステムの構成要素(例えば、グラフィックコントローラ)であり得る。ブリッジIC267は、画像ストリームを受信し、それを適切な電圧プログラミング情報に変換して、ピクセルアレイ253内のピクセルに提供され、画像ストリームに存在する画像を順次表示する。ブリッジIC267は、例えば、レベルシフタ、タイミング、およびアナログ関数発生器を含み得る。一般に、ブリッジIC267は、ビデオソースシステム266からの入力として、画像ストリーム信号(例えば、デジタル信号)、同期情報、タイミング情報などのうちの1または複数を取ることにより行および列ドライバ回路256および258をバイアスするためのタイミングおよびデータ信号を生成し得る。
ディスプレイシステム200bはまた、情報を生成してビデオソースシステム266に伝送し返すなどのために、図示された例では別個のマイクロコントローラ261を含むが、他の実施形態は、そのようなマイクロコントローラをディスプレイシステム200bの一部として含み得ない(例えば、1または複数のそのようなマイクロコントローラが、ディスプレイデバイスの1または複数の他のシステムの一部であるか、または代わりに特定の実施形態では実装されない場合)。図示された実施形態では、マイクロコントローラ261は、制御データポート268(例えば、USBポート)に結合され、それを介してディスプレイシステム200bとビデオソースシステム266(または不図示の他の外部システム)との間で双方向制御データを交換し得る。例えば、マイクロコントローラ261が、ピン伝送と同様の方式などで、制御データポートを介してビデオソースシステムからタイミングパケット伝送を受信する場合、マイクロコントローラ261は、タイミング応答パケットを直ちに生成し、それをビデオソースシステムに送信し返し、例えば、ビデオソースシステムが、制御データ伝送経路に沿ってディスプレイシステム200bとの間の通信における往復レイテンシを決定できるようにする。他の状況では、タイミングパケット伝送は、ビデオ入力ポート263を介して(例えば、画像データと共に)ビデオデータ伝送経路に沿って受信され得、その場合、ブリッジIC267は、タイミングパケット伝送をマイクロコントローラ261に転送して、タイミング応答を生成および送信し得、一方、ブリッジIC267は、さもなければビデオソースシステム266からブリッジIC267へのビデオデータ伝送経路に沿った伝送時間を測定する際に使用するためなどに、ピクセルアレイ253上の表示用に画像データを準備している。加えて、いくつかの実施形態において、マイクロコントローラ261は、ディスプレイシステム200bを含むHMDデバイスまたは他のデバイスの最新の追跡情報などの更なる情報(例えば、ディスプレイシステムが実装されるディスプレイデバイスの位置および/または向き情報)を、制御データポート268を介してビデオソースシステムに更に伝送し得るが、他の実施形態において、HMDデバイスまたは他のディスプレイデバイスの他の構成要素(不図示)は、そのような追跡情報を生成および/または伝送し得る。HMDデバイスまたは他のディスプレイデバイスから伝送される情報は、更に他の実施形態において、例えば、着用者のユーザの瞳孔および/または視線方向情報、HMDデバイスまたは他のディスプレイデバイスの他のステータス情報(例えば、バッテリーレベル、IMU加速度データなど)などを含み得る。ブリッジIC267および/またはマイクロコントローラ261は、メモリ、I/Oインタフェース、通信システムなど、ならびに1または複数のプロセッサ(例えば、1または複数の中央処理ユニット(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定の用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィックス処理ユニット(GPU)、その他のプログラマブル回路、上記の組み合わせなど)を含み得る。
図3は、説明される技術の少なくともいくつかを実行するための例示的なデバイスおよびシステムを示すブロック図である。特に、図3は、追跡ベースのディスプレイマネージャ(「TDM」)システム340の実施形態を実行することなどにより、画像が対応しているディスプレイデバイスの追跡された位置に関する関連情報(例えば、1または複数の関連する追跡関連時間)を含む表示用のシミュレート環境の画像を生成および提供するための少なくともいくつかの説明される技術を実行するのに適した1または複数のコンピューティングデバイス300を含む。加えて、図3は、ディスプレイデバイスの電子回路または1または複数の他の関連するコンピューティングデバイス(不図示)上で実行されるTDMシステムの画像追跡データデコーダ構成要素344の制御下など画像を表示し得る1または複数のディスプレイデバイス380も含む。ディスプレイデバイス380のうちの1または複数の位置追跡の実行を支援するため、画像レンダリングシステム335および/またはディスプレイデバイス380などによって使用される画像または他の情報を提供するためなど、1または複数の任意の他のデバイス390も示される。様々なデバイスは、1または複数のコンピュータネットワークまたは他の接続385(例えば、インターネット、1または複数の携帯電話ネットワーク、テザーまたは他のケーブル、ローカル無線接続など)を介して相互接続され、コンピューティングシステム、デバイス、およびそれらに実装されているその他のシステムまたは構成要素間の通信を可能にすることを含む。
例示的なコンピューティングデバイス300はそれぞれ、1または複数のハードウェアプロセッサ305(例えば、1または複数のCPU、または中央処理ユニット、プロセッサなど)、様々な入力/出力(「I/O」)構成要素310、ストレージ320、およびメモリ330を含み、1または複数のディスプレイデバイス380上の表示動作を管理するビデオサブシステム370を有する。ビデオサブシステム370は、1または複数のGPU(またはグラフィック処理ユニット)および関連するVRAM(ビデオRAM)を含み、大量のビデオフレームデータ(各ビデオフレームの高い画像解像度、および毎秒のそのようなビデオフレームの約60~180の高い「フレームレート」に対応する)を提供するなどして、高品質のゲームまたはその他の画像表示エクスペリエンスを実装するが、ただし、他の実施形態において、別個のビデオサブシステムが提供されまたは使用され得ない。この例示的な実施形態における図示されたI/O構成要素は、ディスプレイ311、ネットワーク接続312、コンピュータ可読媒体ドライブ313、および他のI/Oデバイス315(例えば、キーボード、マウスまたはその他のポインティングデバイス、マイク、スピーカ、触覚出力、ハンドヘルド無線またはその他のコントローラ、IRトランスミッタおよび/または受信器、その他のフォトセンサ、GPS受信器またはその他の位置決定デバイス、瞳孔および/または視線追跡構成要素など)を含み、-そのようなI/O構成要素は、例えば、音声制御、ジェスチャー制御などを含む、様々な種類のインタラクションを可能にし得る。コンピューティングデバイス300に関して示された様々な詳細は、デバイス350または390に関して示されていないが、デバイス350および390は、ディスプレイデバイス380が構成要素344の実施形態を実行するように構成された1または複数のプロセッサまたは他の電子回路を任意で含むことを含む、コンピューティングデバイス300と同じ種類の構成要素のいくつかまたはすべてを同様に含み得る。デバイス380は、1または複数の光学レンズ、ハウジング、センサ(例えば、IMU)、他のI/Oデバイス(例えば、1または複数の内部および/または外部カメラ、着用者または他のユーザの耳に音を提供する1または複数のスピーカ、1または複数の瞳孔および/または視線追跡システム、他の種類の移動センサまたは他のセンサなど)など、デバイス300に関して示されていない追加の構成要素を更に含み得る。同様に、他のコンピューティングシステム390のうちの1または複数が、動き追跡および/または画像表示機能を提供するなどのために、エンドユーザデバイス350のうちの1または複数と連携して動作する場合、それらの他のコンピューティングシステムは、デバイス300に関して示されていない追加の構成要素を同様に含み得る。
この例では、TDMシステム340の少なくともいくつかは、関連する画像レンダリングシステム335および任意で1または複数の他のプログラム(不図示)とともに、サーバコンピューティングデバイス300のメモリ330で実行されている。本明細書の他の箇所でより詳細に説明されるように、TDMシステム340は、TDM画像追跡データエンコーダルーチン342などによる関連する追跡関連時間情報および/または他のメタデータを有する画像を生成および/または提供するための少なくともいくつかの説明される技術を実行し得る。次に、そのような画像および関連情報を、1または複数のネットワークまたは他の接続390を介して1または複数のディスプレイデバイス380、HMDデバイス380aおよび/またはハンドヘルドモバイルディスプレイデバイス380b(例えば、スマートフォンまたはラップトップまたはタブレット)などに提供され得る。その動作の一部として、システム340は、ストレージ320などの様々な格納されたデータを生成および/または使用し得、シミュレート環境の画像を生成するために使用するデータ321(例えば、シミュレート環境におけるシミュレート対象物に関する情報)、ディスプレイデバイス380のうちの1または複数の位置追跡データに関するデータ323(例えば、ディスプレイデバイスおよび/または他のデバイス390から受信されるような)、および現在の遅延によって現在の時間と異なる将来の時間で将来の位置を予測またはさもなければ推定する際に使用するための遅延データに関するデータ327を含む。画像レンダリングシステム335は、実施形態において1または複数のゲームを実行する際に使用するためなど、コンピューティングデバイス300または他の箇所(例えば、他のデバイス390の1つ)で追加のデータを更に格納および使用し得、画像レンダリングシステムはゲームシステムの一部であるが、これらの詳細はこの例では示されていない。この例では、プログラムを実行するか、またはさもなければプロセッサ305および/または374とコンピューティングデバイス300を構成して、説明される技術の少なくともいくつかを実装する自動化された動作を実行する場合の、対応するソフトウェア命令などでTDMシステム340は少なくとも一部にソフトウェアシステムとして実装されているが、他の実施形態において他の方式で実装され得る。
ディスプレイデバイス380aおよび/または380bは、図3の図示された実施形態では、コンピューティングデバイス300とは別個で分離されているものとして示されているが、特定の実施形態では、図示されたデバイスのいくつかまたはすべての構成要素は、例えばモバイルゲームデバイス、ポータブルVRエンターテインメントシステムなどの単一のデバイス内に統合および/または収容され得ることが理解されよう。そのような実施形態では、ネットワーク/接続385は、例えば、1または複数のシステムバスおよび/またはビデオバスアーキテクチャを含み得る。
図示されたデバイスは単に例示的なものであり、本発明の範囲を限定することを意図していないことも理解されよう。例えば、コンピューティングデバイス300および/または他のデバイス380および390は、インターネットなどの1または複数のネットワークを介して、またはウェブを介してなどを含み、示されていない他のデバイスに接続され得る。より一般的には、コンピューティングシステムまたはデバイスは、適切なソフトウェアでプログラムされまたはさもなければ構成された場合など、説明された種類の機能をインタラクトおよび実行できるハードウェアの任意の組み合わせを含み得、限定することなく、デスクトップコンピュータ、ラップトップコンピュータ、スレートコンピュータ、タブレットコンピュータまたはその他のコンピュータ、ゲームコンソールまたはその他の専用ゲームシステム、スマートフォンコンピューティングデバイスおよびその他の携帯電話、インターネット機器、PDAおよびその他の電子手帳、データベースサーバ、ネットワークストレージデバイスおよびその他のネットワークデバイス、無線電話、ポケットベル(登録商標)、テレビベースのシステム(例えば、セットトップボックスおよび/またはパーソナル/デジタルビデオレコーダーおよび/またはゲームコンソールおよび/または媒体サーバを使用)、および適切な相互通信機能を有するその他の様々な消費者製品を含む。例えば、図示されたシステム340は、少なくともいくつかの実施形態において、実行可能なソフトウェア命令および/またはデータ構造を含み得、特定のコンピューティングシステムまたはデバイスにロードおよび/または実行される場合、これらのシステムまたはデバイスのプロセッサを構成するなど、これらのシステムまたはデバイスをプログラムまたはさもなければ構成するために使用し得る。代替的に、他の実施形態において、ソフトウェアシステムのいくつかまたはすべてが、別のデバイス上のメモリで実行され、コンピュータ間通信を介して、図示されたコンピューティングシステム/デバイスと通信し得る。加えて、様々なアイテムは、様々な時間で(例えば、使用されている間)メモリまたはストレージに格納されるものとして示されているが、これらのアイテムまたはそれらの一部は、メモリ管理および/またはデータ整合性の目的で、メモリとストレージとの間および/またはストレージデバイス間(例えば、異なる位置)間で転送できる。
従って、少なくともいくつかの実施形態において、図示されたシステムは、プロセッサ305および/または374および/または他のプロセッサ手段によって実行されたときに、そのシステムについて説明された動作を自動的に実行するようにプロセッサをプログラムするソフトウェア命令を含むソフトウェアベースのシステムである。更に、いくつかの実施形態において、システムのいくつか部またはすべては、少なくとも部分的にファームウェアおよび/またはハードウェア手段など、他の方式で実装または提供され得、以下に限定されないが、1または複数のハードウェアプロセッサまたは1または複数の特定の用途向け集積回路(ASIC)などのその他の構成されたハードウェア回路、標準の集積回路、コントローラ(例えば、適切な命令を実行すること、マイクロコントローラおよび/または組み込まれたコントローラを含むことにより)、フィールドプログラマブルゲートアレイ(FPGA)、複雑なプログラマブルロジックデバイス(CPLD)、デジタル信号プロセッサ(DSP)、プログラマブルロジックコントローラ(PLC)などを含む。システムまたはデータ構造のいくつかまたはすべては、非一時的なコンピュータ可読ストレージ媒体に(例えば、ソフトウェア命令コンテンツまたは構造化データコンテンツとして)格納されることもし得、ハードディスクまたはフラッシュドライブまたはその他の不揮発性ストレージデバイス、揮発性または不揮発性メモリ(RAMなど)、ネットワークストレージデバイス、または適切なドライブまたは適切な接続を介して読み取られるポータブル媒体製品(例えば、DVDディスク、CDディスク、光ディスク、フラッシュメモリデバイスなど)などである。システム、モジュール、およびデータ構造はまた、いくつかの実施形態において、様々なコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝播信号の一部として)伝送され得、無線ベースの媒体と有線/ケーブルベースの媒体を含み、様々な形式を取ることができる(例えば、単一または多重化されたアナログ信号の一部として、または複数の個別のデジタルパケットまたはフレームとして)。そのようなコンピュータプログラム製品は、他の実施形態において他の形態を取ることもし得る。従って、本発明は、他のコンピュータシステム構成で実施し得る。
図4は、TDMシステムの画像追跡データエンコーダルーチン400の例示的な実施形態のフロー図である。ルーチンは、例えば、図3の構成要素342および/または例示的な図1A~1Hの例の対応する機能性に関して説明された構成要素の実行によって提供され得、画像が対応する位置追跡に関する追加の関連情報(例えば、追跡された位置が決定される時間または他の関連する時間に基づく)とともにディスプレイデバイス上に表示するためのシミュレート環境の画像を提供するなどする。図示された実施形態は、1または複数のHMDデバイスで説明される技術の使用を説明しているが、これらの技術は、他の実施形態において他の種類のディスプレイデバイスと共に使用し得ることを理解されよう。加えて、ルーチンの例示的な実施形態は、図3の画像レンダリングシステム335などの1または複数の画像レンダリングシステム(例えば、そのような画像レンダリングシステムの一部として)に関連して動作し得、画像レンダリングシステムは、HMDデバイスの最新の追跡された位置および/またはHMDデバイスの推定された将来の位置に基づいて表示された画像を生成またはさもなければば決定または選択し、また、以下に説明するように、図示されたルーチンは、追跡された位置情報および関連するタイミング情報の使用に関連する機能を提供する。
ルーチンの図示された実施形態は、情報または要求が受信されるブロック410で開始する。ルーチンはブロック415に続き、ブロック410で受信された情報または要求が、関連するHMDデバイス上の表示用の画像を提供するための指示であるかどうかを判定する。そうである場合、ルーチンはブロック420に続き、現在の時間(例えば、追跡された位置情報が利用できる最新の時間)または他の指示された時間におけるHMDデバイスの追跡された位置情報を決定し、HMDデバイスから最近供給された情報に基づくおよび/またはHMDデバイスの位置を(例えば、HMDデバイスと連携して動作する位置追跡システムに関連して)アクティブに追跡および監視することによってなどである。ブロック420の後、ルーチンはブロック425に続き、ルーチン400による表示のための画像の生成とHMDデバイス上の画像の実際の表示との間の時間の量の現在の推定値に関する情報を検索し、デフォルト時間、または位置追跡情報が決定され、および/または画像生成で使用されたときから、画像が後で表示されるまでの間の最近決定された実際の遅延時間などである。次に、ブロック410で、ルーチンは、表示用の検索された現在の遅延時間に基づいて、現在のまたは他の指示された時間に遅延時間を追加するなどにより、現在のまたは他の指示された時間との差に対応する将来の時間におけるHMDデバイスの将来の位置を予測する。
次に、ブロック435で、ルーチンは、別個のゲームシステムまたは画像を生じさせる他の画像レンダリングシステムとインタラクトすることなどによって(例えば、推定された将来の位置に関する情報を提供し、1または複数の対応する画像を受信することによって)将来の時間のためのHMDデバイスの予測された将来の位置に対応する、HMDデバイス上に表示するためのシミュレート環境の1または複数の画像を取得する。次に、ブロック440で、ルーチンは、任意で、取得された画像に関連して、現在のまたは他の指示された時間に関する情報を追加し、必要に応じて他の情報を任意で含める。他の箇所でより詳細に説明されるように、関連情報は、例えば、画像のヘッダまたは画像に関連する他のメタデータに格納され得る。ブロック440の後、ルーチンはブロック445に続き、関連情報とともに表示するために1または複数の画像のHMDデバイスへの伝送を開始する。
代わりに、ブロック415で、ブロック410で受信された情報または要求が画像を提供するものではないと決定された場合、ルーチンはブロック490に続き、必要に応じて1または複数の他の指示された動作を実行する。そのような他の動作は、例えば、ブロック425で後で使用するためなど、1または複数の以前に伝送された画像に基づいてHMDデバイスから実際の遅延情報を受信して格納する段階と、ブロック420で後で使用するためなど、HMDデバイスの現在の追跡された位置情報を受信して格納する段階と、セーフモード動作が開始されたという情報をHMDデバイスから受信し、任意でその情報を画像レンダリングシステムに提供する段階などとのうちの1または複数を含み得る。
ブロック445または490の後、ルーチンはブロック495に続き、終了する明示的な指示が受信されるまで継続するなど、継続するかどうかを決定する。継続すると決定された場合、ルーチンはブロック410に戻り、さもなければブロック499に続いて終了する。
図5は、TDMシステムの画像追跡データデコーダルーチン500のフロー図である。ルーチンは、例えば、図3の構成要素344および/または例示的な図1A~1Hの対応する機能性に関して説明された構成要素の実行によって実行され得、例えば、画像が対応する(例えば、追跡された位置が決定される時間または他の関連する時間に基づく)位置追跡に関する追加の関連情報とともにディスプレイデバイス上に表示するために、シミュレート環境の画像を受信し、追加の画像の後の生成に使用するため、および/または画像がディスプレイデバイスにセーフモード動作を開始させるかどうかを決定する際に使用するために、表示の現在の時間までの遅延を決定するようにする。図示された実施形態は、1または複数のHMDデバイスでの説明される技術の使用について説明しているが、説明される技術は、他の実施形態において他の種類のディスプレイデバイスとともに使用し得ることが理解されよう。加えて、ルーチンの例示的な実施形態は、ディスプレイデバイスまたは関連するコンピューティングシステムの他の画像処理および表示回路に関連して動作し得、ルーチンは、シミュレート環境の受信された画像を表示するか、さもなければ1または複数の代替画像を取得して表示するかを決定し、他の画像処理および表示回路は、実際の表示動作を実行する。
図示されたルーチンの実施形態は、情報または要求が受信されるブロック510で開始する。ルーチンはブロック515に続き、HMDデバイス上に表示された画像が受信されたかどうかを判定し、そうである場合、ブロック520に続き、画像が対応するHMDデバイスの追跡された位置について、現在のまたは他の指示された時間に関する画像に関連情報を抽出する。ブロック525で、現在の時間と抽出された追跡関連時間との間の差が決定され、そして、ブロック530で、ルーチンは、将来の画像生成中の遅延情報として使用するためなど決定された実際の時間差に関する情報を画像レンダリングシステムおよび/または図4のルーチン400に(例えば、受信された画像のソースに)任意で格納および/または伝送する。ブロック530の後、ルーチンはブロック535に続き、決定された時間差が定義された閾値を超えるかどうかを判定し、そうでない場合、ルーチンはブロック545に続き、ブロック510で受信された画像の表示を開始する。
さもなければ、ブロック535で、差が定義された閾値を超える(またはルーチンの他の実施形態において他の基準が満たされる)と判定された場合、ルーチンは代わりにブロック550に続き、HMDデバイスのセーフモード動作を開始し、ユーザおよびHMDデバイスの周辺の実際の物理的環境に関する情報を提供するなど、HMDデバイス上に表示する1または複数の代替画像を取得することを含む。他の箇所でより詳細に説明されるように、代替画像は、例えば、実際の物理的環境におけるHMDデバイスまたは他のデバイス上のカメラから取得された画像であり得、物理的環境におけるユーザの実際の位置をユーザに示すなどし、および/または、例えば、HMDデバイス上の1または複数のセンサを使用して決定されるHMDデバイスの向き情報(例えば、慣性測定ユニットデータ)に少なくとも一部に基づいて生成される実際の物理的環境の人工バージョンであり得る。加えて、セーフモード動作の開始は、少なくともいくつかの実施形態において、さもなければユーザに警告または通知するなどの他の動作を実行することを含み得、(例えば、セーフモード動作に関する情報を画像レンダリングシステムおよび/またはルーチン400に伝送することなどによって)追加の画像を生成する際に画像レンダリングシステムの動作を一時停止する。ブロック550の後、ルーチンはブロック555に続き、HMDデバイス上での代替画像の表示を開始する。
ブロック545または555の後、ルーチンはブロック570に続き、任意でHMDデバイスの現在の追跡された位置情報を取得および/または画像レンダリングシステムに送信し(例えば、HMDデバイスおよび/または実際の物理的環境の他のデバイスによって実行される追跡に基づいて)、その追跡された位置情報に対応する後の画像生成での使用のためなどである。
代わりに、ブロック515で、ブロック510で受信された情報または要求が画像を表示することではないと決定された場合、ルーチンは代わりにブロック590に続き、必要に応じて1または複数の他の指示された動作を実行する。例えば、そのような他の動作は、現在のまたは最近の遅延情報をリクエスタおよび/またはルーチン400および/または他のエンティティに提供する(例えば、要求に応答して、情報を定期的にプッシュすることによって、またはさもなければ他の指示された基準が満たされたときなど)こと、HMDデバイスの追跡された位置情報を画像レンダリングシステムおよび/またはルーチン400に提供する(例えば、要求に応答して、定期的またはさもなければ1または複数の指示された基準が満たされた場合など)こと、セーフモード動作の開始または終了に関する情報をリクエスタおよび/またはルーチン400および/または他のエンティティに提供する(例えば、要求に応答して、定期的に、または他の基準が満たされたときに情報をプッシュすることなど)こと、定義された時間の後、または決定された遅延情報が閾値を超えない(またはさもなければ他の実施形態において他の基準を満たす)追加の画像が受信されたときなど1または複数の関連する基準が満たされたときに、以前に開始されたセーフモード動作を終了することを決定することとのうちの1または複数を含み得る。
ブロック570または590の後、ルーチンはブロック595に続き、終了する明示的な指示が受信されるまでなど、継続するかどうかを決定する。継続すると判定された場合、ルーチンはブロック510に戻り、さもなければブロック599に続いて終了する。
いくつかの実施形態において、上で説明されたルーチンによって提供される機能は、より多くのルーチン間で分割される、またはより少ないルーチンに統合されるなどの代替方法で提供され得ることが理解されよう。同様に、いくつかの実施形態において、図示されたルーチンは、他の図示されたルーチンが代わりにそれぞれそのような機能を欠くまたは含む場合、または提供される機能の量が変更される場合など、説明されているよりも多いまたは少ない機能を提供し得る。加えて、様々な動作が特定の方式で(例えば、逐次または並列に)および/または特定の順序で実行されるものとして示されている場合があるが、当業者は、他の実施形態において、動作が他の順序で、および他の方式で実行され得ることを理解するであろう。同様に、上で説明されたデータ構造は、異なる方式で構造化され得、単一のデータ構造を複数のデータ構造に分割したり、複数のデータ構造を単一のデータ構造に統合したりするなど、データベースまたはユーザインタフェースの画面/ページまたはその他の種類のデータ構造を含むことが理解されよう。同様に、いくつかの実施形態において、図示されたデータ構造は、他の図示されたデータ構造が代わりにそのような情報をそれぞれ欠くまたは含む場合、または格納される情報の量または種類が変更される場合など、説明されるよりも多いまたは少ない情報を格納し得る。
加えて、図面内の要素のサイズと相対位置は、様々な要素の形状と角度を含め、必ずしも縮尺どおりに描かれておらず、いくつかの要素は図面の読みやすさを向上させるために拡大および位置決めされており、少なくともいくつかの要素の特定の形状は、それらの要素の実際の形状または縮尺に関する情報を伝えることなく認識を容易にするために選択されている。加えて、いくつかの要素は、明確さと強調のために省略される場合がある。更に、異なる図面で繰り返される参照番号は、同じまたは同様の要素を意味する場合がある。
上記から、特定の実施形態が例示の目的のために本明細書で説明されたが、本発明の趣旨および範囲から逸脱することなく、様々な修正が行われ得ることが理解されよう。加えて、本発明の特定の態様は、特定の請求項形態で時々提示されるか、または任意の請求項で具現化されない場合があるが、発明者は、利用できるあらゆる請求項形態で本発明の様々な態様を企図する。例えば、本発明のいくつかの態様のみがコンピュータ可読媒体で具現化されるものとして特定の時間に列挙され得るが、他の態様も同様にそのように具現化され得る。
本出願が優先権を主張する、2018年2月15日に出願された米国仮特許出願第15/897,984号は、ここに、参照によりその全体が本明細書に組み入れられる。

Claims (24)

  1. 方法であって、
    1または複数の構成されたハードウェア回路により、かつ、ヘッドマウントディスプレイデバイス上の表示用に、シミュレート環境の1または複数の画像を受信する段階であって、前記1または複数の画像は、第1時間に周囲の実際の環境における前記ヘッドマウントディスプレイデバイスの追跡された位置を使用して生成され、前記第1時間に対応する関連情報を有する、受信する段階と、
    前記1または複数の構成されたハードウェア回路により、かつ、前記1または複数の画像を受信した後であるが、前記ヘッドマウントディスプレイデバイス上に受信された前記1または複数の画像を表示する前に、現在の時間と前記第1時間との間の差が、定義された閾値を超えている、と判定する段階と、
    前記1または複数の構成されたハードウェア回路により、かつ、前記差が前記定義された閾値を超えているという前記判定に応答して、継続中の使用を保護するために前記ヘッドマウントディスプレイデバイスのセーフモード動作を開始する段階であって、前記シミュレート環境の前記受信された1または複数の画像を表示する代わりに、前記周囲の実際の環境を表す、前記ヘッドマウントディスプレイデバイス上の1または複数の他の画像を表示する段階を有する、開始する段階と
    を備える方法。
  2. 画像レンダリングシステムを実装する1または複数のハードウェアプロセッサにより、前記シミュレート環境の前記1または複数の画像を生成する段階であって、
    前記第1時間に前記ヘッドマウントディスプレイデバイスの前記追跡された位置を識別する段階と、
    将来の時間に前記ヘッドマウントディスプレイデバイスの将来の位置を推定する段階であって、前記将来の時間は、前記1または複数の画像を前記生成することと前記ヘッドマウントディスプレイデバイス上の前記1または複数の画像を後で表示することとの間の推定されたレイテンシだけ前記第1時間とは異なる、推定する段階と、
    前記推定された将来の位置に基づく前記シミュレート環境の視野を含む前記1または複数の画像を生じさせる段階と
    を有する、生成する段階と、
    前記1または複数のハードウェアプロセッサにより、表示用に前記ヘッドマウントディスプレイデバイスへ1または複数のネットワーク接続を介して前記1または複数の画像を送信する段階と
    を更に備える、請求項1に記載の方法。
  3. 判定された前記差に少なくとも部分的に基づく前記ヘッドマウントディスプレイデバイス上の表示用の追加の画像を生成する際に前記画像レンダリングシステムによって使用するために、前記1または複数の構成されたハードウェア回路によって、前記画像レンダリングシステムへ前記1または複数のネットワーク接続を介して前記現在の時間と前記第1時間との間の前記判定された差に関する情報を送信する段階と、
    前記1または複数のハードウェアプロセッサによって、前記現在の時間と前記第1時間との間の前記判定された差に関する送信された前記情報を受信する段階と、
    前記1または複数のハードウェアプロセッサによって、前記現在の時間と前記第1時間との間の前記判定された差に少なくとも部分的に基づいて前記推定されたレイテンシを変更する段階と、
    変更された前記推定されたレイテンシだけ現在の時間とは異なる1または複数の追加の将来の時間における前記ヘッドマウントディスプレイデバイスの1または複数の追加の将来の位置を推定する段階と、
    前記1または複数のハードウェアプロセッサによって、前記推定された1または複数の追加の将来の位置に基づく前記シミュレート環境の1または複数の視野を含む、前記シミュレート環境の1または複数の追加の画像を生成する段階と、
    前記1または複数のハードウェアプロセッサによって、表示用の前記ヘッドマウントディスプレイデバイスへ前記1または複数のネットワーク接続を介して前記1または複数の追加の画像を送信する段階と
    を更に備える、請求項2に記載の方法。
  4. 前記1または複数の画像の前記生成は、前記第1時間の後に生じ、前記1または複数の画像にタイムスタンプデータを追加して前記第1時間に対応する前記関連情報を前記1または複数の構成されたハードウェア回路に提供する段階であって、追加された前記タイムスタンプデータは、前記第1時間、または前記推定されたレイテンシだけ前記第1時間とは異なる前記将来の時間、または前記第1時間の後の前記1または複数の画像の前記生成の時間のうちの少なくとも1つを示す、段階を更に有する、
    請求項2または3に記載の方法。
  5. 前記1または複数の構成されたハードウェア回路によって、前記ヘッドマウントディスプレイデバイスを着用したユーザが前記周囲の実際の環境内を移動するときに、前記周囲の実際の環境における前記ヘッドマウントディスプレイデバイスの前記位置を複数の時間において追跡する段階と、前記画像レンダリングシステムへ前記1または複数のネットワーク接続を介して前記追跡からの情報を供給する段階であって、供給された前記情報は、前記第1時間における前記ヘッドマウントディスプレイデバイスの前記追跡された位置を含み、前記ユーザが位置する3次元空間内での前記第1時間における前記ヘッドマウントディスプレイデバイスの位置を示す、段階と、を更に備える、請求項2から4のいずれか一項に記載の方法。
  6. 前記周囲の実際の環境における前記ヘッドマウントディスプレイデバイスの前記位置を追跡する前記段階は、3つの軸に沿って前記ヘッドマウントディスプレイデバイスの向きを決定する段階を更に有し、前記情報を供給する前記段階は、前記3次元空間内の前記位置にいる間の前記3つの軸に沿った前記ヘッドマウントディスプレイデバイスの前記第1時間における向きを示す段階を更に有する、請求項5に記載の方法。
  7. 前記セーフモード動作を開始する前記段階は、ユーザに前記セーフモード動作中に移動することを停止させるために、前記ヘッドマウントディスプレイデバイスを着用している前記ユーザに1または複数の通知を提供する段階を更に有する、請求項1から6のいずれか一項に記載の方法。
  8. 前記周囲の実際の環境の画像を取得するために前記ヘッドマウントディスプレイデバイス上のカメラを使用することにより前記1または複数の他の画像を取得する段階を更に備える、請求項1から7のいずれか一項に記載の方法。
  9. 前記ヘッドマウントディスプレイデバイスの現在の向きに関する追加の情報を取得するために前記ヘッドマウントディスプレイデバイス上の1または複数の慣性測定ユニットを使用することにより前記1または複数の他の画像を取得する段階と、前記現在の向きに関する前記追加の情報に少なくとも部分的に基づき前記周囲の実際の環境の1または複数の要素を示す情報を提供するために前記1または複数の他の画像を生成する段階と、を更に備える、請求項1から8のいずれか一項に記載の方法。
  10. 前記1または複数の構成されたハードウェア回路は、前記ヘッドマウントディスプレイデバイス用のディスプレイシステムの一部である少なくとも1つのハードウェアプロセッサを含み、前記1または複数の画像を受信する前記段階は、前記1または複数の画像を生成する画像レンダリングシステムから少なくとも1つのネットワーク接続を介して前記1または複数の画像を受信する段階を含む、請求項1から9のいずれか一項に記載の方法。
  11. 前記1または複数の構成されたハードウェア回路は、ゲームシステムの一部である少なくとも1つのハードウェアプロセッサを更に含み、受信された前記1または複数の画像は各々、前記画像レンダリングシステムを含む前記ゲームシステム用のゲームプログラムを実行することにより生成されるビデオのフレームである、請求項10に記載の方法。
  12. システムであって、
    ヘッドマウントディスプレイデバイスの1または複数のディスプレイパネルと、
    前記ヘッドマウントディスプレイデバイスの前記1または複数のディスプレイパネル上での表示用の1または複数の画像を受信することであって、前記1または複数の画像は、第1時間に周囲の実際の環境における前記ヘッドマウントディスプレイデバイスの追跡された位置を使用し、前記第1時間に対応する関連情報を有するシミュレート環境の画像レンダリングシステムによって生成され、前記1または複数の画像が前記関連情報を有する、受信することと、
    現在の時間と前記第1時間との間の差を判定し、前記画像レンダリングシステムによる使用のために、判定された前記差に関する情報を送信することと、
    前記判定が、定義された閾値を前記差が超えていることを示す場合、前記ヘッドマウントディスプレイデバイスの動作に対する変更を開始することと、さもなければ前記動作に対する前記変更なしに前記ヘッドマウントディスプレイデバイスの前記1または複数のディスプレイパネル上での受信された前記1または複数の画像の表示を開始することと
    を少なくとも含む自動化された動作を前記システムに実行させるように構成された1または複数のハードウェア回路と
    を備えるシステム。
  13. 前記1または複数の構成されたハードウェア回路のうちの少なくとも1つによって実行されると前記システムに前記自動化された動作のうちの少なくともいくつかを実行させる格納された命令を備える1または複数のメモリを更に備える、請求項12に記載のシステム。
  14. 少なくとも1つのネットワーク接続によって前記ヘッドマウントディスプレイデバイスから分離され、前記画像レンダリングシステムを実行するように構成されたコンピューティングデバイスを更に備え、前記画像レンダリングシステムは、前記判定された差に関する送信された前記情報を受信し、かつ、前記送信された情報に基づき生成される少なくとも1つのビデオフレームを含む前記ヘッドマウントディスプレイデバイス上での表示用の複数のビデオフレームのシーケンスを生成するためのソフトウェアアプリケーションを含み、前記受信された1または複数の画像は、前記複数のビデオフレームの各々であり、前記受信することならびに前記判定することおよび前記送信することは、前記複数のビデオフレームの各々について実行される、請求項12または13に記載のシステム。
  15. 前記自動化された動作は、前記差が定義された閾値を超えている、と判定することを含み、前記ヘッドマウントディスプレイデバイスの前記動作に対する前記変更の前記開始は、前記受信された1または複数の画像を表示する代わりに、前記周囲の実際の環境を表す、前記ヘッドマウントディスプレイデバイス上の1または複数の他の画像を表示する前記ヘッドマウントディスプレイデバイスのセーフモード動作を開始することを含む、請求項12から14のいずれか一項に記載のシステム。
  16. 前記自動化された動作は、前記差が定義された閾値を超えている、と判定することを含み、前記ヘッドマウントディスプレイデバイスの前記動作に対する前記変更の前記開始は、前記判定された差に対応するよう前記ヘッドマウントディスプレイデバイス上での表示用に前記画像レンダリングシステムにより追加の画像の生成を変更すること、または前記判定された差に基づき前記ヘッドマウントディスプレイデバイスのユーザに通知を提供することのうちの少なくとも1つを含む、請求項12から15のいずれか一項に記載のシステム。
  17. ビデオ入力ポートであって、前記ビデオ入力ポートを介して前記1または複数の画像が受信される、ビデオ入力ポートと、制御データポートであって、前記制御データポートを介して前記システムが前記画像レンダリングシステムから1または複数の追加のタイミングパケットを受信する、制御データポートと、を更に備え、前記1または複数の構成されたハードウェア回路は、前記1または複数の追加のタイミングパケットを受信すると直ちに、前記画像レンダリングシステムに前記1または複数の追加のタイミングパケットの送信と前記少なくとも1つのタイミング応答パケットの受信との間の遅延からのタイミング情報を受信させるために前記制御データポートを介して少なくとも1つのタイミング応答パケットを前記画像レンダリングシステムに送信することにより応答するように構成されたマイクロコントローラを含む、請求項12から16のいずれか一項に記載のシステム。
  18. 1または複数の構成されたハードウェア回路によって、ヘッドマウントディスプレイデバイスを着用しているユーザが周囲の物理的環境内を移動するときに、前記ヘッドマウントディスプレイデバイスの位置を追跡する段階と、
    前記1または複数の構成されたハードウェア回路によって、前記ヘッドマウントディスプレイデバイスの前記位置に基づきシミュレート環境の画像を生成する画像レンダリングシステムへ前記追跡からの追跡情報を供給する段階と、
    前記1または複数の構成されたハードウェア回路によって、前記ヘッドマウントディスプレイデバイス上での表示用の前記画像レンダリングシステムによって生成された画像を受信する段階であって、受信された前記画像は、第1時間を示す情報を含み、前記第1時間における前記ヘッドマウントディスプレイデバイスの第1位置から前記シミュレート環境の視野を提供し、前記第1時間における前記第1位置を示す供給された前記追跡情報のデータを使用して生成される、受信する段階と、
    前記1または複数の構成されたハードウェア回路によって、かつ、前記画像を受信した後であるが、前記ヘッドマウントディスプレイデバイス上に前記受信された画像を表示する前に、現在の時間と前記第1時間との差を判定する段階と、
    前記1または複数の構成されたハードウェア回路によって、かつ、定義された閾値を超えていると判定された前記差に応答して、前記周囲の物理的環境内の継続的な移動中に前記ユーザを保護するために前記ヘッドマウントディスプレイデバイスのセーフモード動作を開始する段階であって、
    前記ヘッドマウントディスプレイデバイス上の1または複数のセンサを使用して前記周囲の物理的環境の1または複数の他の画像を取得する段階と、
    前記ヘッドマウントディスプレイデバイス上に、かつ、前記第1位置からの前記シミュレート環境の視野を提供する前記受信された画像の代わりに、前記周囲の物理的環境の取得された前記1または複数の他の画像を表示する段階と
    を有する、開始する段階と
    を備える方法。
  19. 前記1または複数の構成されたハードウェア回路によって、前記ヘッドマウントディスプレイデバイス上で表示用の1または複数の追加の画像を第2時間に生成する段階の一部として、前記生成された1または複数の追加の画像を将来の第3時間における前記ユーザの予測された新しい位置に対応させるために、ある量だけ前記第2時間とは異なる前記将来の第3時間における前記ユーザの前記新しい位置を前記判定された差に応じた距離に少なくとも部分的に基づいて予測する際に使用するための前記判定された差に関する情報を前記画像レンダリングシステムに送信する段階と、
    前記1または複数の構成されたハードウェア回路によって、前記1または複数の追加の画像を受信する段階と、
    前記1または複数の構成されたハードウェア回路によって、前記ヘッドマウントディスプレイデバイス上に前記1または複数の追加の画像を表示する段階と
    を更に備える、請求項18に記載の方法。
  20. 前記画像レンダリングシステムは、前記ヘッドマウントディスプレイデバイスの変更位置に対応する前記シミュレート環境の変更部分を前記ユーザに提示するために前記ヘッドマウントディスプレイデバイス上での表示用に複数のビデオフレームのシーケンスを生成するソフトウェアアプリケーションを含み、前記受信する段階および前記判定する段階は、前記複数のビデオフレームのそれぞれについて実行される、請求項19に記載の方法。
  21. 前記周囲の物理的環境の前記1または複数の他の画像を取得する前記段階は、前記1または複数の他の画像を取得するために前記ヘッドマウントディスプレイデバイスの外部上の前方カメラを使用する段階を有する、請求項18から20のいずれか一項に記載の方法。
  22. 前記周囲の物理的環境の前記1または複数の他の画像を取得する前記段階は、前記ヘッドマウントディスプレイデバイスの現在の向きに関する追加の情報を取得するために前記ヘッドマウントディスプレイデバイス上の1または複数の慣性測定ユニットを使用する段階と、前記現在の向きに関する前記追加の情報に少なくとも部分的に基づき前記周囲の物理的環境の前記ユーザの前の1または複数の障壁を示す情報を提供するために前記1または複数の他の画像を生成する段階とを有する、請求項18から21のいずれか一項に記載の方法。
  23. システムであって、
    1または複数のハードウェアプロセッサと、
    前記1または複数のハードウェアプロセッサのうちの少なくとも1つによって実行された場合、
    前記1または複数のタイミングパケットを受信すると直ちに、ヘッドマウントディスプレイデバイス上の構成されたハードウェア回路に少なくとも1つのタイミング応答パケットを前記システムに送信させるために前記ヘッドマウントディスプレイデバイスに1または複数のタイミングパケットを送信することと、
    前記ヘッドマウントディスプレイデバイスから送信された前記少なくとも1つのタイミング応答パケットを受信し、前記1または複数のタイミングパケットの前記送信と前記少なくとも1つのタイミング応答パケットの前記受信との間の時間の量に少なくとも部分的に基づいて画像レンダリングシステムから前記ヘッドマウントディスプレイデバイスへの通信のレイテンシを決定することと、
    決定された前記レイテンシに基づく量だけ第1時間とは異なる第2時間における前記ヘッドマウントディスプレイデバイスの1または複数のディスプレイパネル上での表示用の1または複数の画像を前記第1時間に生成することであって、前記1または複数の画像は、前記第1時間に周囲の実際の環境における前記ヘッドマウントディスプレイデバイスの追跡された位置を使用して生成され、前記第1時間に対応する関連情報を有する、生成することと、
    前記ヘッドマウントディスプレイデバイスの前記1または複数のディスプレイパネル上での生成された前記1または複数の画像の前記第2時間における表示を生じさせるために、前記生成された1または複数の画像を前記ヘッドマウントディスプレイデバイスに伝送することと
    により前記画像レンダリングシステムの機能を実装することを含む自動化された動作を前記システムに実行させる格納された命令を有する1または複数のメモリと
    を備えるシステム。
  24. 前記格納された命令は更に、前記システムに、
    前記生成された1または複数の画像の前記伝送の後に、前記第2時間と前記ヘッドマウントディスプレイデバイスの前記1または複数のディスプレイパネル上での前記生成された1または複数の画像の表示の実際の時間との間の差を示すために追加の情報を前記ヘッドマウントディスプレイデバイスから受信させ、
    前記決定されたレイテンシを修正して、前記第2時間と前記表示の実際の時間との間の示された前記差を反映させ、
    前記決定されたレイテンシを修正した後の第3時間に、修正済みの前記決定されたレイテンシに基づく量だけ前記第3時間とは異なる第4時間における前記ヘッドマウントディスプレイデバイスの前記1または複数のディスプレイパネル上での表示用の1または複数の追加の画像を生成させ、かつ、
    前記ヘッドマウントディスプレイデバイスの前記1または複数のディスプレイパネル上での前記生成された1または複数の追加の画像の前記第4時間における表示を生じさせるために、前記生成された1または複数の追加の画像を前記ヘッドマウントディスプレイデバイスへ伝送させる、
    請求項23に記載のシステム。
JP2020540331A 2018-02-15 2019-02-01 ディスプレイデバイスの追跡を使用した画像表示制御の方法およびシステム Active JP7276753B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/897,984 2018-02-15
US15/897,984 US10726765B2 (en) 2018-02-15 2018-02-15 Using tracking of display device to control image display
PCT/US2019/016394 WO2019160699A2 (en) 2018-02-15 2019-02-01 Using tracking of display device to control image display

Publications (2)

Publication Number Publication Date
JP2021514070A JP2021514070A (ja) 2021-06-03
JP7276753B2 true JP7276753B2 (ja) 2023-05-18

Family

ID=67542389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020540331A Active JP7276753B2 (ja) 2018-02-15 2019-02-01 ディスプレイデバイスの追跡を使用した画像表示制御の方法およびシステム

Country Status (6)

Country Link
US (1) US10726765B2 (ja)
EP (1) EP3732554B1 (ja)
JP (1) JP7276753B2 (ja)
KR (1) KR102575470B1 (ja)
CN (1) CN111727077B (ja)
WO (1) WO2019160699A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200309560A1 (en) * 2019-03-29 2020-10-01 Honda Motor Co., Ltd. Control apparatus, control method, and storage medium

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
US11158101B2 (en) * 2017-06-07 2021-10-26 Sony Interactive Entertainment Inc. Information processing system, information processing device, server device, image providing method and image generation method
US11048465B2 (en) * 2018-09-18 2021-06-29 Canon Kabushiki Kaisha Imaging display device, wearable device, and imaging display system
US11500455B2 (en) * 2018-10-16 2022-11-15 Nolo Co., Ltd. Video streaming system, video streaming method and apparatus
KR20210014819A (ko) * 2019-07-30 2021-02-10 삼성디스플레이 주식회사 표시 장치 및 이를 포함하는 가상 현실 표시 시스템
US11315326B2 (en) * 2019-10-15 2022-04-26 At&T Intellectual Property I, L.P. Extended reality anchor caching based on viewport prediction
US11620780B2 (en) * 2020-11-18 2023-04-04 Microsoft Technology Licensing, Llc Multiple device sensor input based avatar
WO2024010220A1 (ko) * 2022-07-06 2024-01-11 삼성전자 주식회사 거리 센서 활성화 방법 및 전자 장치
CN116808567B (zh) * 2023-07-03 2024-02-06 天津大学 一种基于虚拟现实的模拟行走系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048237A (ja) 2007-08-13 2009-03-05 Canon Inc 画像処理装置、画像処理方法
JP2010029393A (ja) 2008-07-28 2010-02-12 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム機
US20120075167A1 (en) 2010-09-29 2012-03-29 Eastman Kodak Company Head-mounted display with wireless controller
WO2015098292A1 (ja) 2013-12-25 2015-07-02 ソニー株式会社 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム
US20170123747A1 (en) 2015-10-29 2017-05-04 Samsung Electronics Co., Ltd. System and Method for Alerting VR Headset User to Real-World Objects
JP2017119032A (ja) 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742264A (en) * 1995-01-24 1998-04-21 Matsushita Electric Industrial Co., Ltd. Head-mounted display
JPH08292394A (ja) * 1995-01-24 1996-11-05 Matsushita Electric Ind Co Ltd 頭部搭載型画像表示装置
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US8629784B2 (en) 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US20120212484A1 (en) 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content placement using distance and location information
US8780014B2 (en) 2010-08-25 2014-07-15 Eastman Kodak Company Switchable head-mounted display
US9111498B2 (en) 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
JP5691568B2 (ja) 2011-01-28 2015-04-01 ソニー株式会社 情報処理装置、報知方法及びプログラム
US8223024B1 (en) 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9255813B2 (en) 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
US9096920B1 (en) 2012-03-22 2015-08-04 Google Inc. User interface method
GB2501768A (en) 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Head mounted display
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
US9812046B2 (en) 2013-01-10 2017-11-07 Microsoft Technology Licensing, Llc Mixed reality display accommodation
US9202313B2 (en) 2013-01-21 2015-12-01 Microsoft Technology Licensing, Llc Virtual interaction with image projection
US9063330B2 (en) * 2013-05-30 2015-06-23 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
US10019057B2 (en) 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9094677B1 (en) 2013-07-25 2015-07-28 Google Inc. Head mounted display device with automated positioning
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
CN106537290B (zh) 2014-05-09 2019-08-27 谷歌有限责任公司 与真实和虚拟对象交互的基于生物力学的眼球信号的系统和方法
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
US9990774B2 (en) 2014-08-08 2018-06-05 Sony Interactive Entertainment Inc. Sensory stimulus management in head mounted display
US9984505B2 (en) * 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display
KR102667544B1 (ko) 2014-11-05 2024-05-20 밸브 코포레이션 가상 현실 환경에서 사용자를 안내하기 위한 감각 피드백 시스템 및 방법
CN106662750B (zh) 2015-02-17 2021-03-12 奥斯特豪特集团有限公司 透视计算机显示系统
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US9690374B2 (en) 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
EP3133468A1 (en) 2015-08-17 2017-02-22 Samsung Electronics Co., Ltd. Virtual reality headset for notifying an object and method thereof
US10432988B2 (en) * 2016-04-15 2019-10-01 Ati Technologies Ulc Low latency wireless virtual reality systems and methods
US10617956B2 (en) 2016-09-30 2020-04-14 Sony Interactive Entertainment Inc. Methods for providing interactive content in a virtual reality scene to guide an HMD user to safety within a real world space
WO2018152690A1 (zh) 2017-02-22 2018-08-30 深圳市卓梦科技有限责任公司 一种探测障碍物的专利信息推送方法以及vr头盔
WO2018152689A1 (zh) 2017-02-22 2018-08-30 深圳市卓梦科技有限责任公司 一种探测障碍物技术的数据采集方法以及vr头盔

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048237A (ja) 2007-08-13 2009-03-05 Canon Inc 画像処理装置、画像処理方法
JP2010029393A (ja) 2008-07-28 2010-02-12 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム機
US20120075167A1 (en) 2010-09-29 2012-03-29 Eastman Kodak Company Head-mounted display with wireless controller
WO2015098292A1 (ja) 2013-12-25 2015-07-02 ソニー株式会社 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム
US20170123747A1 (en) 2015-10-29 2017-05-04 Samsung Electronics Co., Ltd. System and Method for Alerting VR Headset User to Real-World Objects
JP2017119032A (ja) 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200309560A1 (en) * 2019-03-29 2020-10-01 Honda Motor Co., Ltd. Control apparatus, control method, and storage medium

Also Published As

Publication number Publication date
CN111727077B (zh) 2023-09-19
CN111727077A (zh) 2020-09-29
US10726765B2 (en) 2020-07-28
US20190251892A1 (en) 2019-08-15
JP2021514070A (ja) 2021-06-03
EP3732554B1 (en) 2022-10-19
KR102575470B1 (ko) 2023-09-08
WO2019160699A2 (en) 2019-08-22
KR20200120948A (ko) 2020-10-22
EP3732554A2 (en) 2020-11-04
WO2019160699A3 (en) 2020-04-16
EP3732554A4 (en) 2021-08-04

Similar Documents

Publication Publication Date Title
JP7276753B2 (ja) ディスプレイデバイスの追跡を使用した画像表示制御の方法およびシステム
CN108351691B (zh) 用于虚拟图像的远程渲染
JP6860488B2 (ja) 複合現実システム
US10482662B2 (en) Systems and methods for mixed reality transitions
CA2913650C (en) Virtual object orientation and visualization
EP3528097B1 (en) Hybrid world/body locked hud on an hmd
US9288468B2 (en) Viewing windows for video streams
KR101960980B1 (ko) 증강 현실 디스플레이용 최적화 초점 영역
JP7207809B2 (ja) センサ集積回路を含むヘッドマウントディスプレイのためのポジショントラッキングシステム
US20170053447A1 (en) Augmented Reality
US20140368534A1 (en) Concurrent optimal viewing of virtual objects
US11353955B1 (en) Systems and methods for using scene understanding for calibrating eye tracking
KR20210107784A (ko) Ar/vr 환경에서 사용자 관심의 시각적 표시자들
KR20200114922A (ko) 컨트롤러 입력에 따른 회전 구동 제어 방법 및 이를 이용한 헤드 마운티드 디스플레이 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7276753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150