JP6514826B2 - ピクセル速度を用いた電子ディスプレイ安定化 - Google Patents

ピクセル速度を用いた電子ディスプレイ安定化 Download PDF

Info

Publication number
JP6514826B2
JP6514826B2 JP2018513848A JP2018513848A JP6514826B2 JP 6514826 B2 JP6514826 B2 JP 6514826B2 JP 2018513848 A JP2018513848 A JP 2018513848A JP 2018513848 A JP2018513848 A JP 2018513848A JP 6514826 B2 JP6514826 B2 JP 6514826B2
Authority
JP
Japan
Prior art keywords
texture
velocity field
velocity
pixel
rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018513848A
Other languages
English (en)
Other versions
JP2019506015A (ja
Inventor
ドナー,クレイグ
ラロンド,ポール・アルバート
パーカー,エバン・ハーデスティ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019506015A publication Critical patent/JP2019506015A/ja
Application granted granted Critical
Publication of JP6514826B2 publication Critical patent/JP6514826B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

開示の分野
本開示は、概してヘッドマウントディスプレイシステムに関し、より具体的にはヘッドマウントディスプレイシステムにおけるレイテンシ低減動き補償および安定化に関する。
背景
仮想現実(virtual reality)(VR)システムが再現する環境は、物理的存在を、現実世界または想像上の世界の場所において、すべてコンピュータで生成された、この世界の中の「シーン」の3次元(3D)イメージを用いてシミュレートしている。同様に、拡張現実(augmented reality)(AR)システムは、物理的存在を、現実世界において、コンピュータで生成した3Dイメージを、同時に取得した現実世界のイメージに重畳することにより、「拡張する」。このように、VRシステムおよびARシステムはいずれも、現実世界、拡張された世界、または想像上の世界における「存在」の正確な知覚を提供しようとしている。一般的に、この存在の知覚は、左目用ディスプレイと右目用ディスプレイが分離されているヘッドマウントディスプレイ(head mounted display)(HMD)装置を用いることで、容易になる。これらのディスプレイを組合わせることにより、描かれた世界においてシーンの立体または3D表現を提示する。このシーンは、現在のユーザの姿勢(すなわち描かれたシーンの基準座標フレームに対するユーザの頭部の相対的な位置および向き)に基づいてこのシーンがユーザから相対的にどのように見えるかを反映する。
HMDに基づくVRおよびARシステムは、3Dイメージを一連のディスプレイテクスチャ(または「フレーム」)として表示する。各ディスプレイテクスチャは、対応する検出された頭部姿勢に基づいてレンダリングされ、特定期間持続する。しかしながら、一般的にHMD装置の場合ユーザは自由に移動できるので、ユーザの頭部は、テクスチャのレンダリングの開始の時点から、レンダリングされたテクスチャの表示の時点までに、知覚できる程度移動している場合がある。このため、特定の時点でHMD装置に表示されたイメージは、ユーザの頭部の移動から遅れている場合がある。さらに、シーンの中の仮想オブジェクトは「動いている」場合があり、したがって、フレームが正確な時間にレンダリングされた場合、仮想オブジェクトのレンダリングされた位置は、オブジェクトが現れるべき位置とは異なる場合がある。このように、あるシーンの中でユーザが知覚する向き、およびそのシーンの中で知覚するオブジェクトの向きと、そのシーンおよびそれに含まれているオブジェクトの実際の向きとが一致しない場合、ユーザが方向感覚を喪失するかまたは不快感を覚える可能性がある。これはすなわち、「仮想現実酔い」としばしば呼ばれているものである。したがって、ユーザの不快感を軽減または解消し、そうすることにより改善された存在を提供するために、HMDに基づくVRおよびARシステムは、動きから表示までのレイテンシ(motion-to-photon latency)を最小にすることを意図する、すなわち、ユーザの頭部/目が動いた時点と、得られた新たな姿勢からのシーンを表わす光子がユーザの目に入る時点との間のレイテンシを最小にすることを意図する。
添付の図面を参照することにより、当業者は本開示をより深く理解しその数多くの特徴および利点を認識するであろう。異なる図面において使用されている同一の参照符号は、同様または同一のアイテムを示す。
本開示の少なくとも1つの実施形態に従う、ピクセル速度に基づく電子ディスプレイ安定化(EDS)を実現するヘッドマウントディスプレイ(HMD)に基づくディスプレイシステムを示す図である。 本開示の少なくとも1つの実施形態に従う、図1のHMDに基づくディスプレイシステムのハードウェア構成を示すブロック図である。 本開示の少なくとも1つの実施形態に従う、図2のHMDに基づくディスプレイシステムのコンポジタをより詳細に示すブロック図である。 本開示の少なくとも1つの実施形態に従う、一例としてのピクセル速度に基づくEDSプロセスを示すフロー図である。
詳細な説明
以下の説明は、HMDに基づくARおよびVRディスプレイシステムに関連する多数の具体的な実施形態および詳細を提供することにより、本開示の十分な理解を得ることを意図している。しかしながら、本開示は例示にすぎないこれらの具体的な実施形態および詳細に限定される訳ではなく、したがって本開示の範囲は以下の請求項およびその均等物によってのみ限定されることを意図している点が、理解される。さらに、当業者は周知のシステムおよび方法に照らして本開示がその意図する目的と利点のために特定の設計およびその他の必要に応じて代替の多数の実施形態で使用されることを認識するであろうことが、理解される。
図1は、本開示の少なくとも1つの実施形態に従う、現実世界または想像上の世界においてVRまたはAR存在を提供するためのHMDに基づくディスプレイシステム100を示す。ディスプレイシステム100は、ユーザの頭部104の動きに結合されるHMD装置102を含む。一般的には、「ヘッドマウントディスプレイ」の「マウント(mounted:装着される)」という用語が示唆するように、HMD装置102は、ユーザの頭部104にストラップで取付けられるかまたはユーザの頭部104に装着される装置を含み、それにより、HMD装置102は、ユーザの顔の近傍に固定的に配置されるので、ユーザの動きに伴って動く。しかしながら、状況によっては、ユーザが、タブレットコンピュータまたはその他のハンドヘルド装置を自身の顔の近くで保持し、ユーザの頭部に対するハンドヘルド装置の向きがユーザの頭部104が動いても相対的に固定されるようにハンドヘルド装置の動きを制限してもよい。このような場合、このやり方で操作されるハンドヘルド装置は、ユーザの頭部104に物理的な装着具で「装着されて」いる訳ではないが、HMD装置102の実装例とみなすことができる。
HMD装置102は、表面108およびその反対側のもう1つの表面110を有する筐体106と、フェースガスケット109と、一組のストラップまたはハーネス(明確にするために図1には示されていない)とを備える。一組のストラップまたはハーネスは、ユーザの顔が筐体106の表面108に面するように筐体106をユーザの頭部104に装着するためのものである。示されている実施形態において、HMD装置102は、両眼HMDであり、したがって表面108に配置された左目用ディスプレイ112と右目用ディスプレイ114とを有する。ディスプレイ112、114は、別々のディスプレイ装置(すなわち、別々のディスプレイドライバハードウエア要素によって駆動される独立したディスプレイアレイ)として実現されてもよく、または、ディスプレイ112、114は、1つのディスプレイ装置を論理的に分離して得られた領域(たとえば、左目用「半分」と右目用「半分」に論理的に分割された単体のディスプレイアレイ)として実現されてもよい。その他の実施形態において、1つのディスプレイが実現されてもよく、または3つ以上のディスプレイが実現されてもよい。筐体106はさらに、左目用ディスプレイ112と位置合わせされた接眼レンズ116と、右目用ディスプレイ114と位置合わせされた接眼レンズ118とを含む。いくつかの実施形態では、その代わりに、HMD装置102が単眼HMDとして実現されてもよい。すなわち、1つの画像が、左および右の接眼レンズ116、118を通して、またはレンズを介さずに直接、ユーザの両目に対して提示されてもよい。
以下でより詳細に説明するように、ディスプレイシステム100はさらに、HMD装置102で表示するためのイメージを生成するイメージレンダリングシステムを含む。いくつかの実施形態において、イメージレンダリングシステムの構成要素は主としてHMD装置102自身の内部で実装される。たとえば、HMD装置102は、VR/ARアプリケーションを実行し得られたイメージをレンダリングするコンピューティングシステムを含み得る。HMD装置102は、無線または有線接続によりローカルまたはリモートコンピューティングデバイスに接続されてもよい。このコンピューティングデバイスは、VR/ARアプリケーションに関連するさまざまなデータを提供する。このようなデータは、シーンにおいてレンダリングすべきオブジェクト、同じ世界空間で動作しているその他のユーザのパラメータ(たとえば位置)等を記述したデータである。その他の実施形態において、画像レンダリングシステムの構成要素の一部またはすべては、HMD装置102の外部において実装され、表示用のイメージを表わすデータは有線または無線接続を介してHMD装置102に提供されてもよい。
動作時に、ディスプレイシステム100はVRまたはARアプリケーションを実行し、これは、基準座標フレーム(すなわち「世界空間」)に対するHMD装置102(およびユーザの頭部104)の現在の姿勢(すなわち位置および回転向きの一方または両方)を求め、次に、この姿勢に対応する視点から見たシーンのイメージ(すなわち「スクリーン空間」)を生成する。すなわち、ディスプレイシステム100が生成して表示するイメージは、求めたHMD装置102の姿勢に基づいて世界空間をHMD装置102のスクリーン空間にマップする。表示されたイメージは、完全にコンピュータによって生成されたものであってもよく(すなわちVRイメージ)、または、このイメージは、ローカル環境の取得イメージ(たとえばHMD装置102に搭載された1つ以上の画像センサを介して取得したイメージ)と、現在のユーザの姿勢を反映するようにレンダリングされたARオーバレイとの組合わせであってもよく、または、このイメージは、それを通してローカル環境を見ることができる透明な「ディスプレイ」上のARオーバレイであってもよい。図1に示されるように、左側ディスプレイと右側ディスプレイ双方を備えた実装例において、左目固有のイメージのレンダリングおよび左目用ディスプレイ112における表示と、右目固有のイメージのレンダリングおよび右目用ディスプレイ114における表示とを、同時に行なうことにより、表示されたイメージが表わすシーンの立体3D表示を可能にしてもよい。
HMD装置102は、ユーザの頭部104に装着されるか、そうでなければユーザの頭部と連携して動くように制限されているので、動作中、相当な動きの影響を受ける。この動きは、1つ以上の軸(たとえば図示されているx、yおよびz軸)に沿った平行移動、ならびに/またはこの1つ以上の軸に沿った回転(たとえば図示されているロール、ピッチおよびヨー)の形態である。さらに、先に述べたように、表示されたイメージは、「動いている」(すなわち仮想世界空間に対する相対位置が変化する)オブジェクトを含む場合がある。HMD装置102の動き、表示されたイメージ内のオブジェクトの動きが、ディスプレイシステム100のレンダリングおよび表示レイテンシと組合わさると、緩和されない限り事実上ユーザの方向感覚喪失が生じる可能性がある。このため、ディスプレイシステム100は、電子ディスプレイ安定化(electronic display stabilization)(EDS)プロセス120を利用して、HMD装置102の暫定的な動き、および表示されたオブジェクトの暫定的な動きの双方を補償する。
図1はさらに、少なくとも1つの実施形態に従い、ディスプレイシステム100が使用するEDSプロセス120を要約している。示されるように、ディスプレイシステム100は、ディスプレイ112、114ごとに入力テクスチャ122(一般的には「フレーム」または「画像」とも呼ばれる)を、30fps、60fps、120fps等のレートなどの、特定のレートであるXフレーム/秒(fps)でレンダリングする。少なくとも1つの実施形態において、ディスプレイシステム100は、テクスチャ122の各々を、その対応するテクスチャ122を用いてその時点についてのHMD装置102の姿勢に基づいてレンダリングする。2つ以上のテクスチャ122の各セットが組合されて、対応する時点における3Dシーンの眺めを表わす。説明のために、ディスプレイシステム100は、HMD装置102の姿勢を、たとえば30回更新/秒のレートで、すなわち33.33ミリ秒(ms)ごとに1回更新し得るのに対して、テクスチャ122はたとえば120fpsのレートでレンダリングされるため、33.33msごとに生成される更新されたHMD姿勢を用いて、その同一の期間内に片目ごとに生成される4つのテクスチャ122がレンダリングされる。
各入力テクスチャ122がレンダリングされると、ディスプレイシステム100は動き解析プロセス124を実行することにより、入力テクスチャ122内のピクセルごとに速度Vpを求める。以下に説明するように、いくつかの実施形態において、この速度情報は、入力テクスチャ122をレンダリングするアプリケーションによって提供されてもよい。すなわち、イメージ内に表わされるオブジェクトの速度は、予め識別され得るか、そうでなければレンダリングの時点で既知であり得る。この情報が、入力テクスチャ122のレンダリングを担うアプリケーションによって提供されてもよい。その他の実施形態において、入力テクスチャ122についてのピクセル速度は、ピクセル動き推定技術によって求められてもよい。たとえば、処理中の現在のテクスチャ122および1つ以上の予めレンダリングされたテクスチャ122を含む2つ以上のテクスチャ122のシーケンス126にオプティカルフロー解析を適用することによって求められてもよい。
テクスチャ122のピクセルのピクセル速度Vpは、ピクセル速度フィールド128として編成または表現され得る。ピクセル速度フィールド128はエントリのアレイとして実装され得る。各エントリは、テクスチャ122内の対応位置における対応ピクセルのピクセル速度を格納している。さらに、いくつかの実施形態において、ディスプレイシステム100は、深度バッファ、ディープフレームバッファ、または異なるフラグメントの深度を追跡するための他のメカニズムを実装し得る。したがって、テクスチャ122の各ピクセルは、1つ以上のフラグメントを表わし得、さらには破棄されたフラグメントを表わし得る(破棄されたフラグメントはピクセル/仮想オブジェクトの動きのために将来ディスオクルージョン(disocclude)され得るため)。したがって、動き解析プロセス124は、あるピクセルによって表わされ得るフラグメントごとにそのピクセルのピクセル速度を求めることを含み得、したがって速度フィールド128は、1ピクセル当たりの複数のフラグメントのフラグメントごとにピクセル速度を格納し得る。このため、ピクセル速度フィールド128を表わすアレイの各エントリは、そのエントリと関連付けられているピクセルが表わすフラグメントごとに1つずつ、つまり複数のピクセル速度を格納してもよい。
動き解析プロセス124と並行して、ディスプレイシステム100はHMD動き変換プロセス130を実行する。これによって、ディスプレイシステム100は、1つ以上の動きに基づくセンサ(たとえばジャイロスコープ、加速度計、磁力計等)をサンプリングすることにより、世界空間に対するHMD装置102の相対的な現在の動きベクトル(「MVHMD」として示される)を求める。いくつかの実施形態において、この現在の動きベクトルMVHMDは、x、yおよびz軸の1つ以上に沿ったHMD装置102の平行移動の速度もしくは導関数を表わす3動作度(three-degree-of-motion)(3DoF)ベクトル、またはx、yおよびz軸の1つ以上を中心とするHMD装置102の回転(すなわちロール、ピッチおよびヨー)の速度を表わす3DoFベクトルを含み得る。その他の実施形態において、現在の動きベクトルMVHMDは、HMD装置102の平行運動および回転の双方の導関数を表わす6自由度(six-degree-of-freedom)(6DoF)動きベクトルを含む。いくつかの実施形態において、現在の動きベクトルMVHMDは瞬間の動きベクトルとして計算され得るが、その他の実施形態では現在の動きベクトルMVHMDは予測される動きベクトルとして計算され得る。すなわち、未来の時間における(たとえば現在のテクスチャ122が表示されると予想される将来の時点における)HMD装置102の動きが予測される。
現在の動きベクトルMVHMDを求めた後、HMD動き変換プロセス130は、現在の動きベクトルMVHMDを、スクリーン空間におけるHMD装置102の動きの1ピクセル当たりの速度表現に変換する。これによってHMD速度フィールド132が得られる。HMD速度フィールド132は、ピクセル速度フィールド128と同様に、エントリのアレイまたはマトリックスとして実装または表現され得る。各エントリは、対応するピクセル位置と関連付けられており、対応するピクセルの速度(「Vh」として示される)を表わす値を格納している。
ディスプレイシステム100は次に、速度組合せプロセス134を実行する。これによって、ピクセル速度フィールド128とHMD速度フィールド132とが組合せされて正味速度フィールド136を生成する。正味速度フィールド136は、レンダリングされたイメージ内のピクセルの速度およびHMD装置102の速度の双方を考慮した際の各ピクセルの正味相対速度を表わす。したがって、速度フィールド128、132と同様に、正味速度フィールド136は、エントリのアレイまたはマトリックスとして実装または表現され得る。各エントリは、対応するピクセル位置と関連付けられており、正味ピクセル速度Vnetを格納している。正味ピクセル速度Vnetは、そのピクセル位置についてのピクセル速度Vpと、そのピクセル位置についてのHMD速度Vhとの間の正味速度を表わしている(すなわちVnet=Vp+Vh)。複数のフラグメントがそのピクセルによって表わされる場合、エントリはフラグメントごとに正味ピクセル速度Vnetを格納し得る。正味ピクセル速度Vnetは、そのフラグメントについてのピクセル速度Vpを用いて計算される。
正味の1ピクセル当たりの速度がこのように計算されると、ディスプレイシステム100はテクスチャ移動プロセス138を実行する。これによって、現在の入力テクスチャ122のピクセルについての色情報が正味速度フィールド136に基づいて移動されるかそうでなければ修正されて、対応するディスプレイテクスチャ140を生成する。この対応するディスプレイテクスチャ140は、動きベクトルMVHMDが表わすようなユーザの頭部の暫定的な動き、および表示されたイメージ内の仮想オブジェクトの暫定的な動きの双方を補償する。1ピクセル当たりの深度情報も入力テクスチャ122に含まれているかまたは入力テクスチャ122と関連付けられている場合は、深度情報も同様に移動される。説明のために、たとえば、現在の入力テクスチャ122が、スクリーン空間において示された位置に一群のピクセルで構成される仮想オブジェクト142を含むが、右へわずかな速度を有すると仮定する。さらに、ユーザの頭部の、したがってHMD装置102の現在の動きは、左向きおよび下向きのわずかなドリフトであると仮定する。得られた仮想オブジェクト142の正味速度、すなわち、世界空間におけるユーザの視点に対する仮想オブジェクト142の相対的な正味の動きは、右向きおよびわずかに上向きのドリフトである。したがって、正味速度フィールド136を用いた現在の入力テクスチャ122の移動の結果として、仮想オブジェクト142を表わすピクセルは、得られたディスプレイテクスチャ140内で右向きおよび上向きにシフトすることによって、仮想オブジェクト142を、現在の入力テクスチャ122内に見つけられるような仮想オブジェクト142の元の位置146に対するスクリーン空間における相対的な動き補償位置144に提示する。ディスプレイテクスチャ140は次に、(スクリーン空間に対して)相対的な再投影プロセスを経ることによって、HMD装置102で表示すべき最終画像を構築し得る。
分離された右目撮像および左目撮像を備えた実装例では、EDSプロセス120は片目ごとに準備された1つ以上のテクスチャについて並行して実行される。これによって、1対のまたは他の一組のディスプレイテクスチャ140が得られる。ディスプレイテクスチャ140は、同期してHMD装置102のそれぞれのディスプレイ112、114にスキャンアウトされる。単眼ディスプレイを備えた実装例では、EDSプロセス120は1つのディスプレイテクスチャ140を生成する。ディスプレイテクスチャ140は次に、HMD装置102の1つのディスプレイにスキャンアウトされる。
少なくともいくつかのピクセルについて何らかの正味速度があると仮定すると、テクスチャ移動プロセス138の結果としてさまざまなピクセルの位置がシフトして、入力テクスチャ122のレンダリングの開始、および対応するディスプレイテクスチャ140の対応するディスプレイへのスキャンアウトを表わすタイムスパンンについて、ピクセル速度とHMD速度との組合せによる正味の速度変化を反映する。上述のように、入力テクスチャ122は異なる深度の複数のフラグメントを表わし得るため、テクスチャ移動プロセス138はフラグメントごとに、または深度レベルごとに実行され得る。このため、ピクセルの位置がシフトすると、元の入力テクスチャ122では「より近い」フラグメントによって以前は隠蔽されていたフラグメントのディスオクルージョン(disocculusion)がもたらされ得る。このような場合、ディスプレイシステム100が実現するレンダリングプロセスはさらに、テクスチャ移動プロセス138によって生じ得るいずれのディスオクルージョンエラーも取除くディスオクルージョンプロセスの実装を含み得る。
上述のように、入力テクスチャ122は、レンダリング時にサンプリングされるHMD装置102の姿勢に基づいてレンダリングされる。しかし、入力テクスチャ122のレンダリングの開始と、テクスチャ122が表わす画像のスキャンアウトまたは表示との間に、HMD装置102のさらなる動きが生じる場合がある。したがって、入力テクスチャ122は、表示される頃には、その時のHMD装置102の実際の向きを正確に反映していない場合があり、したがって、シーンのユーザの現在の視点を正確に反映していない場合がある。さらに、入力テクスチャ122は動いている仮想オブジェクトを表わす場合があるため、ユーザは、入力テクスチャ122が表示されるであろう頃には、入力テクスチャ122内に表わされる仮想オブジェクトの実際の位置と比較して、世界空間に対して相対的に異なる位置に仮想オブジェクトがあると予想する場合がある。しかし、1ピクセル当たりの正味速度を計算し、次に入力テクスチャ122のピクセルについての色情報を移動させることによって、得られたディスプレイテクスチャ140は、ディスプレイテクスチャ140の表示時に予期されるユーザの視点をより正確に反映し、かつ、ディスプレイテクスチャ140の表示時に動いている仮想オブジェクトの予期される位置をより正確に反映する。
ディスプレイシステム100は、EDSプロセス120を、レンダリング時と表示時との間の暫定的な動きを補償することを試みる1つ以上の表示安定化プロセスと組合せて使用し得る。たとえば、ディスプレイシステム100は、2015年6月12日に出願され「ヘッドマウントディスプレイの電子ディスプレイ安定化(Electronic Display Stabilization for Head Mounted Display)」と題された同時係属中の米国特許出願連続番号第62/174,602号(代理人事件番号:1500−G15012−PR)のEDSプロセスを追加的に使用することがあり、上記米国特許出願の内容全体を引用により本明細書に援用する。
図2は、本開示の少なくとも1つの実施形態に従う、図1のディスプレイシステム100の一例としてのハードウェア構成200を示す。ハードウェア構成200はハードウェアを含み、このハードウェアは、VRまたはARアプリケーション(本明細書において「VR/ARアプリケーション202」と呼ばれる)を実行することにより、ユーザの頭部104またはHMD102の現在の姿勢からのシーンを表わすVRまたはARコンテンツをレンダリングすることに向けられる。VRまたはARコンテンツは、片目ごとに一連のテクスチャを含む。ハードウェア構成200はさらにEDSハードウェアを含み、このEDSハードウェアは、上記一連のテクスチャによって表わされるVRまたはARコンテンツを表示することに向けられ、かつ、EDSプロセス120を実現することにより、レンダリングされたテクスチャ間の暫定頭部回転、およびレンダリングされたテクスチャが表わすビデオ内に存在する動いている仮想オブジェクトの暫定的な動きを補償する。
示されている例において、ハードウェア構成200は、アプリケーションプロセッサ204と、システムメモリ206と、センサハブ208(アプリケーションプロセッサ204が実装する構成要素または機能とは別であり得る)と、慣性管理装置(inertial management unit)(IMU)210とを含む。いくつかの実施形態において、HMD装置102は、視覚的位置推定もしくは視覚的遠隔測定を目的とするまたはAR機能をサポートするローカル環境の取得されたイメージをリアルタイムで表示するために、画像キャプチャを組込んでいてもよい。このような実施形態において、ハードウェア構成200はさらに、たとえば、1つ以上の画像センサ212、214と、構造化された光(structured-light)または飛行時間(time-of-flight)(ToF)型深度センサ216とを含んでもよい。
IMU210は、たとえば、ジャイロスコープ218と磁力計220と加速度計222とを含む、HMD装置102についての姿勢情報を提供するかそうでなければHMD装置102の姿勢の追跡を容易にする1つ以上の慣性センサを含む。Bosch GmBhのSensortec(商標) BMI160は、市場で入手できるIMU210の実装例である。センサハブ208は、IMU210と、画像センサ212、214と、深度センサ216とに結合され、アプリケーションプロセッサ204と、IMU210、画像センサ212、214、深度センサ216、およびディスプレイシステム100のその他のセンサとの間における制御信号およびデータの転送を管理するように動作する。Movidius Ltd.のMyriad(商標)2ビジョン処理ユニット(VPU)は、市場で入手できるセンサハブ208の実装例である。アプリケーションプロセッサ204は、1つ以上の中央処理装置(CPU)、グラフィック処理装置(GPU)、または1つ以上のCPUと1つ以上のGPUとを組合わせたものを含む。Qualcomm IncorporatedのSnapdragon(商標)810MSM8994システムオンチップ(SoC)は、市場で入手できるアプリケーションプロセッサ204の実装例である。
ハードウェア構成200はさらに、コンポジタ224と、左目用ディスプレイ112と、右目用ディスプレイ114とを含む。コンポジタ224は、たとえばASIC、プログラマブルロジックとして、1つ以上のGPUを操作して記載した機能を提供するソフトウェアを実行する1つ以上のGPUとして、またはこれらを組合わせたものとして実装され得る装置である。ハードウェア構成200はさらに、左目用ディスプレイ112を駆動するための左ディスプレイコントローラ228と、右目用ディスプレイ114を駆動するための右ディスプレイコントローラ230とを含み、これらのディスプレイコントローラはコンポジタ224の一部として示されている。コンポジタ224はさらに、本明細書に説明するように、左目用ディスプレイパイプラインおよび右目用ディスプレイパイプラインごとの1つ以上のテクスチャ、ならびにそれらと関連付けられている深度フィールドおよび速度フィールドを格納するためのディープフレームバッファ232を含んでもよい。
動作時に、アプリケーションプロセッサ204は、(たとえばシステムメモリ206に格納されている)VR/ARアプリケーション202を実行することにより、ユーザに対してVR/AR機能を提供する。このプロセスの一部として、VR/ARアプリケーション202は、アプリケーションプロセッサ204または関連付けられたプロセッサを操作することにより、各目の一連のテクスチャ(たとえば図1の入力テクスチャ122)を特定のレンダリングレートでレンダリングする。各テクスチャは、完全にコンピュータで生成されている場合がある視覚コンテンツ、(画像センサ212、214を介して)取得したイメージと、コンピュータによって生成されたオーバレイ、または透明ディスプレイパネルもしくはウィンドウ上でローカル環境内に表示されるコンピュータによって生成されたオーバレイとの組合わせである視覚コンテンツを含む。各テクスチャの視覚コンテンツは、テクスチャが決定された時点における、対応するユーザの頭部の姿勢(またはHMD装置102の姿勢)からのシーンを表わす。したがって、各テクスチャのレンダリングに備えて、アプリケーションプロセッサ204は、IMU210のジャイロスコープ218、磁力計220、および加速度計222から現在のサンプルを取得し、これらの慣性センサの測定値からユーザの頭部の現在の姿勢を求める。現在の姿勢と回転を求めるためにIMU210を用いる代わりにまたはそれに加えて、アプリケーションプロセッサ204は、1つ以上の画像センサまたは深度センサからの情報を用い、1つ以上の視覚遠隔測定または同時位置推定およびマッピング(simultaneous localization and mapping)(SLAM)技術を利用して、現在の姿勢と回転を決定、検証、または修正してもよい。求めた頭部姿勢から、アプリケーションプロセッサ204は、求めた頭部の向きおよび回転からのシーンの立体的な眺めを協働して表わす一対の入力テクスチャをレンダリングする。その後、レンダリングされた一対の入力テクスチャは、ディープフレームバッファ232に格納される。ディープフレームバッファ232は、システムメモリ206の一部であってもよく、別のグラフィックメモリであってもよい。
並行して、コンポジタ224は、レンダリングされたテクスチャに基づいてディスプレイテクスチャ(たとえば図1のディスプレイテクスチャ140)を生成し、生成したディスプレイテクスチャに基づいてディスプレイ112、114を駆動するように、動作する。このプロセスの一部として、コンポジタ224は、本明細書に記載のEDSプロセス120を実現することにより、入力テクスチャ内に存在している1ピクセル当たりの速度およびHMD装置102の現在の動きから1ピクセル当たりの正味速度を求め、これらの1ピクセル当たりの正味速度を反映するように一対の入力テクスチャを修正することにより、一対のディスプレイテクスチャを生成する。この一対のディスプレイテクスチャは、ディスプレイ112、114にディスプレイテクスチャが表示される時点においてユーザの頭部104の動きとイメージ内に表わされた仮想オブジェクトの動きとの間の正味の動きとより整合している。
図3は、本開示の少なくとも1つの実施形態に従う、コンポジタ224の実装例を示す。示されている例において、コンポジタ224は、ディープフレームバッファ232と、動き解析モジュール302と、センサ積分器モジュール304と、変換モジュール306と、速度フィールド組合せモジュール308と、移動モジュール310と、ディスオクルージョンモジュール312とを含む。モジュール302、304、306、308、310および312の各々は、ASICもしくはプログラマブルロジックの一部として、対応するソフトウェアを実行する1つ以上のプロセッサとして、またはそれらの組合せとして実装され得る。これらの構成要素の動作について、図4を参照してより詳細に説明する。
図4は、図1のEDSプロセス120を、図1のHMD装置102ならびに図2および図3のハードウェア構成200の文脈において実現する一例としての方法400を示す。ARまたはVRコンテンツのレンダリングおよび表示に備えてディスプレイシステム100を起動した後、方法400は、ブロック402で、VR/ARアプリケーション202が、HMD装置102の現在のまたは予期される姿勢に基づいて入力テクスチャ322(図3)のレンダリングをトリガすることで開始する。入力テクスチャ322は、写真またはフレームのピクセルごとの色情報(色フィールド323)と、複数のフラグメントを追跡する場合は、ピクセルと関連付けられているフラグメントごとの色情報とを含む。入力テクスチャ322はさらに深度フィールド324(「深度バッファ」としても公知)を含んでいてもよく、深度フィールド324は、ピクセルが表わすフラグメントの一部またはすべての各々について深度値または深度順序を格納する。
ブロック404で、動き解析モジュール302は、入力テクスチャ322および1つ以上の前の入力テクスチャを(表示順に)解析することにより、この1つ以上の前の入力テクスチャおよび現在の入力テクスチャ322から数列で表わされる1つ以上のオブジェクトの動きに基づいて、ピクセルごとに1ピクセル当たりの速度Vpを求める。さまざまな動き解析プロセスのいずれかが利用され得る。たとえば、動き解析モジュール302は、Lucas-Kanade法、Buxton-Buxton法、Black-Jepson法などの1つ以上に基づくオプティカルフローアルゴリズムなどの、さまざまなオプティカルフローアルゴリズムのいずれかを使用して1ピクセル当たりの速度を求めてもよい。使用する動き解析および利用可能な情報に依存して、ピクセル速度Vpは、2D速度(たとえばスクリーン空間を構成するx−y面内のスピードおよび方向)、3D速度(たとえばx−y−z世界空間におけるスピードおよび方向)、または3つの位置軸の1つ以上を中心とする回転速度に加えて3D速度を含み得る。
ブロック406で、動き解析モジュール302は、入力テクスチャ322を構成するピクセルについての1ピクセル当たりの速度Vpを、ピクセル速度フィールド328(図1のピクセル速度フィールド128の1つの実施形態)として、入力テクスチャ322についての色フィールド323と関連しているディープフレームバッファ232にバッファする。上述のように、ピクセルの一部またはすべてが複数のフラグメントと関連付けられている場合があり、その場合、ブロック404および406のプロセスはフラグメントごとに繰返される。この結果、ピクセル速度VPは、対応するピクセルが表わすフラグメントごとにピクセル速度フィールド328に格納され、所与のピクセルについての各ピクセル速度VPとともに、ピクセル速度フィールド328の対応するエントリに深度順に格納される。
ブロック404および406の1つ以上の反復が表わす動き解析プロセスと並行して、ブロック408で、コンポジタ224は、HMD装置102の瞬間の動きまたは予測される動きの一方または両方を表わすHMD動きベクトルMVHMDを求める。このため、1つの実施形態において、センサ積分器モジュール304は、IMU210のセンサの1つ以上からセンササンプル331を連続的に受信し、センササンプル331をスライディングウィンドウバッファ(図示せず)にバッファする。センサ積分器モジュール304は、スライディングウィンドウバッファ内のセンササンプル331の一部またはすべてをフォワード積分することなどによって、変換行列、または四元数に動きベクトルの対を加えたもの、または現在の動きベクトルMVHMDの他の表現を求めるように動作する。利用可能なセンサ情報および特定の構成に依存して、この動きベクトルMVHMDは、1つ以上の軸に沿ったHMD装置102の線速度、1つ以上の軸に沿ったHMD装置102の回転速度、または線速度と回転速度との組合せ(たとえば6DoF動きベクトル)を表わす動きベクトルを表わし得る。
ブロック410で、変換モジュール306は、HMD動きベクトルMVHMDを1ピクセル当たりの速度表現Vhに変換し、得られた1ピクセル当たりのHMD速度VhをHMD速度フィールド330(図1のHMD速度フィールド132の1つの実施形態)に格納する。少なくとも1つの実施形態において、変換モジュール306は、この変換を、HMD動きベクトルMVHMDを、仮想世界空間座標系からスクリーン空間座標系に変換する、仮想世界空間からスクリーン空間への変換を適用することによって実現し得る。いくつかの実施形態において、この変換はホモグラフィ変換として実現され得るが、このアプローチは、シーンが均一の深度にあると仮定する近似に過ぎないであろう。より正確な(かつより計算的に高価な)変換は、各フラグメントの深度を補償すること(各フラグメントを3Dの点として本質的に扱うこと)と、1フラグメント当たりの速度ベクトルからHMD姿勢速度ベクトルを(両方とも仮想世界空間にあると仮定して)引くことにより、HMD関連のフラグメント速度ベクトルを得ることとを含み、このフラグメント速度ベクトルは次に、スクリーン空間速度ベクトルに変換され得る。したがってこのアプローチは、仮想世界空間において速度を追加してから、スクリーン空間に変換する。異なるアプローチでは、速度をまずスクリーン空間に変換してから、スクリーン空間において速度を追加してもよい。
ピクセル速度フィールド328およびHMD速度フィールド330が現在の反復について求められると、ブロック412で、速度フィールド組合せモジュール308は、2つの速度フィールド328、330を組合せることにより、正味速度フィールド332(図1の正味速度フィールド136の1つの実施形態)を生成する。正味速度フィールド332は、ディープフレームバッファ232または他の格納コンポーネントに格納され得る。少なくとも1つの実施形態において、この組合せは、ピクセルごとに、ピクセル速度フィールド328からのピクセル速度Vpを、HMD速度フィールド330からのその同じピクセル位置についてのHMD速度Vhと合計することにより、そのピクセル位置についての対応する正味ピクセル速度Vnetを生成することを含む。ピクセルが複数のフラグメントを表わす場合は、フラグメントごとに異なる正味ピクセル速度Vnetが計算される(すなわち、ピクセル位置PのフラグメントFについてはVnet[P,F]=Vp[P,F]+Vh[P])。
ブロック414で、移動モジュール310は、テクスチャ移動プロセス138の実装を実行することにより、入力テクスチャ322を修正し、1ピクセル当たりの正味速度Vnetを対応するタイムスパンについて正味速度フィールド332に反映する。いくつかの実施形態において、移動プロセス138は2つの方法、すなわち単一ステップ移動プロセス415または複数ステップ移動プロセス417のいずれかで実現され得る。単一ステップ移動プロセス415は、正味の動きを表わす、あまり正確でないが計算的にそれほど複雑ではない態様を表わす。対照的に、複数ステップ移動プロセスは、より正確であるがより計算的に複雑なプロセスを表わす。
単一ステップ移動プロセス415はブロック416によって表わされ、これによって、移動モジュール310は、Lagrangian-Eulerianテクスチャ移動法に基づくまたはSemi-Lagrangian法に基づく移動プロセスなどのさまざまな周知の粒子/速度移動プロセスのいずれかを用いて、正味速度フィールド332の正味ピクセル速度Vnetを用いて入力テクスチャ322の色情報(色フィールド323)を移動させる。複数のフラグメントがピクセル位置の一部またはすべてによって表わされる場合は、この移動プロセスは深度/フラグメントごとに繰返される。さらに、入力テクスチャ322が1つ以上のフラグメントについての深度情報を含む場合は、深度情報は同様に正味速度フィールド332に基づいて移動されることにより、ピクセルと深度情報との相関関係を維持し得る。このプロセスのために、移動プロセスにおいて表わされるタイムスパンまたはタイムステップは、本明細書に記載のEDSプロセスの結果としての、入力テクスチャ322のレンダリングと、入力テクスチャ322から生成された対応するディスプレイテクスチャ334(図1のディスプレイテクスチャ140の1つの実施形態)のスキャンアウトまたは表示との間の予想される持続期間であってもよく、または当該持続期間に基づいていてもよい。次に、表示画像が処理されてテクスチャがスクリーン空間内に再投影されることにより、対応するディスプレイコントローラを介して表示すべき最終画像が生成され得る。
複数ステップ移動プロセス417は、ブロック418で、複数ステップ移動プロセスの現在のインスタンスで実現すべきタイムステップまたは反復の数を求めることで開始する。少なくとも1つの実施形態において、タイムステップの数は、入力テクスチャのレンダリングレートXの、正味速度フィールド332の計算レートYに対する比に基づいて求められる。説明のために、レンダリングレートが60fpsであり、新たな正味速度フィールド332が120回/秒であると求められた場合は、複数ステップ移動プロセスは事実上120タイムステップ/秒を有することになる。レンダリングレートが60fpsであり、新たな正味速度フィールド332が240回/秒であると求められた場合は、複数ステップ移動プロセスは240タイムステップ/秒を有することになる。
タイムステップの数が求められると、プロセスの1回目の反復がブロック420で開始され、これによって移動モジュール310が現在の入力テクスチャ322の色フィールド323を正味速度フィールド332を用いて移動させることにより、現在の反復についてのディスプレイテクスチャ334(これは次に、以下に記載されるように表示される)を生成する。反復が2回以上あると仮定すると、次にブロック422の2回目の反復で、移動モジュール310は、正味速度フィールド332を正味速度フィールド332自身を用いて移動させる(すなわち正味速度フィールド332を自己移動させる)ことにより、修正された正味速度フィールドを生成する。次のタイムスタンプについては、次の入力テクスチャ322がブロック404でレンダリングされ、ブロック420の2回目の反復で、移動モジュール310は次に、この次の入力テクスチャ322を修正された正味速度フィールドを用いて移動させることにより、第2のディスプレイテクスチャ334を生成する。第3のタイムスタンプがある場合は、修正された正味速度フィールドがブロック422の2回目の反復で自己移動させられることにより、2回修正された正味速度フィールドを生成する。次に、3回目の反復については、ブロック402の3回目の反復でレンダリングされた次の入力テクスチャ322が、ブロック420の3回目の反復で、2回修正された正味速度フィールドを用いて移動させられることにより、第3のディスプレイテクスチャ334を生成する、などである。
入力テクスチャのピクセルの一部またはすべてが複数のフラグメントを表わし得るため、移動プロセスの結果としてピクセルを再位置決めすると、より低い深度で以前にオクルージョンされていたフラグメントのディスオクルージョンがもたらされ得る。計算的な複雑性の軽減が望ましい場合は、これらのディスオクルージョンエラーは無視され得る。しかし、いくつかの実施形態において、ブロック424で、ディスオクルージョンモジュール312は深度フィールド324に表わされた深度情報、複数のフラグメントについての情報、およびさまざまな周知のディスオクルージョンプロセスのいずれかを利用して、移動プロセスの結果として生じ得るディスオクルージョンエラーを取除いてもよい。さらに、いくつかの実施形態において、ディスオクルージョンモジュール312または別のモジュールがモーションブラーを作成することにより、ディスプレイテクスチャ334をディスプレイテクスチャ334が生成された入力テクスチャ322と混合することによって知覚問題を軽減させ、得られた混合テクスチャをディスプレイテクスチャとして用いてもよい。次に、ブロック414の移動プロセスの反復によって生成された(かつブロック424の反復によってディスオクルージョンされ得るおよび/またはモーションブラーされ得る)各ディスプレイテクスチャ334が、ブロック426で、スクリーン空間において再投影されることにより、最終画像または表示画像が生成される。この画像は、ディスプレイ112、114の対応する方にスキャンアウトするために、コンポジタ224によって、対応するディスプレイコントローラ228、230に提供される。
上述の発明の機能性の大部分および発明の原則の多くは、特定用途向けIC(ASIC)などの集積回路を用いたまたはそれにおける実現例によく適している。当業者は、本明細書中に開示される概念および原則によって導かれると、たとえば、利用可能な時間、現在の技術および経済的考慮によって動機付けられるおそらくはかなりの労力および多数の設計上の選択肢にも係わらず、最小限の実験によってそのようなICを生成することが容易に可能であることが期待される。したがって、簡潔さ、ならびに本開示に従う原則および概念を曖昧にする一切のおそれの最小化のため、そのようなソフトウェアおよびICのそれ以上の検討は、もしあるとしても、好ましい実施形態の範囲内の原則および概念に対する必須部分に限定されるであろう。
いくつかの実施形態において、上述の技術のいくつかの態様は、ソフトウェアを実行する処理システムの1つ以上のプロセッサによって実装されてもよい。ソフトウェアは、非一時的なコンピュータ読取可能な格納媒体に格納されるまたは有形に含まれる実行可能な命令の1つ以上のセットを備える。ソフトウェアは、1つ以上のプロセッサによって実行された場合に1つ以上のプロセッサに上述の技術の1つ以上の態様を実行させる命令および特定のデータを含めることができる。非一時的なコンピュータ読取可能な格納媒体は、たとえば、磁気または光ディスク格納装置、フラッシュメモリ、キャッシュ、ランダムアクセスメモリ(RAM)、またはその他の1つまたは複数の不揮発性のメモリ素子など、固体格納装置を含めることができる。非一時的なコンピュータ読取可能な格納媒体に格納された実行可能な命令は、ソースコード、アセンブリ言語コード、オブジェクトコード、または1つ以上のプロセッサによって解釈されるまたは実行可能なその他の命令形式で格納されてもよい。
この文書では、第1および第2などの関係性を表わす用語は、あるエンティティまたは行為を、別のエンティティまたは行為の間の何らかの実際のそのような関係または順序を必ずしも要件としたり暗示したりすることなく当該エンティティまたは行為から区別するためにのみ用いられ得る。「備える」、「備えている」という用語、またはその何らかの他の変形は、非排他的包含をカバーすることが意図されるため、要素の一覧を備えるプロセス、方法、物品、または機器は、それらの要素のみを含むのではなく、明示的に列挙されないまたはそのようなプロセス、方法、物品、もしくは機器に内在的な他の要素を含むことがある。「備える」に続く要素は、それ以上の制約なく、当該要素を備えるプロセス、方法、物品、または機器中の付加的な同一の要素の存在を排除するものではない。本明細書中で用いるような「別の」という用語は、少なくとも第2以降として規定される。本明細書中で用いられるように「含む」および/または「有する」という用語は、備えるとして規定される。電気光学技術を参照して本明細書中で用いるような「結合される」という用語は、必ずしも直接にではなくまた必ずしも機械的ではないが、接続されると規定される。本明細書中で用いるような「プログラム」という用語は、コンピュータシステム上での実行のために設計された命令のシーケンスとして規定される。「プログラム」、「コンピュータプログラム」、「アプリケーション」、または「ソフトウェア」は、サブルーチン、機能、手順、オブジェクト方法、オブジェクト実現例、実行可能なアプリケーション、アプレット、サーブレット、ソースコード、オブジェクトコード、共有ライブラリ/動的負荷ライブラリ、および/またはコンピュータシステム上での実行のために設計される命令の他のシーケンスを含むことがある。
明細書および図面は単なる例示と考えられるべきであり、したがって開示の範囲は以下の請求項およびその均等物によってのみ限定されることが意図される。なお、全般的な説明で上述した活動または要素のすべてを要件とするわけではなく、具体的な活動または装置の一部を要件としないことがあり、説明したものに加えて1つ以上のさらなる活動を行なってもよくまたは1つ以上のさらなる要素を含んでもよい。またさらに、活動が列挙される順序は必ずしもそれらが行なわれる順序とは限らない。以上の描かれたフローチャートの工程は、特段の記載がなければ任意の順序であることができ、実現例に依存して工程を排除、繰返し、および/または追加してもよい。また、具体的な実施形態を参照して概念を説明した。しかしながら、当業者は、以下の請求項に述べるような本開示の範囲から逸脱することなく、さまざまな修正および変更をなすことができることを認める。これに応じて、明細書および図は、制限的な意味よりもむしろ例示と見なされるべきであり、すべてのそのような修正は本開示の範囲内に含まれることが意図される。
具体的な実施形態に関して有利、他の利点、および課題に対する解決策を上述した。しかしながら、何らかの有利、利点、または解決策を想到させ得るまたはより顕著にし得る有利、利点、課題に対する解決策、および何らかの特徴を、任意のまたはすべての請求項の決定的な、要件とされる、または必須の特徴として解釈すべきではない。

Claims (25)

  1. ヘッドマウントディスプレイ(HMD)装置を有するシステムを制御する方法であって、
    第1のテクスチャをレンダリングすることと、
    前記第1のテクスチャのピクセルの少なくともサブセットについてのピクセル速度を有する第1の速度フィールドを求めることと、
    前記HMD装置についての動きベクトルを求めることと、
    前記HMD装置についての前記動きベクトルの1ピクセル当たりの速度表現を含む第2の速度フィールドを求めることと、
    前記第1の速度フィールドと前記第2の速度フィールドとを組合せることにより、第3の速度フィールドを生成することと、
    前記第1のテクスチャおよび前記第3の速度フィールドに基づいて、第2のテクスチャをレンダリングすることと、
    前記第2のテクスチャを前記HMD装置で表示するために出力することとを備える、方法。
  2. 前記第2のテクスチャをレンダリングすることは、
    前記第3の速度フィールドを用いて前記第1のテクスチャのピクセルについての色情報を移動させることにより、前記第2のテクスチャを生成することを含む、請求項1に記載の方法。
  3. 前記第2のテクスチャをレンダリングすることは、
    前記第3の速度フィールドを用いて前記第1のテクスチャのピクセルについての深度情報を移動させることにより、前記第2のテクスチャを生成することをさらに含む、請求項2に記載の方法。
  4. 第3のテクスチャをレンダリングすることと、
    第4のテクスチャをレンダリングすることとをさらに備え、前記第4のテクスチャをレンダリングすることは、
    前記第3の速度フィールドを自己移動させることにより、第4の速度フィールドを生成すること、および
    前記第4の速度フィールドを用いて前記第3のテクスチャのピクセルについての色情報を移動させることにより、前記第4のテクスチャを生成することによって行われ、さらに、
    前記第4のテクスチャを前記HMD装置で表示するために出力することを備える、請求項2に記載の方法。
  5. 前記第2の速度フィールドを求めることは、
    仮想世界空間からスクリーン空間への変換を前記HMD装置についての前記動きベクトルに適用することにより、前記第2の速度フィールドを生成することを含む、請求項1〜4のいずれか1項に記載の方法。
  6. 前記第1のテクスチャのピクセルの少なくともサブセットの各ピクセルは、少なくとも2つのフラグメントの対応するセットと関連付けられており、
    前記第1の速度フィールドを求めることは、少なくとも前記サブセットの各ピクセルについて、前記少なくとも2つのフラグメントの対応するセットの各フラグメントについての前記ピクセルの別のピクセル速度を求めることを含む、請求項1〜5のいずれか1項に記載の方法。
  7. 前記第1のテクスチャをディープフレームバッファに格納することをさらに備え、前記ディープフレームバッファは、前記第1の速度フィールドおよび前記第1のテクスチャのピクセルについての深度情報をさらに含む、請求項6に記載の方法。
  8. 前記第2のテクスチャをレンダリングすることは、
    前記深度情報に基づいて前記第2のテクスチャにおけるディスオクルージョン(disocclusion)エラーを取除くことをさらに含む、請求項7に記載の方法。
  9. 前記第1の速度フィールドを求めることは、
    前記第1のテクスチャを含むテクスチャのシーケンスのオプティカルフロー解析に基づいて前記第1の速度フィールドを求めることを含む、請求項1〜5のいずれか1項に記載の方法。
  10. システムであって、
    少なくとも1つのディスプレイを含むヘッドマウントディスプレイ(HMD)装置と、
    前記HMD装置についての姿勢情報を出力する少なくとも1つのセンサと、
    前記少なくとも1つのセンサに結合されたセンサ積分器モジュールとを備え、前記センサ積分器モジュールは、前記姿勢情報に基づいて前記HMD装置についての動きベクトルを求め、前記システムはさらに、
    前記姿勢情報から求めた前記HMD装置の姿勢に基づいて第1のテクスチャをレンダリングするアプリケーションプロセッサと、
    前記第1のテクスチャのピクセルの少なくともサブセットについてのピクセル速度を有する第1の速度フィールドを求める動き解析モジュールと、
    前記HMD装置についての前記動きベクトルの1ピクセル当たりの速度表現を含む第2の速度フィールドを求める変換モジュールと、
    前記第1の速度フィールドと前記第2の速度フィールドとを組合せることにより、第3の速度フィールドを生成する速度フィールド組合せモジュールと、
    前記第1のテクスチャおよび前記第3の速度フィールドに基づいて第2のテクスチャをレンダリングし、かつ前記HMD装置の前記ディスプレイに前記第2のテクスチャを出力するコンポジタとを備える、システム。
  11. 前記コンポジタは、
    前記第3の速度フィールドを用いて前記第1のテクスチャのピクセルについての色情報
    を移動させることにより、前記第2のテクスチャを生成する移動モジュールを含む、請求項10に記載のシステム。
  12. 前記移動モジュールはさらに、前記第3の速度フィールドを用いて前記第1のテクスチャのピクセルについての深度情報を移動させることにより、前記第2のテクスチャを生成する、請求項11に記載のシステム。
  13. 前記アプリケーションプロセッサはさらに、第3のテクスチャをレンダリングし、
    前記コンポジタはさらに、第4のテクスチャをレンダリングし、前記第4のテクスチャをレンダリングすることは、
    前記第3の速度フィールドを自己移動させることにより、第4の速度フィールドを生成すること、および
    前記第4の速度フィールドを用いて前記第3のテクスチャのピクセルについての色情報を移動させることにより、前記第4のテクスチャを生成することによって行われ、
    前記コンポジタは、前記第4のテクスチャを前記HMD装置で表示するために出力する、請求項11に記載のシステム。
  14. 前記変換モジュールは、ホモグラフィ変換を前記HMD装置についての前記動きベクトルに適用することにより前記第2の速度フィールドを生成することによって、前記第2の速度フィールドを求める、請求項10〜13のいずれか1項に記載のシステム。
  15. 前記第1のテクスチャのピクセルの少なくともサブセットの各ピクセルは、少なくとも2つのフラグメントの対応するセットと関連付けられており、
    前記動き解析モジュールは、少なくとも前記サブセットの各ピクセルについて、前記少なくとも2つのフラグメントの対応するセットの各フラグメントについての前記ピクセルの別のピクセル速度を求めることによって、前記第1の速度フィールドを求める、請求項10〜14のいずれか1項に記載のシステム。
  16. 前記第1のテクスチャ、前記第1の速度フィールド、および前記第1のテクスチャのピクセルについての深度情報を格納するディープフレームバッファをさらに備える、請求項15に記載のシステム。
  17. 前記深度情報に基づいて前記第2のテクスチャにおけるディスオクルージョンエラーを取除くディスオクルージョンモジュールをさらに備える、請求項16に記載のシステム。
  18. 前記動き解析モジュールは、前記第1のテクスチャを含むテクスチャのシーケンスのオプティカルフロー解析に基づいて前記第1の速度フィールドを求める、請求項10〜14のいずれか1項に記載のシステム。
  19. 命令セットを格納している非一時的なコンピュータ読取可能な媒体であって、前記命令は、少なくとも1つのプロセッサによって実行された場合に、前記少なくとも1つのプロセッサを操作してプロセスを実行させ、前記プロセスは、
    第1のテクスチャをレンダリングすることと、
    前記第1のテクスチャのピクセルの少なくともサブセットについてのピクセル速度を有する第1の速度フィールドを求めることと、
    ヘッドマウントディスプレイ(HMD)装置についての動きベクトルを求めることと、
    前記HMD装置についての前記動きベクトルの1ピクセル当たりの速度表現を含む第2の速度フィールドを求めることと、
    前記第1の速度フィールドと前記第2の速度フィールドとを組合せることにより、第3の速度フィールドを生成することと、
    前記第1のテクスチャおよび前記第3の速度フィールドに基づいて、第2のテクスチャをレンダリングすることと、
    前記第2のテクスチャを前記HMD装置で表示するために出力することとを備える、非一時的なコンピュータ読取可能な媒体。
  20. 前記第2のテクスチャをレンダリングすることは、
    前記第3の速度フィールドを用いて前記第1のテクスチャのピクセルについての色情報を移動させることにより、前記第2のテクスチャを生成することを含む、請求項19に記載の非一時的なコンピュータ読取可能な媒体。
  21. 前記プロセスはさらに、
    第3のテクスチャをレンダリングすることと、
    第4のテクスチャをレンダリングすることとを備え、前記第4のテクスチャをレンダリングすることは、
    前記第3の速度フィールドを自己移動させることにより、第4の速度フィールドを生成すること、および
    前記第4の速度フィールドを用いて前記第3のテクスチャのピクセルについての色情報を移動させることにより、前記第4のテクスチャを生成することによって行われ、前記プロセスはさらに、
    前記第4のテクスチャを前記HMD装置で表示するために出力することを備える、請求項20に記載の非一時的なコンピュータ読取可能な媒体。
  22. 前記第2の速度フィールドを求めることは、
    仮想世界空間からスクリーン空間への変換を前記HMD装置についての前記動きベクトルに適用することにより、前記第2の速度フィールドを生成することを含む、請求項19〜21のいずれか1項に記載の非一時的なコンピュータ読取可能な媒体。
  23. 前記第1のテクスチャのピクセルの少なくともサブセットの各ピクセルは、少なくとも2つのフラグメントの対応するセットと関連付けられており、
    前記第1の速度フィールドを求めることは、少なくとも前記サブセットの各ピクセルについて、前記少なくとも2つのフラグメントの対応するセットの各フラグメントについての前記ピクセルの別のピクセル速度を求めることを含む、請求項19〜22のいずれか1項に記載の非一時的なコンピュータ読取可能な媒体。
  24. 前記プロセスはさらに、
    前記第1のテクスチャをディープフレームバッファに格納することを備え、前記ディープフレームバッファは、前記第1の速度フィールドおよび前記第1のテクスチャのピクセルについての深度情報をさらに含む、請求項23に記載の非一時的なコンピュータ読取可能な媒体。
  25. コンピュータによって実行されるプログラムであって、前記プログラムは、前記コンピュータに、請求項1〜9のいずれか1項に記載の方法を実行させる、プログラム。
JP2018513848A 2015-11-20 2016-10-05 ピクセル速度を用いた電子ディスプレイ安定化 Active JP6514826B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/946,983 2015-11-20
US14/946,983 US10026212B2 (en) 2015-11-20 2015-11-20 Electronic display stabilization using pixel velocities
PCT/US2016/055528 WO2017087083A1 (en) 2015-11-20 2016-10-05 Electronic display stabilization using pixel velocities

Publications (2)

Publication Number Publication Date
JP2019506015A JP2019506015A (ja) 2019-02-28
JP6514826B2 true JP6514826B2 (ja) 2019-05-15

Family

ID=57208364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018513848A Active JP6514826B2 (ja) 2015-11-20 2016-10-05 ピクセル速度を用いた電子ディスプレイ安定化

Country Status (10)

Country Link
US (1) US10026212B2 (ja)
EP (1) EP3377960B1 (ja)
JP (1) JP6514826B2 (ja)
KR (1) KR102135808B1 (ja)
CN (1) CN108139807B (ja)
AU (1) AU2016357105B2 (ja)
CA (1) CA2999182C (ja)
DE (1) DE112016005343T5 (ja)
GB (1) GB2557525B (ja)
WO (1) WO2017087083A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
WO2016141373A1 (en) 2015-03-05 2016-09-09 Magic Leap, Inc. Systems and methods for augmented reality
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
CN108604383A (zh) 2015-12-04 2018-09-28 奇跃公司 重新定位系统和方法
CN105807915A (zh) * 2016-02-24 2016-07-27 北京小鸟看看科技有限公司 虚拟鼠标的控制方法、控制装置以及头戴显示设备
US10649211B2 (en) 2016-08-02 2020-05-12 Magic Leap, Inc. Fixed-distance virtual and augmented reality systems and methods
US20180203504A1 (en) * 2017-01-16 2018-07-19 Htc Corporation Movement tracking method and movement tracking system
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
EP3596705A4 (en) 2017-03-17 2020-01-22 Magic Leap, Inc. COLOR VIRTUAL CONTENT DEFORMATION MIXED REALITY SYSTEM AND VIRTUAL CONTENT GENERATION METHOD USING THE SAME
CA3054619C (en) 2017-03-17 2024-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
AU2018233733B2 (en) 2017-03-17 2021-11-11 Magic Leap, Inc. Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
US20180329465A1 (en) * 2017-05-11 2018-11-15 Qualcomm Incorporated System and method for intelligent adjustment of an immersive multimedia workload in a portable computing device
US10914957B1 (en) 2017-05-30 2021-02-09 Apple Inc. Video compression methods and apparatus
WO2019012522A1 (en) 2017-07-11 2019-01-17 Elbit Systems Ltd. SYSTEM AND METHOD FOR CORRECTING A RUNNING DISPLAY EFFECT
IL253432A0 (en) * 2017-07-11 2017-09-28 Elbit Systems Ltd System and method for correcting a rolling display effect
US10762691B2 (en) 2017-09-08 2020-09-01 Microsoft Technology Licensing, Llc Techniques for compensating variable display device latency in image display
EP3454300A1 (en) * 2017-09-12 2019-03-13 HTC Corporation Three dimensional reconstruction method, apparatus and non-transitory computer readable storage medium thereof
LU100596B1 (fr) * 2017-12-27 2019-06-28 Starbreeze Ip Lux Ii S A R L Procede et dispositif d'affichage a faible latence et haut taux de rafraichissement pour afficheurs de realite mixte a haute definition
CN108988974B (zh) * 2018-06-19 2020-04-07 远形时空科技(北京)有限公司 时间延时的测量方法、装置和对电子设备时间同步的系统
CN112513712B (zh) * 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
JP7210180B2 (ja) * 2018-07-25 2023-01-23 キヤノン株式会社 画像処理装置、画像表示装置、画像処理方法、及びプログラム
US10733783B2 (en) * 2018-10-09 2020-08-04 Valve Corporation Motion smoothing for re-projected frames
US11170577B2 (en) * 2018-10-30 2021-11-09 Facebook Technologies, Llc Generating and modifying representations of objects in an augmented-reality or virtual-reality scene
US11403810B2 (en) * 2018-11-02 2022-08-02 Facebook Technologies, Llc. Display engine for post-rendering processing
CN109859258B (zh) * 2019-02-02 2021-02-12 网易(杭州)网络有限公司 界面处理方法及装置、电子设备
US20210192681A1 (en) * 2019-12-18 2021-06-24 Ati Technologies Ulc Frame reprojection for virtual reality and augmented reality
EP4170598A4 (en) * 2020-07-13 2023-11-15 Samsung Electronics Co., Ltd. METHOD AND APPARATUS FOR DISPLAY WITH LATENCY COMPENSATOR POSE PREDICTION IN A MIXED REALITY COMMUNICATION SYSTEM
US12067907B2 (en) 2020-09-23 2024-08-20 Sony Interactive Entertainment Inc. Position information acquisition device, head-mounted display, and position information acquisition method
CN112156467B (zh) * 2020-10-15 2024-07-16 网易(杭州)网络有限公司 虚拟相机的控制方法、系统、存储介质与终端设备
CN115733938A (zh) * 2021-08-31 2023-03-03 北京字跳网络技术有限公司 视频处理方法、装置、设备及存储介质
US20240212535A1 (en) * 2022-12-22 2024-06-27 Microsoft Technology Licensing, Llc Systems and methods for facilitating display misalignment correction based on vergence angle

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5627905A (en) 1994-12-12 1997-05-06 Lockheed Martin Tactical Defense Systems Optical flow detection system
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
US7724258B2 (en) 2004-06-30 2010-05-25 Purdue Research Foundation Computer modeling and animation of natural phenomena
US20060244757A1 (en) 2004-07-26 2006-11-02 The Board Of Trustees Of The University Of Illinois Methods and systems for image modification
US7643034B2 (en) 2006-06-30 2010-01-05 Microsoft Corporation Synthesis of advecting texture using adaptive regeneration
US8773448B2 (en) 2010-04-09 2014-07-08 Intel Corporation List texture
US8823746B2 (en) 2010-10-19 2014-09-02 Apple Inc. System and method for motion blur using velocity vectors
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US8860570B2 (en) 2011-02-03 2014-10-14 SenseTech, LLC Portable wireless personal head impact reporting system
CN102958009B (zh) * 2011-08-26 2017-09-08 中兴通讯股份有限公司 增强现实信息的传输方法和移动增强现实服务器
CN103810356A (zh) * 2012-11-05 2014-05-21 大连力天科技有限公司 基于增强现实技术及lbs功能的移动终端系统
US20140176591A1 (en) * 2012-12-26 2014-06-26 Georg Klein Low-latency fusing of color image data
US9076258B2 (en) 2013-03-14 2015-07-07 Pixar Stylizing animation by example
GB201310367D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
JP6353214B2 (ja) * 2013-11-11 2018-07-04 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
US9311690B2 (en) * 2014-03-11 2016-04-12 Adobe Systems Incorporated Video denoising using optical flow
US9652893B2 (en) * 2014-04-29 2017-05-16 Microsoft Technology Licensing, Llc Stabilization plane determination based on gaze location
CN104156998A (zh) * 2014-08-08 2014-11-19 深圳中科呼图信息技术有限公司 一种基于图片虚拟内容融合真实场景的实现方法及系统
CN104463191A (zh) * 2014-10-30 2015-03-25 华南理工大学 一种基于注意机制的机器人视觉处理方法
US9824498B2 (en) 2014-12-30 2017-11-21 Sony Interactive Entertainment Inc. Scanning display system in head-mounted display for virtual reality
CN104571532B (zh) * 2015-02-04 2018-01-30 网易有道信息技术(北京)有限公司 一种实现增强现实或虚拟现实的方法及装置

Also Published As

Publication number Publication date
EP3377960B1 (en) 2019-10-02
CN108139807B (zh) 2021-03-23
GB2557525A (en) 2018-06-20
US20170148206A1 (en) 2017-05-25
GB2557525B (en) 2021-06-09
EP3377960A1 (en) 2018-09-26
GB201804600D0 (en) 2018-05-09
JP2019506015A (ja) 2019-02-28
AU2016357105A1 (en) 2018-04-19
CA2999182C (en) 2020-09-22
CA2999182A1 (en) 2017-05-26
KR102135808B1 (ko) 2020-07-20
KR20180051607A (ko) 2018-05-16
AU2016357105B2 (en) 2019-02-21
WO2017087083A1 (en) 2017-05-26
CN108139807A (zh) 2018-06-08
DE112016005343T5 (de) 2018-08-02
US10026212B2 (en) 2018-07-17

Similar Documents

Publication Publication Date Title
JP6514826B2 (ja) ピクセル速度を用いた電子ディスプレイ安定化
JP6866297B2 (ja) ヘッドマウントディスプレイの電子ディスプレイ安定化
US11024082B2 (en) Pass-through display of captured imagery
KR102210993B1 (ko) 가상 및 증강 현실 디스플레이 시스템들 및 방법들을 위한 연속 시간 와핑 및 양안 시간 와핑
US9240069B1 (en) Low-latency virtual reality display system
US9588598B2 (en) Efficient orientation estimation system using magnetic, angular rate, and gravity sensors
US10419747B2 (en) System and methods for performing electronic display stabilization via retained lightfield rendering
WO2016073557A1 (en) Minimal-latency tracking and display for matching real and virtual worlds
US11218691B1 (en) Upsampling content for head-mounted displays
CN113362442A (zh) 一种虚拟现实图像的渲染方法、存储介质及虚拟现实设备
US11954786B2 (en) Reprojection for high field rate displays
US11656679B2 (en) Manipulator-based image reprojection
CN117981293A (zh) 具有深度图截取的视角校正
Bond Projecting physical objects into a virtual space using the Kinect and Oculus Rift

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190412

R150 Certificate of patent or registration of utility model

Ref document number: 6514826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250