JP6961018B2 - テンポラル・アンチエイリアシングの中心窩適合 - Google Patents

テンポラル・アンチエイリアシングの中心窩適合 Download PDF

Info

Publication number
JP6961018B2
JP6961018B2 JP2019568103A JP2019568103A JP6961018B2 JP 6961018 B2 JP6961018 B2 JP 6961018B2 JP 2019568103 A JP2019568103 A JP 2019568103A JP 2019568103 A JP2019568103 A JP 2019568103A JP 6961018 B2 JP6961018 B2 JP 6961018B2
Authority
JP
Japan
Prior art keywords
region
jitter
scene
foveal
offset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019568103A
Other languages
English (en)
Other versions
JP2020524331A (ja
Inventor
ホー、クリス
ヤング、アンドリュー
スタフォード、ジェフリー、ロジャー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2020524331A publication Critical patent/JP2020524331A/ja
Application granted granted Critical
Publication of JP6961018B2 publication Critical patent/JP6961018B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/12Indexing scheme for image data processing or generation, in general involving antialiasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、ヘッドマウントディスプレイ(HMD)に提示される仮想現実(VR)環境コンテンツ、ならびに中心窩レンダリングされたVRシーンのアンチエイリアシングのための方法及びシステムに関する。
ヘッドマウントディスプレイ(HMD)を通じて提示される仮想現実(VR)は、消費者が様々なタイプのコンテンツと対話するための一般的な方法になってきている。コンピュータのモニターに表示されるコンピュータ生成画像と同様に、HMDを介してユーザに表示されるVRシーンは、エイリアシングの影響を受ける可能性がある。コンピュータグラフィックスのコンテキストでは、エイリアシングにより、ディスプレイまたはビューポートで曲線または斜めの線のギザギザまたは鋸歯状のエッジが生じる場合がある。一般に、エイリアシングはコンピュータが生成したシーンのリアリズムを損なうものであり、エイリアシングされたシーンに関連する歪みとアーティファクトを減らすべく、特定のアンチエイリアシング技術が開発された。テンポラル・アンチエイリアシングは、これらのアンチエイリアシング手法の1つである。
中心窩領域が周辺領域(複数可)(例えば、非中心窩領域)よりも高い解像度でレンダリングされ得る中心窩レンダリングにより定義されるシーン内でテンポラル・アンチエイリアシングが使用される場合、エイリアシングは周辺領域(複数可)において高い程度で生じ得る。周辺領域(複数可)内でのエイリアシングは、人間の視覚システム(周辺視野または非中心視窩視野など)が依然として調整されて、周辺領域(複数可)に現れるエイリアシングによって引き起こされるアーティファクトを検出し得るため、全体的なVR体験を損なう可能性がある。現在のアンチエイリアシング技術では、中心窩領域と比較して周辺領域(複数可)でより程度の大きいこのエイリアシングに対処することはできない。
こうした状況において、実施形態が生み出される。
本開示の実施形態は、中心窩レンダリングディスプレイ及び/またはビュー内でのテンポラル・アンチエイリアシングの中心窩適合を可能にするための方法及びシステムを提供する。一実施形態では、一連のビデオフレームを含むシーンをレンダリングする操作を含むヘッドマウントディスプレイ(HMD)内のアンチエイリアシングを用いて多重解像度シーンをレンダリングする方法が提供される。この方法は、第1のジッタオフセットを使用してシーンの第1の領域にアンチエイリアシングを適用すること、及び第2のジッタオフセットを使用してシーンの第2の領域にアンチエイリアシングを適用することに関する操作も提供する。さらに、この方法は、シーンの第1の領域及び第2の領域を含む中心窩を生成する操作を提供する。この方法は、HMDに関連付けられたディスプレイ上に表示するために中心窩シーンを送信するための操作をさらに提供する。特定の実施形態によれば、第1の領域は、第2の領域よりも高い解像度に関連付けられている。一実施形態では、いくつかの実施形態によれば、第1の領域に適用される第1のジッタオフセットは、第2の領域に適用される第2のジッタオフセットよりも小さい。
別の実施形態では、ヘッドマウントディスプレイ(HMD)上のアンチエイリアシングを仮想現実(VR)シーンに提供する方法は、中心窩領域及び周辺領域(複数可)を含むVRシーンを生成することを含む。この方法はまた、VRシーン内の頂点の変換行列を取得し、VRシーン内の頂点の位置を判定すること、及び頂点シェーダーによって、頂点に適用するジッタ成分を選択することを含み、頂点がVRシーンの中心窩領域内にあると判定された場合は第1のジッタ成分が選択され、頂点がVRシーンの周辺領域(複数可)内にあると判定された場合は第2のジッタ成分が選択される。この実施形態及び他の実施形態によれば、この方法は、選択されたジッタ成分を、アンチエイリアスVRシーンの頂点の変換行列の変換する行列に適用するための操作、及びHMDに関連付けられたディスプレイに表示するためにアンチエイリアスVRシーンを送信するための操作をさらに含む。
さらに別の実施形態では、VRシーンにHMDでの提示用のアンチエイリアシングを提供するための、非一時的なコンピュータ可読記憶媒体に埋め込まれるコンピュータプログラムが含まれる。コンピュータプログラムは、中心窩領域及び周辺領域(複数可)を含むVRシーンをレンダリングするためのプログラム命令を含む。さらに、コンピュータプログラムは、中心窩領域をアンチエイリアシングするために第1のジッタオフセットを使用して中心窩領域にアンチエイリアシングを適用すること、及び周辺領域(複数可)のアンチエイリアシングのために第2のジッタオフセットを使用して周辺領域(複数可)にアンチエイリアシングを適用することに関するプログラム命令を含む。この実施形態及び他の実施形態によれば、コンピュータプログラムはまた、HMDに関連付けられたディスプレイで提示するために、アンチエイリアス中心窩領域及びアンチエイリアス周辺領域(複数可)を有するVRシーンを送信するためのプログラム命令も含み、中心窩領域に関連付けられた解像度は、周辺領域(複数可)に関連付けられた解像度よりも高く、第1のジッタオフセットは第2のジッタオフセットより小さい。
本開示の他の態様は、本開示の原理を例として示す添付の図面と併せて、以下の詳細な説明から明らかになる。
本開示は、添付の図面と併せて得られる以下の説明を参照することにより最もよく理解され得る。
一実施形態による、2つの解像度を有する仮想現実(VR)コンテンツが提示されているHMDユーザを示している。 同上
特定の実施形態による、中心窩領域、中間中心窩領域、及び周辺領域を有するVRコンテンツが提示されているHMDユーザを示す。 同上
中心窩レンダリングビューの様々な実施形態を示している。 同上 同上 同上 同上 同上 同上 同上
一実施形態による、多重解像度VRシーンをアンチエイリアシングする方法の全体的な流れを示す。
一実施形態による、頂点シェーダーが頂点の位置に応じて異なるジッタオフセットを選択できるようにする方法の全体的な流れを示す。
特定の実施形態による、ビデオフレームの2つの領域のサブピクセルサンプリングの様々な実施形態を示す。 特定の実施形態による、ビデオフレームの2つの領域のサブピクセルサンプリングの様々な実施形態を示す。 特定の実施形態による、ビデオフレームの2つの領域のサブピクセルサンプリングの様々な実施形態を示す。
一実施形態による、所与のプリミティブのサンプリング、ラスタライズ、及びシェーディングの様々な実施形態を示す。 同上 同上
一実施形態による、所与のジッタについてテンポラル・サンプリングを使用するための概念スキームを示す。
特定の実施形態による、異なるジッタ行列からの選択を可能にする方法の実施形態を示す。 同上
一実施形態による、中心窩レンダリングによるテンポラル・アンチエイリアシングのための異なるジッタ行列から選択することを可能にするグラフィックスパイプラインの全体的な概念モデルを示す。
提示された方法及び/またはシステムとともに使用され得るHMDの追加の実施形態を示す。
以下の実施形態は、中心窩レンダリングシステムにテンポラル・アンチエイリアシング(TAA)技術を適合させるための方法、コンピュータプログラム、及び装置を説明する。しかし、これらの特定の詳細の一部またはすべてがなくても本開示を実施できることは、当業者には明らかである。他の例では、本開示を不要に不明瞭にしないために、周知のプロセスの操作は詳細に説明していない。
HMDによって提供される仮想現実(VR)環境は、消費者がコンテンツと対話し、コンテンツ作成者がコンテンツを消費者に配信するための、いっそう一般的になっている媒体である。さらに、VRシーンがより複雑になり、より高い解像度で表示されるようになるにつれて、計算のコストとネットワークのコストの増加が伴う。その結果、HMDを介して表示されるVRシーンのコンピュータグラフィックスレンダリングとアンチエイリアシングの現在の方法を改善することは、エンドユーザのVR体験と同様に、計算リソースとネットワークリソースの両方に関して有益である。
特定のVRシーンをレンダリングする計算及びネットワークのコスト(及び関連する待ち時間)を低下させる1つの方法は、中心窩レンダリングを使用してVRシーンを表示することである。一実施形態によれば、中心窩レンダリングは、他の領域よりも高い解像度、画質、ディテールのレベル、シャープネス、フレームレートなどで表示されるディスプレイ内の領域を定義することができる。これらの実施形態及び他の実施形態によれば、より高い解像度(またはより高い画質、ディテールのレベル、シャープネス、フレームレート)を有する領域は、中心窩領域と呼ばれ得る。さらに、より高レベルの解像度を備えていない領域は、周辺領域、または非中心窩領域と呼ばれる場合がある。
いくつかの実施形態では、中心窩領域は、ディスプレイに対して固定されていても静止していてもよい。そのような実施形態では、中心窩領域は、画面またはディスプレイの中心に向かって配置されてもよい。他の実施形態では、中心窩領域は、画面またはディスプレイに対して動的に配置されてもよい。例えば、いくつかの実施形態では、中心窩領域は、所定の方法で、またはソフトウェアによってプログラムされたものとして、ディスプレイまたは画面内で移動する場合がある。他の実施形態では、動的中心窩領域は、ユーザの注視点(POG)または視線方向を追跡することができる。その結果、ユーザのPOGに対応するディスプレイ内の領域は、必ずしもユーザの視覚体験に悪影響を与えることなく、ユーザのPOGから遠く離れた領域よりも高い画質、ディテールのレベル、及び/またはシャープネスでレンダリングできる。
一部の実施形態では、1つ以上の周辺領域は、中心窩領域が位置しない、画面またはディスプレイ内にあるように、中心窩レンダリングによって定義される。例えば、中心窩領域がディスプレイの中心に向かって位置する場合、周辺領域(複数可)は、ディスプレイの周辺(または少なくともその一部)に向かっているディスプレイの残りの部分を占める。中心窩領域がディスプレイの別の領域に移動する場合、周辺領域(複数可)は、中心窩領域が現在配置されていないディスプレイの残りの部分を埋めるはずである。いくつかの実施形態によれば、周辺領域は、非中心窩領域と呼ばれ得る。
図1A及び図1Bは、2つの解像度R及びRを有するVR環境104内で仮想現実(VR)コンテンツを提示されているHMDユーザ101を示している。図1Aに示される実施形態によれば、HMDユーザ101は、実質的に真っ直ぐ前方に視線102を向けているように示されている。すなわち、HMDユーザ101は、水平方向360度を包含し得るVR環境104内で、前を向いているように示されている。
図1A及び図1Bに示される実施形態によれば、視線HMDユーザ101は、HMDユーザ101が装着するHMD/コンピューティングシステム103内に位置する視線検出コンポーネント(図示せず)によって追跡されている。いくつかの実施形態では、視線情報は、ユーザの目の画像をキャプチャするHMD内にあるカメラを介して取得できる。次に、画像を分析して、ユーザの注視点または視線の方向(例えば、ユーザが現在見ている場所)を判定できる。その結果、HMDユーザ101の視線102に関するリアルタイムの情報を有するHMD/コンピューティングシステム103は、HMDユーザ101の視線102と位置合わせされた中心窩領域106を提供することができる。例えば、中心窩領域106は、HMDユーザ101に対してHMDユーザ101の視線102と同様の方向であるVR環境104内の配置を有するように示されている。さらに、中心窩領域106はRの解像度を有するように示されている。
図1Aには、周辺領域108も示されている。上記のように、周辺領域108は、いくつかの実施形態によれば、中心窩領域と一致しないディスプレイまたは視野内の領域であり、中心窩レンダリング方法またはシステムによって定義され得る。例えば、周辺領域(複数可)は、中心窩領域の外側にあってもよく、中心窩領域を囲んでもよく、中心窩領域に関連しないディスプレイの残りのスペースを埋めてもよい。さらに、非中心窩は、より低い解像度、画質、ディテールのレベル、シャープネス、フレームレートなどによって定義される。
したがって、特定の実施形態によれば、周辺領域108は、HMDユーザ101に表示されるが、HMD/コンピューティングデバイス103によって検出されるHMDユーザ101の視線102に対応しないVR環境104の領域を含むことができる。その結果、周辺領域108は、解像度Rとは異なる解像度RでHMDユーザ101に表示され得る。
いくつかの実施形態によれば、解像度Rは、所与のVRシーンについてRよりも高くてもよい。これらの実施形態では、中心領域106は、HMDユーザ101の視覚体験に悪影響を与えることなく、周辺領域108よりも高い解像度で提供されてもよい。一般的に、人間の視覚システムは、注視点に対して水平方向約5度と垂直方向約5度に関連付けられている領域内の微細なディテールを知覚できるのみである。視野のこの領域は、中心窩と呼ばれる網膜内の領域に投影される。ユーザの中心方向または注視点からの角距離が大きくなると、視力(例えば、微細なディテールを知覚する能力)が急激に低下する。この生理学的現象は、本明細書では中心窩形成と呼ばれる。
中心窩レンダリングは、1つ以上の領域(例えば、中心窩領域)が他の領域より高レベルの解像度、高レベルのディテール、高レベルのテクスチャ、及び/または高レベルのシャープネスによって定義される表示のために、構成、フォーマット、及びレンダリング、ポストレンダリング、及び/またはグラフィックスの処理のパラダイムを提供することにより中心窩形成の現象を活用する。いくつかの実施形態によれば、中心窩領域は、ユーザが現在見ているまたは見ていると予測されるディスプレイの領域に対応するように作成される。他の実施形態では、中心窩領域は、ユーザが目を向けるのにかなりの時間を費やす、静的な様式でディスプレイの中央領域に配置されてもよい。また、前述のように、中心窩レンダリングは、ユーザが注視していない、または注視することが予測されていないディスプレイの領域に対応する非中心窩(例えば周辺)領域を定義できる。本明細書で使用するとき、ディスプレイの非中心窩領域は、周辺領域と呼ばれ得る。しかし、中心窩領域は、ディスプレイの周辺に向かってまたはディスプレイの周辺に近接するディスプレイの領域にレンダリングまたは配置され得ることにも留意されたい。さらに、中心窩レンダリングディスプレイの周辺領域は、ディスプレイの周辺に向かってまたは近接して位置付けまたは配置される必要はないが、そうであってもよい。
ここで企図される実施形態は、ユーザの中心窩形成下の視界(例えば、視線の中心とユーザの中心窩に投影される周囲のフィールド)に関連するディスプレイの領域内のより優れた画質(例えば、解像度、ディテールのレベル(LOD)、シャープネス、フレームレート)のコンテンツをレンダリング及び/または表示することにより、中心窩レンダリングディスプレイ構成を使用することが可能になる。加えて、本明細書で企図される実施形態は、ユーザの視線の中心に関連付けられていないディスプレイの領域(例えば、ユーザの周辺視野領域)で劣った画質であるコンテンツを表示することが可能にされる。結果として、ディスプレイまたは画面全体をフル画質またはフル解像度でレンダリングする場合と比較して、特定のシーンの一部のみをレンダリング及び/または処理して、中心窩レンダリングの下で高画質または高解像度で表示できる。
中心窩レンダリングの技術的利点の1つは、ディスプレイ全体(ディスプレイ上のすべてのピクセルなど)に対して所与のシーンをフル画質(例えば、高解像度、シャープネス、ディテールのレベル、フレームレートなど)でレンダリングすることに関連する計算及びネットワークのコストを削減できることである。フルディスプレイの一部(例えば、20〜50%、5〜75%、25〜40%)のみを高解像度及び/または高画質でレンダリングすることにより、計算リソース(例えば、GPU、CPU、クラウドコンピューティングリソース)及びネットワーキングリソース(例えば、コンピューティングデバイスからのHMDへのデータの送受信、及び/またはHMDとコンピューティングデバイスの組み合わせからリモートサーバーへのデータの送信)を削減し、他の用途に割り当てることができる。
別の実施形態によれば、HMD/コンピューティングデバイスに関連付けられたGPUが所与のシーンのフル解像度ビデオフレームを生成する場合でも、中心窩レンダリング方法及び/またはシステムは、HMDにシーンを表示するのに必要なデータ量の削減を可能にし得る。例えば、GPUがHMDにワイヤレスで接続されているコンピューティングデバイスに関連付けられている場合、本明細書で説明する中心窩レンダリング方法及び/またはシステムは、シーンの特定の領域を表示するためコンピューティングデバイスからHMDに送信されるワイヤレスデータの量を削減できる場合がある。
図1Aに示された実施形態によれば、中心窩領域106は、表示されたまたは可視な領域全体の約30%を表す。表示された総面積の残りは、周辺領域108によって表される。中心窩領域106は、明確にするために形状が長方形であるように示されているが、中心窩領域106は、実施形態の趣旨及び範囲から逸脱せずに任意の数を取得できることに留意されたい。企図される実施形態のいくつかは、図3A〜図3Fを参照して以下に説明される。やはり、中心窩領域106は、表示可能領域または可視領域全体の30%を表すように示されているが、中心窩領域106は、他の実施形態では表示可能領域または可視領域全体の5%〜75%の範囲であり得る。
一実施形態では、周辺領域108は、VRシーンの少なくともある期間について中心窩領域106の解像度Rよりも低い解像度Rを有し得ることが企図される。例えば、Rが1920×1080ピクセル(例えば、1080p)に相当する場合、Rは960×540ピクセル(例えば、540p)に相当し得る。つまり、おおまかには垂直ピクセル数の半分と水平ピクセル数の半分である。結果として、1080(p)の解像度Rを有する中心窩領域106は、約2.074メガピクセルに相当する画像解像度に関連付けられ得る。対照的に、540(p)の解像度Rを有する周辺領域108は、約0.518メガピクセルに相当する画像解像度に関連付けられ、解像度Rに関して約0.25倍の係数の画像解像度の違いを示す。
別の実施形態によれば、中心窩領域106は3840×2160p(4K UHD)の解像度Rに関連付けることができ、周辺領域108は4K UHD未満、例えば、1080(p)、540(p)、360(p)、240(p)などの解像度Rに関連付けられ得ると考えられる。本明細書に提示される方法及びシステムによる他の実施形態で使用され得る任意の他の解像度が存在する。非限定的な例として、中心窩領域106は、以下の解像度によって特徴付けられる解像度Rを有し得ることが考えられる:2160×1200(または片目あたり1080×1200)、1280×720(HD)、1600×900(HD+)、1920×1080(FHD)、2560×1440((W)QHD)、3200×1800(QHD+)、3840×2160(4K UHD)、5120×2880(5K UHD+)、7680×4320(8K UHD)など。
いくつかの実施形態によれば、解像度Rは、Rの解像度よりも低い任意の解像度によって特徴付けられ得る。非限定的な例として、Rは次の解像度で特徴付けられ得る:320×240(240p)、640×360(nHD、360p)、960×540(qHD、540p)、1280×720(HD、720p)、1600×900(HD+)など。R及びRは、様々な実施形態に応じて、VRシーンのコース全体及び/または異なるVRシーン間で変化する可能性があると考えられる。
図1Bは、視線110をVR環境104の左上隅に向けるHMDユーザ101を示している。いくつかの実施形態によれば、視線110は、HMD/コンピューティングデバイス103によって検出され、次いで、視線110に対応する位置にてVR環境104内に中心窩領域112を設けることが可能になる。すなわち、視線110は、HMD/コンピューティング装置103によってリアルタイムで追跡されており、その結果、HMD/コンピューティング装置103は、中心窩領域112が視線110に関連する視線の中心と同じ方向になるように、VR環境をどこで中心窩形成するべきかを判定できる。したがって、図1Aの中心窩領域106の位置と、図1Aの視線102と図1Bの視線110との間の変化を追跡する図1Bの中心窩領域112に関連する新しい位置との間で、移行が存在している。
特定の実施形態は、ユーザの視線方向を追跡する動的中心窩領域を有することが示されたが、他の実施形態は、ユーザの視線方向を追跡しない固定中心窩領域を含み得る。
図2Aは、中心窩領域204、中間中心窩領域206、及び周辺領域208を有するVR環境210内のVRコンテンツが提示されているHMDユーザ101を示す。いくつかの実施形態は、中間中心窩領域206の解像度Rより大きい解像度Rの中心窩領域204を有することができると考えられる。さらに、いくつかの実施形態によれば、解像度Rは、周辺領域208の解像度Rよりも大きいことが意図されている。図1A及び図1Bに示される実施形態と類似して、中心窩領域204はまた、HMDユーザ101の瞬間視線202と一致するVR環境210内の領域を占有するように図2Aに示される。しかし、前述のように、他の実施形態は中心窩領域204及び中間中心窩領域206が表示領域に対して固定され、ユーザの視線方向を追跡する必要がない中心窩レンダリングを実施できる。
図2Aに示される実施形態によれば、中間中心窩領域206は、一般に、VR環境210内の中心窩領域204によって占有される領域を囲む。結果として、中間中心窩領域206は、中心視線から約5°から約60°離れた角距離(偏心)に関連するVR環境210内の領域と一致し得る。視野におけるこの空間に関連する視力(例えば、中間中心窩領域)は、中心窩領域のものよりも劣るが、それでも周辺領域のものに勝っていてもよい(例えば、視線方向の中心に対して約60°を超える偏心を有する)。その結果、本明細書に記載の方法及びシステムは、中心窩領域204と周辺領域208の間の解像度を有する中間中心窩領域206を提供することが可能になる。
一実施形態によれば、中心窩領域204は1080pによって特徴付けられる解像度Rを有し得、中間中心窩領域206は720pによって特徴付けられる解像度Rを有し得、周辺領域208は540pによって特徴付けられ得る。これらの解像度は単なる例であり、中心窩領域204は、例えば4K、8K、16Kなどのより高い解像度を得ることが想定される。これらの実施形態及び他の実施形態では、中間中心窩領域206は、中心窩領域204よりも低い解像度を有し得る一方、周辺領域208は、中間中心窩領域206よりも低い解像度を有する。
中間中心窩領域206は、中心窩領域の中心からVR環境210の周辺206に向けて延びる半径方向軸に関して中心窩領域204と周辺領域208との間にあるVR環境210内の空間を占有することも企図される。中間中心窩領域206及び周辺領域208は、HMDユーザ101の視線202を追跡するか、VR環境210内の中心窩領域204を追跡することも考えられる。つまり、中間中心窩領域204及び周辺領域208はまた、リアルタイムまたはほぼリアルタイムで中心窩領域204と共に移動するか、中心窩領域204とともに移動するように見えるように、VR環境210内で転座することができる。
図2Bは、HMDユーザ101が、図2Aにおいて実質的にまっすぐ前方に向けられた視線202から、VR環境210の左上隅に向けられた視線203に変化したことを示している。いくつかの実施形態では、視線203は、視線検出を介してHMD/コンピューティングシステム103によって追跡され、その結果、HMD/コンピューティングシステム103は、視線203が向けられるのと同様の方向に中心窩領域212を位置決めすることができる。HMD/コンピューティングシステム103は、中心窩領域212が占める領域を囲むVR環境210内の場所に、中間中心窩領域214を配置することも可能である。
上述のように、中心窩領域212は、HMDユーザ101の視野の約5〜75%、またはVR環境210内の表示可能な全空間の5〜75%に対応するように作製されてもよい。さらに、中間中心窩領域214は、様々な実施形態に応じて、例えば、HMDユーザ101の視野の約5〜50%、またはVR環境210の全可視領域の約5〜50%に対応し得る。その結果、周辺領域216は、可視領域の全視野及び/または可視領域全体の40〜90%のいずれかに対応する場合がある。しかし、中心窩領域212、中間中心窩領域214、及び周辺領域216のそれぞれに割り当てられるVR環境210の視野及び/または可視領域の割合は、様々な実施形態に応じて、VRシーン内または異なるVRシーン間で変わり得ることが企図される。
図3A〜図3Hは、中心窩レンダリングビューの様々な実施形態を示している。例えば、図3Aは、円形の境界で特徴付けられる中心窩領域を有する中心窩レンダリングディスプレイを示している。図3Bは、楕円形または長円形または卵形により特徴付けられる中心窩領域を有する、本明細書で説明する方法及びシステムで使用できる中心窩レンダリングビューを示す。さらに、図3Cは、中心窩領域が角の丸い長方形であることが示される、中心窩レンダリング構成の実施形態を示す。
図3D及び図3Eは、円形の中心窩領域を有する中心窩レンダリングビューの実施形態を示す。図3Dは、中心窩領域と周辺領域(複数可)との間の中心窩領域の外側にある、同じく円形の中間中心窩領域をさらに示している。さらに、図3Eは、入れ子状に配置された2つの中間中心窩領域を示している。一般に、様々な実施形態で任意の数の中間中心窩領域を利用することができ、中心窩領域からさらに遠ざかるそれぞれの連続する中間中心窩領域が、それに関連付けられる、次第に低下する画質(例えば、解像度、シャープネス、ディテールのレベル、フレームレート、リフレッシュレートが低くなる)を有すると考えられる。さらに、中間中心窩領域は、中心窩レンダリングディスプレイ内の所与の中心窩領域と同様の形状であるように示されているが、この類似性は、他の実施形態に当てはまる必要はないと考えられる。例えば、図3D及び図3Eの中間中心窩領域は、円以外の形状によって特徴付けられてもよい。
図3Fは、長方形で囲まれた動的中心窩領域を有する中心窩レンダリングビュー及び/またはディスプレイの実施形態を示す。これらの実施形態及び他の実施形態において、ユーザの視線が、長方形で囲むことによって特徴付けられる特定の領域内に留まる限り、HMDユーザの視線方向と一致するディスプレイ及び/またはビューの領域内に中心窩領域が示されるように、中心窩領域はユーザの視線を追跡し得る。その結果、視線が囲んだ長方形の外側に移動するまで、中心窩領域はユーザの視線を追跡できる。いくつかの実施形態によれば、中心窩領域は、他の場所よりも視線に近いと判定される囲んだ長方形内の位置に移動することで、囲んだ長方形の外側にある視線を追跡しようと依然試みてもよい。当然、図3A〜図3Fに示されている幾何学形状と形状は例示的なものであり、限定するものではない。例えば、正方形、台形、ひし形、及び他の多角形を含む、本明細書で説明する方法及びシステムによる、任意の数の他の形状または境界を使用して、中心窩領域及び/または中間中心窩領域を定義することができる。
一般的に言えば、図3A〜図3Eに示される各実施形態は、ディスプレイ及び/またはビューに対して「固定」された中心窩領域、またはそれぞれの中心窩レンダリングビュー及び/またはディスプレイを見るときに動的にユーザの視線を追跡する中心窩領域を有し得る。例えば、特定のタイプのVRコンテンツの場合、HMDユーザが大部分のVRセッションをまっすぐ前方に見ていると予想される場合がある。結果として、特定の実施形態は、ディスプレイ及び/またはVR環境のビューに対して固定された中心窩レンダリングビュー及び/またはディスプレイを使用し得る。
図3Gは、本明細書で説明される方法及びシステムによる中心窩レンダリングを使用して生成されたVRシーン300を示す。中心窩レンダリングは、中心窩領域302及びいくつかの中間中心窩領域304〜310を生成する。中間中心窩領域304〜310の数は、図3Gでは任意であり、中間中心窩領域が中心窩領域から遠ざかって表示されるにつれて、各中間中心窩領域は解像度が連続的に低下する。例えば、中間中心窩領域306は、1から100個の間のいずれかの付加的な中間中心窩領域を含むことができる。
図3Hは、表示領域の解像度と、中心窩領域または注視点からの領域の距離との間の様々な例示的な関係を説明している。例えば、曲線312は、中心窩領域と周辺領域のみを有する中心窩レンダリングディスプレイを描写し得る。曲線314は、解像度と中心窩領域からの距離との間で放物線の関係を有する中心窩レンダリングディスプレイを記述する。曲線316は、中心窩領域から離れるにつれて解像度が低下する階段状の関数を示している。さらに、曲線318及び320は、解像度と中心窩領域からの距離との間の線形及びS字状の関係を記している。結果として、ここで考えられる中心窩レンダリングシステムは、各中間中心窩領域が中心窩領域からさらに離れるにつれて、様々な解像度を有する任意の数の中間中心窩領域をレンダリングすることができる。
図4は、多重解像度VRシーンのアンチエイリアシング方法の全体的な流れを示している。示される実施形態によれば、操作410は、一連のビデオフレームを含むシーンをレンダリングするように機能する。通常、これはグラフィック処理装置(GPU)を使用して実行される。次いで、この方法は、第1のジッタオフセットを使用してシーンの第1の領域にテンポラル・アンチエイリアシングを適用するよう機能する操作420に続く。次に、操作430は、第2のジッタオフセットを使用して第2の領域にテンポラル・アンチエイリアシングを適用するよう機能する。さらに、この方法は次に操作440に続き、シーンの第1及び第2の領域の両方を有するディスプレイにシーンを表示するように機能し、第1の領域は第2の領域よりも高い解像度で表示または関連付けられ、第1のジッタオフセットは、第2のジッタオフセットよりも小さくなっている。
いくつかの実施形態によれば、操作の第1の領域420は、中心窩レンダリングディスプレイ及び/またはビュー内の中心窩領域に対応し、一方で第2の領域430は中心窩レンダリングディスプレイ及び/またはビュー内の周辺領域に対応し得る。例えば、第1の領域の解像度は1080pに相当し得、第2の領域の解像度は540pに相当し得る。
テンポラル・アンチエイリアシングは、シーン内の画像のエイリアシングに関連する視覚的アーティファクトを除去または低減する計算プロセスを記述する。一時的なアンチエイリアシングがシーン内の画像のエイリアシングを減らせる方法の1つは、2以上のフレームにわたってサンプリング位置のジッタを使用してサブピクセルサンプリングを実行することである。
図4に示す方法による実施形態は、異なる解像度に関連付けられた異なる領域に対して異なるジッタオフセットを使用することにより、シーン内の異なる領域の特定の解像度に適合するテンポラル・アンチエイリアシングを実行することができる。例えば、より高い解像度を有する領域(例えば、中心窩領域)は、より小さなジッタオフセットを伴うテンポラル・アンチエイリアシングで適合でき、一方、より低い解像度を有する領域(例えば、周辺領域(複数可))は、より大きなジッタオフセットを伴うテンポラル・アンチエイリアシングで適合され得る。解像度が低い(及びピクセルサイズが大きい)領域に大型のジッタオフセットを使用すると、小型のジッタオフセットが使用された場合のように、それらの領域内のプリミティブまたは断片が失われる可能性が低くなる。図4の方法に従って実施される実施形態の結果として、第2の領域(例えば、周辺領域(複数可))のアンチエイリアシングの有効性が増加する。
図5は、頂点シェーダーが頂点の位置に応じて異なるジッタオフセットを選択できるようにする方法の全体的な流れを示している。図5に示される方法の操作510は、ジッタ成分を有する変換行列を取得するように機能する。いくつかの実施形態によれば、変換行列は、GPUによって処理され、操作510によって変換行列が取り出されるメモリまたはバッファに格納されていてもよい。例えば、変換行列は、(VR)シーン内の頂点を表すモデルビュー投影(MVP)行列であってもよい。この方法は、ディスプレイ上の頂点の位置を判定するのに機能する操作520に続く。例えば、操作520は、頂点が中心窩領域内にあるか周辺領域(複数可)内にあるかを判定することができ得る。
次いで、この方法は、操作530に続き、操作520により決定される頂点の位置に応じて、ジッタ成分またはジッタオフセットまたはジッタ行列を選択することができる。いくつかの実施形態によれば、ジッタ成分またはオフセットまたは行列はメモリに格納してもよく、その場合操作530により読み出しが可能である。図5に示される方法は、次に、選択されたジッタ成分またはオフセットまたは行列を変換行列に適用するよう機能する操作540に続く。さらに、いくつかの実施形態によれば、操作510〜540は、グラフィックスパイプライン内の頂点シェーダーによって実行され得ることが企図されている。他の実施形態では、前述の操作はラスタライザによって実行されることが企図されている。
いくつかの実施形態によれば、ジッタ成分は、ジッタ行列Jまたは[J]によって記述または含まれてもよい。したがって、Jは、行列乗算を介して特定の変換行列に適用できる。例として、変換行列は[MVP]で記述でき、この場合、Mはモデルを表し、Vはビューを表し、Pは投影を表す。したがって、[MVP][J]によって定義される操作は、ジッタ行列[J]を変換行列[MVP]に適用する1つの方法である。
図6Aは、ビデオフレーム600の2つの領域のサブピクセルサンプリングの実施形態を示す。ビデオフレーム602は、解像度Rに関連付けられるように示されている。プリミティブ606を含むビデオフレーム600の部分602は、第1の領域608及び第2の領域610を含む分解図で示されている。第1の領域608及び第2の領域610は、それぞれ16個のサンプリング位置を含んで示される。各サンプリング位置は、それぞれ各ピクセルのピクセル中心に関連付けられて示されている。
示される実施形態によれば、プリミティブ606の断片は、例えば、サンプル位置603を含む、第1の領域608内の8つのサンプリング位置を対象としている。第1の領域608のサンプル位置612、614、及び616は、プリミティブ606の断片により対象とされずに示されている。しかし、ジッタオフセット618によってジッタされると、サンプル位置612及び614は、プリミティブ606の対象とされる。その結果、サンプル位置612及び614に関連付けられたピクセルのカバレッジマスクが、ラスタライザにより生成され、プリミティブ606の断片が、サンプル位置612及びサンプル位置614に関連付けられたピクセルの最終的な色に寄与し得ることを示す。ただし、プリミティブ606は、サンプル位置616に関連付けられたピクセルの最終的な色には寄与しない。なぜなら、プリミティブ606の断片は、ジッタされたサンプリング位置またはジッタされていないサンプリング位置のいずれかのサンプル位置を対象としないためである。
さらに、第2の領域610は、サンプリング位置620を含む、プリミティブ606によって対象とされる7つのサンプル位置を含むように示される。第2の領域のサンプリング位置がジッタオフセット618によってジッタされると、サンプル位置622は、ジッタされる前にプリミティブ606の対象とされていなかったが、もはやプリミティブ606の対象とされていることが示されている。一方、非ジッタの位置でプリミティブ620の対象とされていたサンプル位置620は、ジッタの位置ではもはや対象となっていない。結果として、プリミティブ606は、サンプル位置620及び622に関連付けられたピクセルの最終的な色に寄与する。
図6Bは、解像度R及びジッタ成分Jに関連する中心窩領域603、ならびに解像度R及びジッタ成分Jに関連する周辺領域605を有するビデオフレーム600の実施形態を示す。部分602は、中心窩領域603内に収まる第1の領域608と、また周辺領域605内に収まる第2の領域610とを含むように示されている。その結果、第1の領域608は、図6Aに示されるものと非常に似たサンプリングのパターンを含む。
対照的に、周辺領域605内にある第2の領域610は、解像度RがRよりも低いために、より少ない数のサンプリング位置(例えば、4つ)を含むように示されている。例えば、第2の領域は、サンプル位置628〜634を含むように示され、サンプル位置630及び632はプリミティブ606の対象とされる。また、図6Bに示されているのは、第2の領域がよりピクセルが大きくてサンプリング位置間の間隔が大きい場合でも、第1の領域608及び第2の領域610の両方に対して同じジッタ成分618が用いられていることである。結果として、ジッタ成分618は、サンプル位置628〜634に関連するピクセルのいずれかの最終的な色に寄与する色の変化を伴わない。例えば、プリミティブ606に関連付けられた断片は、位置がジッタしているかどうかにかかわらず、サンプル位置628を対象としない。結果として、プリミティブ606は、サンプル位置628に関連付けられたピクセルの最終的な色に寄与し得ない。
図6Cは、解像度R及びジッタJに関連する中心窩領域603、ならびにより低い解像度R及びより大きいジッタJに関連する周辺領域605を有するビデオフレーム600をサンプリングする実施形態を示す。例えば、ジッタオフセット636で表されるJは、Jジッタオフセット618の大きさの約2倍であることが示されている。その結果、プリミティブ606の断片は、ジッタされたサンプル位置628がプリミティブ606の対象となるため、サンプル位置628に関連付けられるピクセルに寄与することができる。したがって、周辺領域605に対してJジッタオフセット636を使用することは、異なるジッタ(例えば、Jジッタオフセット636)が周辺領域605に対して使用されない、図6Bに示される実施形態と比較して周辺領域605に対するエイリアシングが低減された画像をもたらす(例えば、中心窩領域603と周辺領域605の両方に単一のジッタJのみが使用されたため)。
より低い解像度(例えば、サンプリング点間のより大きな距離)に関連付けられたディスプレイ内の領域でより大きなジッタ成分を使用すると、プリミティブまたは断片が失われる可能性が減少する。したがって、本明細書で説明する実施形態に従って提供される方法及びシステムは、サンプリング位置が中心窩領域または周辺領域(複数可)内にあるかどうかに応じて異なるジッタオフセットから選択することにより、アンチエイリアシングを強化でき、特に画像の非中心部の場合エイリアシングを効果的に低減できる。
図7A〜図7Cは、所与のプリミティブ701のサンプリング、ラスタライズ、及びシェーディングの様々な実施形態を示す。例えば、図7Aのサンプリンググリッド702aは、プリミティブ701の断片の16個のサンプリング位置を含むように示される。ラスタライズされたグリッド706aは対象のデータの結果であり、これは、サンプリンググリッド702aとプリミティブ701の交差によって形成される断片のスキャン変換中に、ラスタライザによって生成される。
ジッタサンプリンググリッド702bは、ジッタオフセット704に従ってジッタされたことが示されており、これはラスタライズされたグリッド706bにラスタライズされる。次に、ピクセルシェーダーまたは計算シェーダーは、ラスタライズされたグリッド706aとラスタライズされたグリッド706bを組み合わせて、ラスタライズされたグリッド706aと706bの組み合わせであるシェーディングされたグリッド708を生成することができる。例えば、ピクセルシェーダーまたはコンピューティングシェーダーは、ピクセル710aの色とピクセル710bの色の組み合わせまたは平均であるシェーディンググリッド708のピクセル710cの色を選択することができる。
図7Bでは、サンプリンググリッド712aは、4つのサンプリングポイントのみを有するプリミティブ701と交差するように示されている。サンプリンググリッド712aは、例えば、中心窩レンダリングビュー及び/またはディスプレイの周辺領域(複数可)など、より低い解像度を有するディスプレイのサンプリングプロセスを表す。ジッタサンプリンググリッド712bは、ジッタオフセット704に従ってジッタされた4つのサンプルポイントを有することも示されている。ジッタオフセット704は、サンプリンググリッド712a及びサンプリンググリッドのいずれかのサンプリングポイント間の距離のより小さい割合を表すため、ジッタサンプリンググリッド712bの結果であるラスタライズされたグリッド714bは、非ジッタのサンプリンググリッド714aによって生成されるラスタライズされたグリッド714aと同じである。すなわち、図7Bのサンプリングプロセスで使用されるジッタオフセットの量は、プリミティブ701の断片がサンプリンググリッド712aまたはサンプリンググリッド712b内のサンプルポイント703を対象とするようにするのに十分ではない。結果として、陰影付きグリッド716は、ギザギザのエッジまたは「ジャギー」を形成する可能性のある規則的なパターンによって特徴付けられ、最終的な画像にエイリアシングをもたらす可能性が高いことが示されている。
図7Cは、図7Bのジッタオフセット704より大きいジッタオフセット705の範囲までジッタされた、サンプリンググリッド720a及びジッタサンプリンググリッド720bを示す。結果として、サンプル点703は、ジッタサンプリンググリッド720b内のプリミティブ701によって対象とされるが、サンプリンググリッド720a内では対象とされない。これは、それぞれのラスタライズされたグリッド722a及び722bに反映される。結果として生じる陰影付きグリッド724は、ピクセル718a及び718bの色の平均または組み合わせであり得る色で陰影付けされたピクセル718cを有する。結果として、陰影付きグリッド724は、陰影付きグリッド716よりも、ギザギザのエッジ及び/または規則的なパターンを少なく示す。その結果、図7Cに示されるようなサンプリングプロセスは、アンチエイリアシンがより高い程度になり、プリミティブが失われる可能性が小さくなる。
図8は、特定の実施形態によるアンチエイリアシングの時間的側面を示す。プリミティブ801は、フレームN、N−1、…、N−8の変換データ802によって視覚的に表される。プリミティブ801は、明確化及び例示の目的で、フレームN、N−1、N−2、…、N−8のそれぞれに対して同様の形状及び位置を有するように示されているが、プリミティブ801は同じ形状または位置を、他の実施形態のために有する必要はない。いくつかの実施形態によれば、変換データ802はバッファに格納されてもよい。
サンプリンググリッド804は、変換データ802の各フレームについて4つのサンプリング位置でサンプリングするように示されている。サンプリンググリッド804は、他のすべてのフレームについてジッタがあるように示されている。この場合も、明確にするために、サンプリンググリッド804はYのピクセルの半分だけジッタされるように示されているが、様々な他の実施形態に従って異なるジッタオフセットが使用されてもよい。例えば、他の実施形態は、X及びYの両方で1/4ピクセルであるジッタオフセットを使用し得る。さらに、いくつかの実施形態によれば、図8に示されるジッタリングは、射影行列を変換するサンプルコードによって実行され得る。例えば、サンプルコードは移行行列を変換データ802に適用する。これにより、図8に示すジッタが効果的に提供される。
いくつかの実施形態によれば、現在のフレーム及び7つの前のフレームについてサンプリンググリッド804を介して得られた対象データに依存する4つのピクセルを含むように、陰影付きピクセルグリッド806が示されている。例えば、陰影付きピクセルグリッド808は、フレームN、N−1、…、N−7からのサンプリングデータに基づいて示される一方、陰影付きピクセルグリッド810は、フレームN−1、N−2、…、N−8からのサンプリングデータに基づいて示されている。その結果、ピクセルシェーディング(またはシェーディングの計算)のプロセスは、バッファに格納されている過去のフレームに一時的に依存する。複数のフレームからの出力の蓄積によって形成される結果の画像は、特にサンプリングポイント間の距離が大きい領域(周辺領域など)に対して、より高いアンチエイリアシングを設ける。
図9Aは、中心窩レンダリングビュー及び/またはディスプレイ内の中心窩領域及び周辺領域(複数可)の異なるジッタ量、オフセット、成分(ジッタ行列で集合的に定義可能)の変数の選択を可能にする方法の実施形態を示す。操作902は、(VR)ディスプレイ上にレンダリングされる頂点を選択するのに機能する。次に、操作904及び906は、選択された頂点を定義する変換行列を取得し、変換行列を介して選択された頂点の位置情報を判定する。操作908で、この方法は、頂点が中心窩領域(例えば、比較的高い解像度を有する領域)内に位置するかどうかを判定する。頂点が中心窩領域内に位置すると判定された場合、操作910及び912は、それぞれ第1の行列を選択し、第1の行列を適用する機能する。頂点が中心窩領域内に位置しないが、代わりに操作914で周辺領域内に位置すると判定された場合、この方法は操作916及び918に続き、第2のジッタ行列を選択及び適用するよう機能する。
前述のように、中心窩領域は、周辺領域(複数可)よりも高い解像度を有し得る。結果として、第1のジッタ行列は、第2のジッタ行列よりも比較的小さいジッタオフセットを含めるはずである。さらに、いくつかの実施形態によれば、図9Aに示される操作の少なくとも一部は、グラフィックスパイプライン内の頂点シェーダーによって実行されることが企図される。
図9Bは、中心窩領域、中間中心窩領域、ならびに中心窩レンダリングビュー及び/またはディスプレイ内の周辺領域の異なるジッタ量、オフセット、成分(ジッタ行列で集合的に定義可能)の変数選択を可能にする方法の実施形態を示す。操作920は、(VR)ディスプレイ上にレンダリングされる頂点を選択するのに機能する。次に、操作922及び924は、選択された頂点を定義する変換行列を取得し、変換行列を介して、選択された頂点の位置情報を判定する。操作926で、この方法は、頂点が中心窩領域(例えば、比較的高い解像度を有する領域)内に位置するかどうかを判定する。頂点が中心窩領域内に位置すると判定された場合、操作928及び930は、それぞれ第1のジッタ行列を選択し、第1のジッタ行列を適用するように機能する。頂点が中心窩領域内に位置していないが、代わりに中間中心窩領域内に位置していると操作932で判定された場合、この方法は操作934及び936に続き、それは第2のジッタ行列を各々選択及び適用するように機能する。頂点が中間中心窩領域内に位置しているのではなく、周辺領域(複数可)内に位置すると操作938で判定された場合、この方法は操作940及び942に続き、それは第3のジッタ行列を各々が選択及び適用するように機能する。
前述のように、いくつかの実施形態によれば、中心窩領域は中間中心窩領域または周辺領域のいずれかよりも高い解像度を有し得、中間中心窩領域は周辺領域よりも高い解像度を有し得る。結果として、第1のジッタ行列には、第2または第3のジッタ行列のいずれよりも相対的に小さいジッタオフセットが含まれるはずであるが、第2のジッタ行列には、第3のジッタ行列よりも相対的に小さいジッタオフセットが含まれるべきである。さらに、いくつかの実施形態によれば、図9Bに示される操作の少なくとも一部は、グラフィックスパイプライン内の頂点シェーダーによって実行されることが企図される。他の実施形態では、図9Bに示される操作は、頂点シェーダー、ラスタライザ、またはピクセルシェーダー(または計算シェーダー)の間で共有されてもよい。
図10は、中心窩レンダリングパラダイムの下でのテンポラル・アンチエイリアシングのために異なるジッタ行列から選択することができるグラフィックスパイプラインの全体的な概念モデルを示している。例えば、頂点シェーダー1008は、フレームデータ1002から変換行列1004を取得するために示されている。いくつかの実施形態によれば、頂点シェーダー1008は、適切なレベルの照明、着色、及び他の画像用の後処理の効果を提供できるコンピュータプログラムである。フレームデータ1002から変換行列1004を取得した後、頂点シェーダー1008は、変換行列1004によって記述される所与の頂点の位置を判定することができる。頂点の位置(例えば、頂点が中心窩領域、中間中心窩領域、または周辺領域内にあるかどうか)に応じて、頂点シェーダー1008は、メモリ1016から適切なジッタ行列、例えば[J]、[J]、または[J]を選択する。3つのジッタ行列がメモリ1016に格納されるように示されているが、実施形態の趣旨及び範囲から逸脱することなく、任意の数のジッタ行列をメモリ1016に格納し、様々な実施形態に応じて選択できることが理解される。
さらに、頂点シェーダー1008は、それぞれに適切なジッタ行列を適用しながら、前のフレームデータ1006(例えば、フレームN−1、N−2、…、N−7)からデータ(例えば、変換行列)を取得することもできる。次に、この方法は、ベクトルグラフィックス形式のフレームデータ1002及び1006によって記述される画像を取得し、それをピクセルからなるラスター画像に変換する役割を担うラスタライザ1010に続く。いくつかの実施形態によれば、ラスタライザは、コンピュータプログラムによって具現化されてもよい。次に、ラスタライザ1010の出力は、ピクセルシェーダー1012に供給され、ピクセルシェーダー1012は、個々のピクセルに対して適切なレベルの色及び他の属性を処理する。次いで、ピクセルシェーダー1012によって生成された結果のピクセルは、表示するために送信すべく出力1014に供給される。ピクセルシェーダーは、ピクセルシェーダーまたは計算シェーダーのいずれかを示すために使用されることに留意されたい。
図11は、提示された方法及び/またはシステムで使用され得るHMD1100の追加の実施形態を示す。HMD1100は、視線検出器1102、プロセッサ1104、バッテリ1106、仮想現実発生器1108、ボタン、センサ、スイッチ1110、音像定位1112、ディスプレイ1114、及びメモリ1116などのハードウェアを含む。また、HMD1100は、磁力計1118、加速度計1120、ジャイロスコープ1122、GPS 1124、及びコンパス1126を含む位置モジュール1128を含むように示される。HMD1100にはさらに、スピーカー1130、マイク1132、LED 1134、視覚認識物(複数可)1136、IRライト1138、フロントカメラ1140、リアカメラ1142、視線追跡カメラ(複数可)1144、USB 1146、永久記憶装置1148、振動触覚フィードバック1150、通信リンク1152、WiFi(登録商標) 1154、超音波通信1156、Bluetooth(登録商標) 1158、及び感光性ダイオード(PSD)アレイ1160が含まれる。
この方法の操作は特定の順序で説明したが、VR操作の変更の処理が所望の方法で実行される限り、操作の間に他のハウスキーピング操作を実行できること、または操作がわずかに異なる時間に発生するように調整され得ること、または処理に関連する様々な間隔での処理操作の発生を可能にするシステムに供給され得ることを理解されたい。
1つまたは複数の実施形態は、コンピュータ可読媒体上のコンピュータ可読コードとして製作することもできる。コンピュータ可読媒体は、データを保存することができる任意のデータ記憶装置であり、後にコンピュータシステムが読み取ることができる。コンピュータ可読媒体の例には、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み取り専用メモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、及びその他の光学及び非光学データストレージデバイスが含まれる。コンピュータ可読媒体は、ネットワーク接続されたコンピュータシステムに亘り供給されたコンピュータ可読有形媒体を含むことができ、その結果、コンピュータ可読コードは分散方式で格納及び実行される。
前述の実施形態は、理解を明確にするためにある程度詳細に説明されているが、添付の特許請求の範囲内で特定の変更及び修正を実施できることは明らかである。したがって、本実施形態は、限定ではなく例示と見なされるべきであり、実施形態は、本明細書で与えられる詳細に限定されるものではなく、添付の特許請求の範囲及び均等物内で変更され得る。

Claims (22)

  1. ヘッドマウントディスプレイ(HMD)内でテンポラル・アンチエイリアスを使用して多重解像度シーンをレンダリングする方法であって、
    グラフィック処理ユニットを使用して、一連のビデオフレームを含むシーンを、各ビデオフレームについてレンダリングすること、
    ビデオフレームの第1の領域及び前記ビデオフレームの第2の領域、第1のジッタオフセット及び第2のジッタオフセットをそれぞれ使用してアンチエイリアシングを適用すること
    記第1の領域と前記第2の領域を含む中心窩シーンを生成すること、及び
    前記HMDに関連付けられたディスプレイに表示するために前記中心窩シーンを送信すること
    を含み、
    前記第1の領域は前記第2の領域よりも高い解像度を有し
    前記第1のジッタオフセットは前記第2のジッタオフセットよりも小さ
    前記第1のジッタオフセットが使用される前記ビデオフレームの領域は、前記第2のジッタオフセットが使用される前記ビデオフレームの領域と重なる領域を有さず、
    前記第1のジッタオフセット及び前記第2のジッタオフセットは、前記一連のビデオフレームの各ビデオフレームに使用される、
    方法。
  2. 前記HMDのユーザの視線を追跡すること
    をさらに含み、
    前記中心窩シーンを前記生成することは、前記ユーザの前記視線の前記追跡に従って、前記HMDに関連付けられた前記ディスプレイに前記第1の領域を動的に配置することを含む、
    請求項1に記載の方法。
  3. 第3のジッタオフセットを使用して前記シーンの第3の領域にアンチエイリアシングを適用すること
    をさらに含み、
    前記中心窩シーンを前記生成することは、さらに前記第3の領域を含み、前記第3の領域は前記第1の領域に関連付けられた前記より高い解像度よりも低い中間解像度に関連付けられ、前記第2の領域に関連付けられた前記解像度よりも高く、前記第3のジッタオフセットは、前記第1のジッタオフセットよりも大きく、前記第2のジッタオフセットよりも小さい、
    請求項1に記載の方法。
  4. 前記中心窩シーンを前記生成することは、前記第3の領域内に前記第1の領域を入れ子にすることを含む、請求項3に記載の方法。
  5. 前記第1のジッタオフセットを使用して前記シーンの前記第1の領域に前記アンチエイリアシングを前記適用することと、前記第2のジッタオフセットを使用して前記シーンの前記第2の領域に前記アンチエイリアシングを前記適用することとが計算シェーダーにより実行される、請求項1に記載の方法。
  6. 前記シーンの前記第1の領域は、中心窩レンダリングのためにディスプレイ上に前記シーンを前記表示する間、前記シーンの前記第2の領域内に入れ子にされる、請求項1に記載の方法。
  7. 前記シーンのビデオフレームの前記アンチエイリアシングは、過去の1つ以上のビデオフレームからサンプリングすることを含む、請求項1に記載の方法。
  8. 前記シーンのビデオフレームの前記アンチエイリアシングは、過去の結果から生成された反復的に蓄積されたフレームからサンプリングすることを含む、請求項1に記載の方法。
  9. 前記第1の領域は、前記HMDのユーザの視線の方向に応じて、前記第2の領域内を移動する、請求項1に記載の方法。
  10. 前記シーンの前記第1の領域及び前記シーンの前記第2の領域に適用される前記アンチエイリアシングは、テンポラル・アンチエイリアシングを含む、請求項1に記載の方法。
  11. ヘッドマウントディスプレイ(HMD)での提示のために、テンポラル・アンチエイリアシングにより仮想現実(VR)シーンを提供する方法であって、
    一連のビデオフレームを含み、前記ビデオフレームの中心窩領域と前記ビデオフレームの周辺領域を含むVRシーンをGPUにより生成すること、
    前記VRシーンをアンチエイリアスすることであって、
    前記VRシーン内の頂点の変換行列を取得し、前記VRシーン内の前記頂点の位置を判定すること、
    頂点シェーダーによって、前記頂点に適用するジッタ成分を選択することであって、前記頂点が前記VRシーンの前記中心窩領域内に位置すると判定された場合は第1のジッタ成分が選択され、前記頂点が前記VRシーンの前記周辺領域内に位置すると判定された場合は第2のジッタ成分が選択される、選択すること及び
    前記選択したジッタ成分をアンチエイリアシングされたVRシーンの前記頂点の前記変換行列に適用すること
    を含む前記アンチエイリアスすること、及び
    前記HMDに関連付けられたディスプレイに表示するために、前記アンチエイリアシングされたVRシーンを送信すること
    を含み、
    前記中心窩領域は、前記周辺領域よりも高い解像度を有し、
    前記第1のジッタ成分に関連するオフセットは、前記第2のジッタ成分に関連するオフセットよりも小さく、
    前記第1のジッタ成分に関連するオフセットが使用される前記ビデオフレームの領域は、前記第2のジッタ成分に関連するオフセットが使用される前記ビデオフレームの領域と重なる領域を有さず、
    前記第1のジッタ成分に関連するオフセットオフセット及び前記第2のジッタ成分に関連するオフセットは、前記一連のビデオフレームの各ビデオフレームに使用される、
    方法。
  12. 前記中心窩領域は、前記ディスプレイまたは前記周辺領域に対して固定される、請求項11に記載の方法。
  13. 前記周辺領域は、前記中心窩領域が表示されない前記HMDに関連付けられた前記ディスプレイの領域に表示される、請求項11に記載の方法。
  14. 前記HMDのユーザの視線を追跡すること
    をさらに含み、
    前記VRシーンを前記生成することは、前記ユーザの前記視線の方向に従って前記ディスプレイ内に前記中心窩領域を動的に配置することを含む、
    請求項11に記載の方法。
  15. 前記VRシーンは、中間中心窩領域をさらに含み、前記頂点が前記中間中心窩領域に位置すると判定される場合、第3のジッタ成分が選択され、前記頂点に適用される、請求項11に記載の方法。
  16. 前記中間中心窩領域は、前記周辺領域のものよりも高く、前記中心窩領域のものよりも低い解像度または画質に関連付けられる、請求項1に記載の方法。
  17. 前記第3のジッタ成分に関連付けられるオフセットは、前記第1のジッタ成分に関連付けられるオフセットより大きく、前記第2のジッタ成分に関連付けられるオフセットより小さい、請求項1に記載の方法。
  18. 前記VRシーンのビデオフレームに対する前記アンチエイリアシングは、前記VRシーンの過去の1つ以上のビデオフレームからサンプリングすることをさらに含む、請求項11に記載の方法。
  19. 前記VRシーンのビデオフレームに対して前記アンチエイリアシングすることは、前記VRシーンのビデオフレームの過去の群からサンプリングすることをさらに含む、請求項11に記載の方法。
  20. 1つ以上のプロセッサにより実行されるとき、仮想現実(VR)シーンにヘッドマウントディスプレイ(HMD)での提示用のアンチエイリアシングを提供するための、非一時的なコンピュータ可読記憶媒体に埋め込まれたコンピュータプログラムであって、
    一連のビデオフレームを含み、前記ビデオフレームの中心窩領域と前記ビデオフレームの周辺領域を含むVRシーンをレンダリングするためのプログラム命令、
    アンチエイリアシングされた中心窩領域の第1のジッタオフセットを使用して、前記ビデオフレームの前記中心窩領域にアンチエイリアシングを適用するためのプログラム命令、
    アンチエイリアシングされた周辺領域の第2のジッタオフセットを使用して、前記ビデオフレームの前記周辺領域にアンチエイリアシングを適用するためのプログラム命令、及び、
    前記アンチエイリアシングされた中心窩領域と前記アンチエイリアシングされた周辺領域を有する前記VRシーンを、前記HMDに関連付けられたディスプレイに提示するためのプログラム命令、を含み、
    前記中心窩領域は、前記周辺領域よりも高い解像度を有し
    前記第1のジッタオフセットは前記第2のジッタオフセットよりも小さく、
    前記第1のジッタオフセットが使用される前記ビデオフレームの領域は、前記第2のジッタオフセットが使用される前記ビデオフレームの領域と重なる領域を有さず、
    前記第1のジッタオフセット及び前記第2のジッタオフセットは、前記一連のビデオフレームの各ビデオフレームに使用される、
    コンピュータプログラム。
  21. 前記中心窩領域は、前記HMDに関連付けられた前記ディスプレイに対して固定されるか、前記周辺領域に対して固定される、請求項2に記載のコンピュータプログラム。
  22. 前記HMDのユーザの視線を追跡するためのプログラム命令であって、前記VRシーンを生成することは、前記ユーザの前記視線の方向に従って前記HMDに関連付けられる前記ディスプレイ内に前記中心窩領域を動的に配置することを含む前記プログラム命令
    をさらに含む、請求項2に記載のコンピュータプログラム。
JP2019568103A 2017-06-09 2018-06-07 テンポラル・アンチエイリアシングの中心窩適合 Active JP6961018B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762517833P 2017-06-09 2017-06-09
US62/517,833 2017-06-09
US15/792,688 2017-10-24
US15/792,688 US10853918B2 (en) 2017-06-09 2017-10-24 Foveal adaptation of temporal anti-aliasing
PCT/US2018/036568 WO2018227028A1 (en) 2017-06-09 2018-06-07 Foveal adaptation of temporal anti-aliasing

Publications (2)

Publication Number Publication Date
JP2020524331A JP2020524331A (ja) 2020-08-13
JP6961018B2 true JP6961018B2 (ja) 2021-11-05

Family

ID=64563491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019568103A Active JP6961018B2 (ja) 2017-06-09 2018-06-07 テンポラル・アンチエイリアシングの中心窩適合

Country Status (5)

Country Link
US (1) US10853918B2 (ja)
EP (1) EP3635516B1 (ja)
JP (1) JP6961018B2 (ja)
CN (1) CN110799928B (ja)
WO (1) WO2018227028A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2573543B (en) * 2018-05-09 2021-10-27 Advanced Risc Mach Ltd Graphics Processing
US10607396B2 (en) * 2018-05-25 2020-03-31 Hulu, LLC Dynamic rendering of low frequency objects in a virtual reality system
US10475248B1 (en) * 2018-06-08 2019-11-12 Microsoft Technology Licensing, Llc Real-time compositing in mixed reality
US10719127B1 (en) * 2018-08-29 2020-07-21 Rockwell Collins, Inc. Extended life display by utilizing eye tracking
US12020368B1 (en) * 2018-11-02 2024-06-25 Meta Platforms Technologies, Llc Pixel replication and interpolation for foveated rendering in a display engine
GB2578769B (en) 2018-11-07 2022-07-20 Advanced Risc Mach Ltd Data processing systems
GB2583061B (en) * 2019-02-12 2023-03-15 Advanced Risc Mach Ltd Data processing systems
CN110378914A (zh) * 2019-07-22 2019-10-25 北京七鑫易维信息技术有限公司 基于注视点信息的渲染方法及装置、系统、显示设备
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
CN111683077B (zh) * 2020-06-02 2021-05-04 硅谷数模(苏州)半导体有限公司 虚拟现实设备及数据的处理方法
US20220028037A1 (en) * 2020-07-21 2022-01-27 Nvidia Corporation Image generation using one or more neural networks
WO2022031581A1 (en) * 2020-08-03 2022-02-10 Sterling Labs Llc Adjusting image content to improve user experience
US11570418B2 (en) 2021-06-17 2023-01-31 Creal Sa Techniques for generating light field data by combining multiple synthesized viewpoints
JP2023012821A (ja) * 2021-07-14 2023-01-26 トヨタ自動車株式会社 遠隔運転システム
WO2023100468A1 (ja) * 2021-12-01 2023-06-08 ソニーセミコンダクタソリューションズ株式会社 表示装置、表示システム、および表示方法
WO2024087088A1 (zh) * 2022-10-27 2024-05-02 京东方科技集团股份有限公司 一种基于抖动算法的图像处理方法及显示设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2868199A (en) * 1998-02-17 1999-08-30 Sun Microsystems, Inc. Graphics system with variable resolution super-sampling
US6664955B1 (en) * 2000-03-15 2003-12-16 Sun Microsystems, Inc. Graphics system configured to interpolate pixel values
US8063914B1 (en) * 2007-08-02 2011-11-22 Adobe Systems Incorporated Rendering antialiased geometry to an image buffer using jittering
US9727991B2 (en) * 2013-03-01 2017-08-08 Microsoft Technology Licensing, Llc Foveated image rendering
US11714487B2 (en) * 2013-03-04 2023-08-01 Tobii Ab Gaze and smooth pursuit based continuous foveal adjustment
US9261959B1 (en) 2013-03-28 2016-02-16 Google Inc. Input detection
JP2017526078A (ja) * 2014-05-09 2017-09-07 グーグル インコーポレイテッド 実在および仮想のオブジェクトと対話するための生体力学ベースの眼球信号のためのシステムおよび方法
US9830714B2 (en) * 2014-06-27 2017-11-28 Samsung Electronics Co., Ltd. Graphics processing with advection to reconstruct missing sample data points
US9704217B2 (en) * 2015-04-20 2017-07-11 Intel Corporation Apparatus and method for non-uniform frame buffer rasterization
US11010956B2 (en) * 2015-12-09 2021-05-18 Imagination Technologies Limited Foveated rendering
US10643381B2 (en) * 2016-01-12 2020-05-05 Qualcomm Incorporated Systems and methods for rendering multiple levels of detail
US10438400B2 (en) * 2016-03-08 2019-10-08 Nvidia Corporation Perceptually-based foveated rendering using a contrast-enhancing filter
US10379611B2 (en) * 2016-09-16 2019-08-13 Intel Corporation Virtual reality/augmented reality apparatus and method
US10591971B2 (en) * 2017-04-01 2020-03-17 Intel Corporation Adaptive multi-resolution for graphics

Also Published As

Publication number Publication date
US10853918B2 (en) 2020-12-01
EP3635516A1 (en) 2020-04-15
CN110799928B (zh) 2023-12-12
US20180357752A1 (en) 2018-12-13
CN110799928A (zh) 2020-02-14
JP2020524331A (ja) 2020-08-13
WO2018227028A1 (en) 2018-12-13
EP3635516B1 (en) 2023-08-02

Similar Documents

Publication Publication Date Title
JP6961018B2 (ja) テンポラル・アンチエイリアシングの中心窩適合
JP6959366B2 (ja) フォービエイテッド(中心窩)レンダリングシステムのための時間的スーパーサンプリング
JP7443602B2 (ja) 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
JP6698156B2 (ja) 画像生成装置および画像生成方法
CN110431599B (zh) 具有虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
WO2019033903A1 (zh) 虚拟现实的图形渲染方法和装置
JP6392370B2 (ja) 様々なレンダリング及びラスタライゼーション・パラメータ下でビューポートを変化させるための、オブジェクトの効率的再レンダリング方法
JP7046085B2 (ja) 画像修復におけるアンチエイリアシング
US10721456B2 (en) Image generation apparatus and image generation method
EP3312701B1 (en) Method and apparatus for foveated rendering
JP2018139102A (ja) 没入型コンテンツ内の関心地点を決定する方法及び装置
ES2971102T3 (es) Reducción de artefactos de solapamiento en un renderizado foveado usando una modulación de resolución cruzada
JP2022543729A (ja) フォービエイテッドレンダリングのためのシステムおよび方法
JP2023514796A (ja) 物理物体による拡張現実内の仮想物体のオクルージョン
US11113880B1 (en) System and method for optimizing the rendering of dynamically generated geometry
US20240168545A1 (en) Systems and Methods For Providing Observation Scenes Corresponding to Extended Reality (XR) Content
WO2023021234A1 (en) Improved foveation-based immersive xr video encoding and decoding
US20210090322A1 (en) Generating and Modifying Representations of Objects in an Augmented-Reality or Virtual-Reality Scene
JP2006522978A (ja) 動きぼかしの生成
Papadopoulos et al. Acuity-driven gigapixel visualization
EP3330839A1 (en) Method and device for adapting an immersive content to the field of view of a user
US20220326527A1 (en) Display System Optimization
Jones et al. Gaze-Contingent Volume Rendering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6961018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150