JP7161150B2 - ジオメトリ情報の動き補償 - Google Patents

ジオメトリ情報の動き補償 Download PDF

Info

Publication number
JP7161150B2
JP7161150B2 JP2020568718A JP2020568718A JP7161150B2 JP 7161150 B2 JP7161150 B2 JP 7161150B2 JP 2020568718 A JP2020568718 A JP 2020568718A JP 2020568718 A JP2020568718 A JP 2020568718A JP 7161150 B2 JP7161150 B2 JP 7161150B2
Authority
JP
Japan
Prior art keywords
patches
motion compensation
patch
implementing
geometry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020568718A
Other languages
English (en)
Other versions
JP2021528734A (ja
Inventor
ダニーロ グラジオッシ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2021528734A publication Critical patent/JP2021528734A/ja
Application granted granted Critical
Publication of JP7161150B2 publication Critical patent/JP7161150B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

〔関連出願の相互参照〕
本出願は、米国特許法第119条(e)の下で、2018年6月26日出願の米国仮特許出願番号62/690,051「MOTION COMPENSATION OF GEOMETRY INFORMATION」の優先権を主張するものであり、その開示内容全体は、全ての目的に対して引用により本明細書に組み込まれる。
本発明は、3次元グラフィックに関する。より具体的には、本発明は、3次元グラフィックの動き補償に関する。
経時的に変化する3Dジオメトリデータの現在の符号化は、ジオメトリトラッキングを必要とする動きモデリング段階を利用するが、これは、計算的に重く、トポロジ変化及び速い動きにより誤差が生じやすい場合がある。
その他は、3Dジオメトリ情報の動き補償を実行するための異なる方法を試みた。しかしながら、これらの解決法は、著しいマイナス面を有するので、望ましくない。
1.動画メッシュの符号化のMPEG規格(FAMC)は、登録されたメッシュのみの動きモデリング及び動き補償を実行するが、これは、メッシュトラッキング段階が必要であることを意味し、トポロジ変化及び速い動きなどの問題は、動きモジュールが、正確なメッシュトラッキングを実行することを妨げる可能性がある。
2.(学究)Yamasakiら(ICIP 2010)の方法は、パッチベースの動き補償を利用するが、3Dから2Dへの投影を利用しないので、個々のパッチ対応情報を、ビットストリームで明示的に送る必要がある。Doumanoglouら(IEEE CSVT 2014)による方法は、パッチを利用しないが、スキニングモデルを用いて、メッシュセグメンテーションを行う。その方法も、動き補償のために従来のボーントラッキングを必要としており、利用可能ではないかもしれない。
3.(産業)MPEGによって現在開発中のポイントクラウド符号化規格は、パッチを用いて、3Dポイントを符号化するものであり、m42712(MPEG121 meeting)では、時間的に一貫したパッチパッキングのための方法が提案された。しかしながら、パッチ間の対応は、2D投影された表面及び法線方向を利用するが、これは、信頼できるものではなく、パッチの3Dの動きを補償しない。
本明細書では、3Dデータのジオメトリ表現のための動き補償の方法を説明する。この方法は、まず、時間領域において対応する3D表面を識別し、次に、動き補償された3D表面パッチの3Dから2Dへの投影が続き、最後に、投影された3D表面パッチに対して2D動き補償を実行することによって、動き補償を実行する。
一態様では、装置の非一時的メモリにプログラムされた方法は、3Dジオメトリから、3Dパッチを生成するステップと、時点間の対応する3Dパッチを決定するステップと、前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するステップと、前記対応する3Dパッチを、2Dキャンバス画像上に投影するステップと、一連の2Dキャンバス画像を用いて、2D動き補償を実装するステップと、を含む。前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含む。時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含む。3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含む。前記3Dパッチを、前記2Dキャンバス上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含む。3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させる。前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立される。
別の態様では、装置は、アプリケーションを記憶するための非一時的メモリであって、前記アプリケーションは、3Dジオメトリから、3Dパッチを生成するステップと、時点間の対応する3Dパッチを決定するステップと、前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するステップと、前記対応する3Dパッチを、2Dキャンバス画像上に投影するステップと、一連の2Dキャンバス画像を用いて、2D動き補償を実装するステップと、を実行するためのものである、非一時的メモリと、前記メモリに結合され、前記アプリケーションを処理するように構成されるプロセッサと、を含む。前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含む。時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含む。3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含む。前記3Dパッチを、前記2Dキャンバス上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含む。3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させる。前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立される。
別の態様では、システムは、3Dジオメトリから、3Dパッチを生成するように構成される生成モジュールと、時点間の対応する3Dパッチを決定するように構成される対応モジュールと、前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するように構成される3Dマッチング動き補償モジュールと、前記対応する3Dパッチを、2Dキャンバス画像上に投影するように構成される投影モジュールと、一連の2Dキャンバス画像を用いて、2D動き補償を実装するように構成される2D動き補償モジュールと、を含む。前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含む。時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含む。3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含む。前記3Dパッチを、前記2Dキャンバス上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含む。3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させる。前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立される。
いくつかの実施形態による、3D表面パッチ及び2D投影を用いて、動き補償を実装する方法のフロー図である。 いくつかの実施形態による3Dパッチ対応を実装する図である。 いくつかの実施形態による3Dマッチングしたパッチの動き補償の図である。 いくつかの実施形態による3Dパッチ動き補償-深度変換の図である。 いくつかの実施形態による輝度調整の図である。 いくつかの実施形態による一連の投影されたパッチの2D動き推定の図である。 いくつかの実施形態による動き補償方法を実装するように構成される例示的なコンピュータ装置のブロック図である。
ポイントクラウド、メッシュ、又は同様の3D構造などの3Dデータのジオメトリ表現のための動き補償の方法を、本明細書で説明する。新規の方法を利用して、まず、時間領域において対応する3D表面を識別し、次に、動き補償された3D表面パッチの3Dから2Dへの投影が続き、最後に、投影された3D表面パッチに対して2D動き補償を実行することによって、動き補償を実行する。動き補償を実装することによって、3Dデータを圧縮することができる。例えば、重複するポイントクラウドのフルセットを送る代わりに、第1のポイントクラウドを送り、次に、第1のポイントクラウドの動き情報を送るが、これは、重複するポイントクラウドのフルセットよりもはるかに少ない情報である。
経時的に変化するデータの圧縮は、通常、動き補償段階を利用して、時間領域にわたってデータ対応を増加させて、より効率的な符号化を提供する。3Dジオメトリデータの場合、動き補償は、通常、時間的に対応する3Dポイントの動きをモデリングすることによって行われ、これは、ポイント対応を識別するために、計算的に集中したメッシュトラッキングブロックを必要とする。更に、メッシュトラッキング段階は、トポロジ変化及び速い動きにより誤差が生じやすい。
本明細書で説明する3Dジオメトリ動き補償は、従来のジオメトリトラッキング段階の必要がなく行われる。各時点について、ジオメトリが、3D表面パッチにセグメント化される。新規の技術は、時間にわたって対応する表面パッチを識別する。対応するパッチは、動き補償され、次に、全てのパッチが、2Dキャンバス表面内に投影される。最初の2つの段階が、ジオメトリの動きを十分に取り込むことができないかもしれないので、最後の2D動き補償段階が、一連の2Dキャンバス画像に適用される。
3D表面の動き補償及び2D投影されたパッチの動き補償と一緒に、3D表面の対応を利用することは、以前に適用されたことがない新規の技術を示す。この技術は、時間的に変化するジオメトリ情報を符号化するとき、ビットレートの節約をもたらすことができる。更に、この技術は、動き補償を実行するために、ジオメトリ情報のトラッキングを必要としない。
いくつかの実施形態では、3Dジオメトリは、オブジェクトの表面のパッチの直交投影の集合として表現され、これらは、3D動き補償に用いられる。いくつかの実施形態では、各パッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別する。いくつかの実施形態では、対応するパッチを、2Dキャンバス画像内に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにする。いくつかの実施形態では、パッチの深度を調整すること(2D投影されたパッチの輝度レベルを調整することと同様)によって、対応するパッチデータの類似度を増加させる。いくつかの実施形態では、投影されたパッチを有する一連の2Dキャンバス画像が、更に、2D動き補償される。
図1は、いくつかの実施形態による、3D表面パッチ及び2D投影を用いて、動き補償を実装する方法のフロー図を示す。3Dジオメトリは、一連の初期ポイントクラウド(又は他の3Dデータ)(例えば、各時点のポイントクラウド)である。ステップ100において、3Dジオメトリから、3Dパッチを取得/生成する。3Dパッチは、同様の特性を有するポイントを識別することによって、ポイントクラウドの表面を記述する。同様の特性を有するポイントは、同様の法線を有するポイント(例えば、同じ位置に向いていて、3D空間内で接続されるポイント)である。3Dパッチは、ポイントクラウド圧縮の規格から3Dパッチ生成などの任意の方法で取得/生成することができる。例えば、3Dジオメトリの表面上で接続されるポイントは、3Dパッチと見なされる(例えば、表面の一部をカバーする空間内で接続される3Dポイント)。例えば、人のポイントクラウドの場合、人の顔の半分は、1つのパッチであり、人の顔の残りの半分は、第2のパッチである。フレーム(又は時点)毎に、3Dジオメトリは、3Dパッチに分解される。ステップ102において、パッチ対応を実装して、(異なるフレーム/時点からの)どのパッチが互いに対応するかを判定する。ポイントクラウド全体のポイントの対応を見つける代わりに、パッチ毎に、対応を見つける。異なるフレーム/時点からのパッチを相互に関連させる方法を、本明細書で説明する。パッチのバウンディングボックスを用いて、フレーム1からのパッチAが、フレーム2からのパッチBに対応する時を決定することができる。ステップ104において、3Dマッチングしたパッチの動き補償を実行する。3Dパッチ対応は、どのパッチが互いに対応するかを判定するが、パッチがどこに属するか(例えば、パッチがどこに移動したか)を判定しない。どのパッチが対応するかは、既に判定されているので、このステップは、パッチを、UVマップ上において、本明細書で説明するように動きを補償するための適切な位置に配置することを含む。換言すれば、3Dオブジェクトが移動したので、3Dマッチングしたパッチの動き補償は、移動に基づいて、パッチを次のフレームに配置/位置決めする。また、深度デルタを決定し、その値を輝度値(又は輝度値と同様の値)に加算することによって、深度のための動き補償を実装することができる。ステップ106において、3Dから2Dへのパッチ投影を利用する。本明細書で説明されるように、3Dパッチを2DUV領域に投影することができ、動き補償を用いて、パッチを適切な位置に投影することができる。ステップ108において、2D動き補償を実装する。バウンディングボックスは、非常に微細な詳細な移動/動きを検出することができない場合がある。しかしながら、ビデオエンコーダが、各ブロック/マクロブロックの動きを計算して、2D動き補償を実行することができる。いくつかの実施形態では、より少ない又は追加のステップを実装する。いくつかの実施形態では、ステップの順序は変更される。
図2は、いくつかの実施形態による3Dパッチ対応を実装する図を示す。3Dパッチは、ポイントから参照ポイントまでの距離を示すポイントの輝度を有するグレースケール画像である。例えば、図2に示すように、3Dパッチバウンディングボックスは、U1,V1,D1の左後部ポイントを有し、バウンディングボックスの右下ポイントは、sizeU,sizeV,sizeDである。この例を更に進めて、U及びVは、グレースケール画像の2D画像寸法であり、Dは、輝度値であり、それを3Dパッチにする。3Dジオメトリからの全てのパッチは、3Dバウンディングボックスを有する。例えば、第1のフレームについては、いくつかのパッチが生成され、全てのパッチに、バウンディングボックスが生成される。そして、次のフレームでは、いくつかの異なるパッチが生成され、それらのパッチの各々は、バウンディングボックスを有する。1つのフレームからのバウンディングボックスを別のフレームのバウンディングボックスに関連させる方法は、各フレームからのバウンディングボックスの交差を決定することによるものである。例えば、第1のフレームからの第1のバウンディングボックスは、第2のフレームからの第2のバウンディングボックスを有する交差を有する。この例を更に進めて、オブジェクトがあまり変化又は移動しない場合、各フレームからのバウンディングボックスは、完全に又はほとんど完全に重なる。バウンディングボックスの交差は、体積に対応する。その体積は、パッチがどのくらい相互に関連しているかの表示として用いられる。対応するパッチは、最も高いioucを有し、ioucは、交差の体積を体積の結合で除算したものに等しい。例えば、第1のバウンディングボックスが3Dジオメトリの前部パッチからのものであり、第2のバウンディングボックスが3Dジオメトリの後部パッチからのものである場合、それらの交差又はioucは、パッチが似ていないので、非常に小さくなる可能性が最も高く、これは、それらのパッチが相互に関連していないことを意味する。別の例では、第1のバウンディングボックスが3Dジオメトリの前部パッチからのものであり、第2のバウンディングボックスが、わずかに後の3Dジオメトリの前部パッチからのものである場合、それらの交差又はioucは、パッチが似ているので、非常に高くなる可能性が最も高く、これは、それらのパッチが相互に関連していることを意味し、また、パッチが3Dジオメトリの同じ又は類似した表面を表現することも意味する。換言すれば、3Dパッチ対応は、3Dパッチのバウンディングボックスの交差に基づいて決定される。いくつかの実施形態では、バウンディングボックスは、異なるサイズ又は均一なサイズとすることができる。いくつかの実施形態では、バウンディングボックスは、パッチの位置についての情報を含むことができる。
図3は、いくつかの実施形態による3Dマッチングしたパッチの動き補償の図を示す。3Dパッチ情報が、2D領域(U,V)上に投影される。それが2D領域であっても、3D情報は含まれる。例えば、3Dオブジェクトが移動する場合、パッチのバウンディングボックスは、パッチが移動したことを示す。この例を更に進めて、図3では、フレーム0において、U1,V1は、[105,143]であり、フレーム1において、U1,V1は、[104,155]であり、これは、オブジェクトが、約10~12単位(例えば画素)だけ垂直に移動したことを示す。したがって、パッチは、この移動に基づいて配置することができ、これは、動き補償とも呼ばれる。この例を更に進めて、フレーム(t+1)については、パッチは、tからt+1までのパッチの[U1,V1]のデルタに基づいて位置決めされる。UV領域内でパッチを移動させることは、3Dパッチの動き補償を実行することに相当する。
図4は、いくつかの実施形態による3Dパッチ動き補償-深度変換の図を示す。上記の3Dパッチ動き補償は、パッチを、x方向及びy方向に移動させるだけである。しかしながら、パッチ(3Dパッチ)は、z方向にも移動することができる。z方向の動きは、深度変換に対応し、これは、グレースケールに加算される値に対応する。深度変換によって、パッチをz方向に移動させることができる。例えば、元のパッチは、深度(t)を有し、深度(t+1)で、パッチは、デルタの量だけ移動している。デルタは、その値を輝度値(又は同様の値)に加算することによって、補償することができる。
図5は、いくつかの実施形態による輝度調整の図を示す。図4で説明するように、輝度は、特定の平均値(例えば、約128)を常に有するように、パッチ毎に調整することができる。いくつかの実施形態では、現在値及び平均値からのデルタを、オキュパンシーマップ又は他のデータ構造に送ることができる。
輝度調整に関する例示的なコードは、本明細書に含まれ、以下の通りである。
Figure 0007161150000001
図6は、いくつかの実施形態による一連の投影されたパッチの2D動き推定の図を示す。上記のように、3Dブロックを利用するので、3D動き補償は大まかなものである。動きの残りは、ビデオエンコーダによって取り込むことができる。換言すれば、3Dオブジェクトの微細な動きは、HEVC又は他のエンコーダによって取り込まれる。
いくつかの実施形態では、標準擬似動き補償が、パッチに用いられる。例えば、図3で説明する動き補償は、標準擬似動き補償を含むことができる。標準擬似動き補償を用いることによって、マッチングしたパッチについて、差分情報を送ることができる。例示的なコードをここに示す。
Figure 0007161150000002
図7は、いくつかの実施形態による動き補償方法を実装するように構成される例示的なコンピュータ装置のブロック図を示す。コンピュータ装置700を用いて、3Dコンテンツを含む画像及びビデオなどの情報を、取得、記憶、計算、処理、通信、及び/又は表示することができる。コンピュータ装置700は、動き補償方法の態様のいずれかを実装することができる。一般に、コンピュータ装置700を実装するのに適したハードウェア構造は、ネットワークインタフェース702、メモリ704、プロセッサ706、I/Oデバイス708、バス710、及び記憶装置712を含む。プロセッサの選択は、十分な速度を有する好適なプロセッサが選ばれる限り重要ではない。メモリ704は、当該技術分野で公知の任意の従来のコンピュータメモリとすることができる。記憶装置712は、ハードドライブ、CDROM、CDRW、DVD、DVDRW、高精細ディスク/ドライブ、超高精細ドライブ、フラッシュメモリカード、又は他の任意の記憶装置を含むことができる。コンピュータ装置700は、1又は2以上のネットワークインタフェース702を含むことができる。ネットワークインタフェースの一例は、イーサネット又は他の種類のLANに接続されるネットワークカードを含む。I/Oデバイス708は、以下のもの、すなわち、キーボード、マウス、モニタ、スクリーン、プリンタ、モデム、タッチスクリーン、ボタンインタフェース、及び他のデバイスのうちの1又は2以上を含むことができる。動き補償方法を実装するのに用いられる動き補償アプリケーション730は、記憶装置712及びメモリ704に記憶され、アプリケーションが通常処理されるように処理される可能性が高い。コンピュータ装置700は、図7に示すより多い又は少ない構成要素を含むことができる。いくつかの実施形態では、動き補償ハードウェア720が含まれる。図7のコンピュータ装置700は、動き補償方法のためのアプリケーション730及びハードウェア720を含むが、動き補償方法は、コンピュータ装置に、ハードウェア、ファームウェア、ソフトウェア、又はそれらの任意の組み合わせとして実装することができる。例えば、いくつかの実施形態では、動き補償アプリケーション730は、メモリ内にプログラムされ、プロセッサを用いて実行される。別の例では、いくつかの実施形態では、動き補償ハードウェア720は、動き補償方法を実装するように専用に設計されるゲートを含む、プログラムされたハードウェアロジックである。
いくつかの実施形態では、動き補償アプリケーション730は、いくつかのアプリケーション及び/又はモジュールを含む。いくつかの実施形態では、モジュールは、1又は2以上のサブモジュールも含む。いくつかの実施形態では、より少ない又は追加のモジュールを含むことができる。
いくつかの実施形態では、動き補償ハードウェア720は、レンズなどのカメラコンポーネント、イメージセンサ、及び/又は他の任意のカメラコンポーネントを含む。
好適なコンピュータ装置の例は、パーソナルコンピュータ、ラップトップコンピュータ、コンピュータワークステーション、サーバ、メインフレームコンピュータ、ハンドヘルドコンピュータ、携帯情報端末、セルラ電話/携帯電話、スマート家電、ゲーム機、デジタルカメラ、デジタルカムコーダ、カメラ付き携帯電話、スマートフォン、携帯音楽プレーヤー、タブレットコンピュータ、移動体デバイス、ビデオプレーヤー、ビデオディスクライター/プレーヤー(例えば、DVDライター/プレーヤー、高精細ディスクライター/プレーヤー、超高精細ディスクライター/プレーヤー)、テレビジョン、家庭用娯楽システム、拡張現実デバイス、仮想現実デバイス、スマートジュエリー(例えば、スマートウォッチ)、車両(例えば、自動運転車両)、又は他の任意の好適なコンピュータ装置を含む。
本明細書で説明する動き補償方法を利用するために、装置が、3Dコンテンツを取得又は受信し、3Dコンテンツの適切で効率的な表示を可能にするように最適化された方法でコンテンツを処理及び/又は送信する。動き補償方法は、ユーザの援助によって又はユーザが関与することなく自動的に実装することができる。
動作時、動き補償方法は、3Dコンテンツをより効率的に処理し、はるかに少ない情報が送られるようにデータを圧縮することを含む。
ジオメトリ情報の動き補償のいくつかの実施形態
1.装置の非一時的メモリにプログラムされた方法であって、
3Dジオメトリから、3Dパッチを生成するステップと、
時点間の対応する3Dパッチを決定するステップと、
前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するステップと、
前記対応する3Dパッチを、2Dキャンバス画像上に投影するステップと、
一連の2Dキャンバス画像を用いて、2D動き補償を実装するステップと、
を含む方法。
2.前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含む、第1項に記載の方法。
3.時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含む、第1項に記載の方法。
4.3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含む、第1項に記載の方法。
5.前記3Dパッチを、前記2Dキャンバス上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含む、第1項に記載の方法。
6.3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させる、第1項に記載の方法。
7.前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立される、第1項に記載の方法。
8.装置であって、
アプリケーションを記憶するための非一時的メモリであって、前記アプリケーションは、
3Dジオメトリから、3Dパッチを生成するステップと、
時点間の対応する3Dパッチを決定するステップと、
前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するステップと、
前記対応する3Dパッチを、2Dキャンバス画像上に投影するステップと、
一連の2Dキャンバス画像を用いて、2D動き補償を実装するステップと、
を実行するためのものである、非一時的メモリと、
前記メモリに結合され、前記アプリケーションを処理するように構成されるプロセッサと、
を含む装置。
9.前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含む、第8項に記載の装置。
10.時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含む、第8項に記載の装置。
11.3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含む、第8項に記載の装置。
12.前記3Dパッチを、前記2Dキャンバス上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含む、第8項に記載の装置。
13.3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させる、第8項に記載の装置。
14.前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立される、第8項に記載の装置。
15.システムであって、
3Dジオメトリから、3Dパッチを生成するように構成される生成モジュールと、
時点間の対応する3Dパッチを決定するように構成される対応モジュールと、
前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するように構成される3Dマッチング動き補償モジュールと、
前記対応する3Dパッチを、2Dキャンバス画像上に投影するように構成される投影モジュールと、
一連の2Dキャンバス画像を用いて、2D動き補償を実装するように構成される2D動き補償モジュールと、
を含むシステム。
16.前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含む、第15項に記載のシステム。
17.時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含む、第15項に記載のシステム。
18.3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含む、第15項に記載のシステム。
19.前記3Dパッチを、前記2Dキャンバス上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含む、第15項に記載のシステム。
20.3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させる、第15項に記載のシステム。
21.前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立される、第15項に記載のシステム。
本発明の構成及び動作の原理の理解を容易にするために、詳細内容を組み込んだ特定の実施形態に関して本発明を説明してきた。このような本明細書における特定の実施形態及びその詳細内容への言及は、本明細書に添付される特許請求の範囲を限定することを意図するものではない。特許請求の範囲によって規定される本発明の精神及び範囲から逸脱することなく、例示のために選択された実施形態に、他の様々な修正を行うことができることは、当業者に容易に理解されるであろう。
100 3Dジオメトリから3Dパッチを取得/生成
102 3Dパッチ対応
104 3Dマッチングしたパッチの動き補償
106 3Dから2Dへのパッチ投影
108 2D動き補償
700 コンピュータ装置
702 ネットワークインタフェース
704 メモリ
706 プロセッサ
708 I/Oデバイス
710 バス
712 記憶装置
720 動き補償ハードウェア
730 動き補償アプリケーション

Claims (21)

  1. 装置の非一時的メモリにプログラムされた方法であって、
    3Dジオメトリから、3Dパッチを生成するステップと、
    時点間の対応する3Dパッチを決定するステップと、
    前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するステップと、
    前記対応する3Dパッチを、2Dキャンバス画像上に投影するステップと、
    一連の2Dキャンバス画像を用いて、2D動き補償を実装するステップと、
    を含むことを特徴とする方法。
  2. 前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含むことを特徴とする、請求項1に記載の方法。
  3. 時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含むことを特徴とする、請求項1に記載の方法。
  4. 3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含むことを特徴とする、請求項1に記載の方法。
  5. 前記3Dパッチを、前記2Dキャンバス画像上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス画像上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含むことを特徴とする、請求項1に記載の方法。
  6. 3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させることを特徴とする、請求項1に記載の方法。
  7. 前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立されることを特徴とする、請求項1に記載の方法。
  8. 装置であって、
    アプリケーションを記憶するための非一時的メモリであって、前記アプリケーションは、
    3Dジオメトリから、3Dパッチを生成するステップと、
    時点間の対応する3Dパッチを決定するステップと、
    前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するステップと、
    前記対応する3Dパッチを、2Dキャンバス画像上に投影するステップと、
    一連の2Dキャンバス画像を用いて、2D動き補償を実装するステップと、
    を実行するためのものである、非一時的メモリと、
    前記非一時的メモリに結合され、前記アプリケーションを処理するように構成されるプロセッサと、
    を含むことを特徴とする装置。
  9. 前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含むことを特徴とする、請求項8に記載の装置。
  10. 時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含むことを特徴とする、請求項8に記載の装置。
  11. 3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含むことを特徴とする、請求項8に記載の装置。
  12. 前記3Dパッチを、前記2Dキャンバス画像上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス画像上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含むことを特徴とする、請求項8に記載の装置。
  13. 3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させることを特徴とする、請求項8に記載の装置。
  14. 前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立されることを特徴とする、請求項8に記載の装置。
  15. システムであって、
    3Dジオメトリから、3Dパッチを生成するように構成される生成モジュールと、
    時点間の対応する3Dパッチを決定するように構成される対応モジュールと、
    前記対応する3Dパッチを用いて、3Dマッチングしたパッチの動き補償を実装するように構成される3Dマッチング動き補償モジュールと、
    前記対応する3Dパッチを、2Dキャンバス画像上に投影するように構成される投影モジュールと、
    一連の2Dキャンバス画像を用いて、2D動き補償を実装するように構成される2D動き補償モジュールと、
    を含むことを特徴とするシステム。
  16. 前記3Dパッチを生成するステップは、前記3Dジオメトリの表面上において接続されるポイントを決定することを含むことを特徴とする、請求項15に記載のシステム。
  17. 時点間の対応する3Dパッチを決定するステップは、各3Dパッチの3Dバウンディングボックスによって作成される立方体の視体積交差を評価することによって、パッチ間の時間的対応点を識別することを含むことを特徴とする、請求項15に記載のシステム。
  18. 3Dマッチングしたパッチの動き補償を実装するステップは、前記対応する3Dパッチを、UVマップ上において、動きを補償するための位置に位置決めすることを含むことを特徴とする、請求項15に記載のシステム。
  19. 前記3Dパッチを、前記2Dキャンバス画像上に投影するステップは、前記対応する3Dパッチを、前記2Dキャンバス画像上に配置して、3Dの一致する座標が、投影後、2Dの同じ位置に対応するようにすることを含むことを特徴とする、請求項15に記載のシステム。
  20. 3Dパッチの深度を調整することによって、対応するパッチデータの類似度を増加させることを特徴とする、請求項15に記載のシステム。
  21. 前記3Dマッチングしたパッチの動き補償を実装するステップ及び前記2D動き補償を実装するステップの後、動き補償された3Dジオメトリが確立されることを特徴とする、請求項15に記載のシステム。
JP2020568718A 2018-06-26 2019-06-12 ジオメトリ情報の動き補償 Active JP7161150B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862690051P 2018-06-26 2018-06-26
US62/690,051 2018-06-26
US16/234,133 US11501507B2 (en) 2018-06-26 2018-12-27 Motion compensation of geometry information
US16/234,133 2018-12-27
PCT/IB2019/054885 WO2020003037A1 (en) 2018-06-26 2019-06-12 Motion compensation of geometry information

Publications (2)

Publication Number Publication Date
JP2021528734A JP2021528734A (ja) 2021-10-21
JP7161150B2 true JP7161150B2 (ja) 2022-10-26

Family

ID=68981596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020568718A Active JP7161150B2 (ja) 2018-06-26 2019-06-12 ジオメトリ情報の動き補償

Country Status (6)

Country Link
US (1) US11501507B2 (ja)
EP (1) EP3794552A1 (ja)
JP (1) JP7161150B2 (ja)
KR (1) KR102402494B1 (ja)
CN (1) CN112219222B (ja)
WO (1) WO2020003037A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
US10699444B2 (en) 2017-11-22 2020-06-30 Apple Inc Point cloud occupancy map compression
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
US11386524B2 (en) 2018-09-28 2022-07-12 Apple Inc. Point cloud compression image padding
US11367224B2 (en) * 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
WO2020072579A1 (en) 2018-10-02 2020-04-09 Futurewei Technologies, Inc. Motion estimation using 3d auxiliary data
US11430155B2 (en) 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
US11095900B2 (en) * 2018-12-19 2021-08-17 Sony Group Corporation Point cloud coding structure
US11348284B2 (en) 2019-01-08 2022-05-31 Apple Inc. Auxiliary information signaling and reference management for projection-based point cloud compression
KR20210141942A (ko) * 2019-03-22 2021-11-23 인터디지털 브이씨 홀딩스 프랑스 포인트 클라우드의 처리
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11625866B2 (en) 2020-01-09 2023-04-11 Apple Inc. Geometry encoding using octrees and predictive trees
US11373339B2 (en) * 2020-03-18 2022-06-28 Sony Group Corporation Projection-based mesh compression
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
CN112819861B (zh) * 2021-02-26 2024-06-04 广州小马慧行科技有限公司 点云的运动补偿方法、装置与计算机可读存储介质
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182605A (ja) 2008-01-30 2009-08-13 Internatl Business Mach Corp <Ibm> 圧縮システム、プログラムおよび方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09271027A (ja) 1996-04-02 1997-10-14 Toppan Printing Co Ltd 多視点画像の動き補償方法
MY118360A (en) * 1996-04-30 2004-10-30 Nippon Telegraph & Telephone Scheme for detecting shot boundaries in compressed video data using inter-frame/inter field prediction coding and intra-frame/intra-field coding
US7463778B2 (en) * 2004-01-30 2008-12-09 Hewlett-Packard Development Company, L.P Motion estimation for compressing multiple view images
WO2007072286A2 (en) * 2005-12-20 2007-06-28 Philips Intellectual Property & Standards Gmbh Method for movement compensation of image data
TWI444049B (zh) * 2011-01-18 2014-07-01 Univ Nat Chiao Tung 畫面估測系統及其估測方法
US20150193915A1 (en) * 2014-01-06 2015-07-09 Nvidia Corporation Technique for projecting an image onto a surface with a mobile device
WO2017154045A1 (en) 2016-03-11 2017-09-14 Nec Corporation 3d motion estimation device, 3d motion estimation method, and program
US11297346B2 (en) * 2016-05-28 2022-04-05 Microsoft Technology Licensing, Llc Motion-compensated compression of dynamic voxelized point clouds
CN106066696B (zh) * 2016-06-08 2019-05-14 华南理工大学 自然光下基于投影映射校正和注视点补偿的视线跟踪方法
EP3272288B1 (en) * 2016-07-22 2019-03-20 Vatech Co. Ltd. Apparatus and method for ct data reconstruction based on motion compensation
EP3301930A1 (en) 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for encoding and decoding an omnidirectional video

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009182605A (ja) 2008-01-30 2009-08-13 Internatl Business Mach Corp <Ibm> 圧縮システム、プログラムおよび方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CAGNIART Cedric et al.,Free-Form Mesh Tracking: a Patch-Based Approach,2020 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,IEEE,2010年08月05日,pp. 1339-1346,<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=5539814>,[検索日:2022年2月18日]
韓 昇龍 他,拡張ブロックマッチングによる3次元ビデオの圧縮に関する検討,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2005年06月24日,Vol.105 No.161,pp. 13-18

Also Published As

Publication number Publication date
WO2020003037A1 (en) 2020-01-02
CN112219222A (zh) 2021-01-12
US11501507B2 (en) 2022-11-15
KR20200142567A (ko) 2020-12-22
KR102402494B1 (ko) 2022-05-30
EP3794552A1 (en) 2021-03-24
CN112219222B (zh) 2024-06-25
US20190392651A1 (en) 2019-12-26
JP2021528734A (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
JP7161150B2 (ja) ジオメトリ情報の動き補償
CN113557745B (zh) 点云几何结构填充
US11010955B2 (en) Point cloud mapping
CN110276829B (zh) 通过多尺度体素哈希处理的三维表示
US9269003B2 (en) Diminished and mediated reality effects from reconstruction
US20190043253A1 (en) View dependent 3d reconstruction mechanism
US20170064279A1 (en) Multi-view 3d video method and system
CN107958446B (zh) 信息处理设备和信息处理方法
EP3251086A1 (en) Method and apparatus for generating an initial superpixel label map for an image
JP2019534511A (ja) 自由動作fvvアプリケーションのためのマルチレイヤuvマップに基づくテクスチャレンダリング
JP2022519462A (ja) ホモグラフィ変換を使用した点群符号化
CN115953468A (zh) 深度和自运动轨迹的估计方法、装置、设备及存储介质
US11605184B2 (en) Point cloud global tetris packing
JP7450861B2 (ja) ルックアップテーブルを使用するポイントクラウド圧縮のためのフォワード及び逆量子化
US11146777B2 (en) Efficient image population from captured scene
US20230306683A1 (en) Mesh patch sub-division

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220927

R151 Written notification of patent or utility model registration

Ref document number: 7161150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151