JP7446234B2 - 投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法 - Google Patents

投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法 Download PDF

Info

Publication number
JP7446234B2
JP7446234B2 JP2020551583A JP2020551583A JP7446234B2 JP 7446234 B2 JP7446234 B2 JP 7446234B2 JP 2020551583 A JP2020551583 A JP 2020551583A JP 2020551583 A JP2020551583 A JP 2020551583A JP 7446234 B2 JP7446234 B2 JP 7446234B2
Authority
JP
Japan
Prior art keywords
point
projection
depth value
projection mode
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020551583A
Other languages
English (en)
Other versions
JPWO2019199726A5 (ja
JP2021519533A (ja
Inventor
オリビエ,ヤニック
リカード,ジュリアン
グーデ,セリーヌ
ラック,ジョアン
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2021519533A publication Critical patent/JP2021519533A/ja
Publication of JPWO2019199726A5 publication Critical patent/JPWO2019199726A5/ja
Application granted granted Critical
Publication of JP7446234B2 publication Critical patent/JP7446234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding

Description

本原理は、一般に、3Dオブジェクトの外部表面を表す点群のコーディングおよび復号に関連する。特に、排他的ではなく、本原理の技術分野は、そのような点群のジオメトリを表す深度画像の符号化/復号に関連する。
本節では、読者に当技術分野の様々な態様を紹介することを意図しており、これらの態様は、以下に説明および/または特許請求される本開示の様々な態様に関連し得る。この議論は、読者に背景情報を提供して、本原理の様々な態様のより良好な理解を容易にするのに役立つと考えられる。したがって、これらの記述は、この観点から読み取られるべきであり、先行技術を容認したものとして読み取られるべきではないということを理解されたい。
点群は、何らかの座標系のデータ点のセットである。3次元座標系(3D空間)では、これらの点は通常、3Dオブジェクトの外部表面を表すことが意図されている。点群の各点は、その位置(3D空間でのX、Y、Z座標)によって定義されることが多く、場合によっては、例えば、RGBまたはYUV色空間で表される色、透明度、反射率、2成分法線ベクトルなどの他の関連付けられる属性によって定義されることもある。
通常、点群を6成分点(X、Y、Z、R、G、B)または同等の(X、Y、Z、Y、U、V)のセットとして表し、ここで、(X、Y、Z)は3D空間における色付きの点の座標を定義し、(R、G、B)または(Y、U、V)はこの色付きの点の色を定義する。
点群は、群が時間に関して発展するか否かに応じて、静的または動的であり得る。動的な点群の場合、点の数は一定ではなく、むしろ、一般に時間とともに発展する。したがって、動的な点群は、点のセットの時間順のリストである。
実際には、点群は、文化遺産や建築物など、様々な目的に使用でき、彫像や建築物などのオブジェクトを3Dでスキャンして、オブジェクトを送ったり、訪問したりすることなく、オブジェクトの空間構成を共有する。また、例えば、オブジェクトが破壊される、例えば、地震によって寺院が破壊されることがある場合に、オブジェクトの知識を確実に保存する方法である。このような点群は通常、静的で、色付きで、巨大である。
別の使用例は、3D表現を使用して、地図が平面に限定されず、起伏を含むことができる地形学および地図作成におけるものである。現在、Googleマップは、3Dマップの良い例だが、点群ではなくメッシュを使用している。それでも、点群は3Dマップに適したデータ形式である場合があり、そのような点群は通常、静的で、色付きで、巨大である。
自動車産業および自動運転車も、点群が使用され得る領域である。自動運転車は、そのすぐ近くにある現実に基づいて適切な運転判断を行うために、その環境を「探る」ことができるべきである。LIDARのような典型的なセンサは、意思決定エンジンで使用される動的な点群を生成する。これらの点群は人間が見ることを意図しておらず、典型的には小さく、必ずしも色付けされておらず、高頻度でキャプチャされるため動的である。これらは、Lidarによって提供される反射率のような他の属性を持っていてもよく、この属性は検知されたオブジェクトの材料についての優れた情報であり、意思決定に役立つ場合がある。
バーチャルリアリティと没入型の世界は最近話題となっており、2Dフラットビデオの未来として多くの人が予測している。基本的な考え方は、看者が標準的なテレビに対抗して、その人の周りのすべての環境に没入させることであり、自分の前の仮想世界のみを見ることができる。環境における看者の自由度に応じて、没入感にはいくつかの段階がある。色付きの点群は、バーチャルリアリティ(またはVR)の世界を配信するのに良好な形式の候補である。それらは静的または動的であり、通常は平均サイズであり、一度に数百万点以下であると言える。
点群圧縮は、ビットストリームのサイズがエンドユーザへの実用的な記憶/送信を可能にするのに十分に小さい場合にのみ、没入型世界に対して3Dオブジェクトの記憶/送信に成功する。
許容できる(または好ましくは、非常に良い)体験品質を維持しながら、ビットレートの適度な消費で動的点群をエンドユーザに配信できることが重要である。これらの動的点群の効率的な圧縮が、没入型世界の配信チェーンを実用的なものにするための重要なポイントである。
画像ベースの点群圧縮技術は、圧縮効率と低複雑性の組み合わせにより、ますます人気が高まっている。これらは2つの主要なステップで進行する。すなわち、まず、点群、つまり3D点を2D画像に投影(直交投影)する。例えば、少なくとも1つの深度画像は点群のジオメトリ、つまり3D空間における3D点の空間座標を表し、少なくとも1つのテクスチャ画像は、点群の3D点に関連付けられた属性、例えば、それら3D点に関連付けられたテクスチャ/色情報を表す。次に、これらの技術は、従来のビデオ符号化器を使用して、そのような深度とテクスチャ画像を符号化する。
画像ベースの点群圧縮技術は、例えば、HEVC(「ITU-T H.265 Telecommunication standardization sector of ITU(10/2014),series H:audiovisual and multimedia systems,infrastructure of audiovisual services-coding of moving video,High efficiency video coding,Recommendation ITU-T H.265」)のような2Dビデオ符号化器の性能を活用することによって、良好な圧縮性能をを達成し、同時にシンプルな投影スキームを使用して複雑さを低く抑えている。
画像ベースの点群圧縮技術の課題の1つは、特に点分布が多くの折り目(衣服におけるような凹領域/凸領域)を有する表面に従うとき、または点分布が(毛皮や髪のような)表面にまったく従わないときに、点群が画像への投影に適していない場合があるということである。これらの状況では、画像ベースの点群圧縮技術は、低い圧縮効率(多くの小さな投影が必要であり、2Dビデオ圧縮の効率を低下させる)または低品質(点群を表面に投影することが困難なため)に悩まされる。
この問題を緩和するために最新技術で使用されるアプローチの1つは、複数のジオメトリおよびテクスチャ情報を画像の同じ空間位置(ピクセル)に投影することである。これは点群の3D点ごとにいくつかの深度および/またはテクスチャ画像が生成される場合があることを意味する。
これは、例えば、ISO/IEC JTC1/SC29/WG11/N17248、マカオ、中国、2017年10月に定義されているような、いわゆるテストモデルカテゴリ2の点群符号化器(TMC2)の場合であり、点群は投影面に直交投影される。次いで、投影面の座標ごとに2つの深度値が関連付けられ、1つは最も近い点に関連付けられた深度値(最小深度値)を表し、もう1つは最も遠い点の深度値(最大深度値)を表す。次いで、第1の深度画像が最小深度値(D0)から生成され、第2の深度画像がD1-D0<=SurfaceThicknessを満たす最大深度値(D1)と最小深度値(D0)との差から生成され、SurfaceThicknessは最大表面厚であり、例えば、4に等しい。
次いで、深度画像と関連付けられたメタデータが符号化および復号される。次いで、点群のジオメトリが、復号された深度画像から再構築される。次に、色/テクスチャが再構築された点群の各点に割り当てられ、テクスチャ画像(ここでは2つ)が割り当てられた色/テクスチャから生成される。次いで、2つのテクスチャ画像が符号化される。
以下は、本原理のいくつかの態様の基本的な理解を提供するために、本原理の簡略化された概要を提示する。この概要は、本原理の網羅的な要約ではない。本原理の主要なまたは重要な要素を特定することを意図していない。以下の概要は、以下に提供されるより詳細な説明への前置きとして、本原理のいくつかの態様を単純化した形で提示しているにすぎない。
少なくとも1つの実施形態の一般的な態様によれば、第1の深度画像の画像領域に関連付けられた投影モードを符号化することであって、投影モードは、画像領域が同じ投影方向に沿った点群のうちの少なくとも1つの直交投影された3D点の最小深度値または最大深度値のいずれかを格納するかどうかを示す、符号化することと、投影モードの関数として、深度の最小深度値および最大深度値を符号化することと、を含む方法が提供される。
一実施形態によれば、投影モードの関数として深度の最小深度値および最大深度値を符号化することは、投影モードが第1の値に等しいときに、第1の画像データとして最小深度値を符号化し、第2の画像データとして最大深度値を表す情報を符号化することと、投影モードが第2の値に等しいときに、第1の画像データとして最大深度値を符号化し、第2の画像データとして最小深度値を表す情報を符号化することと、を含む
一実施形態によれば、最小深度値または最大深度値のいずれかを表す情報は、最大深度値と最小深度値との間の絶対差である。
一実施形態によれば、本方法は、符号化された画像領域を送信することと、投影モードを信号伝達することと、をさらに含む。
一実施形態によれば、投影モードは、投影モードが変化し得るか否かを示すために、点群レベルで信号伝達される。
一実施形態によれば、投影モードが変化するとして点群レベルで信号伝達される場合、投影モードは、パッチレベルで信号伝達される。
少なくとも1つの実施形態の別の一般的な態様によれば、第1の深度画像の画像領域が、同じ投影方向に沿った点群の少なくとも1つの直交投影された3D点の最小深度値または最大深度値のいずれかを格納しているかどうかを示す投影モードを取得することと、投影モードの関数として、深度の最小深度値および最大深度値を復号することと、を含む方法が提供される。
一実施形態によれば、投影モードの関数として深度の最小深度値および最大深度値を復号することは、投影モードが第1の値に等しいときに、第1の画像データとして最小深度値を復号し、第2の画像データとして最大深度値を表す情報を復号することと、投影モードが第2の値に等しいときに、第1の画像データとして最大深度値を復号し、第2の画像データとして最小深度値を表す情報を復号することと、を含む。
一実施形態によれば、最小深度値または最大深度値のいずれかを表す情報は、最大深度値と最小深度値との間の絶対差である。
一実施形態によれば、投影モードはビットストリームからである。
少なくとも1つの実施形態の1つ以上はまた、デバイス、コンピュータプログラム製品、非一時的なコンピュータ可読媒体、および信号を提供する。
本原理の特定の性質、および本原理の他の目的、利点、特徴、および使用は、添付の図面と併せて以下の例の説明から明らかになるであろう。
図面には、いくつかの実施形態の例が図示される。図面は以下を示す。
画像ベースの点群符号化構造の例の概略ブロック図を図示する。 図1の符号化器のジオメトリ圧縮部を示す。 点群が4つのCCに分割された第1の例を示す。 点群が4つのCCに分割された第2の例を示す。 図3および図4の第1の例および第2の例に適用されたときの少なくとも1つの実施形態による方法の結果を示す。 図3および図4の第1の例および第2の例に適用されたときの少なくとも1つの実施形態による方法の結果を示す。 少なくとも1つの実施形態による、点群の深度値を符号化するための方法のステップのブロック図を示す。 少なくとも1つの実施形態による、点群の少なくとも1つの3D点の深度値を復号するための方法のステップのブロック図を示す。 図1~図8に関連して説明される方法を実装するように構成され得るデバイスの例示的なアーキテクチャを表す。 少なくとも1つの実施形態の例による、デバイスAとデバイスBとの間の伝送システムを概略的に示す。
同様または同一の要素は、同じ参照番号で参照される。
本原理の例の説明
本原理は、本原理の例が示される添付の図面を参照して以下でより完全に説明される。しかしながら、本原理は、多くの代替形態で具体化されてもよく、本明細書に明示される例に限定されるものとして解釈されるべきではない。したがって、本原理は様々な修正形態および代替形態を受け入れる余地があるが、その特定の例は、図面に例として示され、本明細書で詳細に説明される。しかしながら、本原理を開示された特定の形態に限定する意図はないが、むしろ、本開示は、特許請求の範囲で定義されているように本原理の精神および範囲に含まれるすべての修正物、等価物、および代替物を網羅すると理解されたい。
本明細書で使用される専門用語は、特定の例を説明することのみを目的とし、本発明を限定することを意図していない。本明細書で使用される場合、単数形「a」、「an」、および「the」は、文脈が明らかに他を示さない限り、複数形も含むことが意図される。本明細書で使用される場合、「備える」、「備えている」、「含む」、および/または「含んでいる」という用語は、述べられた特徴、整数、ステップ、動作、要素、および/または構成要素の存在を特定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、および/またはそれらのグループの存在または追加を排除しないことがさらに理解されよう。さらに、要素が別の要素に「応答する」または「接続される」と言及される場合、それは他の要素に直接応答するか、もしくは接続され得るか、または介在する要素が存在してもよい。対照的に、要素が他の要素に「直接応答する」または「直接接続される」と言及される場合、介在する要素は存在しない。本明細書で使用する場合、「および/または」という用語は、関連する列挙された項目のうちの1つ以上のありとあらゆる組合せを含み、「/」と略記することができる。
本明細書では、第1、第2などの用語を使用して様々な要素を説明する場合があるが、これらの要素はこれらの用語によって限定されるべきではないことが理解されよう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、本原理の教示から逸脱することなく、第1の要素を第2の要素と呼ぶことができ、同様に、第2の要素を第1の要素と呼ぶことができる。
一部の図は、通信の主要な方向を示すために通信経路上に矢印を含んでいるが、通信は、描かれた矢印と反対の方向で発生することがあることを理解されたい。
一部の例は、ブロック図および動作フローチャートに関して説明されており、各ブロックは、指定された論理機能(複数可)を実装するための1つ以上の実行可能な命令を含む回路要素、モジュール、またはコードの一部を表す。他の実装態様では、ブロックに記載されている機能(複数可)が記載されている順序とは異なる順序で発生することがあることにも留意されたい。例えば、連続して示されている2つのブロックは、実際、実質的に同時に実行されることがあるか、またはブロックは、伴う機能に応じて、時には逆の順序で実行されることがある。
本明細書における「一例による」または「一例における」への言及は、例に関して説明される特定の特徴、構造、または特性が、本原理の少なくとも1つの実装態様に含まれ得ることを意味する。本明細書の様々な場所での「一例による」または「一例における」という語句の出現は、必ずしもすべて同じ例を指しているわけではなく、別個または代替の例が他の例を必ずしも相互に排除しているわけでもない。
請求項に現れる参照番号は、例証としてのみであり、請求項の範囲に限定的な影響を与えるものではない。
明示的には説明されていないが、本例および変形例は、任意の組み合わせまたは部分的な組み合わせで使用されてもよい。
本原理は、2つの深度画像からの点群のジオメトリを符号化/復号することについて説明されているが、点群のシーケンスのジオメトリが深度画像の2つのシーケンス(ビデオ)によって/から符号化/復号されるため、点群のシーケンス(一時的に動的な点群)の符号化/復号に及び、点群に関連付けられた2つの深度画像は、シーケンスの別の点群の2つの深度画像とは無関係に符号化される。
以下では、「画像領域」という用語は、画像のピクセルのセットを指す。これらのピクセルは隣接するピクセルであってもなくてもよいが、すべてのピクセルは少なくとも1つの共通プロパティを共有する。
例えば、画像自体が画像領域であると見なされてもよい。画像はまた、複数のブロックに分割されてもよく、その場合、ブロックが画像領域である。
画像領域はまた、非長方形の形状を有してもよい。これは、例えば、同じ(または類似の)抽出された特徴を有する画像のピクセルが関連付けられて画像領域を形成する場合である。
画像から抽出された特徴の例としては、色、テクスチャ、法線ベクトルなどであってもよい。
図1は、TMC2点群符号化器の概要を示す。上の行(ジオメトリ圧縮)は、深度画像を使用して、点群のジオメトリ情報を符号化する。中央の行(メタデータ圧縮)は、深度画像から元の点群のジオメトリを再構築するために必要なメタデータを符号化する。下の行(テクスチャ圧縮)は、色(テクスチャ)画像を使用して、再構築されたジオメトリの色(テクスチャ)情報を符号化する。
図2に示すジオメトリ圧縮部分をさらに詳しく見てみる。まず、入力点群(PC)は、接続成分(CC)にセグメント化され、各CCは、同様の法線を持つ隣接する3D点のセットである。各CCは、3つの主平面XY、XZ、またはYZのうちの1つに投影され、CCの3D点の平均法線に近い法線を選択する。ジオメトリ情報の投影は、各3D点から投影面までの距離(深度)を投影面に投影することに存する。例えば、CCからXY平面に投影される3D点p=(x,y,z)は、XY平面の(x,y)ピクセルに投影されたzの値になる。CC内の3D点の分布に応じて、2つ以上の値が投影面の同じ座標に投影されることがある。単純なアプローチでは、最も近い点に対応する値(つまり、最小深度値)を単純に保持するが、これでは、(衣類の折り目のような)より複雑な3D点分布を捉えることができないことがある。図2に示すように、TMC2テストモデルは、投影面の座標ごとに2つの値、すなわち、最小(depth0)と最大(depth1)の深さを保持する。これを行うことにより、符号化される投影データの量を増やすことを犠牲にして、3D空間における点の分布をより適切にキャプチャする。
CCの投影は、投影されたデータの2D画像であるパッチをもたらす。投影面の各座標に投影される値と同じだけCCごとにパッチがある。TMC2には、2つの深度パッチがある(1つは最小深度のためのもの、1つは最大深度のためのもの)。最小深度値および最大深度値を格納するパッチは、画像データとして符号化される。したがって、TMC2において、2つの深度画像が必要とされる。すなわち、1つは最小深度値を表す情報を格納するためのもの、1つは最大深度値を表す情報を格納するためのものである。
入力点群ごとに複数の深度画像を使用すると、(1)依然として点群のジオメトリを適切にキャプチャしない場合があり、(2)ビットレート全体を増加させ、圧縮効率を低下させる。
図3は、点群が4つのCCに分割された第1の例を示す(点は、異なるレベルの灰色の正方形とハッシュされた正方形で表されている)。ハッシュされた正方形で表されるCCに焦点を当てている。このCCの点は垂直「平面」に投影され(この例では、1Dに投影された2D点群)、その結果、投影平面の一部の位置が2つ以上の値(この例では、0から7)を有する。
上で説明したように、TMC2では、1つの投影画像の各ピクセルについて2つの深度値が格納される。2つの深度値は、投影された点の最小深度値および最大深度値に対応し、閾値「surfaceThickness」以下の差値を有する。図3の例では、パラメータは4に等しい。この特定の値は、TMC2点群ビデオコーデックに優れたレート歪み効率を提供するが、ここでは非限定的な例としてのみ提供される。
この第1の例では、CCの数個の点(ハッシュされた正方形)がCCの主表面から切断されている。最小深度値と最大深度値との間の距離は「surfaceThickness」よりも小さいため、逆投影後の再構築されたCC(再構築されたパッチ)は、点が欠落することなく完璧である。ただし、図3に示すように、最小深度値を格納したパッチはCCの主外表面に従わず、非常にノイズが多いことに留意する。これは信号に高周波を導入し、この不均一なパッチはHEVC符号化をより困難にし、効率を低下させる。これにより、第1の深度画像に関連付けられたビットレートが増加し、ジオメトリの再構築の精度を低下させる。
さらに、テクスチャ画像も第1の深度画像に関連付けられてもよい。この例では、CCの主表面上の均一な色(例えば、値240)と、主表面から離れた点の別の色(例えば、値16)を考えてみる。この色分布は、点群において典型的であり、高周波の存在によりノイズが多く、HEVCで符号化することが難しい最小深度値に関連付けられたテクスチャパッチをもたらす。
図4は、点群が4つのCCに分割されている第2の例を示す(点は、異なるレベルの灰色の正方形およびハッシュされた正方形で表される)。この第2の例は、同様に点群が4つのCCに分割されている第1の例と似ている。第1の例との違いは、最小深度値と最大深度値との間の距離が「surfaceThickness」パラメーター(点線の正方形)より大きいことである。したがって、最大深度値は保持されないため、逆投影後に再構築されたCCの品質は悪く、多くの欠損点がある。欠損点のほとんどが3D主表面に属しているという事実は、再構築の問題を悪化させる(客観的な測定基準と視覚的な品質の両方で)。第1の例におけるように、パッチは均一ではなく、非常にノイズが多い。それは、信号に高周波を導入し、HEVC符号化を非常に困難にし、効率を低下させる。これにより、第1の深度画像に関連付けられたビットレートが増加し、ジオメトリの再構築の精度を低下させる。
さらに、テクスチャ画像も第1の深度画像に関連付けられてもよい。この例では、CCの主表面上の均一な色(例えば、値240)と、主表面から離れた点の別の色(例えば、値16)を考えてみる。この色分布は、点群において典型的であり、高周波の存在により非常にノイズが多く、HEVCで符号化することが難しい最小深度値に関連付けられたテクスチャパッチをもたらす。
少なくとも1つの実施形態の一般的な態様によれば、典型的には、投影面へのパッチの投影に対応する画像領域について、第1の深度画像に最小深度値または最大深度値を格納するかどうか、第2の深度画像に最大値または最小値を表す情報を格納するかどうかを決定する方法が提供される。
点群圧縮の場合、TMC2コーデックは、3つの可能な投影方向から選択することにより、各接続成分の投影を最適化しようとする。本実施形態の少なくとも1つは、各投影方向に対して2つの異なる投影モードを提供することにより、各接続成分の投影をさらに最適化することを可能にする。これにより、接続成分の特性への投影をより良好に調整することが可能になる。
最小深度値または最大深度値が第1の深度画像に格納されるかどうかを決定すると(常に最小深度値を格納するのではなく)、HEVC符号化のパフォーマンス、したがってTMC2v0コーデック全体のパフォーマンスが向上する。さらに、最大深度値を格納することは、欠損点の数を減らし、残りの欠損点が3D主表面に属する可能性が低くなる(図7を参照)。これにより、客観的な品質測定基準(ジオメトリとテクスチャの両方)が改善され、再構築された点群ビデオの視覚的な品質が大幅に改善される。
図5および図6は、図3および図4の第1および第2の例に適用されたときの少なくとも1つの実施形態による方法の結果を示す。
これらの例では、接続成分CCの投影は、D0で示される第1の深度画像の最小深度値(左側)または第1の深度画像D0の最大深度値(右側)を格納する。
示されているように、接続成分CCについて、第1の深度画像D0に最大深度値を格納することを決定する場合、結果は最小深度を格納するよりも明らかに均一であり、HEVC符号化のパフォーマンスを向上させる(高周波が削除されている)。
図7は、少なくとも1つの実施形態による、点群の深度値を符号化するための方法のステップのブロック図を示す。
ステップ710において、モジュールは、第1の深度画像の画像領域が同じ投影方向に沿った点群の少なくとも1つの直交投影された3D点の最小深度値または最大深度値のいずれかを格納するかどうかを投影モードが示すかどうかを決定する。
ステップ720において、モジュールは、投影モードの関数として深度の最小深度値および最大深度値を符号化する。
ステップ720の一実施形態によれば、モジュールは、投影モードの関数として深度の最小深度値および最大深度値を符号化し、投影モードが第1の値に等しいときに、第1の画像データとして最小深度値を符号化し、第2の画像データとして最大深度値を表す情報を符号化することと、投影モードが第2の値に等しいときに、第1の画像データとして最大深度値を符号化し、第2の画像データとして最小深度値を表す情報を符号化すること、とを含む。
一実施形態によれば、最小深度値または最大深度値のいずれかを表す情報は、最大深度値と最小深度値との間の絶対差である。
一実施形態によれば、ステップ730において、モジュールは、第1の、場合によっては第2の深度画像の符号化された画像領域および投影モードを送信する。
ステップ730の一実施形態によれば、投影モードは、投影モードが変化し得るか否かを示すために、点群レベルで信号伝達される。
ステップ730の一実施形態によれば、変化するとして投影モードが点群レベルで信号伝達される場合、投影モードはパッチレベルで信号伝達される。
したがって、投影モードがパッチごとに1ビットだけの場合であっても、その値が一定(つまり、すべてのパッチで同じ)であるときに、すべてのパッチに対してコーディングするのは最適ではない。投影モードが変更されていないか、またはビットレートを低減ししない場合、より高いレベルで信号伝達する。
TMC2に適用されるときに、実施形態のうちの1つは、2D画像のピクセルに(3D空間からの)3D点を投影するために使用されてもよい。言い換えると、実施形態のうちの1つの実装態様は、以下のように、接続成分(3D)をパッチ(2D)に投影してもよい。
接続成分CCに対して、モジュールは、投影方向(X、Y、またはZ軸)を選択し、選択した投影方向に従ってこれらのパラメータnormalAxis、tangentAxis、bitangentAxisを設定し、normalAxis、tangentAxis、およびbitangentAxisはそれぞれ、パッチの法線、接線、および従接線軸に沿った再構築パッチ点に適用されるシフトを指す。
ステップ710では、投影モードProjectionModeが決定される。
ステップ720では、第1の深度画像が以下によって初期化される。
p.d0=invalidであり、
ここで、p.d0は第1の深度画像のピクセルpの深度値を意味し、「invalid」は初期値を示す。
次に、現在の接続成分CCの各点pに対して、以下のように現在の点pに投影を実行する。
D1=dpdu_3d_shift_normal_axis[frmIdx][patchIndex]
U1=dpdu_3d_shift_tangent_axis[frmIdx][patchIndex]
V1=dpdu_3d_shift_bitangent_axis[frmIdx][patchIndex]
ここで、dpdu_3d_shift_tangent_axis[frmIdx][p]は、パッチフレームfrmIdxにおけるインデックスpを有するパッチの接線軸に沿って再構築されたパッチ点に適用されるシフトと、パッチフレームRefIdxにおけるインデックスPredIdxを有するパッチの接線軸に沿って再構築されたパッチ点に適用されるシフトとの差を指定する。dpdu_3d_shift_tangent_axis[frmIdx][p]の値は、両端を含め(-2gps#geometry#3d#coordinates#bitdepth#minus1+1+1)から(2gps#geometry#3d#coordinates#bitdepth#minus1+1-1)の範囲内であるとし、dpdu_3d_shift_bitangent_axis[frmIdx][p]は、パッチフレームfrmIdxにおけるインデックスpを有するパッチの従接線軸に沿って再構築されたパッチ点に適用されるシフトと、パッチフレームRefIdxにおけるインデックスPredIdxを有するパッチの従接線軸に沿って再構築されたパッチ点に適用されるシフトとの差を指定する。dpdu_3d_shift_bitangent_axis[frmIdx][p]の値は、両端を含め(-2gps#geometry#3d#coordinates#bitdepth#minus1+1+1)から(2gps#geometry#3d#coordinates#bitdepth#minus1+1-1)の範囲内であるとし、dpdu_3d_shift_normal_axis[frmIdx][p]は、パッチフレームfrmIdxにおけるインデックスpを有するパッチの法線軸に沿って再構築されたパッチ点に適用されるシフトとパッチフレームRefIdxにおけるインデックスPredIdxを有するパッチの法線軸に沿って再構築されたパッチ点に適用されるシフトとの差を指定する。dpdu_3d_shift_normal_axis[frmIdx][p]の値は、両端を含め(-2gps#geometry#3d#coordinates#bitdepth#minus1+1+1)から(2gps#geometry#3d#coordinates#bitdepth#minus1+1-1)の範囲内であるとする。
ステップ720の実施形態によれば、投影モードProjectionMode==0(第1の値)の場合、第1の深度画像に現在の点pの最小深度値を格納する。すなわち、
p.d0[u,v]=min(d,p.d0[u,v])である。
次に、投影モードProjectionMode==1(第2の値)の場合、第1の深度画像に現在の点pの最大深度値を格納する。すなわち、
P.d0[u,v]=max(d,p.d0[u,v])である。
次に、第2の深度画像が初期化される。
p.d1=p.d0であり、
ここで、p.d1は、第2の深度画像のピクセルpの深度値を意味する。
次に、現在の接続成分CCの各点pに対して、以下のように現在の点pに投影を実行する。
d=point[p.normalAxis]-p.D1
u=point[p.tangentAxis]-p.U1
v=point[p.bitangentAxis]-p.V1
投影モードProjectionMode==0(第1の値)であり、現在のピクセルが有効である場合に、((((dp.d0[u,v])<=surfaceThickness)および(d>p.d1[u,v]))ならば、
p.d1[u,v]=dであり、
投影モードProjectionMode==1(第2の値)であり、現在のピクセルが有効な場合に、(((p.d0[u,v]-d)<=surfaceThickness)および(d<p.d1[u,v]))ならば、
p.d1[u,v]=dである。
少なくとも1つの実施形態の実装態様の結果は、2つの深度画像を生成し得る。
TMC2において、第1の深度画像の深度値が直接符号化される。ただし、第2の深度画像における深度値は、D0に関してデルタとして符号化されてもよい。すなわち、delta_depth=d1-d0である。
少なくとも1つの実施形態によれば、第2の深度画像d1における深度値を符号化するために使用されるdelta_depthは、以下のように計算され得る。
delta_depth=abs(d1-d0)であり、
ここで、「abs」は絶対値を示す。
図8は、少なくとも1つの実施形態による、点群のうちの少なくとも1つの3D点の深度値を復号するための方法のステップのブロック図を示す。
ステップ810において、モジュールは、第1の深度画像の画像領域が、同じ投影方向に沿った点群のうちの少なくとも1つの直交投影された3D点の最小深度値または最大深度値のいずれかを格納しているかどうかを示す投影モードを取得する。
最小深度値と最大深度値は、投影面から決定される。したがって、第1の投影面と第2の投影面が平行であるときに、第1の投影面から決定される最小深度値、それぞれ最大深度値は、第2の投影面から決定される最大深度値、それぞれ最小深度値に等しい。言い換えれば、最小深度値と最大深度値という用語は、投影面から定義される相対的な用語である。
ステップ820において、モジュールは、投影モードの関数として深度の最小深度値および最大深度値を復号する。
ステップ820の実施形態によれば、モジュールは、投影モードの関数として深度の最小深度値および最大深度値を復号し、投影モードが第1の値に等しいときに、第1の画像データとして最小深度値を復号し、第2の画像データとして最大深度値を表す情報を復号することと、投影モードが第2の値に等しいときに、第1の画像データとして最大深度値を復号し、第2の画像データとして最小深度値を表す情報を復号することと、を含む。
一実施形態によれば、最小深度値または最大深度値のいずれかを表す情報は、最大深度値と最小深度値との間の絶対差である。
一実施形態によれば、ステップ830において、モジュールはビットストリームから投影モードを導出する。
TMC2に適用されるときに、実施形態のうちの1つは、少なくとも1つの投影モードを考慮に入れて、第1および第2の深度画像から(少なくとも1つの3D点のジオメトリを再構築するために)少なくとも1つの3D点の深度値を導出するために使用され得る。言い換えれば、実施形態のうちの1つの実装態様は、以下のようにパッチpに対応する接続成分を再構築し得る。
パッチpの各ピクセル(u,v)に対して、d0(u,v)は第1の深度画像のピクセルであり、モジュールは以下のように第1の深度画像から3D点P0を計算する。
P0[p.normalAxis]=p.D1+d0(x,y)
P0[p.tangentAxis]=p.U1+u
P0[p.bitangentAxis]=p.V1+v
次に、モジュールは、第1と第2の深度画像から3D点P1を計算する。
sign=p.ProjectionMode==0?1:-1;
d1=d0(x,y)+sign*min(max(0,delta_depth(x,y)),surfaceThickness)
P1[p.normalAxis]=p.D1+d1
P1[p.tangentAxis]=p.U1+u
P1[p.bitangentAxis]=p.V1+v
ここで、p.ProjectionModeは、パッチに関連付けられた投影モードを示す。
ステップ730および830の実施形態によれば、接続成分を投影/再構築するために使用される投影モード(ProjectionModeパラメータ)は、逆投影を実行するために(他のパラメータとともに)既知であり得る。点群圧縮の場合、これは、投影モードが符号化器と復号器によって事前に知られているか、ビットストリームで符号化器から復号器に送信され得ることを意味する。
ステップ730および830の実施形態によれば、投影モードは、その構文が表1に提供されている構文要素ReadPatchMetadata()関数の構文に従って、パッチレベルで信号伝達される。
Figure 0007446234000001
ステップ730および830の実施形態によれば、投影モードが変化するとして点群レベルで信号伝達される場合、投影モードはパッチレベルで信号伝達される。
例えば、第1の構文要素ProjectionModeGlobalが信号伝達される。点群ごとに1回定義されるその第1の構文要素は、(パッチごとの)投影モードが「可変」(0)か、「常に最小」(1)か、または「常に最大」(2)かどうかを示す。投影が可変であることを第1の構文要素が示すときに、パッチごとに定義された第2の構文要素ProjectionModeも信号伝達される。
例えば、TMC2ではReadOccupancyMapとして知られる点群メタデータに第1の構文要素が追加される。エントロピーコーディングは、固定長のバイナリ値の代わりにProjectionModeGlobalにオプションで使用することができる。
第1の構文要素ReadOccupancyMap()関数の可能な構文が表2に提供される。
Figure 0007446234000002
第2の構文要素ReadPatchMetadata()関数の構文が表3に提供され得る。
Figure 0007446234000003
ステップ710の実施形態によれば、第1の深度画像の画像領域が、同じ投影方向に沿った点群の少なくとも1つの直交投影された3D点の最小深度値または最大深度値のいずれかを格納するかどうかを示す投影モードは、次のように決定される。
-少なくとも1つの3D点をすべて3つの主平面XY、XZ、およびYZに向けて投影し、各3D点から投影平面までの距離(つまり、深度)を投影する。投影は、それぞれ、3D空間のZ、Y、およびZ軸に沿って、無限大またはマイナス無限大のいずれかに向かう。投影の結果は、[bbox_x_size,bbox_y_size]サイズで6つの異なる2D平面に格納される。3つの配列は、XY、XZ、およびYZ平面の最小深度値を格納し、その他の3つの配列は、XY、XZ、およびYZ平面の最大深度値を格納する。すなわち、
1)box_min_depth_array[x][bbox_x_size,bbox_y_size]
2)box_min_depth_array[y][bbox_x_size,bbox_y_size]
3)box_min_depth_array[z][bbox_x_size,bbox_y_size]
であり、最大深度値を格納するための3つの以下の2D平面は
4)box_max_depth_array[x][bbox_x_size,bbox_y_size]
5)box_max_depth_array[y][bbox_x_size,bbox_y_size]
6)box_max_depth_array[z][bbox_x_size,bbox_y_size]であり、
-現在のパッチに割り当てられた「normalAxis」方向に従って、少なくとも1つの3D点を投影することにより、D0に格納された最良の深度(最小または最大)を選択する。次いで、現在の深度値が、box_min_depth_array[normalAxis]およびbox_max_depth_array[normalAxis]にそれぞれ格納されている最小深度値または最大深度値と等しいかどうかを検査する。1つのカウンタcptMinDepthまたはcptMaxDepthは、現在の深度値に従って増分される。すなわち、現在の深度がbox_min_depth_arrayにある場合、cptMinDepthが増分され、現在の深度がbox_max_depth_arrayにある場合、cptMaxDepthが増分される。
D0に最小深度値または最大深度値を格納する決定は、cptMinDepthとcptMaxDepthを比較して行われる。cptMinDepthがcptMaxDepthより大きい場合、少なくとも1つの3D点の最小深度値が第1の深度画像D0に格納され、そうでない場合は反対である(少なくとも1つの3D点の最大深度値が格納される)。
ステップ710の実施形態によれば、第1の深度画像の画像領域が、同じ投影方向に沿った点群のうちの少なくとも1つの直交投影された3D点の最小深度値または最大深度値のいずれかを格納するかどうかを示す投影モードは、最小深度値と最大深度値を使用して第1の深度画像の画像領域のエネルギーを計算することによって決定され、エネルギーを最小化するバージョンが選択される。
異なる基準を使用して、分散または勾配など、画像領域のエネルギーを計算してもよい。
ステップ710の実施形態によれば、第1の深度画像の画像領域が、同じ投影方向に沿った点群のうちの少なくとも1つの直交投影された3D点の最小深度値または最大深度値のいずれかを格納するかどうかを示す投影モードは、欠損点の数を最小化することによって決定される。
例えば、投影モードが第1の値に等しい(第1の深度画像D0に最小深度値を格納する)ときに、少なくとも1つの3D点は投影および逆投影され、投影モードが第2の値に等しい(第1の深度画像D0に最大深度値を格納する)ときに、少なくとも1つの3D点は投影および逆投影され、再構築された3D点(逆投影)を「元の」3D点と比較し、欠損点の数をカウントし、投影モードが第2の値に等しい(第1の深度画像D0に最大深度値を格納する)ときに、プロセスを繰り返し、欠損点の数を最小化する投影モードを選択する。
変形例によれば、ステップ710の前の2つの実施形態が組み合わされて、第1の深度画像のエネルギーおよび欠損点の数を最小化する投影モードを決定する。
図1~図9では、モジュールは機能ユニットであり、それらは、区別可能な物理ユニットに関連してもよく、関連しなくてもよい。例えば、これらのモジュールもしくはそれらの一部は、一意のコンポーネントもしくは回路にまとめられるか、またはソフトウェアの機能に貢献することができる。反対に、一部のモジュールは個別の物理エンティティで潜在的に構成されてもよい。本原理と互換性のある装置は、例えば、それぞれ「特定用途向け集積回路」、「フィールドプログラマブルゲートアレイ」、「超大規模集積回路」であるASIC、FPGA、VLSIなどの専用ハードウェアを使用した純粋なハードウェアを使用して、またはデバイスに組み込まれたいくつかの集積電子コンポーネントから、もしくはハードウェアおよびソフトウェアのコンポーネントのブレンドから実装される。
図9は、図1~図8に関連して説明された方法を実装するように構成され得るデバイス90の例示的なアーキテクチャを表す。
デバイス90は、データおよびアドレスバス91により互いにリンクされる以下の要素、すなわち
-マイクロプロセッサ92(またはCPU)、例えば、DSP(またはデジタルシグナルプロセッサ)と、
-ROM(または読み取り専用メモリ)93と、
-RAM(またはランダムアクセスメモリ)94と、
-送信するデータをアプリケーションから受信するためのI/Oインターフェース95と、
-バッテリー96と、を含む。
1つの例によれば、バッテリー96はデバイスの外部にある。上記の各メモリでは、本明細書で使用される「レジスタ」という語は、小容量(いくつかのビット)の領域または非常に大きな領域(例えば、プログラム全体、または大量の受信もしくは復号されたデータ)に対応し得る。ROM93は、少なくともプログラムおよびパラメータを含む。ROM93は、本原理に従う技術を実行するためのアルゴリズムおよび命令を記憶し得る。電源が投入されると、CPU92は、プログラムをRAMにアップロードし、対応する命令を実行する。
RAM94は、1つのレジスタ内に、CPU92によって実行され、かつデバイス90の電源投入の後にアップロードされるプログラム、1つのレジスタ内に入力データ、1つのレジスタ内に方法の異なる状態の中間データ、および1つのレジスタ内に方法の実行のために使用される他の変数を含む。
本明細書で説明された実装態様は、例えば、方法もしくはプロセス、装置、ソフトウェアプログラム、データストリーム、または信号に実装され得る。(例えば、方法またはデバイスとしてのみ考察された)単一の形態の実装態様の場合でのみ考察されたとしても、考察された機能の実装態様は他の形態(例えば、プログラム)でも実装され得る。装置は、例えば適切なハードウェア、ソフトウェア、およびファームウェアで実装することができる。これらの方法は、例えば、装置に実装することができ、例えば、コンピュータ、マイクロプロセッサ、集積回路、またはプログラマブルロジックデバイスを含む、一般に、処理デバイスを指す、例えば、プロセッサなどに実装することができる。プロセッサは、通信デバイスも含み、例えば、コンピュータ、携帯電話、ポータブル/パーソナルデジタルアシスタンス(「PDA」)、およびエンドユーザ間の情報の伝達を容易にする他のデバイスなども含む。
符号化することまたは符号化器の例によれば、p点群PCはソースから取得される。例えば、ソースは、
-ローカルメモリ(93または94)、例えば、ビデオメモリまたはRAM(もしくはランダムアクセスメモリ)、フラッシュメモリ、ROM(もしくは読み取り専用メモリ)、ハードディスクと、
-記憶装置インターフェース(95)、例えば、大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク、または磁気サポートとのインターフェースと、
-通信インターフェース(95)、例えば、有線インターフェース(例えば、バスインターフェース、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース)または無線インターフェース(IEEE 802.11インターフェースもしくはBluetooth(登録商標)インターフェースなど)と、
-ピクチャ捕捉回路(例えば、センサ、例えば、CCD(もしくは電荷結合デバイス)またはCMOS(もしくは相補型金属酸化膜半導体)など)と、を含むセットに属する。
復号することまたは復号器の例によれば、復号された第1および/もしくは第2の深度画像、または再構築された点群が送信先に送信され、具体的には、送信は、
-ローカルメモリ(93または94)、例えば、ビデオメモリまたはRAM、フラッシュメモリ、ハードディスクと、
-記憶装置インターフェース(95)、例えば、大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク、または磁気サポートとのインターフェースと、
-通信インターフェース(95)、例えば、有線インターフェース(例えば、バスインターフェース(例えば、USB(もしくはユニバーサルシリアルバス))、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース、HDMI(登録商標)(高解像度マルチメディアインターフェース)インターフェース)または無線インターフェース(IEEE802.11インターフェース、WiFi(登録商標)もしくはBluetooth(登録商標)インターフェースなど)と、
-ディスプレイと、を含むセットに属する。
符号化することまたは符号化器の例によれば、ビットストリームBは送信先に送信される。1つの例として、ビットストリームBは、ローカルメモリまたはリモートメモリ、例えば、ビデオメモリ(94)またはRAM(94)、ハードディスク(93)に記憶される。変形例では、1つまたは両方のビットストリームは、記憶装置インターフェース(95)、例えば、大容量記憶装置、フラッシュメモリ、ROM、光ディスク、もしくは磁気サポートとのインターフェースに送信され、および/または通信インターフェース(95)、例えば、ポイントツーポイントリンク、通信バス、ポイントツーマルチポイントリンク、もしくは放送ネットワークへのインターフェースを介して送信される。
復号することまたは復号器の例によれば、ビットストリームBはソースから取得される。例示的には、ビットストリームは、ローカルメモリ、例えば、ビデオメモリ(94)、RAM(94)、ROM(93)、フラッシュメモリ(93)、またはハードディスク(93)から読み取られる。変形例では、ビットストリームは、記憶装置インターフェース(95)、例えば、大容量記憶装置、RAM、ROM、フラッシュメモリ、光ディスク、もしくは磁気サポートとのインターフェースから受信され、および/または通信インターフェース(95)、例えば、ポイントツーポイントリンク、バス、ポイントツーマルチポイントリンク、もしくは放送ネットワークとのインターフェースから受信される。
例によれば、図1~図24に関して説明された方法を実装するように構成されているデバイス90は、
-モバイルデバイスと、
-通信デバイスと、
-ゲームデバイスと、
-タブレット(または、タブレットコンピュータ)と、
-ラップトップと、
-静止画カメラと、
-ビデオカメラと、
-符号化チップと、
-静止画サーバと、
-ビデオサーバ(例えば、ブロードキャストサーバ、ビデオオンデマンドサーバ、またはウェブサーバ)と、を含むセットに属する。
例によれば、図1~図24に関連して説明された方法を実装するように構成されているデバイス90は、
-モバイルデバイスと、
-通信デバイスと、
-ゲームデバイスと、
-セットトップボックスと、
-テレビセットと、
-タブレット(またはタブレットコンピュータ)と、
-ラップトップと、
-ディスプレイと、
-復号チップと、を含むセットに属する。
図10に図示される本原理の例によれば、通信ネットワークNETを介した2つのリモートデバイスAおよびBとの間の送信状況において、デバイスAは、メモリRAMおよびROMに関連するプロセッサを備え、これらは、図1~図8に関連して説明されるように点群のジオメトリを符号化するための方法を実装するように構成されており、デバイスBは、メモリRAMおよびROMに関連するプロセッサを備え、これらは、図1~図8に関連して説明されるように点群を復号するための方法を実装するように構成されている。
本明細書で説明される様々なプロセスおよび特徴の実装態様は、様々な異なる機器またはアプリケーションで具体化され得る。このような機器の例は、符号化器、復号器、復号器からの出力を処理するポストプロセッサ、入力を符号化器に提供するプリプロセッサ、ビデオ符号化器、ビデオ復号器、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA、およびピクチャもしくはビデオを処理するための任意の他のデバイス、または他の通信デバイスを含む。明らかである必要があるが、機器は、可搬式とすることができ、移動車両にさえ搭載することができる。
加えて、方法は、プロセッサによって行われる命令によって実装されてもよく、そのような命令(および/または実装態様によって生成されるデータ値)は、コンピュータ可読記憶媒体に記憶されてもよい。コンピュータ可読記憶媒体は、1つ以上のコンピュータ可読媒体で具体化され、かつコンピュータで実行可能なコンピュータ可読プログラムコードがその上で具体化されるコンピュータ可読プログラム製品の形態をとることができる。本明細書で使用されるコンピュータ可読記憶媒体は、そこに情報を記憶する固有の能力、ならびにそこから情報の検索を提供する固有の能力が与えられた非一時的記憶媒体と見なされる。コンピュータ可読記憶媒体は、例えば、電子、磁気、光学、電磁気、赤外線、もしくは半導体のシステム、装置、もしくはデバイス、または前述の任意の適切な組み合わせとすることができるが、これらに限定されない。以下は、本原理を適用することができるコンピュータ可読記憶媒体のより具体的な例を提供するが、当業者によって容易に理解されるように、単なる例示であり、網羅的なリストではないことを理解されたい。すなわち、ポータブルコンピュータディスケット、ハードディスク、読み取り専用メモリ(ROM)、消去可能なプログラム可能な読み取り専用メモリ(EPROMまたはフラッシュメモリ)、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または前述の任意の適切な組み合わせである。
命令は、プロセッサ可読媒体に有形に具体化されるアプリケーションプログラムを形成することができる。
命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、または組み合わせに存在することができる。命令は、例えば、オペレーティングシステム、個別アプリケーション、または2つの組み合わせに見出すことができる。したがって、プロセッサは、例えば、プロセスを実行するように構成されたデバイス、およびプロセスを実行する命令を有するプロセッサ可読媒体(記憶装置など)を含むデバイスの両方として特徴付けることができる。さらに、プロセッサ可読媒体は、命令の他に、または命令の代わりに、実装態様により生成されるデータ値を格納することができる。
当業者には明らかであるように、実装態様は、情報を伝達するようにフォーマットされる多種多様な信号を生成することができ、この情報は、例えば、格納または送信することができる。情報は、例えば、方法を実行する命令、または説明される実装態様のうちの1つにより生成されたデータを含むことができる。例えば、信号は、データとして、本原理の説明される例の構文を書き込むか、もしくは読み出すルールを搬送するか、またはデータとして、本原理の説明される例によって書き込まれる実際の構文値を搬送するようにフォーマットすることができる。。このような信号は、例えば、電磁波として(例えば、スペクトルの無線周波数部分を使用して)またはベースバンド信号としてフォーマットすることができる。フォーマットすることは、例えば、データストリームを符号化することと、搬送波を符号化データストリームで変調することと、を含むことができる。信号が搬送する情報は、例えば、アナログ情報またはデジタル情報とすることができる。信号は、既知の如く、多種多様な異なる有線リンクまたは無線リンクを介して送信することができる。信号は、プロセッサ可読媒体に格納することができる。
多数の実装態様が説明されてきた。それにもかかわらず、様々な変更を行うことができることが理解される。例えば、異なる実装態様の要素は、他の実装態様を生成するために組み合わせる、補足する、変更する、または削除することができる。また、当業者であれば、他の構造およびプロセスを、開示される構造およびプロセスに替えて用いることができ、結果として得られる実装態様が、少なくとも実質的に同じ機能(複数可)を、少なくとも実質的に同じ方法(複数可)で実行して、開示される実装態様と少なくとも実質的に同じ結果(複数可)を達成することを理解するであろう。したがって、これらの実装態様および他の実装態様は、本出願により想到される。

Claims (22)

  1. -第1の画像データから第1の深度値、および第2の画像データから第2の深度値を表す情報を復号化することと、
    -前記第1の深度値を使用して、点群の第1の3D点を再構築することと、
    -前記第2の深度値を表す前記情報と投影モードを使用して、前記点群の第2の3D点を再構築することと、
    -前記第1の3D点と前記第2の3D点が、投影平面の同じ点に直交投影されることと、
    -前記投影モードは、投影軸に沿った前記第1の3D点の位置が、前記投影軸に沿った前記第2の3D点の位置よりも低いかまたは高いかどうかを示すことと、を含む方法。
  2. -第1の画像データから第1の深度値、および第2の画像データから第2の深度値を表す情報を復号化することと、
    -前記第1の深度値を使用して、点群の第1の3D点を再構築することと、
    -前記第2の深度値を表す前記情報と投影モードを使用して、前記点群の第2の3D点を再構築することと、
    -前記第1の3D点と前記第2の3D点が、投影面の同じ点に直交投影されることと、
    -前記投影モードは、投影軸に沿った前記第1の3D点の位置が、前記投影軸に沿った前記第2の3D点の位置よりも低いかまたは高いかどうかを示すことと、を行うように構成されている少なくとも1つのプロセッサを含むデバイス。
  3. 前記第2の深度値を表す前記情報は、前記第1の深度値と前記第2の深度値との間の絶対差である、請求項1に記載の方法。
  4. 前記第2の深度値を表す前記情報は、前記第1の深度値と前記第2の深度値との間の絶対差である、請求項2に記載のデバイス。
  5. 前記投影モードがビットストリームから導出される、請求項1または3のうちの一項に記載の方法。
  6. 前記投影モードがビットストリームから導出される、請求項2または4のうちの一項に記載のデバイス。
  7. 前記第1の3D点および前記第2の3D点は、前記投影モードが第1の値に等しいときに、前記投影軸の原点から、接続成分の最も近い点および最も遠い点にそれぞれ対応し、前記第1の3D点および前記第2の3D点は、前記投影モードが第2の値に等しいときに、前記投影軸の原点から、前記接続成分の最も遠い点および最も近い点にそれぞれ対応する、請求項1、3、または5のうちの一項に記載の方法。
  8. 前記第1の3D点および前記第2の3D点は、前記投影モードが第1の値に等しいときに、前記投影軸の原点から、接続成分の最も近い点および最も遠い点にそれぞれ対応し、前記第1の3D点および前記第2の3D点は、前記投影モードが第2の値に等しいときに、前記投影軸の原点から、前記接続成分の最も遠い点および最も近い点にそれぞれ対応する、請求項2、4、または6のうちの一項に記載のデバイス。
  9. -点群の第1の3D点の投影軸に沿った位置が、前記点群の第2の3D点の前記投影軸に沿った位置よりも低いかまたは高いかどうかを示す投影モードを符号化することであって、前記第1の3D点と前記第2の3D点が、投影平面の同じ点に直交投影される、符号化することと、
    -前記第1の3D点の深度値を第1の画像データとして符号化し、前記第2の3D点の深度値を表す情報を第2の画像データとして符号化することと、を含む方法。
  10. -点群の第1の3D点の投影軸に沿った位置が、前記点群の第2の3D点の前記投影軸に沿った位置よりも低いかまたは高いかどうかを示す投影モードを符号化することであって、前記第1の3D点と前記第2の3D点が、投影平面の同じ点に直交投影される、符号化することと、
    -前記第1の3D点の深度値を第1の画像データとして符号化し、前記第2の3D点の深度値を表す情報を第2の画像データとして符号化することと、を行うように構成されている少なくとも1つのプロセッサを含むデバイス。
  11. 前記第2の3D点の前記深度値を表す前記情報は、前記第2の3D点の前記深度値と前記第1の3D点の前記深度値との間の絶対差である、請求項9に記載の方法。
  12. 前記第2の3D点の前記深度値を表す前記情報は、前記第2の3D点の前記深度値と前記第1の3D点の前記深度値との間の絶対差である、請求項10に記載のデバイス。
  13. 前記第1の画像データ、前記第2の画像データを送信し、前記投影モードを信号伝達することを、前記方法がさらに含む、請求項9または11のうちの一項に記載の方法。
  14. 前記第1の画像データ、前記第2の画像データを送信し、前記投影モードを信号伝達することを、行うように前記少なくとも1つのプロセッサがさらに構成されている、請求項10または12のうちの一項に記載のデバイス。
  15. 前記第1の3D点および前記第2の3D点は、前記投影モードが第1の値に等しいときに、前記投影軸の原点から、接続成分の最も近い点および最も遠い点にそれぞれ対応し、前記第1の3D点および前記第2の3D点は、前記投影モードが第2の値に等しいときに、前記投影軸の原点から、前記接続成分の最も遠い点および最も近い点にそれぞれ対応する、請求項9、11、または13のうちの一項に記載の方法。
  16. 前記第1の3D点および前記第2の3D点は、前記投影モードが第1の値に等しいときに、前記投影軸の原点から、接続成分の最も近い点および最も遠い点にそれぞれ対応し、前記第1の3D点および前記第2の3D点は、前記投影モードが第2の値に等しいときに、前記投影軸の原点から、前記接続成分の最も遠い点および最も近い点にそれぞれ対応する、請求項10、12、または14のうちの一項に記載のデバイス。
  17. 前記投影モードは、前記投影モードが変化し得るか否かを示すために、点群レベルで信号伝達される、請求項13に記載の方法。
  18. 前記投影モードは、前記投影モードが変化し得るか否かを示すために、点群レベルで信号伝達される、請求項14に記載のデバイス。
  19. 前記投影モードが変化するとして前記点群レベルで信号伝達される場合、前記投影モードがパッチレベルで信号伝達される、請求項17に記載の方法。
  20. 前記投影モードが変化するとして前記点群レベルで信号伝達される場合、前記投影モードがパッチレベルで信号伝達される、請求項18に記載のデバイス。
  21. プログラムが1つ以上のプロセッサによって実行されたときに、前記1つ以上のプロセッサに請求項1、3、57、911、13、15、17、または19のうちの一項に記載の方法を実施させる命令を含むコンピュータプログラム。
  22. 1つ以上のプロセッサに請求項1、3、57、911、13、15、17、または19のうちの一項に記載の方法を行わせるための命令を含む非一時的なコンピュータ可読媒体。
JP2020551583A 2018-04-11 2019-04-09 投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法 Active JP7446234B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18305437.8 2018-04-11
EP18305437 2018-04-11
PCT/US2019/026459 WO2019199726A1 (en) 2018-04-11 2019-04-09 A method for encoding depth values of a set of 3d points once orthogonally projected into at least one image region of a projection plane

Publications (3)

Publication Number Publication Date
JP2021519533A JP2021519533A (ja) 2021-08-10
JPWO2019199726A5 JPWO2019199726A5 (ja) 2022-04-12
JP7446234B2 true JP7446234B2 (ja) 2024-03-08

Family

ID=62067567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551583A Active JP7446234B2 (ja) 2018-04-11 2019-04-09 投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法

Country Status (8)

Country Link
US (2) US11756234B2 (ja)
EP (1) EP3777183A1 (ja)
JP (1) JP7446234B2 (ja)
KR (1) KR20200141450A (ja)
CN (1) CN111971968B (ja)
CA (1) CA3096840A1 (ja)
SG (1) SG11202009210SA (ja)
WO (1) WO2019199726A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3791593A4 (en) * 2018-05-09 2022-03-30 Nokia Technologies Oy METHOD AND APPARATUS FOR CODING AND DECODING VOLUMETRIC VIDEO DATA
CN110662087B (zh) * 2018-06-30 2021-05-11 华为技术有限公司 点云编解码方法和编解码器
CN110719497B (zh) * 2018-07-12 2021-06-22 华为技术有限公司 点云编解码方法和编解码器
JPWO2020230710A1 (ja) * 2019-05-10 2020-11-19
US20220180541A1 (en) * 2020-12-07 2022-06-09 Faro Technologies, Inc. Three-dimensional coordinate scanner

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140204088A1 (en) 2013-01-18 2014-07-24 Microsoft Corporation Surface codec using reprojection onto depth maps
WO2019142666A1 (ja) 2018-01-16 2019-07-25 ソニー株式会社 画像処理装置および方法
US20200153885A1 (en) 2018-10-01 2020-05-14 Lg Electronics Inc. Apparatus for transmitting point cloud data, a method for transmitting point cloud data, an apparatus for receiving point cloud data and/or a method for receiving point cloud data

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101754039A (zh) * 2009-12-22 2010-06-23 中国科学技术大学 面向移动设备的3d参数解码系统
WO2014103966A1 (ja) * 2012-12-27 2014-07-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
WO2015172227A1 (en) * 2014-05-13 2015-11-19 Pcp Vr Inc. Method, system and apparatus for generation and playback of virtual reality multimedia
CN106796661B (zh) * 2014-08-12 2020-08-25 曼蒂斯影像有限公司 投影光图案的系统、方法和计算机程序产品
EP3151559A1 (en) * 2015-09-29 2017-04-05 Thomson Licensing Method for coding and decoding a plurality of picture blocks and corresponding devices
US10194170B2 (en) * 2015-11-20 2019-01-29 Mediatek Inc. Method and apparatus for video coding using filter coefficients determined based on pixel projection phase
US20170214943A1 (en) 2016-01-22 2017-07-27 Mitsubishi Electric Research Laboratories, Inc. Point Cloud Compression using Prediction and Shape-Adaptive Transforms
MY189780A (en) * 2016-02-11 2022-03-07 Thomson Licensing Method and device for encoding/decoding an image unit comprising image data represented by a luminance channel and at least one chrominance channel
WO2018039871A1 (zh) 2016-08-29 2018-03-08 北京清影机器视觉技术有限公司 三维视觉测量数据的处理方法和装置
CN111542860A (zh) 2016-12-30 2020-08-14 迪普迈普有限公司 用于自主车辆的高清地图的标志和车道创建
EP3429207A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing A method and apparatus for encoding/decoding a colored point cloud representing the geometry and colors of a 3d object
EP3669333B1 (en) * 2017-08-15 2024-05-01 Nokia Technologies Oy Sequential encoding and decoding of volymetric video
US10909725B2 (en) * 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
CN107633539A (zh) 2017-09-25 2018-01-26 潍坊学院 一种基于四边面片分割的三维点云模型数据压缩方法
US10783668B2 (en) * 2017-12-22 2020-09-22 Samsung Electronics Co., Ltd. Handling duplicate points in point cloud compression
EP3821596B1 (en) * 2018-07-13 2023-03-29 InterDigital VC Holdings, Inc. Methods and devices for encoding and decoding 3d video stream
EP3906677A4 (en) * 2019-01-02 2022-10-19 Nokia Technologies Oy DEVICE, METHOD AND COMPUTER PROGRAM FOR VIDEO ENCODING AND DECODING
EP3713238A1 (en) * 2019-03-20 2020-09-23 InterDigital VC Holdings, Inc. Processing a point cloud
EP4074049A1 (en) * 2019-12-11 2022-10-19 InterDigital VC Holdings, Inc. A method and apparatus for encoding and decoding of multiple-viewpoint 3dof+ content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140204088A1 (en) 2013-01-18 2014-07-24 Microsoft Corporation Surface codec using reprojection onto depth maps
JP2016511457A (ja) 2013-01-18 2016-04-14 マイクロソフト テクノロジー ライセンシング,エルエルシー 深度マップ上への再投影を使用するサーフェスコーデック
WO2019142666A1 (ja) 2018-01-16 2019-07-25 ソニー株式会社 画像処理装置および方法
US20200153885A1 (en) 2018-10-01 2020-05-14 Lg Electronics Inc. Apparatus for transmitting point cloud data, a method for transmitting point cloud data, an apparatus for receiving point cloud data and/or a method for receiving point cloud data

Also Published As

Publication number Publication date
EP3777183A1 (en) 2021-02-17
KR20200141450A (ko) 2020-12-18
WO2019199726A1 (en) 2019-10-17
SG11202009210SA (en) 2020-10-29
CN111971968B (zh) 2024-03-12
US20240005560A1 (en) 2024-01-04
US11756234B2 (en) 2023-09-12
CN111971968A (zh) 2020-11-20
CA3096840A1 (en) 2019-10-17
JP2021519533A (ja) 2021-08-10
US20230062296A1 (en) 2023-03-02

Similar Documents

Publication Publication Date Title
JP7446234B2 (ja) 投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法
CN111433821B (zh) 用于重建表示3d对象的点云的方法和装置
US20200302653A1 (en) A method and apparatus for encoding/decoding the geometry of a point cloud representing a 3d object
KR20200024219A (ko) 3d 객체의 기하구조 및 컬러들을 표현하는 컬러화된 포인트 클라우드를 인코딩/디코딩하기 위한 방법 및 장치
CN110915219A (zh) 用于对几何形状由基于八叉树的结构表示的有色点云的颜色进行编码/解码的方法和装置
CN111465964A (zh) 编码/解码表示3d对象的点云的几何形状的方法和装置
RU2769719C1 (ru) Способ и устройство для кодирования геометрии облака точек
CN110915216A (zh) 用于编码/解码表示3d对象的几何形状和颜色的有色点云的方法和装置
CN111417985A (zh) 用于编码/解码表示3d对象的点云的几何形状的方法和设备
US20210166435A1 (en) Method and apparatus for encoding/decoding the geometry of a point cloud representing a 3d object
CN111417984A (zh) 用于对表示3d对象的点云的颜色进行编码/解码的方法及装置
JP7351858B2 (ja) 点群の点のテクスチャを符号化/復号する方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240227

R150 Certificate of patent or registration of utility model

Ref document number: 7446234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150