JP7446234B2 - 投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法 - Google Patents
投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法 Download PDFInfo
- Publication number
- JP7446234B2 JP7446234B2 JP2020551583A JP2020551583A JP7446234B2 JP 7446234 B2 JP7446234 B2 JP 7446234B2 JP 2020551583 A JP2020551583 A JP 2020551583A JP 2020551583 A JP2020551583 A JP 2020551583A JP 7446234 B2 JP7446234 B2 JP 7446234B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- projection
- depth value
- projection mode
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 230000008859 change Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 230000011664 signaling Effects 0.000 claims description 2
- 230000015654 memory Effects 0.000 description 24
- 230000006835 compression Effects 0.000 description 18
- 238000007906 compression Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 101000638069 Homo sapiens Transmembrane channel-like protein 2 Proteins 0.000 description 9
- 102100032054 Transmembrane channel-like protein 2 Human genes 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- ODKDMMTXTVCCLJ-BVSLBCMMSA-N tmc-2-a Chemical compound C1=CC=C2C(C[C@H](N)C(=O)N3[C@@H](CC4=CC(O)=C(C(=C4C3)O)OC)C(=O)N[C@@H](CC(CO)CO)C(O)=O)=CNC2=C1 ODKDMMTXTVCCLJ-BVSLBCMMSA-N 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
Description
本原理は、本原理の例が示される添付の図面を参照して以下でより完全に説明される。しかしながら、本原理は、多くの代替形態で具体化されてもよく、本明細書に明示される例に限定されるものとして解釈されるべきではない。したがって、本原理は様々な修正形態および代替形態を受け入れる余地があるが、その特定の例は、図面に例として示され、本明細書で詳細に説明される。しかしながら、本原理を開示された特定の形態に限定する意図はないが、むしろ、本開示は、特許請求の範囲で定義されているように本原理の精神および範囲に含まれるすべての修正物、等価物、および代替物を網羅すると理解されたい。
p.d0=invalidであり、
ここで、p.d0は第1の深度画像のピクセルpの深度値を意味し、「invalid」は初期値を示す。
D1=dpdu_3d_shift_normal_axis[frmIdx][patchIndex]
U1=dpdu_3d_shift_tangent_axis[frmIdx][patchIndex]
V1=dpdu_3d_shift_bitangent_axis[frmIdx][patchIndex]
ここで、dpdu_3d_shift_tangent_axis[frmIdx][p]は、パッチフレームfrmIdxにおけるインデックスpを有するパッチの接線軸に沿って再構築されたパッチ点に適用されるシフトと、パッチフレームRefIdxにおけるインデックスPredIdxを有するパッチの接線軸に沿って再構築されたパッチ点に適用されるシフトとの差を指定する。dpdu_3d_shift_tangent_axis[frmIdx][p]の値は、両端を含め(-2gps#geometry#3d#coordinates#bitdepth#minus1+1+1)から(2gps#geometry#3d#coordinates#bitdepth#minus1+1-1)の範囲内であるとし、dpdu_3d_shift_bitangent_axis[frmIdx][p]は、パッチフレームfrmIdxにおけるインデックスpを有するパッチの従接線軸に沿って再構築されたパッチ点に適用されるシフトと、パッチフレームRefIdxにおけるインデックスPredIdxを有するパッチの従接線軸に沿って再構築されたパッチ点に適用されるシフトとの差を指定する。dpdu_3d_shift_bitangent_axis[frmIdx][p]の値は、両端を含め(-2gps#geometry#3d#coordinates#bitdepth#minus1+1+1)から(2gps#geometry#3d#coordinates#bitdepth#minus1+1-1)の範囲内であるとし、dpdu_3d_shift_normal_axis[frmIdx][p]は、パッチフレームfrmIdxにおけるインデックスpを有するパッチの法線軸に沿って再構築されたパッチ点に適用されるシフトとパッチフレームRefIdxにおけるインデックスPredIdxを有するパッチの法線軸に沿って再構築されたパッチ点に適用されるシフトとの差を指定する。dpdu_3d_shift_normal_axis[frmIdx][p]の値は、両端を含め(-2gps#geometry#3d#coordinates#bitdepth#minus1+1+1)から(2gps#geometry#3d#coordinates#bitdepth#minus1+1-1)の範囲内であるとする。
p.d0[u,v]=min(d,p.d0[u,v])である。
P.d0[u,v]=max(d,p.d0[u,v])である。
p.d1=p.d0であり、
ここで、p.d1は、第2の深度画像のピクセルpの深度値を意味する。
d=point[p.normalAxis]-p.D1
u=point[p.tangentAxis]-p.U1
v=point[p.bitangentAxis]-p.V1
投影モードProjectionMode==0(第1の値)であり、現在のピクセルが有効である場合に、((((dp.d0[u,v])<=surfaceThickness)および(d>p.d1[u,v]))ならば、
p.d1[u,v]=dであり、
投影モードProjectionMode==1(第2の値)であり、現在のピクセルが有効な場合に、(((p.d0[u,v]-d)<=surfaceThickness)および(d<p.d1[u,v]))ならば、
p.d1[u,v]=dである。
delta_depth=abs(d1-d0)であり、
ここで、「abs」は絶対値を示す。
P0[p.normalAxis]=p.D1+d0(x,y)
P0[p.tangentAxis]=p.U1+u
P0[p.bitangentAxis]=p.V1+v
sign=p.ProjectionMode==0?1:-1;
d1=d0(x,y)+sign*min(max(0,delta_depth(x,y)),surfaceThickness)
P1[p.normalAxis]=p.D1+d1
P1[p.tangentAxis]=p.U1+u
P1[p.bitangentAxis]=p.V1+v
ここで、p.ProjectionModeは、パッチに関連付けられた投影モードを示す。
-少なくとも1つの3D点をすべて3つの主平面XY、XZ、およびYZに向けて投影し、各3D点から投影平面までの距離(つまり、深度)を投影する。投影は、それぞれ、3D空間のZ、Y、およびZ軸に沿って、無限大またはマイナス無限大のいずれかに向かう。投影の結果は、[bbox_x_size,bbox_y_size]サイズで6つの異なる2D平面に格納される。3つの配列は、XY、XZ、およびYZ平面の最小深度値を格納し、その他の3つの配列は、XY、XZ、およびYZ平面の最大深度値を格納する。すなわち、
1)box_min_depth_array[x][bbox_x_size,bbox_y_size]
2)box_min_depth_array[y][bbox_x_size,bbox_y_size]
3)box_min_depth_array[z][bbox_x_size,bbox_y_size]
であり、最大深度値を格納するための3つの以下の2D平面は
4)box_max_depth_array[x][bbox_x_size,bbox_y_size]
5)box_max_depth_array[y][bbox_x_size,bbox_y_size]
6)box_max_depth_array[z][bbox_x_size,bbox_y_size]であり、
-現在のパッチに割り当てられた「normalAxis」方向に従って、少なくとも1つの3D点を投影することにより、D0に格納された最良の深度(最小または最大)を選択する。次いで、現在の深度値が、box_min_depth_array[normalAxis]およびbox_max_depth_array[normalAxis]にそれぞれ格納されている最小深度値または最大深度値と等しいかどうかを検査する。1つのカウンタcptMinDepthまたはcptMaxDepthは、現在の深度値に従って増分される。すなわち、現在の深度がbox_min_depth_arrayにある場合、cptMinDepthが増分され、現在の深度がbox_max_depth_arrayにある場合、cptMaxDepthが増分される。
-マイクロプロセッサ92(またはCPU)、例えば、DSP(またはデジタルシグナルプロセッサ)と、
-ROM(または読み取り専用メモリ)93と、
-RAM(またはランダムアクセスメモリ)94と、
-送信するデータをアプリケーションから受信するためのI/Oインターフェース95と、
-バッテリー96と、を含む。
-ローカルメモリ(93または94)、例えば、ビデオメモリまたはRAM(もしくはランダムアクセスメモリ)、フラッシュメモリ、ROM(もしくは読み取り専用メモリ)、ハードディスクと、
-記憶装置インターフェース(95)、例えば、大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク、または磁気サポートとのインターフェースと、
-通信インターフェース(95)、例えば、有線インターフェース(例えば、バスインターフェース、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース)または無線インターフェース(IEEE 802.11インターフェースもしくはBluetooth(登録商標)インターフェースなど)と、
-ピクチャ捕捉回路(例えば、センサ、例えば、CCD(もしくは電荷結合デバイス)またはCMOS(もしくは相補型金属酸化膜半導体)など)と、を含むセットに属する。
-ローカルメモリ(93または94)、例えば、ビデオメモリまたはRAM、フラッシュメモリ、ハードディスクと、
-記憶装置インターフェース(95)、例えば、大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク、または磁気サポートとのインターフェースと、
-通信インターフェース(95)、例えば、有線インターフェース(例えば、バスインターフェース(例えば、USB(もしくはユニバーサルシリアルバス))、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース、HDMI(登録商標)(高解像度マルチメディアインターフェース)インターフェース)または無線インターフェース(IEEE802.11インターフェース、WiFi(登録商標)もしくはBluetooth(登録商標)インターフェースなど)と、
-ディスプレイと、を含むセットに属する。
-モバイルデバイスと、
-通信デバイスと、
-ゲームデバイスと、
-タブレット(または、タブレットコンピュータ)と、
-ラップトップと、
-静止画カメラと、
-ビデオカメラと、
-符号化チップと、
-静止画サーバと、
-ビデオサーバ(例えば、ブロードキャストサーバ、ビデオオンデマンドサーバ、またはウェブサーバ)と、を含むセットに属する。
-モバイルデバイスと、
-通信デバイスと、
-ゲームデバイスと、
-セットトップボックスと、
-テレビセットと、
-タブレット(またはタブレットコンピュータ)と、
-ラップトップと、
-ディスプレイと、
-復号チップと、を含むセットに属する。
Claims (22)
- -第1の画像データから第1の深度値、および第2の画像データから第2の深度値を表す情報を復号化することと、
-前記第1の深度値を使用して、点群の第1の3D点を再構築することと、
-前記第2の深度値を表す前記情報と投影モードを使用して、前記点群の第2の3D点を再構築することと、
-前記第1の3D点と前記第2の3D点が、投影平面の同じ点に直交投影されることと、
-前記投影モードは、投影軸に沿った前記第1の3D点の位置が、前記投影軸に沿った前記第2の3D点の位置よりも低いかまたは高いかどうかを示すことと、を含む方法。 - -第1の画像データから第1の深度値、および第2の画像データから第2の深度値を表す情報を復号化することと、
-前記第1の深度値を使用して、点群の第1の3D点を再構築することと、
-前記第2の深度値を表す前記情報と投影モードを使用して、前記点群の第2の3D点を再構築することと、
-前記第1の3D点と前記第2の3D点が、投影面の同じ点に直交投影されることと、
-前記投影モードは、投影軸に沿った前記第1の3D点の位置が、前記投影軸に沿った前記第2の3D点の位置よりも低いかまたは高いかどうかを示すことと、を行うように構成されている少なくとも1つのプロセッサを含むデバイス。 - 前記第2の深度値を表す前記情報は、前記第1の深度値と前記第2の深度値との間の絶対差である、請求項1に記載の方法。
- 前記第2の深度値を表す前記情報は、前記第1の深度値と前記第2の深度値との間の絶対差である、請求項2に記載のデバイス。
- 前記投影モードがビットストリームから導出される、請求項1または3のうちの一項に記載の方法。
- 前記投影モードがビットストリームから導出される、請求項2または4のうちの一項に記載のデバイス。
- 前記第1の3D点および前記第2の3D点は、前記投影モードが第1の値に等しいときに、前記投影軸の原点から、接続成分の最も近い点および最も遠い点にそれぞれ対応し、前記第1の3D点および前記第2の3D点は、前記投影モードが第2の値に等しいときに、前記投影軸の原点から、前記接続成分の最も遠い点および最も近い点にそれぞれ対応する、請求項1、3、または5のうちの一項に記載の方法。
- 前記第1の3D点および前記第2の3D点は、前記投影モードが第1の値に等しいときに、前記投影軸の原点から、接続成分の最も近い点および最も遠い点にそれぞれ対応し、前記第1の3D点および前記第2の3D点は、前記投影モードが第2の値に等しいときに、前記投影軸の原点から、前記接続成分の最も遠い点および最も近い点にそれぞれ対応する、請求項2、4、または6のうちの一項に記載のデバイス。
- -点群の第1の3D点の投影軸に沿った位置が、前記点群の第2の3D点の前記投影軸に沿った位置よりも低いかまたは高いかどうかを示す投影モードを符号化することであって、前記第1の3D点と前記第2の3D点が、投影平面の同じ点に直交投影される、符号化することと、
-前記第1の3D点の深度値を第1の画像データとして符号化し、前記第2の3D点の深度値を表す情報を第2の画像データとして符号化することと、を含む方法。 - -点群の第1の3D点の投影軸に沿った位置が、前記点群の第2の3D点の前記投影軸に沿った位置よりも低いかまたは高いかどうかを示す投影モードを符号化することであって、前記第1の3D点と前記第2の3D点が、投影平面の同じ点に直交投影される、符号化することと、
-前記第1の3D点の深度値を第1の画像データとして符号化し、前記第2の3D点の深度値を表す情報を第2の画像データとして符号化することと、を行うように構成されている少なくとも1つのプロセッサを含むデバイス。 - 前記第2の3D点の前記深度値を表す前記情報は、前記第2の3D点の前記深度値と前記第1の3D点の前記深度値との間の絶対差である、請求項9に記載の方法。
- 前記第2の3D点の前記深度値を表す前記情報は、前記第2の3D点の前記深度値と前記第1の3D点の前記深度値との間の絶対差である、請求項10に記載のデバイス。
- 前記第1の画像データ、前記第2の画像データを送信し、前記投影モードを信号伝達することを、前記方法がさらに含む、請求項9または11のうちの一項に記載の方法。
- 前記第1の画像データ、前記第2の画像データを送信し、前記投影モードを信号伝達することを、行うように前記少なくとも1つのプロセッサがさらに構成されている、請求項10または12のうちの一項に記載のデバイス。
- 前記第1の3D点および前記第2の3D点は、前記投影モードが第1の値に等しいときに、前記投影軸の原点から、接続成分の最も近い点および最も遠い点にそれぞれ対応し、前記第1の3D点および前記第2の3D点は、前記投影モードが第2の値に等しいときに、前記投影軸の原点から、前記接続成分の最も遠い点および最も近い点にそれぞれ対応する、請求項9、11、または13のうちの一項に記載の方法。
- 前記第1の3D点および前記第2の3D点は、前記投影モードが第1の値に等しいときに、前記投影軸の原点から、接続成分の最も近い点および最も遠い点にそれぞれ対応し、前記第1の3D点および前記第2の3D点は、前記投影モードが第2の値に等しいときに、前記投影軸の原点から、前記接続成分の最も遠い点および最も近い点にそれぞれ対応する、請求項10、12、または14のうちの一項に記載のデバイス。
- 前記投影モードは、前記投影モードが変化し得るか否かを示すために、点群レベルで信号伝達される、請求項13に記載の方法。
- 前記投影モードは、前記投影モードが変化し得るか否かを示すために、点群レベルで信号伝達される、請求項14に記載のデバイス。
- 前記投影モードが変化するとして前記点群レベルで信号伝達される場合、前記投影モードがパッチレベルで信号伝達される、請求項17に記載の方法。
- 前記投影モードが変化するとして前記点群レベルで信号伝達される場合、前記投影モードがパッチレベルで信号伝達される、請求項18に記載のデバイス。
- プログラムが1つ以上のプロセッサによって実行されたときに、前記1つ以上のプロセッサに請求項1、3、5、7、9、11、13、15、17、または19のうちの一項に記載の方法を実施させる命令を含むコンピュータプログラム。
- 1つ以上のプロセッサに請求項1、3、5、7、9、11、13、15、17、または19のうちの一項に記載の方法を行わせるための命令を含む非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18305437.8 | 2018-04-11 | ||
EP18305437 | 2018-04-11 | ||
PCT/US2019/026459 WO2019199726A1 (en) | 2018-04-11 | 2019-04-09 | A method for encoding depth values of a set of 3d points once orthogonally projected into at least one image region of a projection plane |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021519533A JP2021519533A (ja) | 2021-08-10 |
JPWO2019199726A5 JPWO2019199726A5 (ja) | 2022-04-12 |
JP7446234B2 true JP7446234B2 (ja) | 2024-03-08 |
Family
ID=62067567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020551583A Active JP7446234B2 (ja) | 2018-04-11 | 2019-04-09 | 投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法 |
Country Status (8)
Country | Link |
---|---|
US (2) | US11756234B2 (ja) |
EP (1) | EP3777183A1 (ja) |
JP (1) | JP7446234B2 (ja) |
KR (1) | KR20200141450A (ja) |
CN (1) | CN111971968B (ja) |
CA (1) | CA3096840A1 (ja) |
SG (1) | SG11202009210SA (ja) |
WO (1) | WO2019199726A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3791593A4 (en) * | 2018-05-09 | 2022-03-30 | Nokia Technologies Oy | METHOD AND APPARATUS FOR CODING AND DECODING VOLUMETRIC VIDEO DATA |
CN110662087B (zh) * | 2018-06-30 | 2021-05-11 | 华为技术有限公司 | 点云编解码方法和编解码器 |
CN110719497B (zh) * | 2018-07-12 | 2021-06-22 | 华为技术有限公司 | 点云编解码方法和编解码器 |
JPWO2020230710A1 (ja) * | 2019-05-10 | 2020-11-19 | ||
US20220180541A1 (en) * | 2020-12-07 | 2022-06-09 | Faro Technologies, Inc. | Three-dimensional coordinate scanner |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140204088A1 (en) | 2013-01-18 | 2014-07-24 | Microsoft Corporation | Surface codec using reprojection onto depth maps |
WO2019142666A1 (ja) | 2018-01-16 | 2019-07-25 | ソニー株式会社 | 画像処理装置および方法 |
US20200153885A1 (en) | 2018-10-01 | 2020-05-14 | Lg Electronics Inc. | Apparatus for transmitting point cloud data, a method for transmitting point cloud data, an apparatus for receiving point cloud data and/or a method for receiving point cloud data |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101754039A (zh) * | 2009-12-22 | 2010-06-23 | 中国科学技术大学 | 面向移动设备的3d参数解码系统 |
WO2014103966A1 (ja) * | 2012-12-27 | 2014-07-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム |
WO2015172227A1 (en) * | 2014-05-13 | 2015-11-19 | Pcp Vr Inc. | Method, system and apparatus for generation and playback of virtual reality multimedia |
CN106796661B (zh) * | 2014-08-12 | 2020-08-25 | 曼蒂斯影像有限公司 | 投影光图案的系统、方法和计算机程序产品 |
EP3151559A1 (en) * | 2015-09-29 | 2017-04-05 | Thomson Licensing | Method for coding and decoding a plurality of picture blocks and corresponding devices |
US10194170B2 (en) * | 2015-11-20 | 2019-01-29 | Mediatek Inc. | Method and apparatus for video coding using filter coefficients determined based on pixel projection phase |
US20170214943A1 (en) | 2016-01-22 | 2017-07-27 | Mitsubishi Electric Research Laboratories, Inc. | Point Cloud Compression using Prediction and Shape-Adaptive Transforms |
MY189780A (en) * | 2016-02-11 | 2022-03-07 | Thomson Licensing | Method and device for encoding/decoding an image unit comprising image data represented by a luminance channel and at least one chrominance channel |
WO2018039871A1 (zh) | 2016-08-29 | 2018-03-08 | 北京清影机器视觉技术有限公司 | 三维视觉测量数据的处理方法和装置 |
CN111542860A (zh) | 2016-12-30 | 2020-08-14 | 迪普迈普有限公司 | 用于自主车辆的高清地图的标志和车道创建 |
EP3429207A1 (en) * | 2017-07-13 | 2019-01-16 | Thomson Licensing | A method and apparatus for encoding/decoding a colored point cloud representing the geometry and colors of a 3d object |
EP3669333B1 (en) * | 2017-08-15 | 2024-05-01 | Nokia Technologies Oy | Sequential encoding and decoding of volymetric video |
US10909725B2 (en) * | 2017-09-18 | 2021-02-02 | Apple Inc. | Point cloud compression |
CN107633539A (zh) | 2017-09-25 | 2018-01-26 | 潍坊学院 | 一种基于四边面片分割的三维点云模型数据压缩方法 |
US10783668B2 (en) * | 2017-12-22 | 2020-09-22 | Samsung Electronics Co., Ltd. | Handling duplicate points in point cloud compression |
EP3821596B1 (en) * | 2018-07-13 | 2023-03-29 | InterDigital VC Holdings, Inc. | Methods and devices for encoding and decoding 3d video stream |
EP3906677A4 (en) * | 2019-01-02 | 2022-10-19 | Nokia Technologies Oy | DEVICE, METHOD AND COMPUTER PROGRAM FOR VIDEO ENCODING AND DECODING |
EP3713238A1 (en) * | 2019-03-20 | 2020-09-23 | InterDigital VC Holdings, Inc. | Processing a point cloud |
EP4074049A1 (en) * | 2019-12-11 | 2022-10-19 | InterDigital VC Holdings, Inc. | A method and apparatus for encoding and decoding of multiple-viewpoint 3dof+ content |
-
2019
- 2019-04-09 CA CA3096840A patent/CA3096840A1/en active Pending
- 2019-04-09 KR KR1020207028997A patent/KR20200141450A/ko unknown
- 2019-04-09 SG SG11202009210SA patent/SG11202009210SA/en unknown
- 2019-04-09 CN CN201980025242.7A patent/CN111971968B/zh active Active
- 2019-04-09 US US17/046,653 patent/US11756234B2/en active Active
- 2019-04-09 WO PCT/US2019/026459 patent/WO2019199726A1/en unknown
- 2019-04-09 EP EP19718051.6A patent/EP3777183A1/en active Pending
- 2019-04-09 JP JP2020551583A patent/JP7446234B2/ja active Active
-
2023
- 2023-07-25 US US18/225,704 patent/US20240005560A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140204088A1 (en) | 2013-01-18 | 2014-07-24 | Microsoft Corporation | Surface codec using reprojection onto depth maps |
JP2016511457A (ja) | 2013-01-18 | 2016-04-14 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 深度マップ上への再投影を使用するサーフェスコーデック |
WO2019142666A1 (ja) | 2018-01-16 | 2019-07-25 | ソニー株式会社 | 画像処理装置および方法 |
US20200153885A1 (en) | 2018-10-01 | 2020-05-14 | Lg Electronics Inc. | Apparatus for transmitting point cloud data, a method for transmitting point cloud data, an apparatus for receiving point cloud data and/or a method for receiving point cloud data |
Also Published As
Publication number | Publication date |
---|---|
EP3777183A1 (en) | 2021-02-17 |
KR20200141450A (ko) | 2020-12-18 |
WO2019199726A1 (en) | 2019-10-17 |
SG11202009210SA (en) | 2020-10-29 |
CN111971968B (zh) | 2024-03-12 |
US20240005560A1 (en) | 2024-01-04 |
US11756234B2 (en) | 2023-09-12 |
CN111971968A (zh) | 2020-11-20 |
CA3096840A1 (en) | 2019-10-17 |
JP2021519533A (ja) | 2021-08-10 |
US20230062296A1 (en) | 2023-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7446234B2 (ja) | 投影平面の少なくとも1つの画像領域に一度直交投影された3d点のセットの深度値を符号化するための方法 | |
CN111433821B (zh) | 用于重建表示3d对象的点云的方法和装置 | |
US20200302653A1 (en) | A method and apparatus for encoding/decoding the geometry of a point cloud representing a 3d object | |
KR20200024219A (ko) | 3d 객체의 기하구조 및 컬러들을 표현하는 컬러화된 포인트 클라우드를 인코딩/디코딩하기 위한 방법 및 장치 | |
CN110915219A (zh) | 用于对几何形状由基于八叉树的结构表示的有色点云的颜色进行编码/解码的方法和装置 | |
CN111465964A (zh) | 编码/解码表示3d对象的点云的几何形状的方法和装置 | |
RU2769719C1 (ru) | Способ и устройство для кодирования геометрии облака точек | |
CN110915216A (zh) | 用于编码/解码表示3d对象的几何形状和颜色的有色点云的方法和装置 | |
CN111417985A (zh) | 用于编码/解码表示3d对象的点云的几何形状的方法和设备 | |
US20210166435A1 (en) | Method and apparatus for encoding/decoding the geometry of a point cloud representing a 3d object | |
CN111417984A (zh) | 用于对表示3d对象的点云的颜色进行编码/解码的方法及装置 | |
JP7351858B2 (ja) | 点群の点のテクスチャを符号化/復号する方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220404 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7446234 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |