JPWO2019142164A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2019142164A5
JPWO2019142164A5 JP2020533208A JP2020533208A JPWO2019142164A5 JP WO2019142164 A5 JPWO2019142164 A5 JP WO2019142164A5 JP 2020533208 A JP2020533208 A JP 2020533208A JP 2020533208 A JP2020533208 A JP 2020533208A JP WO2019142164 A5 JPWO2019142164 A5 JP WO2019142164A5
Authority
JP
Japan
Prior art keywords
sample
current
added
depth
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020533208A
Other languages
Japanese (ja)
Other versions
JP7448760B2 (en
JP2021511563A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/IB2019/050492 external-priority patent/WO2019142164A1/en
Publication of JP2021511563A publication Critical patent/JP2021511563A/en
Publication of JPWO2019142164A5 publication Critical patent/JPWO2019142164A5/ja
Priority to JP2023206238A priority Critical patent/JP2024026293A/en
Application granted granted Critical
Publication of JP7448760B2 publication Critical patent/JP7448760B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

多数の実施態様が説明されてきた。それでもなお、さまざまな変更が行われ得ることが理解されよう。例えば、異なる実施態様の要素は、他の実施態様を生成するために、組み合わされ、補足され、変更され、または削除されてもよい。さらに、当業者は、他の構造およびプロセスが開示されたものの代わりになり得、結果として生じる実施態様が、少なくとも実質的に同じ機能(複数可)を、少なくとも実質的に同じ方法(複数可)で実行して、開示された実施態様と少なくとも実質的に同じ結果(複数可)を達成することを理解するであろう。したがって、これらおよび他の実施態様は、本出願によって企図されている。
なお、上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
方法であって、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を含む、方法。
(付記2)
前記点群フレームが、点群フレームの幾何形状を表す少なくとも1つの幾何形状画像の投影を復元することによって取得される、付記1に記載の方法。
(付記3)
少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、付記1または2に記載の方法。
(付記4)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの深度値から、前記現在の3Dサンプルの前記深度値と最大深度差との合計-1に等しい深度値の範囲にわたる深度値を使って追加され、前記最大深度差が、前記現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい、付記1~3のうちの一つに記載の方法。
(付記5)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差0まで追加される、付記4に記載の方法。
(付記6)
最大深度差が0または1に等しいとき、3Dサンプルが、前記2D位置において追加される、付記5に記載の方法。
(付記7)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、前記画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差-1まで追加され、別の3Dサンプルは、前記隣接する3Dサンプルの投影を表す2Dサンプルとして、前記最大深度差-1に等しい深度値を使って、前記2D位置において追加される、付記3に記載の方法。
(付記8)
前記最大深度差が、少なくとも最小値に等しい、付記4~7のうちの一つに記載の方法。
(付記9)
前記最小値が、ビットストリームで送信される、付記8に記載の方法。
(付記10)
前記最大深度差が計算されるとき、前記点群フレームの現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との差は、前記差が値の所与の範囲に属さない場合は、無視される、付記3に記載の方法。
(付記11)
色分けモードが、前記3Dサンプルに関連付けられた前記最大深度差に従って、3Dサンプルに割り当てられる、付記4に記載の方法。
(付記12)
明示的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、画像データとして符号化され、暗黙的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、他の3Dサンプルに関連付けられた色情報を補間することによって取得される、付記1に記載の方法。
(付記13)
前記方法が、3Dサンプルに関連付けられた前記色分けモードをビットストリームで符号化することをさらに含む、付記1に記載の方法。
(付記14)
方法であって、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を含む、方法。
(付記15)
前記点群フレームが、点群フレームの幾何形状を表す少なくとも1つの幾何形状画像の投影を復元することによって取得される、付記14に記載の方法。
(付記16)
少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、付記14または15に記載の方法。
(付記17)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの深度値から、前記現在の3Dサンプルの前記深度値と最大深度差との合計-1に等しい深度値の範囲にわたる深度値を使って追加され、前記最大深度差が、前記現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい、付記14または15に記載の方法。
(付記18)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差まで追加される、付記17に記載の方法。
(付記19)
最大深度差が0または1に等しいとき、3Dサンプルが、前記2D位置において追加される、付記18に記載の方法。
(付記20)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、前記画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差-1まで追加され、別の3Dサンプルは、前記隣接する3Dサンプルの投影を表す2Dサンプルとして、前記最大深度差-1に等しい深度値を使って、前記2D位置において追加される、付記16に記載の方法。
(付記21)
前記最大深度差が、少なくとも最小値に等しい、付記17~20のうちの一つに記載の方法。
(付記22)
前記方法が、前記最小値を提供するようにビットストリームを復号化することをさらに含む、付記21に記載の方法。
(付記23)
前記最大深度差が計算されるとき、前記点群フレームの現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との差は、前記差が値の所与の範囲に属さない場合は、無視される、付記17に記載の方法。
(付記24)
明示的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、画像データとして符号化され、暗黙的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、他の3Dサンプルに関連付けられた色情報を補間することによって取得される、付記14に記載の方法。
(付記25)
前記方法が、3Dサンプルに関連付けられた前記色分けモードを提供するようにビットストリームを復号化することをさらに含む、付記14に記載の方法。
(付記26)
少なくとも1つの3Dサンプルのための色分けモードを含む信号であって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報が、ビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、信号。
(付記27)
前記信号は、前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、色情報が明示的であることを示すときに、少なくとも1つの3Dサンプルに関連付けられた前記色情報をさらに含む、付記26に記載の信号。
(付記28)
前記信号が、点群の現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい最大深度差に関連する情報をさらに含む、付記26または27に記載の信号。
(付記29)
少なくとも1つのプロセッサを備えるデバイスであって、前記少なくとも1つのプロセッサが、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を行うように構成されている、デバイス。
(付記30)
少なくとも1つのプロセッサを備えるデバイスであって、前記少なくとも1つのプロセッサが、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を行うように構成されている、デバイス。
(付記31)
非一時的コンピュータ可読媒体であって、1つ以上のプロセッサに、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を実行させるための命令を含む、非一時的コンピュータ可読媒体。
(付記32)
非一時的コンピュータ可読媒体であって、1つ以上のプロセッサに、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を実行させるための命令を含む、非一時的コンピュータ可読媒体。

Many embodiments have been described. Nevertheless, it will be understood that various changes can be made. For example, elements of different embodiments may be combined, supplemented, modified, or deleted to generate other embodiments. In addition, one of ordinary skill in the art may substitute for other structures and processes disclosed, and the resulting embodiments may have at least substantially the same function (s), at least substantially the same method (s). It will be appreciated that performed in, achieving at least substantially the same results (s) as the disclosed embodiments. Therefore, these and other embodiments are contemplated by this application.
In addition, a part or all of the above-mentioned embodiment may be described as the following appendix, but is not limited to the following.
(Appendix 1)
It ’s a method,
Adding at least one 3D sample to the point cloud frame,
Assigning a color-coded mode to the at least one 3D sample, wherein the color-coded mode is whether the color information associated with the at least one 3D sample is explicitly encoded in a bitstream, or the color. Assigning, indicating whether the information is implicit,
A method comprising encoding the color information associated with the at least one 3D sample with a bitstream, where an explicit color coding mode is associated with the at least one 3D sample.
(Appendix 2)
The method according to Appendix 1, wherein the point cloud frame is obtained by restoring a projection of at least one geometric image representing the geometry of the point cloud frame.
(Appendix 3)
At least one 3D sample is added from the current 3D sample of the point cloud frame according to the difference between the depth value of the adjacent 3D sample of the current 3D sample and the depth value of the current 3D sample. , The method according to Appendix 1 or 2.
(Appendix 4)
At least one 3D sample uses a depth value ranging from the depth value of the current 3D sample of the point cloud frame to a depth value equal to -1 of the sum of the depth value and the maximum depth difference of the current 3D sample. Added in Addendum 1-3, wherein the maximum depth difference is equal to the difference between the depth of the current 3D sample and the depth of adjacent 3D samples of the current 3D sample. the method of.
(Appendix 5)
The method of Appendix 4, wherein at least one 3D sample is added up to the maximum depth difference of 0 at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point cloud frame onto the image plane. ..
(Appendix 6)
The method of Appendix 5, wherein a 3D sample is added at said 2D position when the maximum depth difference is equal to 0 or 1.
(Appendix 7)
At least one 3D sample is added up to the maximum depth difference -1 at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point group frame onto the image plane, and another 3D sample is added. The method of Appendix 3, wherein the 2D sample representing the projection of the adjacent 3D sample is added at the 2D position using a depth value equal to the maximum depth difference -1.
(Appendix 8)
The method according to one of Supplementary note 4 to 7, wherein the maximum depth difference is at least equal to the minimum value.
(Appendix 9)
The method according to Appendix 8, wherein the minimum value is transmitted by a bit stream.
(Appendix 10)
When the maximum depth difference is calculated, the difference between the depth value of the current 3D sample of the point cloud frame and the depth value of the adjacent 3D sample is if the difference does not belong to a given range of values. , Ignored, the method according to Appendix 3.
(Appendix 11)
The method of Appendix 4, wherein the color coding mode is assigned to the 3D sample according to the maximum depth difference associated with the 3D sample.
(Appendix 12)
When the explicit color coding mode is associated with the 3D sample, the color information associated with the 3D sample is encoded as image data, and when the implicit color coding mode is associated with the 3D sample, the said. The method according to Appendix 1, wherein the color information associated with a 3D sample is obtained by interpolating the color information associated with another 3D sample.
(Appendix 13)
The method of Appendix 1, wherein the method further comprises encoding the color-coded mode associated with the 3D sample with a bitstream.
(Appendix 14)
It ’s a method,
Adding at least one 3D sample to the point cloud frame,
If the color coding mode associated with the at least one 3D sample indicates that the color information associated with the at least one 3D sample is explicitly encoded in the bitstream, then the at least one from the bitstream. Decoding the color information associated with the 3D sample,
Otherwise, the method comprising: that the color information associated with the at least one 3D sample is derived from the color information associated with the other 3D sample of the point cloud frame.
(Appendix 15)
10. The method of Appendix 14, wherein the point cloud frame is obtained by restoring a projection of at least one geometric image representing the geometry of the point cloud frame.
(Appendix 16)
Addition: At least one 3D sample is added from the current 3D sample of the point cloud frame according to the difference between the depth value of the adjacent 3D sample of the current 3D sample and the depth value of the current 3D sample. 14 or 15.
(Appendix 17)
At least one 3D sample uses a depth value ranging from the depth value of the current 3D sample of the point cloud frame to a depth value equal to -1 of the sum of the depth value and the maximum depth difference of the current 3D sample. 14 or 15, wherein the maximum depth difference is equal to the difference between the depth of the current 3D sample and the depth of an adjacent 3D sample of the current 3D sample.
(Appendix 18)
17. The method of Appendix 17, wherein at least one 3D sample is added up to the maximum depth difference at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point cloud frame onto the image plane.
(Appendix 19)
18. The method of Appendix 18, wherein a 3D sample is added at said 2D position when the maximum depth difference is equal to 0 or 1.
(Appendix 20)
At least one 3D sample is added up to the maximum depth difference -1 at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point group frame onto the image plane, and another 3D sample is added. 16. The method of Appendix 16 which is added at the 2D position using a depth value equal to the maximum depth difference -1 as a 2D sample representing the projection of the adjacent 3D sample.
(Appendix 21)
The method according to one of Supplementary note 17 to 20, wherein the maximum depth difference is at least equal to the minimum value.
(Appendix 22)
21. The method of Appendix 21, wherein the method further comprises decoding the bitstream to provide the minimum value.
(Appendix 23)
When the maximum depth difference is calculated, the difference between the depth value of the current 3D sample of the point cloud frame and the depth value of the adjacent 3D sample is if the difference does not belong to a given range of values. , Ignored, the method according to Appendix 17.
(Appendix 24)
When the explicit color coding mode is associated with the 3D sample, the color information associated with the 3D sample is encoded as image data, and when the implicit color coding mode is associated with the 3D sample, the said. 10. The method of Appendix 14, wherein the color information associated with a 3D sample is obtained by interpolating the color information associated with another 3D sample.
(Appendix 25)
14. The method of Appendix 14, wherein the method further comprises decoding the bitstream to provide the color-coded mode associated with the 3D sample.
(Appendix 26)
A signal comprising a color-coded mode for at least one 3D sample, wherein the color-coded mode indicates whether the color information associated with the at least one 3D sample is explicitly encoded in a bitstream. A signal indicating whether the color information is implicit.
(Appendix 27)
Addendum 26, wherein the signal further includes said color information associated with at least one 3D sample when the color coding mode associated with the at least one 3D sample indicates that the color information is explicit. The signal described.
(Appendix 28)
Addendum 26 or 27, wherein the signal further contains information relating to a maximum depth difference equal to the difference between the depth of the current 3D sample of the point cloud and the depth of the adjacent 3D sample of the current 3D sample. The signal described.
(Appendix 29)
A device comprising at least one processor, said at least one processor.
Adding at least one 3D sample to the point cloud frame,
Assigning a color-coded mode to the at least one 3D sample, wherein the color-coded mode is whether the color information associated with the at least one 3D sample is explicitly encoded in a bitstream, or the color. Assigning, indicating whether the information is implicit,
When an explicit color coding mode is associated with the at least one 3D sample, it is configured to encode the color information associated with the at least one 3D sample with a bitstream. ,device.
(Appendix 30)
A device comprising at least one processor, said at least one processor.
Adding at least one 3D sample to the point cloud frame,
If the color coding mode associated with the at least one 3D sample indicates that the color information associated with the at least one 3D sample is explicitly encoded in the bitstream, then the at least one from the bitstream. Decoding the color information associated with the 3D sample,
Otherwise, the color information associated with the at least one 3D sample is configured to be derived from the color information associated with the other 3D sample of the point cloud frame. ,device.
(Appendix 31)
A non-temporary computer-readable medium that can be used on one or more processors.
Adding at least one 3D sample to the point cloud frame,
Assigning a color-coded mode to the at least one 3D sample, wherein the color-coded mode is whether the color information associated with the at least one 3D sample is explicitly encoded in a bitstream, or the color. Assigning, indicating whether the information is implicit,
When an explicit color coding mode is associated with the at least one 3D sample, it includes instructions for encoding the color information associated with the at least one 3D sample with a bitstream. , Non-temporary computer readable medium.
(Appendix 32)
A non-temporary computer-readable medium that can be used on one or more processors.
Adding at least one 3D sample to the point cloud frame,
If the color coding mode associated with the at least one 3D sample indicates that the color information associated with the at least one 3D sample is explicitly encoded in the bitstream, then the at least one from the bitstream. Decoding the color information associated with the 3D sample,
Otherwise, it includes instructions for executing that the color information associated with the at least one 3D sample is derived from the color information associated with the other 3D sample of the point cloud frame. , Non-temporary computer readable medium.

Claims (25)

方法であって、 It ’s a method,
少なくとも1つの3Dサンプルを点群フレームに追加することを含み、Including adding at least one 3D sample to the point cloud frame
前記少なくとも1つの3Dサンプルが、現在の3Dサンプルの、少なくとも1つの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、方法。The current 3D of the point cloud frame according to the difference between the depth value of at least one adjacent 3D sample of the current 3D sample and the depth value of the current 3D sample. A method added from the sample.
前記点群フレームが、点群フレームの幾何形状を表す少なくとも1つの幾何形状画像の投影を復元することによって取得される、請求項1に記載の方法。 The method of claim 1, wherein the point cloud frame is obtained by restoring a projection of at least one geometric image representing the geometry of the point cloud frame. 少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの深度値からの範囲に属する深度値、ならびに少なくとも第1の値に等しく、かつ前記現在の3Dサンプルの深度値および第1の深度差の合計-1に等しい深度値を使って追加され、前記第1の深度差は、前記差が前記第1の値以上であるときに、前記現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい、請求項1または2に記載の方法。 At least one 3D sample is equal to at least the first value and the depth value and the first depth of the current 3D sample that belong to the range from the depth value of the current 3D sample of the point cloud frame. Added using a depth value equal to the sum of the differences -1, the first depth difference is the depth of the current 3D sample and the current 3D when the difference is greater than or equal to the first value. The method of claim 1 or 2, wherein the difference between the depths of adjacent 3D samples of the sample is equal. 少なくとも1つの3Dサンプルが、前記点群フレームの前記現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記第1の深度差まで追加される、請求項3に記載の方法。 According to claim 3, at least one 3D sample is added up to the first depth difference at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point cloud frame onto the image plane. The method described. 第1の深度差が0または1に等しいとき、3Dサンプルが、前記2D位置において追加される、請求項4に記載の方法。 The method of claim 4, wherein a 3D sample is added at said 2D position when the first depth difference is equal to 0 or 1. 少なくとも1つの3Dサンプルが、前記点群フレームの前記現在の3Dサンプルの、前記画像面上への投影を表す2Dサンプルと同じ2D位置において、前記第1の深度差-1まで追加され、別の3Dサンプルは、前記第1の深度差-1に等しい深度値を使って、前記隣接する3Dサンプルの投影を表す2Dサンプルとして、前記2D位置において追加される、請求項1または2に記載の方法。 At least one 3D sample is added up to the first depth difference -1 at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point group frame onto the image plane. The method of claim 1 or 2, wherein the 3D sample is added at the 2D position as a 2D sample representing the projection of the adjacent 3D sample using a depth value equal to the first depth difference -1. .. 前記第1の値が、0以上である、請求項3~6のいずれかに記載の方法。 The method according to any one of claims 3 to 6, wherein the first value is 0 or more. 前記第1の値が、1以上である、請求項3~6のいずれかに記載の方法。 The method according to any one of claims 3 to 6, wherein the first value is 1 or more. 前記第1の値が、ビットストリーム内で送信される、請求項3~8のいずれかに記載の方法。 The method of any of claims 3-8, wherein the first value is transmitted within a bitstream. 前記方法が、前記第1の値を提供するようにビットストリームを復号化することをさらに含む、請求項1~8のいずれかに記載の方法。 The method of any of claims 1-8, further comprising decoding the bitstream so that the method provides the first value. 前記第1の深度差が計算されるとき、前記点群フレームの現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との間の差は、前記差が第1の値の範囲に属さない場合は、無視される、請求項1~10のいずれかに記載の方法。 When the first depth difference is calculated, the difference between the depth value of the current 3D sample of the point cloud frame and the depth value of the adjacent 3D sample is such that the difference is in the range of the first value. The method according to any one of claims 1 to 10, which is ignored if it does not belong. 前記点群フレームのうちのいくつかの他の3Dサンプルに関連付けられた色情報を補間することによって、少なくとも1つの追加された3Dサンプルに関連付けられた色情報を取得することを含む、請求項1~11のいずれかに記載の方法。 Claim 1 comprising interpolating the color information associated with some of the other 3D samples of the point cloud frame to obtain the color information associated with at least one additional 3D sample. The method according to any one of 11. 色分けモードを少なくとも1つの追加された3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの追加された3Dサンプルに関連付けられた色情報がビットストリームで符号化されていることを示す、割り当てることと、 By assigning a color coding mode to at least one additional 3D sample, said color coding mode indicates that the color information associated with the at least one added 3D sample is encoded in a bitstream. , Assigning and
前記少なくとも1つの追加された3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を含む、請求項1~9のいずれかに記載の方法。 The method of any of claims 1-9, comprising encoding the color information associated with the at least one added 3D sample with a bitstream.
前記色分けモードが、前記追加された3Dサンプルに関連付けられた前記第1の深度差に従って、前記追加された3Dサンプルに割り当てられる、請求項13に記載の方法。 13. The method of claim 13, wherein the color coding mode is assigned to the added 3D sample according to the first depth difference associated with the added 3D sample. 前記方法が、前記追加された3Dサンプルに関連付けられた前記色分けモードをビットストリームで符号化することをさらに含む、請求項13または14のいずれかに記載の方法。 The method of any of claims 13 or 14, wherein the method further comprises encoding the color-coded mode associated with the added 3D sample with a bitstream. 少なくとも1つの追加された3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの追加された3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示すとき、ビットストリームから、前記少なくとも1つの追加された3Dサンプルに関連付けられた色情報を復号化することを含む、請求項1~8のいずれかに記載の方法。 From a bitstream when the color coding mode associated with at least one added 3D sample indicates that the color information associated with said at least one added 3D sample is explicitly encoded in the bitstream. The method of any of claims 1-8, comprising decoding the color information associated with the at least one added 3D sample. 前記追加された3Dサンプルに関連付けられた前記色情報が、画像データとして符号化される、請求項13または16に記載の方法。 13. The method of claim 13 or 16, wherein the color information associated with the added 3D sample is encoded as image data. 前記方法が、前記追加された3Dサンプルに関連付けられた前記色分けモードを提供するようにビットストリームを復号化することをさらに含む、請求項16に記載の方法。 16. The method of claim 16, wherein the method further comprises decoding the bitstream to provide the color-coded mode associated with the added 3D sample. 点群の現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい少なくとも1つの第1の深度差に関連する情報を含む信号を生成する方法。 A method of generating a signal containing information related to at least one first depth difference equal to the difference between the current 3D sample depth of a point cloud and the depth of an adjacent 3D sample of the current 3D sample. 前記関連する情報が、前記第1の深度差の最小値を含む、請求項19に記載の方法。 19. The method of claim 19, wherein the relevant information comprises a minimum of the first depth difference. 少なくとも1つの3Dサンプルのための色分けモードを含み、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報がビットストリームで符号化されていることを示す、請求項19または20に記載の方法。 19 or 20, claim 19 or 20, comprising a color coding mode for at least one 3D sample, wherein the color coding mode indicates that the color information associated with the at least one 3D sample is encoded in a bitstream. The method described. 前記信号が、前記少なくとも1つの3Dサンプルに関連付けられた色情報をさらに含む、請求項21に記載の方法。 21. The method of claim 21, wherein the signal further comprises color information associated with the at least one 3D sample. 少なくとも1つのプロセッサを備えるデバイスであって、前記プロセッサが、 A device comprising at least one processor, wherein the processor is
少なくとも1つの3Dサンプルを点群フレームに追加するように構成され、 Configured to add at least one 3D sample to the point cloud frame,
前記少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、デバイス。The at least one 3D sample is added from the current 3D sample of the point cloud frame according to the difference between the depth value of the adjacent 3D sample of the current 3D sample and the depth value of the current 3D sample. The device.
非一時的コンピュータ可読媒体であって、1つ以上のプロセッサに、 A non-temporary computer-readable medium that can be used on one or more processors.
少なくとも1つの3Dサンプルを点群フレームに追加すること、を実行させるための命令を含み、前記少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、非一時的コンピュータ可読媒体。The instruction for adding at least one 3D sample to the point cloud frame is included, and the at least one 3D sample includes the depth value of the adjacent 3D sample of the current 3D sample and the current 3D sample. A non-temporary computer-readable medium added from the current 3D sample of the point cloud frame according to the difference from the depth value of.
命令を含むコンピュータプログラムであって、前記命令が、1つ以上のプロセッサによって実行されるときに、前記1つ以上のプロセッサに、 A computer program containing an instruction that, when the instruction is executed by one or more processors, to the one or more processors.
少なくとも1つの3Dサンプルを点群フレームに追加すること、を実行させ、前記少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、コンピュータプログラム。Adding at least one 3D sample to the point cloud frame is performed, and the at least one 3D sample is the depth value of the adjacent 3D sample of the current 3D sample and the depth value of the current 3D sample. A computer program added from the current 3D sample of the point cloud frame according to the difference between.
JP2020533208A 2018-01-19 2019-01-21 Point cloud processing Active JP7448760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023206238A JP2024026293A (en) 2018-01-19 2023-12-06 Processing point cloud

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
EP18305048 2018-01-19
EP18305048.3 2018-01-19
EP18305420 2018-04-10
EP18305420.4 2018-04-10
EP18305928.6 2018-07-11
EP18305928 2018-07-11
PCT/IB2019/050492 WO2019142164A1 (en) 2018-01-19 2019-01-21 Processing a point cloud

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023206238A Division JP2024026293A (en) 2018-01-19 2023-12-06 Processing point cloud

Publications (3)

Publication Number Publication Date
JP2021511563A JP2021511563A (en) 2021-05-06
JPWO2019142164A5 true JPWO2019142164A5 (en) 2022-01-27
JP7448760B2 JP7448760B2 (en) 2024-03-13

Family

ID=65496774

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020533208A Active JP7448760B2 (en) 2018-01-19 2019-01-21 Point cloud processing
JP2023206238A Pending JP2024026293A (en) 2018-01-19 2023-12-06 Processing point cloud

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023206238A Pending JP2024026293A (en) 2018-01-19 2023-12-06 Processing point cloud

Country Status (8)

Country Link
US (2) US11900639B2 (en)
EP (1) EP3740938A1 (en)
JP (2) JP7448760B2 (en)
KR (2) KR102640992B1 (en)
CN (1) CN111630571A (en)
AU (2) AU2019208552B2 (en)
MX (1) MX2020007660A (en)
WO (1) WO2019142164A1 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112020026618A2 (en) * 2018-06-26 2021-03-30 Huawei Technologies Co., Ltd. HIGH LEVEL SYNTAX PROJECTS FOR POINT CLOUD CODING
CA3106158A1 (en) 2018-07-11 2020-01-16 Interdigital Vc Holdings, Inc. Method for encoding/decoding texture of points of a point cloud
US11625809B2 (en) 2018-07-11 2023-04-11 Interdigital Vc Holdings, Inc. Method and device for encoding/decoding the geometry of a point cloud
US11151748B2 (en) * 2018-07-13 2021-10-19 Electronics And Telecommunications Research Institute 3D point cloud data encoding/decoding method and apparatus
BR112021004798A2 (en) * 2018-09-14 2021-06-08 Huawei Technologies Co., Ltd. Improved attribute support in point cloud encoding
KR102537087B1 (en) 2018-10-02 2023-05-26 후아웨이 테크놀러지 컴퍼니 리미티드 Motion estimation using 3D auxiliary data
US11095900B2 (en) * 2018-12-19 2021-08-17 Sony Group Corporation Point cloud coding structure
US11158116B2 (en) * 2019-08-05 2021-10-26 Tencent America LLC Geometry model for point cloud coding
CN112333453A (en) 2019-08-05 2021-02-05 腾讯美国有限责任公司 Decoding method and apparatus, computer system, and storage medium
JP2022172413A (en) * 2019-09-26 2022-11-16 シャープ株式会社 Three-dimensional expression conversion device and three-dimensional expression inverse conversion device
US11310528B2 (en) * 2020-03-30 2022-04-19 Tencent America LLC Methods of coding duplicate and isolated points for point cloud coding
US20230111994A1 (en) * 2020-04-03 2023-04-13 Lg Electronics Inc. Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
US11501470B2 (en) 2020-05-27 2022-11-15 Microsoft Technology Licensing, Llc Geometric encoding of data
US20220394295A1 (en) * 2021-06-04 2022-12-08 Tencent America LLC Fast recolor for video based point cloud coding

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6823015B2 (en) * 2002-01-23 2004-11-23 International Business Machines Corporation Macroblock coding using luminance date in analyzing temporal redundancy of picture, biased by chrominance data
US6963671B2 (en) * 2002-04-17 2005-11-08 Mitsubishi Electric Research Labs, Inc. Method for determining distances to a surface from a range image
US7991238B2 (en) * 2004-04-30 2011-08-02 Neiversan Networks Co. Llc Adaptive compression of multi-level images
JP5093604B2 (en) 2008-06-13 2012-12-12 国立大学法人岩手大学 Fillet surface recognition method, fillet surface recognition program, and measurement information processing apparatus
CN103139577B (en) 2011-11-23 2015-09-30 华为技术有限公司 The method and apparatus of a kind of depth image filtering method, acquisition depth image filtering threshold
KR101874482B1 (en) 2012-10-16 2018-07-05 삼성전자주식회사 Apparatus and method of reconstructing 3-dimension super-resolution image from depth image
CN106471805A (en) 2014-05-09 2017-03-01 诺基亚技术有限公司 For carrying out Video coding and the methods and techniques equipment of decoding using palette coding
US9607388B2 (en) 2014-09-19 2017-03-28 Qualcomm Incorporated System and method of pose estimation
US9716889B2 (en) 2014-12-09 2017-07-25 Sony Corporation Intra and inter-color prediction for Bayer image coding
WO2016172385A1 (en) 2015-04-23 2016-10-27 Ostendo Technologies, Inc. Methods for full parallax compressed light field synthesis utilizing depth information
CN108369639B (en) * 2015-12-11 2022-06-21 虞晶怡 Image-based image rendering method and system using multiple cameras and depth camera array
US20170214943A1 (en) 2016-01-22 2017-07-27 Mitsubishi Electric Research Laboratories, Inc. Point Cloud Compression using Prediction and Shape-Adaptive Transforms
EP3249921A1 (en) * 2016-05-24 2017-11-29 Thomson Licensing Method, apparatus and stream for immersive video format
US10694210B2 (en) 2016-05-28 2020-06-23 Microsoft Technology Licensing, Llc Scalable point cloud compression with transform, and corresponding decompression
US20180053324A1 (en) * 2016-08-19 2018-02-22 Mitsubishi Electric Research Laboratories, Inc. Method for Predictive Coding of Point Cloud Geometries
WO2018125939A1 (en) 2016-12-30 2018-07-05 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation
CN107230225B (en) 2017-04-25 2020-06-09 华为技术有限公司 Method and apparatus for three-dimensional reconstruction
CN107590825B (en) 2017-07-31 2020-10-02 东南大学 Point cloud hole repairing method based on SFM
EP3467784A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing Method and device for up-sampling a point cloud
US10708627B2 (en) * 2019-03-04 2020-07-07 Intel Corporation Volumetric video compression with motion history

Similar Documents

Publication Publication Date Title
JPWO2019142164A5 (en)
WO2019065299A1 (en) Information processing device and method
JPWO2019142163A5 (en)
JP2020522169A5 (en)
JP2016192794A5 (en)
JP2021502033A5 (en)
JP5753630B2 (en) Method and apparatus for inverse quantization of transformed coefficients
RU2014123342A (en) METHOD FOR CODING AND DECODING IMAGES, DEVICE FOR CODING AND DECODING, AND RELATED COMPUTER PROGRAMS
CN110276811B (en) Image conversion method and device, electronic equipment and readable storage medium
RU2015116434A (en) CODER, DECODER AND METHODS FOR REVERSABLE SPATIAL SPATIAL CODING OF VARIABLE AUDIO OBJECTS
JPWO2020072865A5 (en)
JP2023095909A (en) Method and apparatus for embedding key information in image
JP2019508947A5 (en)
RU2744982C2 (en) Systems and methods for deferred post-processing operations when encoding video information
JP2016514432A (en) How to encode a depth lookup table
JP6186429B2 (en) Information processing apparatus, control method, program, and recording medium
TW201320757A (en) Method for decoding picture in form of bit-stream
US11240512B2 (en) Intra-prediction for video coding using perspective information
JPWO2020014011A5 (en)
WO2022054358A1 (en) Point group decoding device, point group decoding method, and program
JP6811931B2 (en) Image decoding device, image decoding method and program
JP7495185B2 (en) Point group decoding device, point group decoding method and program
Monteiro et al. Disparity compensation using geometric transforms
WO2022260115A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
EP3110156B1 (en) A system and a method for disoccluded region coding in a multiview video data stream