多数の実施態様が説明されてきた。それでもなお、さまざまな変更が行われ得ることが理解されよう。例えば、異なる実施態様の要素は、他の実施態様を生成するために、組み合わされ、補足され、変更され、または削除されてもよい。さらに、当業者は、他の構造およびプロセスが開示されたものの代わりになり得、結果として生じる実施態様が、少なくとも実質的に同じ機能(複数可)を、少なくとも実質的に同じ方法(複数可)で実行して、開示された実施態様と少なくとも実質的に同じ結果(複数可)を達成することを理解するであろう。したがって、これらおよび他の実施態様は、本出願によって企図されている。
なお、上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
方法であって、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を含む、方法。
(付記2)
前記点群フレームが、点群フレームの幾何形状を表す少なくとも1つの幾何形状画像の投影を復元することによって取得される、付記1に記載の方法。
(付記3)
少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との間の差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、付記1または2に記載の方法。
(付記4)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの深度値から、前記現在の3Dサンプルの前記深度値と最大深度差との合計-1に等しい深度値の範囲にわたる深度値を使って追加され、前記最大深度差が、前記現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい、付記1~3のうちの一つに記載の方法。
(付記5)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差0まで追加される、付記4に記載の方法。
(付記6)
最大深度差が0または1に等しいとき、3Dサンプルが、前記2D位置において追加される、付記5に記載の方法。
(付記7)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、前記画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差-1まで追加され、別の3Dサンプルは、前記隣接する3Dサンプルの投影を表す2Dサンプルとして、前記最大深度差-1に等しい深度値を使って、前記2D位置において追加される、付記3に記載の方法。
(付記8)
前記最大深度差が、少なくとも最小値に等しい、付記4~7のうちの一つに記載の方法。
(付記9)
前記最小値が、ビットストリームで送信される、付記8に記載の方法。
(付記10)
前記最大深度差が計算されるとき、前記点群フレームの現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との差は、前記差が値の所与の範囲に属さない場合は、無視される、付記3に記載の方法。
(付記11)
色分けモードが、前記3Dサンプルに関連付けられた前記最大深度差に従って、3Dサンプルに割り当てられる、付記4に記載の方法。
(付記12)
明示的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、画像データとして符号化され、暗黙的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、他の3Dサンプルに関連付けられた色情報を補間することによって取得される、付記1に記載の方法。
(付記13)
前記方法が、3Dサンプルに関連付けられた前記色分けモードをビットストリームで符号化することをさらに含む、付記1に記載の方法。
(付記14)
方法であって、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を含む、方法。
(付記15)
前記点群フレームが、点群フレームの幾何形状を表す少なくとも1つの幾何形状画像の投影を復元することによって取得される、付記14に記載の方法。
(付記16)
少なくとも1つの3Dサンプルが、現在の3Dサンプルの隣接する3Dサンプルの深度値と、前記現在の3Dサンプルの深度値との差に従って、前記点群フレームの前記現在の3Dサンプルから追加される、付記14または15に記載の方法。
(付記17)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの深度値から、前記現在の3Dサンプルの前記深度値と最大深度差との合計-1に等しい深度値の範囲にわたる深度値を使って追加され、前記最大深度差が、前記現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい、付記14または15に記載の方法。
(付記18)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差まで追加される、付記17に記載の方法。
(付記19)
最大深度差が0または1に等しいとき、3Dサンプルが、前記2D位置において追加される、付記18に記載の方法。
(付記20)
少なくとも1つの3Dサンプルが、前記点群フレームの現在の3Dサンプルの、前記画像面上への投影を表す2Dサンプルと同じ2D位置において、前記最大深度差-1まで追加され、別の3Dサンプルは、前記隣接する3Dサンプルの投影を表す2Dサンプルとして、前記最大深度差-1に等しい深度値を使って、前記2D位置において追加される、付記16に記載の方法。
(付記21)
前記最大深度差が、少なくとも最小値に等しい、付記17~20のうちの一つに記載の方法。
(付記22)
前記方法が、前記最小値を提供するようにビットストリームを復号化することをさらに含む、付記21に記載の方法。
(付記23)
前記最大深度差が計算されるとき、前記点群フレームの現在の3Dサンプルの深度値と、隣接する3Dサンプルの深度値との差は、前記差が値の所与の範囲に属さない場合は、無視される、付記17に記載の方法。
(付記24)
明示的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、画像データとして符号化され、暗黙的な色分けモードが3Dサンプルに関連付けられている場合、前記3Dサンプルに関連付けられた前記色情報が、他の3Dサンプルに関連付けられた色情報を補間することによって取得される、付記14に記載の方法。
(付記25)
前記方法が、3Dサンプルに関連付けられた前記色分けモードを提供するようにビットストリームを復号化することをさらに含む、付記14に記載の方法。
(付記26)
少なくとも1つの3Dサンプルのための色分けモードを含む信号であって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報が、ビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、信号。
(付記27)
前記信号は、前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、色情報が明示的であることを示すときに、少なくとも1つの3Dサンプルに関連付けられた前記色情報をさらに含む、付記26に記載の信号。
(付記28)
前記信号が、点群の現在の3Dサンプルの深度と、前記現在の3Dサンプルの隣接する3Dサンプルの深度との間の差に等しい最大深度差に関連する情報をさらに含む、付記26または27に記載の信号。
(付記29)
少なくとも1つのプロセッサを備えるデバイスであって、前記少なくとも1つのプロセッサが、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を行うように構成されている、デバイス。
(付記30)
少なくとも1つのプロセッサを備えるデバイスであって、前記少なくとも1つのプロセッサが、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を行うように構成されている、デバイス。
(付記31)
非一時的コンピュータ可読媒体であって、1つ以上のプロセッサに、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
色分けモードを前記少なくとも1つの3Dサンプルに割り当てることであって、前記色分けモードは、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されているかどうか、または前記色情報が暗黙的であるかどうかを示す、割り当てることと、
明示的な色分けモードが前記少なくとも1つの3Dサンプルに関連付けられている場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報をビットストリームで符号化することと、を実行させるための命令を含む、非一時的コンピュータ可読媒体。
(付記32)
非一時的コンピュータ可読媒体であって、1つ以上のプロセッサに、
少なくとも1つの3Dサンプルを点群フレームに追加することと、
前記少なくとも1つの3Dサンプルに関連付けられた色分けモードが、前記少なくとも1つの3Dサンプルに関連付けられた色情報がビットストリームで明示的に符号化されていると示す場合、ビットストリームから、前記少なくとも1つの3Dサンプルに関連付けられた色情報を復号化することと、
それ以外の場合、前記少なくとも1つの3Dサンプルに関連付けられた前記色情報が、前記点群フレームの他の3Dサンプルに関連付けられた色情報から導出されることと、を実行させるための命令を含む、非一時的コンピュータ可読媒体。
Many embodiments have been described. Nevertheless, it will be understood that various changes can be made. For example, elements of different embodiments may be combined, supplemented, modified, or deleted to generate other embodiments. In addition, one of ordinary skill in the art may substitute for other structures and processes disclosed, and the resulting embodiments may have at least substantially the same function (s), at least substantially the same method (s). It will be appreciated that performed in, achieving at least substantially the same results (s) as the disclosed embodiments. Therefore, these and other embodiments are contemplated by this application.
In addition, a part or all of the above-mentioned embodiment may be described as the following appendix, but is not limited to the following.
(Appendix 1)
It ’s a method,
Adding at least one 3D sample to the point cloud frame,
Assigning a color-coded mode to the at least one 3D sample, wherein the color-coded mode is whether the color information associated with the at least one 3D sample is explicitly encoded in a bitstream, or the color. Assigning, indicating whether the information is implicit,
A method comprising encoding the color information associated with the at least one 3D sample with a bitstream, where an explicit color coding mode is associated with the at least one 3D sample.
(Appendix 2)
The method according to Appendix 1, wherein the point cloud frame is obtained by restoring a projection of at least one geometric image representing the geometry of the point cloud frame.
(Appendix 3)
At least one 3D sample is added from the current 3D sample of the point cloud frame according to the difference between the depth value of the adjacent 3D sample of the current 3D sample and the depth value of the current 3D sample. , The method according to Appendix 1 or 2.
(Appendix 4)
At least one 3D sample uses a depth value ranging from the depth value of the current 3D sample of the point cloud frame to a depth value equal to -1 of the sum of the depth value and the maximum depth difference of the current 3D sample. Added in Addendum 1-3, wherein the maximum depth difference is equal to the difference between the depth of the current 3D sample and the depth of adjacent 3D samples of the current 3D sample. the method of.
(Appendix 5)
The method of Appendix 4, wherein at least one 3D sample is added up to the maximum depth difference of 0 at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point cloud frame onto the image plane. ..
(Appendix 6)
The method of Appendix 5, wherein a 3D sample is added at said 2D position when the maximum depth difference is equal to 0 or 1.
(Appendix 7)
At least one 3D sample is added up to the maximum depth difference -1 at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point group frame onto the image plane, and another 3D sample is added. The method of Appendix 3, wherein the 2D sample representing the projection of the adjacent 3D sample is added at the 2D position using a depth value equal to the maximum depth difference -1.
(Appendix 8)
The method according to one of Supplementary note 4 to 7, wherein the maximum depth difference is at least equal to the minimum value.
(Appendix 9)
The method according to Appendix 8, wherein the minimum value is transmitted by a bit stream.
(Appendix 10)
When the maximum depth difference is calculated, the difference between the depth value of the current 3D sample of the point cloud frame and the depth value of the adjacent 3D sample is if the difference does not belong to a given range of values. , Ignored, the method according to Appendix 3.
(Appendix 11)
The method of Appendix 4, wherein the color coding mode is assigned to the 3D sample according to the maximum depth difference associated with the 3D sample.
(Appendix 12)
When the explicit color coding mode is associated with the 3D sample, the color information associated with the 3D sample is encoded as image data, and when the implicit color coding mode is associated with the 3D sample, the said. The method according to Appendix 1, wherein the color information associated with a 3D sample is obtained by interpolating the color information associated with another 3D sample.
(Appendix 13)
The method of Appendix 1, wherein the method further comprises encoding the color-coded mode associated with the 3D sample with a bitstream.
(Appendix 14)
It ’s a method,
Adding at least one 3D sample to the point cloud frame,
If the color coding mode associated with the at least one 3D sample indicates that the color information associated with the at least one 3D sample is explicitly encoded in the bitstream, then the at least one from the bitstream. Decoding the color information associated with the 3D sample,
Otherwise, the method comprising: that the color information associated with the at least one 3D sample is derived from the color information associated with the other 3D sample of the point cloud frame.
(Appendix 15)
10. The method of Appendix 14, wherein the point cloud frame is obtained by restoring a projection of at least one geometric image representing the geometry of the point cloud frame.
(Appendix 16)
Addition: At least one 3D sample is added from the current 3D sample of the point cloud frame according to the difference between the depth value of the adjacent 3D sample of the current 3D sample and the depth value of the current 3D sample. 14 or 15.
(Appendix 17)
At least one 3D sample uses a depth value ranging from the depth value of the current 3D sample of the point cloud frame to a depth value equal to -1 of the sum of the depth value and the maximum depth difference of the current 3D sample. 14 or 15, wherein the maximum depth difference is equal to the difference between the depth of the current 3D sample and the depth of an adjacent 3D sample of the current 3D sample.
(Appendix 18)
17. The method of Appendix 17, wherein at least one 3D sample is added up to the maximum depth difference at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point cloud frame onto the image plane.
(Appendix 19)
18. The method of Appendix 18, wherein a 3D sample is added at said 2D position when the maximum depth difference is equal to 0 or 1.
(Appendix 20)
At least one 3D sample is added up to the maximum depth difference -1 at the same 2D position as the 2D sample representing the projection of the current 3D sample of the point group frame onto the image plane, and another 3D sample is added. 16. The method of Appendix 16 which is added at the 2D position using a depth value equal to the maximum depth difference -1 as a 2D sample representing the projection of the adjacent 3D sample.
(Appendix 21)
The method according to one of Supplementary note 17 to 20, wherein the maximum depth difference is at least equal to the minimum value.
(Appendix 22)
21. The method of Appendix 21, wherein the method further comprises decoding the bitstream to provide the minimum value.
(Appendix 23)
When the maximum depth difference is calculated, the difference between the depth value of the current 3D sample of the point cloud frame and the depth value of the adjacent 3D sample is if the difference does not belong to a given range of values. , Ignored, the method according to Appendix 17.
(Appendix 24)
When the explicit color coding mode is associated with the 3D sample, the color information associated with the 3D sample is encoded as image data, and when the implicit color coding mode is associated with the 3D sample, the said. 10. The method of Appendix 14, wherein the color information associated with a 3D sample is obtained by interpolating the color information associated with another 3D sample.
(Appendix 25)
14. The method of Appendix 14, wherein the method further comprises decoding the bitstream to provide the color-coded mode associated with the 3D sample.
(Appendix 26)
A signal comprising a color-coded mode for at least one 3D sample, wherein the color-coded mode indicates whether the color information associated with the at least one 3D sample is explicitly encoded in a bitstream. A signal indicating whether the color information is implicit.
(Appendix 27)
Addendum 26, wherein the signal further includes said color information associated with at least one 3D sample when the color coding mode associated with the at least one 3D sample indicates that the color information is explicit. The signal described.
(Appendix 28)
Addendum 26 or 27, wherein the signal further contains information relating to a maximum depth difference equal to the difference between the depth of the current 3D sample of the point cloud and the depth of the adjacent 3D sample of the current 3D sample. The signal described.
(Appendix 29)
A device comprising at least one processor, said at least one processor.
Adding at least one 3D sample to the point cloud frame,
Assigning a color-coded mode to the at least one 3D sample, wherein the color-coded mode is whether the color information associated with the at least one 3D sample is explicitly encoded in a bitstream, or the color. Assigning, indicating whether the information is implicit,
When an explicit color coding mode is associated with the at least one 3D sample, it is configured to encode the color information associated with the at least one 3D sample with a bitstream. ,device.
(Appendix 30)
A device comprising at least one processor, said at least one processor.
Adding at least one 3D sample to the point cloud frame,
If the color coding mode associated with the at least one 3D sample indicates that the color information associated with the at least one 3D sample is explicitly encoded in the bitstream, then the at least one from the bitstream. Decoding the color information associated with the 3D sample,
Otherwise, the color information associated with the at least one 3D sample is configured to be derived from the color information associated with the other 3D sample of the point cloud frame. ,device.
(Appendix 31)
A non-temporary computer-readable medium that can be used on one or more processors.
Adding at least one 3D sample to the point cloud frame,
Assigning a color-coded mode to the at least one 3D sample, wherein the color-coded mode is whether the color information associated with the at least one 3D sample is explicitly encoded in a bitstream, or the color. Assigning, indicating whether the information is implicit,
When an explicit color coding mode is associated with the at least one 3D sample, it includes instructions for encoding the color information associated with the at least one 3D sample with a bitstream. , Non-temporary computer readable medium.
(Appendix 32)
A non-temporary computer-readable medium that can be used on one or more processors.
Adding at least one 3D sample to the point cloud frame,
If the color coding mode associated with the at least one 3D sample indicates that the color information associated with the at least one 3D sample is explicitly encoded in the bitstream, then the at least one from the bitstream. Decoding the color information associated with the 3D sample,
Otherwise, it includes instructions for executing that the color information associated with the at least one 3D sample is derived from the color information associated with the other 3D sample of the point cloud frame. , Non-temporary computer readable medium.