WO2020138352A1 - 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置 - Google Patents

三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置 Download PDF

Info

Publication number
WO2020138352A1
WO2020138352A1 PCT/JP2019/051275 JP2019051275W WO2020138352A1 WO 2020138352 A1 WO2020138352 A1 WO 2020138352A1 JP 2019051275 W JP2019051275 W JP 2019051275W WO 2020138352 A1 WO2020138352 A1 WO 2020138352A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional data
information
dimensional
encoding
unit
Prior art date
Application number
PCT/JP2019/051275
Other languages
English (en)
French (fr)
Inventor
敏康 杉尾
賀敬 井口
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to EP19905976.7A priority Critical patent/EP3905202A4/en
Priority to KR1020217019416A priority patent/KR20210107686A/ko
Priority to MX2021006631A priority patent/MX2021006631A/es
Priority to JP2020562446A priority patent/JPWO2020138352A1/ja
Priority to BR112021010602-2A priority patent/BR112021010602A2/pt
Priority to CN201980085560.2A priority patent/CN113228109A/zh
Publication of WO2020138352A1 publication Critical patent/WO2020138352A1/ja
Priority to US17/353,148 priority patent/US20210314612A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Definitions

  • the present disclosure relates to a three-dimensional data encoding method, a three-dimensional data decoding method, a three-dimensional data encoding device, and a three-dimensional data decoding device.
  • Three-dimensional data is acquired by various methods such as a range sensor such as a range finder, a stereo camera, or a combination of a plurality of monocular cameras.
  • a representation method As one of the representation methods of 3D data, there is a representation method called a point cloud that represents the shape of a 3D structure by a point cloud in a 3D space.
  • the position and color of the point cloud are stored. It is expected that point clouds will become the mainstream method of representing three-dimensional data, but the amount of data in point clouds is extremely large. Therefore, in the storage or transmission of three-dimensional data, it is essential to compress the amount of data by encoding, as in two-dimensional moving images (as an example, there are MPEG-4 AVC or HEVC standardized by MPEG). Become.
  • compression of the point cloud is partially supported by the public library (Point Cloud Library) that performs processing related to the point cloud.
  • Point Cloud Library performs processing related to the point cloud.
  • the present disclosure has an object to provide a three-dimensional data encoding method, a three-dimensional data decoding method, a three-dimensional data encoding device, or a three-dimensional data decoding device that can improve encoding efficiency.
  • a three-dimensional data encoding method calculates a plurality of coefficient values from a plurality of attribute information of a plurality of three-dimensional points included in point cloud data and arranges the plurality of coefficient values.
  • a second code string including first information indicating the number of consecutive zero coefficient values that are zero coefficient values in one code string and second information indicating whether the coefficient value is zero is generated.
  • a three-dimensional data decoding method is a first code string in which a plurality of coefficient values generated from a plurality of attribute information of a plurality of three-dimensional points included in point cloud data are arranged from a bitstream.
  • a second code string including first information indicating the number of consecutive zero coefficient values, which is a coefficient value of zero, and second information indicating whether or not the coefficient value is zero.
  • the plurality of coefficient values are acquired by restoring the first code string from the two code strings, and the plurality of attribute information are calculated from the plurality of coefficient values.
  • the present disclosure can provide a three-dimensional data encoding method, a three-dimensional data decoding method, a three-dimensional data encoding device, or a three-dimensional data decoding device that can improve encoding efficiency.
  • FIG. 1 is a diagram showing a structure of encoded three-dimensional data according to the first embodiment.
  • FIG. 2 is a diagram showing an example of a prediction structure between SPCs belonging to the lowest layer of GOS according to the first embodiment.
  • FIG. 3 is a diagram showing an example of a prediction structure between layers according to the first embodiment.
  • FIG. 4 is a diagram showing an example of the GOS encoding order according to the first embodiment.
  • FIG. 5 is a diagram showing an example of an encoding order of GOS according to the first embodiment.
  • FIG. 6 is a block diagram of the three-dimensional data encoding device according to the first embodiment.
  • FIG. 7 is a flowchart of the encoding process according to the first embodiment.
  • FIG. 1 is a diagram showing a structure of encoded three-dimensional data according to the first embodiment.
  • FIG. 2 is a diagram showing an example of a prediction structure between SPCs belonging to the lowest layer of GOS according to the first embodiment.
  • FIG. 3 is
  • FIG. 8 is a block diagram of the three-dimensional data decoding device according to the first embodiment.
  • FIG. 9 is a flowchart of the decoding process according to the first embodiment.
  • FIG. 10 is a diagram showing an example of the meta information according to the first embodiment.
  • FIG. 11 is a diagram showing a configuration example of the SWLD according to the second embodiment.
  • FIG. 12 is a diagram showing an operation example of the server and the client according to the second embodiment.
  • FIG. 13 is a diagram showing an operation example of the server and the client according to the second embodiment.
  • FIG. 14 is a diagram showing an operation example of the server and the client according to the second embodiment.
  • FIG. 15 is a diagram showing an operation example of the server and the client according to the second embodiment.
  • FIG. 15 is a diagram showing an operation example of the server and the client according to the second embodiment.
  • FIG. 16 is a block diagram of the three-dimensional data encoding device according to the second embodiment.
  • FIG. 17 is a flowchart of the encoding process according to the second embodiment.
  • FIG. 18 is a block diagram of the three-dimensional data decoding device according to the second embodiment.
  • FIG. 19 is a flowchart of the decoding process according to the second embodiment.
  • FIG. 20 is a diagram showing a configuration example of the WLD according to the second embodiment.
  • FIG. 21 is a diagram showing an example of an octree tree structure of the WLD according to the second embodiment.
  • FIG. 22 is a diagram showing a configuration example of the SWLD according to the second embodiment.
  • FIG. 23 is a diagram showing an example of an octree tree structure of SWLD according to the second embodiment.
  • FIG. 24 is a block diagram of the three-dimensional data creation device according to the third embodiment.
  • FIG. 25 is a block diagram of the three-dimensional data transmission device according to the third embodiment.
  • FIG. 26 is a block diagram of the three-dimensional information processing device according to the fourth embodiment.
  • FIG. 27 is a block diagram of the three-dimensional data creation device according to the fifth embodiment.
  • FIG. 28 is a diagram showing the configuration of the system according to the sixth embodiment.
  • FIG. 29 is a block diagram of a client device according to the sixth embodiment.
  • FIG. 30 is a block diagram of a server according to the sixth embodiment.
  • FIG. 31 is a flowchart of the three-dimensional data creation processing by the client device according to the sixth embodiment.
  • FIG. 32 is a flowchart of sensor information transmission processing by the client device according to the sixth embodiment.
  • FIG. 33 is a flowchart of the three-dimensional data creation processing by the server according to the sixth embodiment.
  • FIG. 34 is a flowchart of the three-dimensional map transmission process by the server according to the sixth embodiment.
  • FIG. 35 is a diagram showing a configuration of a modified example of the system according to the sixth embodiment.
  • FIG. 36 is a diagram showing configurations of the server and the client device according to the sixth embodiment.
  • FIG. 37 is a block diagram of the three-dimensional data encoding device according to the seventh embodiment.
  • FIG. 38 is a diagram showing an example of the prediction residual according to the seventh embodiment.
  • FIG. 39 is a diagram showing an example of a volume according to the seventh embodiment.
  • FIG. 39 is a diagram showing an example of a volume according to the seventh embodiment.
  • FIG. 40 is a diagram showing an example of an octree tree representation of a volume according to the seventh embodiment.
  • FIG. 41 is a diagram showing an example of a bit string of a volume according to the seventh embodiment.
  • FIG. 42 is a diagram showing an example of an octree tree representation of a volume according to the seventh embodiment.
  • FIG. 43 is a diagram showing an example of a volume according to the seventh embodiment.
  • FIG. 44 is a diagram for explaining the intra prediction process according to the seventh embodiment.
  • FIG. 45 is a diagram for explaining the rotation and translation processing according to the seventh embodiment.
  • FIG. 46 is a diagram showing a syntax example of the RT application flag and RT information according to the seventh embodiment.
  • FIG. 47 is a diagram for explaining the inter prediction process according to the seventh embodiment.
  • FIG. 41 is a diagram showing an example of a bit string of a volume according to the seventh embodiment.
  • FIG. 42 is a diagram showing an example of an octree tree representation of a
  • FIG. 48 is a block diagram of a three-dimensional data decoding device according to the seventh embodiment.
  • FIG. 49 is a flowchart of the three-dimensional data encoding process by the three-dimensional data encoding device according to the seventh embodiment.
  • FIG. 50 is a flowchart of the 3D data decoding process by the 3D data decoding apparatus according to the seventh embodiment.
  • FIG. 51 is a diagram showing a reference relationship in the octree structure according to the eighth embodiment.
  • FIG. 52 is a diagram showing a reference relationship in the spatial area according to the eighth embodiment.
  • FIG. 53 is a diagram showing an example of an adjacent reference node according to the eighth embodiment.
  • FIG. 54 is a diagram showing a relationship between a parent node and nodes according to the eighth embodiment.
  • FIG. 55 is a diagram showing an example of an occupancy code of a parent node according to the eighth embodiment.
  • FIG. 56 is a block diagram of a three-dimensional data encoding device according to the eighth embodiment.
  • FIG. 57 is a block diagram of a three-dimensional data decoding device according to the eighth embodiment.
  • FIG. 58 is a flowchart of the three-dimensional data encoding process according to the eighth embodiment.
  • FIG. 59 is a flowchart of the three-dimensional data decoding process according to the eighth embodiment.
  • FIG. 60 is a diagram showing an example of coding table switching according to the eighth embodiment.
  • FIG. 61 is a diagram showing a reference relationship in the spatial region according to the first modification of the eighth embodiment.
  • FIG. 62 is a diagram showing a syntax example of header information according to the first modification of the eighth embodiment.
  • FIG. 63 is a diagram showing a syntax example of header information according to the first modification of the eighth embodiment.
  • FIG. 64 is a diagram showing an example of an adjacent reference node according to the second modification of the eighth embodiment.
  • FIG. 65 is a diagram showing an example of a target node and an adjacent node according to the second modification of the eighth embodiment.
  • FIG. 66 is a diagram showing a reference relationship in the octree structure according to the third modification of the eighth embodiment.
  • FIG. 67 is a diagram showing a reference relationship in the spatial area according to the third modification of the eighth embodiment.
  • FIG. 68 is a diagram showing an example of three-dimensional points according to the ninth embodiment.
  • FIG. 69 is a diagram showing a setting example of LoD according to the ninth embodiment.
  • FIG. 70 is a diagram showing an example of thresholds used for setting LoD according to the ninth embodiment.
  • FIG. 71 is a diagram showing an example of attribute information used for predicted values according to the ninth embodiment.
  • FIG. 72 is a diagram showing an example of the exponential Golomb code according to the ninth embodiment.
  • FIG. 73 is a diagram showing processing for the exponential Golomb code according to the ninth embodiment.
  • FIG. 74 is a diagram showing a syntax example of an attribute header according to the ninth embodiment.
  • FIG. 75 is a diagram showing a syntax example of attribute data according to the ninth embodiment.
  • FIG. 76 is a flowchart of the three-dimensional data encoding process according to the ninth embodiment.
  • FIG. 77 is a flowchart of the attribute information encoding process according to the ninth embodiment.
  • FIG. 78 is a diagram showing processing for the exponential Golomb code according to the ninth embodiment.
  • FIG. 79 is a diagram showing an example of a reverse lookup table showing the relationship between the remaining code and its value according to the ninth embodiment.
  • FIG. 80 is a flowchart of the three-dimensional data decoding process according to the ninth embodiment.
  • FIG. 81 is a flowchart of the attribute information decoding process according to the ninth embodiment.
  • FIG. 82 is a block diagram of a three-dimensional data encoding device according to the ninth embodiment.
  • FIG. 83 is a block diagram of a three-dimensional data decoding device according to the ninth embodiment.
  • FIG. 84 is a flowchart of the three-dimensional data encoding process according to the ninth embodiment.
  • FIG. 85 is a flowchart of the three-dimensional data decoding process according to the ninth embodiment.
  • FIG. 86 is a diagram showing a first example of a table showing prediction values calculated in each prediction mode according to the tenth embodiment.
  • FIG. 87 is a diagram showing an example of attribute information used for predicted values according to the tenth embodiment.
  • FIG. 88 is a diagram showing a second example of a table showing prediction values calculated in each prediction mode according to the tenth embodiment.
  • FIG. 89 is a diagram showing a third example of a table showing prediction values calculated in each prediction mode according to the tenth embodiment.
  • FIG. 86 is a diagram showing a first example of a table showing prediction values calculated in each prediction mode according to the tenth embodiment.
  • FIG. 87 is a diagram showing an example of attribute information used for predicted values according to the tenth embodiment.
  • FIG. 88
  • FIG. 90 is a diagram showing a fourth example of a table showing prediction values calculated in each prediction mode according to the tenth embodiment.
  • FIG. 91 is a diagram showing an example of the reference relationship according to the eleventh embodiment.
  • FIG. 92 is a diagram showing an example of QW calculation according to the eleventh embodiment.
  • FIG. 93 is a diagram showing a calculation example of the prediction residual according to the eleventh embodiment.
  • FIG. 94 is a diagram showing an example of the encoding process according to the eleventh embodiment.
  • FIG. 95 is a diagram showing an example of the trunket unary code according to the eleventh embodiment.
  • FIG. 96 is a diagram showing a syntax example of attribute information according to the eleventh embodiment.
  • FIG. 97 is a diagram showing an example of the prediction residual and ZeroCnt according to the eleventh embodiment.
  • FIG. 98 is a diagram showing a syntax example of attribute information according to the eleventh embodiment.
  • FIG. 99 is a flowchart of the three-dimensional data encoding process according to the eleventh embodiment.
  • FIG. 100 is a flowchart of the attribute information encoding process according to the eleventh embodiment.
  • FIG. 101 is a flowchart of the prediction residual coding process according to the eleventh embodiment.
  • FIG. 102 is a flowchart of the three-dimensional data decoding process according to the eleventh embodiment.
  • FIG. 103 is a flowchart of the attribute information decoding process according to the eleventh embodiment.
  • FIG. 104 is a flowchart of the prediction residual decoding process according to the eleventh embodiment.
  • FIG. 105 is a block diagram of the attribute information coding unit according to the eleventh embodiment.
  • FIG. 106 is a block diagram of the attribute information decoding unit according to the eleventh embodiment.
  • FIG. 107 is a diagram illustrating an example of encoding processing according to a modification of Embodiment 11.
  • FIG. 108 is a diagram showing a syntax example of attribute information according to the modification of the eleventh embodiment.
  • FIG. 109 is a diagram illustrating an example of a prediction residual, ZeroCnt, and TotalZeroCnt according to the modified example of the eleventh embodiment.
  • FIG. 110 is a flowchart of the prediction residual coding process according to the modification of the eleventh embodiment.
  • FIG. 111 is a flowchart of the prediction residual decoding process according to the modification of the eleventh embodiment.
  • FIG. 112 is a flowchart of the three-dimensional data encoding process according to the eleventh embodiment.
  • FIG. 113 is a flowchart of the three-dimensional data decoding process according to the eleventh embodiment.
  • FIG. 114 is a diagram for explaining encoding of attribute information using RAHT according to the twelfth embodiment.
  • FIG. 115 is a diagram showing an example of setting a quantization scale for each layer according to the twelfth embodiment.
  • FIG. 116 is a diagram illustrating an example of the first code string and the second code string according to the twelfth embodiment.
  • FIG. 117 is a diagram showing an example of the trunket unary code according to the twelfth embodiment.
  • FIG. 118 is a diagram for explaining the inverse Haar transform according to the twelfth embodiment.
  • FIG. 119 is a diagram illustrating a syntax example of attribute information according to the twelfth embodiment.
  • FIG. 120 is a diagram illustrating an example of coding coefficients and ZeroCnt according to the twelfth embodiment.
  • FIG. 121 is a flowchart of the three-dimensional data encoding process according to the twelfth embodiment.
  • FIG. 122 is a flowchart of the attribute information encoding process according to the twelfth embodiment.
  • FIG. 123 is a flowchart of the coding coefficient coding process according to the twelfth embodiment.
  • FIG. 124 is a flowchart of the three-dimensional data decoding process according to the twelfth embodiment.
  • FIG. 125 is a flowchart of the attribute information decoding process according to the twelfth embodiment.
  • FIG. 126 is a flowchart of the coding coefficient decoding process according to the twelfth embodiment.
  • FIG. 127 is a block diagram of the attribute information encoding unit according to the twelfth embodiment.
  • FIG. 128 is a block diagram of the attribute information decoding unit according to the twelfth embodiment.
  • FIG. 129 is a diagram illustrating an example of a first code string and a second code string according to a modification of Embodiment 12.
  • FIG. 130 is a diagram showing a syntax example of attribute information according to the modification of the twelfth embodiment.
  • FIG. 131 is a diagram illustrating an example of coding coefficients, ZeroCnt, and TotalZeroCnt according to the modification of the twelfth embodiment.
  • FIG. 132 is a flowchart of the coding coefficient coding process according to the modification of the twelfth embodiment.
  • FIG. 133 is a flowchart of the coding coefficient decoding process according to the modification of the twelfth embodiment.
  • FIG. 134 is a diagram illustrating a syntax example of attribute information according to the modification of the twelfth embodiment.
  • FIG. 135 is a flowchart of the three-dimensional data encoding process according to the twelfth embodiment.
  • FIG. 136 is a flowchart of the three-dimensional data decoding process according to the twelfth embodiment.
  • a three-dimensional data encoding method calculates a plurality of coefficient values from a plurality of attribute information of a plurality of three-dimensional points included in point cloud data and arranges the plurality of coefficient values.
  • a second code string including first information indicating the number of consecutive zero coefficient values that are zero coefficient values in one code string and second information indicating whether the coefficient value is zero is generated.
  • the three-dimensional data encoding method can reduce the code amount when the coefficient value of the value zero continues by using the first information, the encoding efficiency can be improved. Furthermore, the three-dimensional data encoding method can improve the encoding efficiency when a large number of coefficient values of zero occur by using the second information.
  • each of the plurality of attribute information includes a plurality of components
  • each of the plurality of coefficient values includes a plurality of coefficient components corresponding to the plurality of components
  • the first information includes the plurality of coefficients.
  • the second coefficient may indicate the number of consecutive zero coefficient values whose components are all zero, and the second information may indicate whether or not each of the plurality of coefficient components is zero.
  • the three-dimensional data encoding method can reduce the code amount as compared with the case where the first information is provided for each component, the encoding efficiency can be improved.
  • the second code string further includes third information indicating whether each of the plurality of coefficient components is 1, and fourth information indicating a value obtained by subtracting 2 from each of the plurality of coefficient components. May include and.
  • the three-dimensional data coding method can improve the coding efficiency by using the second information, the third information, and the fourth information when a large number of coefficient values of zero or one occur. ..
  • the plurality of coefficient values may be generated by dividing each of the plurality of attribute information into a high frequency component and a low frequency component and layering them.
  • each of the plurality of coefficient values may be further quantized, and the plurality of quantized coefficient values may be arranged in the first code string.
  • a three-dimensional data decoding method is a first code string in which a plurality of coefficient values generated from a plurality of attribute information of a plurality of three-dimensional points included in point cloud data are arranged from a bitstream.
  • a second code string including first information indicating the number of consecutive zero coefficient values, which is a coefficient value of zero, and second information indicating whether or not the coefficient value is zero.
  • the plurality of coefficient values are acquired by restoring the first code string from the two code strings, and the plurality of attribute information are calculated from the plurality of coefficient values.
  • the three-dimensional data decoding method can reduce the code amount when the coefficient value of the value zero continues by using the first information, the coding efficiency can be improved. Further, the three-dimensional data decoding method can improve the coding efficiency by using the second information when a large number of coefficient values of zero occur.
  • each of the plurality of attribute information includes a plurality of components
  • each of the plurality of coefficient values includes a plurality of coefficient components corresponding to the plurality of components
  • the first information includes the plurality of coefficients.
  • the second coefficient may indicate the number of consecutive zero coefficient values whose components are all zero, and the second information may indicate whether or not each of the plurality of coefficient components is zero.
  • the three-dimensional data decoding method can reduce the code amount as compared with the case where the first information is provided for each component, the coding efficiency can be improved.
  • the second code string further includes third information indicating whether each of the plurality of coefficient components is 1, and fourth information indicating a value obtained by subtracting 2 from each of the plurality of coefficient components. May include and.
  • the three-dimensional data decoding method can improve the coding efficiency when a large number of coefficient values of 0 or 1 occur.
  • the plurality of coefficient values may be generated by dividing each of the plurality of attribute information into a high frequency component and a low frequency component and layering them.
  • a plurality of quantized coefficient values are arranged in the first code string, the quantized coefficient values are obtained by restoring the first code string, and the quantized coefficient values are obtained.
  • the plurality of coefficient values may be acquired by dequantizing each of the plurality of coefficient values.
  • a three-dimensional data encoding device includes a processor and a memory, and the processor uses the memory to provide a plurality of attributes of a plurality of three-dimensional points included in point cloud data.
  • a plurality of coefficient values are calculated from the information, and first information indicating the number of consecutive zero coefficient values that are zero coefficient values in the first code string in which the plurality of coefficient values are arranged, and the coefficient value are zero.
  • the three-dimensional data encoding device can reduce the code amount when the coefficient value of value zero continues by using the first information, the encoding efficiency can be improved. Furthermore, the three-dimensional data encoding device can improve the encoding efficiency when a large number of coefficient values of zero occur by using the second information.
  • a three-dimensional data decoding device includes a processor and a memory, and the processor uses the memory to extract a plurality of three-dimensional points included in point cloud data from a bitstream.
  • First information indicating the number of consecutive zero coefficient values that are zero coefficient values in the first code string in which a plurality of coefficient values generated from a plurality of attribute information are arranged, and whether the coefficient value is zero
  • the three-dimensional data decoding apparatus can reduce the code amount in the case where the coefficient value of the value zero continues by using the first information, and thus the coding efficiency can be improved. Furthermore, the three-dimensional data decoding device can improve the coding efficiency when a large number of coefficient values of zero occur by using the second information.
  • a recording medium such as a system, a method, an integrated circuit, a computer program or a computer-readable CD-ROM, and the system, the method, the integrated circuit, the computer program. And may be realized by any combination of recording media.
  • FIG. 1 is a diagram showing a structure of encoded three-dimensional data according to the present embodiment.
  • the three-dimensional space is divided into spaces (SPC) corresponding to pictures in moving image coding, and three-dimensional data is coded in units of spaces.
  • the space is further divided into volumes (VLM) corresponding to macroblocks in moving image encoding, and prediction and conversion are performed in units of VLM.
  • the volume includes a plurality of voxels (VXL) that are the minimum units with which the position coordinates are associated.
  • VXL voxels
  • the prediction is similar to the prediction performed on the two-dimensional image, and refers to another processing unit to generate prediction three-dimensional data similar to the processing unit of the processing target, and the prediction three-dimensional data and the processing target. It is to encode the difference from the processing unit.
  • this prediction includes not only spatial prediction that refers to other prediction units at the same time but also temporal prediction that refers to prediction units at different times.
  • a three-dimensional data encoding device (hereinafter, also referred to as an encoding device) encodes a three-dimensional space represented by point cloud data such as a point cloud
  • the three-dimensional data encoding device uses a point cloud according to the size of a voxel. , Or a plurality of points included in the voxel are collectively encoded. If the voxels are subdivided, the three-dimensional shape of the point cloud can be expressed with high accuracy, and if the size of the voxel is increased, the three-dimensional shape of the point cloud can be roughly expressed.
  • the three-dimensional data is a point cloud
  • the three-dimensional data is not limited to the point cloud and may be any type of three-dimensional data.
  • hierarchical voxels may be used.
  • whether or not sample points are present in the n-1th layer or lower (lower layer of the n-th layer) may be indicated in order.
  • decoding only the n-th layer if the sample point exists in the n-1th or lower layer, it can be considered that the sample point exists at the center of the voxel of the n-th layer and decoding can be performed.
  • the encoding device acquires the point cloud data using a distance sensor, a stereo camera, a monocular camera, a gyro, an inertial sensor, or the like.
  • Space can be independently decoded intra space (I-SPC), unidirectional reference-only predictive space (P-SPC), and bi-directional reference, similar to video encoding. Classified into any of at least three prediction structures including a bidirectional space (B-SPC).
  • the space has two types of time information, that is, the decoding time and the display time.
  • GOS Group Of Space
  • WLD world
  • the spatial area occupied by the world is associated with the absolute position on the earth by GPS or latitude and longitude information. This position information is stored as meta information.
  • the meta information may be included in the encoded data or may be transmitted separately from the encoded data.
  • all SPCs may be three-dimensionally adjacent to each other, or SPCs that are not three-dimensionally adjacent to other SPCs may exist.
  • the processing such as encoding, decoding, or reference to the three-dimensional data included in the processing unit such as GOS, SPC, or VLM is also referred to as simply encoding, decoding, or referencing the processing unit.
  • the three-dimensional data included in the processing unit includes, for example, at least one set of a spatial position such as three-dimensional coordinates and a characteristic value such as color information.
  • a plurality of SPCs in the same GOS or a plurality of VLMs in the same SPC occupy different spaces but have the same time information (decoding time and display time).
  • the SPC at the top of the decoding order in GOS is I-SPC.
  • GOS There are two types of GOS, closed GOS and open GOS.
  • the closed GOS is a GOS capable of decoding all SPCs in the GOS when starting decoding from the head I-SPC.
  • the open GOS some SPCs whose display time is earlier than the head I-SPC in the GOS refer to different GOSs, and the decryption cannot be performed only by the GOS.
  • the WLD may be decoded in the reverse direction of the encoding order, and if there is a dependency between GOSs, reverse reproduction is difficult. Therefore, in such a case, the closed GOS is basically used.
  • GOS has a layer structure in the height direction, and encoding or decoding is performed in order from the SPC of the lower layer.
  • FIG. 2 is a diagram showing an example of a prediction structure between SPCs belonging to the lowest layer of GOS.
  • FIG. 3 is a diagram showing an example of a prediction structure between layers.
  • I-SPC there is at least one I-SPC in GOS.
  • Objects such as humans, animals, cars, bicycles, traffic lights, or buildings serving as landmarks exist in the three-dimensional space, and particularly small objects are effective when encoded as I-SPC.
  • the three-dimensional data decoding device (hereinafter, also referred to as a decoding device) decodes only the I-SPC in the GOS when decoding the GOS with a low processing amount or at a high speed.
  • the encoding device may switch the encoding interval or the appearance frequency of the I-SPC according to the density of the objects in the WLD.
  • the encoding device or the decoding device encodes or decodes a plurality of layers in order from the lower layer (layer 1). As a result, it is possible to increase the priority of data near the ground, which has a larger amount of information for an autonomous vehicle, for example.
  • the encoded data used in a drone or the like may be encoded or decoded in the GOS in order from the SPC of the upper layer in the height direction.
  • the encoding device or the decoding device may encode or decode multiple layers so that the decoding device can roughly grasp the GOS and gradually increase the resolution.
  • the encoding device or the decoding device may perform encoding or decoding in the order of layers 3, 8, 1, 9,....
  • static objects or scenes such as buildings or roads (hereinafter collectively referred to as static objects) and dynamic objects such as cars or people (hereinafter referred to as dynamic objects).
  • dynamic objects such as cars or people
  • the detection of the object is separately performed by extracting feature points from the data of the point cloud or the camera image of a stereo camera or the like.
  • an example of the encoding method of the dynamic object will be described.
  • the first method is a method of encoding without distinguishing between static objects and dynamic objects.
  • the second method is a method of distinguishing a static object and a dynamic object by identification information.
  • GOS is used as an identification unit.
  • the GOS including the SPC forming the static object and the GOS including the SPC forming the dynamic object are distinguished by the identification information stored in the encoded data or separately from the encoded data.
  • SPC may be used as an identification unit.
  • the SPC including the VLM forming the static object and the SPC including the VLM forming the dynamic object are distinguished by the identification information.
  • VLM or VXL may be used as an identification unit.
  • the VLM or VXL including the static object and the VLM or VXL including the dynamic object are distinguished by the identification information.
  • the encoding device may encode the dynamic object as one or more VLMs or SPCs, and encode the VLM or SPC including the static object and the SPC including the dynamic object as different GOSs. Also, when the size of the GOS is variable according to the size of the dynamic object, the encoding device separately stores the size of the GOS as meta information.
  • the encoding device may encode the static object and the dynamic object independently of each other and superimpose the dynamic object on the world composed of the static objects.
  • the dynamic object is composed of one or more SPCs, and each SPC is associated with one or more SPCs forming a static object on which the SPC is superimposed.
  • the dynamic object may be represented by one or more VLMs or VXLs instead of SPC.
  • the encoding device may encode the static object and the dynamic object as different streams from each other.
  • the encoding device may generate a GOS including one or more SPCs forming a dynamic object. Furthermore, the encoding device may set the GOS (GOS_M) including the dynamic object and the GOS of the static object corresponding to the spatial area of GOS_M to the same size (occupying the same spatial area). As a result, the superimposition processing can be performed in GOS units.
  • the P-SPC or B-SPC that constitutes a dynamic object may refer to the SPC included in a different encoded GOS.
  • the position of a dynamic object changes with time and the same dynamic object is encoded as GOS at different times, reference across GOS is effective from the viewpoint of compression rate.
  • the first method and the second method may be switched depending on the use of the encoded data. For example, when using encoded three-dimensional data as a map, it is desirable to be able to separate dynamic objects, so the encoding device uses the second method. On the other hand, the encoding device uses the first method when encoding three-dimensional data of an event such as a concert or a sports, when it is not necessary to separate the dynamic objects.
  • the decoding time and display time of GOS or SPC can be stored in the encoded data or as meta information. Also, the time information of all static objects may be the same. At this time, the actual decoding time and display time may be determined by the decoding device. Alternatively, a different value may be given to each GOS or SPC as the decoding time, and the same value may be given to all the display times. Furthermore, like a decoder model in moving picture coding such as HEVC's HRD (Hypothetical Reference Decoder), the decoder has a buffer of a predetermined size, and if the bitstream is read at a predetermined bit rate according to the decoding time, it can be decoded without failure. A model that guarantees
  • GOS in the world Coordinates in the three-dimensional space in the world are expressed by three coordinate axes (x axis, y axis, z axis) that are orthogonal to each other.
  • GOS in the xz plane is continuously encoded.
  • the value of the y-axis is updated after the coding of all GOSs in a certain xz plane is completed. That is, as the encoding progresses, the world extends in the y-axis direction.
  • the GOS index number is set in the encoding order.
  • the three-dimensional space of the world is associated with GPS or geographical absolute coordinates such as latitude and longitude in a one-to-one correspondence.
  • the three-dimensional space may be represented by a relative position from a preset reference position.
  • the directions of the x-axis, the y-axis, and the z-axis of the three-dimensional space are expressed as a direction vector determined based on latitude and longitude, and the direction vector is stored as meta information together with encoded data.
  • the size of GOS is fixed, and the encoding device stores the size as meta information.
  • the size of the GOS may be switched according to whether or not it is in an urban area, whether it is indoor or outdoor, or the like. That is, the size of the GOS may be switched according to the amount or the nature of the object that is valuable as information.
  • the encoding device may adaptively switch the size of GOS or the interval of I-SPC in GOS according to the density of objects in the same world. For example, the encoder reduces the size of GOS and shortens the interval of I-SPC in GOS as the density of objects increases.
  • the GOS is subdivided in order to realize random access with a fine granularity.
  • the 7th to 10th GOS exist on the back side of the 3rd to 6th GOS, respectively.
  • FIG. 6 is a block diagram of three-dimensional data encoding apparatus 100 according to the present embodiment.
  • FIG. 7 is a flowchart showing an operation example of the three-dimensional data encoding device 100.
  • the three-dimensional data encoding device 100 shown in FIG. 6 generates encoded three-dimensional data 112 by encoding the three-dimensional data 111.
  • the three-dimensional data encoding device 100 includes an acquisition unit 101, an encoding area determination unit 102, a division unit 103, and an encoding unit 104.
  • the acquisition unit 101 acquires the three-dimensional data 111 that is point cloud data (S101).
  • the coding area determination unit 102 determines a coding target area in the spatial area corresponding to the acquired point cloud data (S102). For example, the coding area determination unit 102 determines, according to the position of the user or the vehicle, a spatial area around the position as a coding target area.
  • the dividing unit 103 divides the point cloud data included in the area to be encoded into each processing unit.
  • the processing unit is the above-mentioned GOS, SPC, or the like.
  • the area to be encoded corresponds to, for example, the world described above.
  • the dividing unit 103 divides the point cloud data into processing units based on the size of the GOS set in advance or the presence or absence of the dynamic object or the size (S103). Further, the dividing unit 103 determines the start position of the SPC that is the head in the encoding order in each GOS.
  • the coding unit 104 sequentially codes a plurality of SPCs in each GOS to generate the coded three-dimensional data 112 (S104).
  • each GOS is coded after dividing the coding target area into GOS and SPC
  • the processing procedure is not limited to the above.
  • a procedure of determining the configuration of one GOS, encoding the GOS, and then determining the configuration of the next GOS may be used.
  • the three-dimensional data encoding device 100 generates the encoded three-dimensional data 112 by encoding the three-dimensional data 111. Specifically, the three-dimensional data encoding device 100 divides the three-dimensional data into first processing units (GOS), which are random access units and are associated with three-dimensional coordinates, respectively.
  • the processing unit (GOS) is divided into a plurality of second processing units (SPC), and the second processing unit (SPC) is divided into a plurality of third processing units (VLM).
  • the third processing unit (VLM) includes one or more voxels (VXL) that are the minimum units with which the position information is associated.
  • the three-dimensional data encoding device 100 generates encoded three-dimensional data 112 by encoding each of the plurality of first processing units (GOS). Specifically, the three-dimensional data encoding device 100 encodes each of the plurality of second processing units (SPC) in each first processing unit (GOS). Also, the three-dimensional data encoding device 100 encodes each of the plurality of third processing units (VLM) in each second processing unit (SPC).
  • GOS first processing unit
  • VLM third processing units
  • the three-dimensional data encoding device 100 when the first processing unit (GOS) to be processed is a closed GOS, the three-dimensional data encoding device 100 includes a second processing unit to be processed included in the first processing unit (GOS) to be processed.
  • the (SPC) is encoded with reference to another second processing unit (SPC) included in the first processing unit (GOS) to be processed. That is, the three-dimensional data encoding apparatus 100 does not refer to the second processing unit (SPC) included in the first processing unit (GOS) different from the first processing unit (GOS) to be processed.
  • the second processing unit (SPC) to be processed included in the first processing unit (GOS) to be processed is the first processing unit to be processed.
  • Another second processing unit (SPC) included in one processing unit (GOS), or a second processing unit (SPC) included in a first processing unit (GOS) different from the first processing unit (GOS) to be processed ) Is referred to and encoded.
  • the three-dimensional data encoding apparatus 100 uses, as the type of the second processing unit (SPC) to be processed, the first type (I-SPC) that does not refer to the other second processing unit (SPC) and the other one.
  • a second type (P-SPC) that refers to the second processing unit (SPC) or a third type that refers to the other two second processing units (SPC) is selected, and processing is performed according to the selected type. Encode the target second processing unit (SPC).
  • FIG. 8 is a block diagram of blocks of the three-dimensional data decoding device 200 according to this embodiment.
  • FIG. 9 is a flowchart showing an operation example of the three-dimensional data decoding device 200.
  • the three-dimensional data decoding device 200 shown in FIG. 8 decodes the encoded three-dimensional data 211 to generate the decoded three-dimensional data 212.
  • the encoded three-dimensional data 211 is, for example, the encoded three-dimensional data 112 generated by the three-dimensional data encoding device 100.
  • the three-dimensional data decoding device 200 includes an acquisition unit 201, a decoding start GOS determination unit 202, a decoding SPC determination unit 203, and a decoding unit 204.
  • the acquisition unit 201 acquires the encoded three-dimensional data 211 (S201).
  • the decoding start GOS determination unit 202 determines the GOS to be decoded (S202). Specifically, the decoding start GOS determination unit 202 refers to the meta information stored in the encoded three-dimensional data 211 or separately from the encoded three-dimensional data, and refers to the spatial position, the object, or the spatial position at which decoding is started, or , GOS including the SPC corresponding to the time is determined as the GOS to be decoded.
  • the decryption SPC determination unit 203 determines the type (I, P, B) of the SPC to be decrypted within GOS (S203). For example, the decoding SPC determining unit 203 determines (1) decoding only I-SPC, (2) decoding I-SPC and P-SPC, or (3) decoding all types. Note that this step may not be performed when the type of SPC to be decoded is determined in advance, such as decoding all SPCs.
  • the decoding unit 204 acquires the address position where the first SPC in the decoding order (same as the encoding order) in the GOS starts in the encoded three-dimensional data 211, and the code of the first SPC is obtained from the address position.
  • the encoded data is acquired, and each SPC is sequentially decoded from the head SPC (S204).
  • the address position is stored in the meta information or the like.
  • the three-dimensional data decoding device 200 decodes the decoded three-dimensional data 212. Specifically, the three-dimensional data decoding device 200 decodes each of the encoded three-dimensional data 211 of the first processing unit (GOS), which is a random access unit and is associated with three-dimensional coordinates. Thus, the decoded three-dimensional data 212 of the first processing unit (GOS) is generated. More specifically, the three-dimensional data decoding device 200 decodes each of the plurality of second processing units (SPC) in each first processing unit (GOS). Also, the three-dimensional data decoding apparatus 200 decodes each of the plurality of third processing units (VLM) in each second processing unit (SPC).
  • SPC second processing units
  • VLM third processing units
  • This meta information is generated by the three-dimensional data encoding device 100 and is included in the encoded three-dimensional data 112 (211).
  • FIG. 10 is a diagram showing an example of a table included in the meta information. Note that not all the tables shown in FIG. 10 need be used, and at least one table may be used.
  • the address may be an address in a logical format or a physical address of HDD or memory.
  • information specifying the file segment may be used.
  • a file segment is a unit in which one or more GOS and the like are segmented.
  • the object-GOS table may indicate multiple GOSs to which the object belongs. If the plurality of GOSs are closed GOSs, the encoding device and the decoding device can perform encoding or decoding in parallel. On the other hand, if the plurality of GOSs are open GOSs, the plurality of GOSs can refer to each other to further improve the compression efficiency.
  • the three-dimensional data encoding device 100 extracts feature points unique to an object from a three-dimensional point cloud or the like when encoding the world, detects the object based on the feature points, and detects the detected object as a random access point. Can be set as
  • the three-dimensional data encoding device 100 includes the first information indicating the plurality of first processing units (GOS) and the three-dimensional coordinates associated with each of the plurality of first processing units (GOS). To generate.
  • the encoded three-dimensional data 112 (211) includes this first information.
  • the first information further indicates at least one of an object, a time, and a data storage destination, which is associated with each of the plurality of first processing units (GOS).
  • the three-dimensional data decoding device 200 acquires the first information from the encoded three-dimensional data 211, and uses the first information to encode the encoded tertiary of the first processing unit corresponding to the designated three-dimensional coordinate, object, or time.
  • the original data 211 is specified and the encoded three-dimensional data 211 is decoded.
  • the three-dimensional data encoding device 100 may generate and store the following meta information. Also, the three-dimensional data decoding device 200 may use this meta information at the time of decoding.
  • a profile may be defined according to the application, and information indicating the profile may be included in the meta information. For example, a profile for an urban area, a suburb, or a flying object is defined, and the maximum or minimum size of the world, SPC, or VLM is defined in each profile. For example, for a city area, more detailed information is required than for a suburban area, so the minimum size of the VLM is set to be small.
  • -Meta information may include a tag value indicating the type of object.
  • This tag value is associated with the VLM, SPC, or GOS forming the object. For example, the tag value “0” indicates “person”, the tag value “1” indicates “car”, the tag value “2” indicates “traffic light”, and so on. Good.
  • a tag value indicating a property such as a size or a dynamic object or a static object may be used.
  • the meta information may include information indicating the range of the spatial area occupied by the world.
  • the meta information may store the size of the SPC or VXL as header information common to a plurality of SPCs such as the entire stream of encoded data or SPC in GOS.
  • the meta information may include identification information of a distance sensor or a camera used for generating the point cloud, or information indicating the position accuracy of the point cloud in the point cloud.
  • the meta information may include information indicating whether the world is composed of only static objects or includes dynamic objects.
  • the encoding device or the decoding device may encode or decode two or more different SPCs or GOSs in parallel.
  • the GOS to be encoded or decoded in parallel can be determined based on meta information indicating the spatial position of the GOS.
  • the encoding device or the decoding device uses GPS, route information, or a zoom factor.
  • the GOS or SPC included in the space specified based on the above may be encoded or decoded.
  • the decryption device may perform decryption in order from the space near the self position or the travel route.
  • the encoding device or the decoding device may encode or decode the space far from the self-position or the travel route by lowering the priority as compared with the near space.
  • lowering the priority means lowering the processing order, lowering the resolution (processing by thinning out), or lowering the image quality (increasing the coding efficiency, for example, increasing the quantization step). ..
  • the decoding device may only decode the lower layers.
  • the decoding device may preferentially decode from a lower hierarchy according to the zoom ratio of the map or the application.
  • the encoding device or the decoding device reduces the resolution except for a region within a specific height from the road surface (a region where recognition is performed). It may be encrypted or decrypted.
  • the encoding device may individually encode the point clouds that represent the spatial shapes of the indoor and outdoor spaces. For example, by separating GOS representing an indoor space (indoor GOS) and GOS representing an outdoor space (outdoor GOS), the decoding device selects the GOS to be decoded according to the viewpoint position when using the encoded data. it can.
  • the encoding device may encode the indoor GOS and the outdoor GOS whose coordinates are close to each other so that they are adjacent to each other in the encoded stream. For example, the encoding device associates the two identifiers and stores information indicating the associated identifier in the encoded stream or in the separately stored meta information. Thereby, the decoding device can identify the indoor GOS and the outdoor GOS whose coordinates are close to each other by referring to the information in the meta information.
  • the encoding device may switch the size of GOS or SPC between indoor GOS and outdoor GOS. For example, the encoding device sets the size of GOS smaller indoors than outdoors. In addition, the encoding device may change the accuracy when extracting feature points from the point cloud or the accuracy of object detection between the indoor GOS and the outdoor GOS.
  • the encoding device may add information for the decoding device to display the dynamic object separately from the static object, to the encoded data. Accordingly, the decoding device can display the dynamic object and the red frame or the descriptive character together. Note that the decoding device may display only the red frame or the descriptive character instead of the dynamic object.
  • the decoding device may also display a finer object type. For example, a red frame may be used for cars and a yellow frame may be used for humans.
  • the encoding device or the decoding device encodes the dynamic object and the static object as different SPCs or GOSs according to the appearance frequency of the dynamic object, the ratio of the static object to the dynamic object, or the like. Alternatively, it may be determined whether to decrypt. For example, when the appearance frequency or ratio of dynamic objects exceeds a threshold value, SPC or GOS in which dynamic objects and static objects are mixed is allowed, and the appearance frequency or ratio of dynamic objects does not exceed the threshold value. Does not allow SPC or GOS in which dynamic objects and static objects are mixed.
  • the encoding device When detecting the dynamic object from the two-dimensional image information of the camera instead of the point cloud, the encoding device separately acquires information (frame or character etc.) for identifying the detection result and the object position, These pieces of information may be encoded as a part of three-dimensional encoded data. In this case, the decoding device superimposes and displays the auxiliary information (frame or character) indicating the dynamic object on the decoding result of the static object.
  • the encoding device may change the coarseness or fineness of the VXL or VLM in the SPC depending on the complexity of the shape of the static object. For example, the encoding device sets VXL or VLM more densely as the shape of the static object becomes more complicated. Furthermore, the encoding device may determine the quantization step or the like when quantizing the spatial position or the color information according to the density of VXL or VLM. For example, the encoding device sets a smaller quantization step as VXL or VLM is denser.
  • the encoding device or the decoding device performs space encoding or decoding in space units having coordinate information.
  • the encoding device and the decoding device perform encoding or decoding in units of volume within the space.
  • the volume includes a voxel which is the minimum unit with which the position information is associated.
  • the encoding device and the decoding device associate any element with a table that associates each element of spatial information including coordinates, objects, and time with a GOP, or a table that associates each element. Encoding or decoding is performed.
  • the decoding device determines the coordinates using the values of the selected elements, specifies the volume, voxel, or space from the coordinates, and decodes the space including the volume or voxel, or the specified space.
  • the encoding device determines a volume, voxel, or space that can be selected by an element by extracting feature points or object recognition, and encodes as a randomly accessible volume, voxel, or space.
  • the space refers to an I-SPC that can be encoded or decoded by the space itself, a P-SPC that is encoded or decoded by referring to any one processed space, and any two processed spaces.
  • I-SPC that can be encoded or decoded by the space itself
  • P-SPC that is encoded or decoded by referring to any one processed space
  • any two processed spaces are classified into three types, B-SPC that is encoded or decoded by
  • One or more volumes correspond to static or dynamic objects.
  • the space including the static object and the space including the dynamic object are encoded or decoded as GOS different from each other. That is, the SPC including the static object and the SPC including the dynamic object are assigned to different GOSs.
  • -Dynamic objects are encoded or decoded for each object and are associated with one or more spaces including static objects. That is, the plurality of dynamic objects are individually encoded, and the obtained encoded data of the plurality of dynamic objects is associated with the SPC including the static object.
  • the encoding device and the decoding device raise the priority of I-SPC in GOS and perform encoding or decoding. For example, the encoding device performs encoding so that deterioration of I-SPC is reduced (so that the original three-dimensional data can be more faithfully reproduced after decoding). Further, the decoding device, for example, decodes only I-SPC.
  • the encoding device may perform encoding by changing the frequency of using I-SPC according to the density or the number (quantity) of objects in the world. That is, the encoding device changes the frequency of selecting the I-SPC according to the number or the density of the objects included in the three-dimensional data. For example, the encoding device uses the I space more frequently as the objects in the world are denser.
  • the encoding device sets a random access point for each GOS and stores information indicating a spatial area corresponding to the GOS in the header information.
  • the encoding device uses, for example, a default value as the GOS space size.
  • the encoding device may change the size of the GOS according to the number (amount) or the density of objects or dynamic objects. For example, the encoding device reduces the spatial size of GOS as the number of objects or dynamic objects increases, or the number of objects increases.
  • the space or volume includes a feature point group derived using information obtained by a sensor such as a depth sensor, a gyro, or a camera.
  • the coordinates of the feature points are set at the center position of the voxel. Further, it is possible to realize high accuracy of position information by subdividing the voxels.
  • the feature point group is derived using multiple pictures.
  • the plurality of pictures have at least two types of time information, that is, the actual time information and the same time information (for example, coding time used for rate control or the like) in the plurality of pictures associated with the space.
  • encoding or decoding is performed in GOS units including one or more spaces.
  • the encoding device and the decoding device refer to the space in the processed GOS and predict the P space or B space in the processing target GOS.
  • the encoding device and the decoding device do not refer to different GOSs and use the processed space in the processing target GOS to predict the P space or the B space in the processing target GOS.
  • the encoding device and the decoding device transmit or receive the encoded stream in world units including one or more GOS.
  • GOS has a layer structure in at least one direction in the world, and the encoding device and the decoding device perform encoding or decoding from the lower layer.
  • randomly accessible GOS belongs to the lowest layer.
  • the GOS belonging to the upper layer refers to the GOS belonging to the same layer and below. That is, the GOS is spatially divided in a predetermined direction and includes a plurality of layers each including one or more SPCs.
  • the encoding device and the decoding device encode or decode each SPC by referring to the SPC included in the same layer as the SPC or a layer lower than the SPC.
  • the encoding device and the decoding device continuously encode or decode GOS within a world unit including a plurality of GOS.
  • the encoding device and the decoding device write or read information indicating the order (direction) of encoding or decoding as metadata. That is, the encoded data includes information indicating the encoding order of a plurality of GOS.
  • the encoding device and the decoding device encode or decode in parallel two or more spaces or GOS different from each other.
  • the encoding device and the decoding device encode or decode space information (coordinates, size, etc.) of the space or GOS.
  • the encoding device and the decoding device encode or decode a space or GOS included in a specific space specified based on external information related to its own position or/and area size, such as GPS, route information, or magnification. ..
  • the encoding device or the decoding device encodes or decodes the space far from its own position with lower priority than the near space.
  • the encoding device sets one direction of the world according to the magnification or the usage, and encodes GOS having a layer structure in that direction. Further, the decoding device preferentially decodes a GOS having a layer structure in one direction of the world set according to the magnification or the use from the lower layer.
  • the encoding device changes the feature point extraction contained in the space, the accuracy of object recognition, the space area size, etc., indoors and outdoors.
  • the encoding device and the decoding device encode or decode the indoor GOS and the outdoor GOS, which have close coordinates, adjacently in the world, and also code or decode them in association with each other.
  • a three-dimensional data encoding method and a three-dimensional data encoding device for providing a function of transmitting and receiving only necessary information according to the application in the encoded data of the three-dimensional point cloud, and A three-dimensional data decoding method and a three-dimensional data decoding device for decoding encoded data will be described.
  • Voxels (VXL) that have a certain amount of features are defined as feature voxels (FVXL), and the world (WLD) configured by FVXL is defined as sparse world (SWLD).
  • FIG. 11 is a diagram showing a configuration example of the sparse world and the world.
  • the SWLD includes FGOS which is a GOS configured by FVXL, FSPC which is an SPC configured by FVXL, and FVLM which is a VLM configured by FVXL.
  • the data structure and prediction structure of FGOS, FSPC, and FVLM may be the same as GOS, SPC, and VLM.
  • the feature amount is a feature amount that expresses VXL three-dimensional position information or visible light information of the VXL position, and is particularly a feature amount that is often detected at the corners and edges of a three-dimensional object.
  • the feature amount is a three-dimensional feature amount or a visible light feature amount as described below, but what is the other feature amount indicating the VXL position, brightness, color information, or the like? Anything is fine.
  • a SHOT feature amount Signature of Histograms of Orientations
  • a PFH feature amount Point Feature Histograms
  • a PPF feature amount Point Pair Feature
  • the SHOT feature is obtained by dividing the VXL periphery, calculating the inner product of the reference point and the normal vector of the divided area, and creating a histogram.
  • This SHOT feature amount has a feature that the dimension number is high and the feature expressing power is high.
  • the PFH feature amount is obtained by selecting a large number of 2-point pairs in the vicinity of VXL, calculating the normal vector, etc. from the 2 points, and creating a histogram. Since the PFH feature amount is a histogram feature, it has robustness against some disturbance and has a high feature expressing power.
  • the PPF feature amount is a feature amount calculated using a normal vector for each of the two VXLs. Since all VXLs are used for this PPF feature amount, it has robustness to occlusion.
  • SIFT Scale-Invariant Feature Transform
  • SURF Speeded Up Robust Features
  • HOG Histogram of Oriented
  • SWLD is generated by calculating the above feature amount from each VXL of WLD and extracting FVXL.
  • the SWLD may be updated every time the WLD is updated, or may be periodically updated after the elapse of a certain time regardless of the update timing of the WLD.
  • SWLD may be generated for each feature amount. For example, different SWLDs may be generated for each feature amount, such as SWLD1 based on the SHOT feature amount and SWLD2 based on the SIFT feature amount, and the SWLD may be selectively used according to the application. Further, the calculated feature amount of each FVXL may be held in each FVXL as feature amount information.
  • SWLD Sparse World
  • SWLD information instead of WLD
  • WLD and SWLD in the server as map information and switching the map information to be transmitted to WLD or SWLD in response to a request from the client, the network band and transfer time can be suppressed. ..
  • a specific example will be shown.
  • FIG. 12 and 13 are diagrams showing usage examples of SWLD and WLD.
  • the client 1 which is an in-vehicle device, requires map information for self-position determination
  • the client 1 sends a request for acquisition of map data for self-position estimation to the server (S301).
  • the server transmits SWLD to the client 1 in response to the acquisition request (S302).
  • the client 1 uses the received SWLD to determine its own position (S303).
  • the client 1 obtains the VXL information around the client 1 by various methods such as a range sensor such as a range finder, a stereo camera, or a combination of a plurality of monocular cameras, and uses the obtained VXL information and SWLD to identify itself.
  • the self-position information includes the three-dimensional position information and orientation of the client 1.
  • the client 2 which is an in-vehicle device, needs map information for use in drawing a map such as a three-dimensional map
  • the client 2 sends a request to acquire map data for map drawing to the server (S311). ).
  • the server transmits the WLD to the client 2 according to the acquisition request (S312).
  • the client 2 draws a map using the received WLD (S313).
  • the client 2 creates a rendering image using, for example, an image captured by the visible light camera or the like by itself and the WLD acquired from the server, and draws the created image on a screen such as a car navigation system.
  • the server sends the SWLD to the client in the application mainly requiring the feature amount of each VXL such as the self-position estimation, and the WLD in the case where detailed VXL information is required like the map drawing. Send to client. As a result, map data can be efficiently transmitted and received.
  • the client may determine which of SWLD and WLD is needed by itself and request the server to send SWLD or WLD. Further, the server may determine which of SWLD and WLD should be transmitted depending on the situation of the client or the network.
  • SWLD sparse world
  • WLD world
  • FIG. 14 is a diagram showing an operation example in this case.
  • a low speed network such as an LTE (Long Term Evolution) environment where the usable network bandwidth is limited
  • the client accesses the server via the low speed network (S321), and the server sends a map.
  • SWLD is acquired as information (S322).
  • a high-speed network with a sufficient network bandwidth such as under Wi-Fi (registered trademark) environment
  • the client accesses the server via the high-speed network (S323) and acquires the WLD from the server. Yes (S324).
  • the client can acquire appropriate map information according to the network band of the client.
  • the client receives the SWLD via LTE outdoors and acquires the WLD via Wi-Fi (registered trademark) when entering indoors such as a facility. This allows the client to acquire more detailed indoor map information.
  • Wi-Fi registered trademark
  • the client may request the WLD or SWLD from the server according to the bandwidth of the network used by the client.
  • the client may transmit information indicating the bandwidth of the network used by the client to the server, and the server may transmit data (WLD or SWLD) suitable for the client according to the information.
  • the server may determine the network bandwidth of the client and transmit the data (WLD or SWLD) suitable for the client.
  • FIG. 15 is a diagram showing an operation example in this case.
  • the client when the client is moving at high speed (S331), the client receives SWLD from the server (S332).
  • the client receives the WLD from the server (S334).
  • the client can acquire the map information suitable for the speed while suppressing the network band.
  • the client can update the rough map information at an appropriate speed by receiving the SWLD having a small amount of data while traveling on the highway.
  • the client can acquire more detailed map information by receiving the WLD while traveling on the general road.
  • the client may request WLD or SWLD from the server according to the moving speed of the client.
  • the client may transmit information indicating the moving speed of the client to the server, and the server may transmit data (WLD or SWLD) suitable for the client according to the information.
  • the server may determine the moving speed of the client and transmit data (WLD or SWLD) suitable for the client.
  • the client may first acquire SWLD from the server and then acquire the WLD of the important area among them. For example, when the client acquires map data, the client first acquires rough map information by SWLD, narrows down an area where many features such as buildings, signs, and people appear, and extracts the WLD of the narrowed area. Get it later. As a result, the client can acquire detailed information of a necessary area while suppressing the amount of data received from the server.
  • the server may create a separate SWLD for each object from the WLD, and the client may receive each according to the purpose.
  • the network band can be suppressed.
  • the server recognizes a person or a vehicle in advance from the WLD and creates a SWLD of the person and a SWLD of the vehicle.
  • the client receives the SWLD of the person when it wants to acquire the information of the people around it, and receives the SWLD of the car when it wants to acquire the information of the car.
  • SWLD types may be distinguished by the information (flag or type) added to the header or the like.
  • FIG. 16 is a block diagram of three-dimensional data encoding apparatus 400 according to the present embodiment.
  • FIG. 17 is a flowchart of the three-dimensional data encoding process by the three-dimensional data encoding device 400.
  • the three-dimensional data encoding device 400 shown in FIG. 16 encodes the input three-dimensional data 411 to generate encoded three-dimensional data 413 and 414 which are encoded streams.
  • the encoded three-dimensional data 413 is encoded three-dimensional data corresponding to WLD
  • the encoded three-dimensional data 414 is encoded three-dimensional data corresponding to SWLD.
  • the three-dimensional data encoding device 400 includes an acquisition unit 401, an encoding region determination unit 402, a SWLD extraction unit 403, a WLD encoding unit 404, and a SWLD encoding unit 405.
  • the acquisition unit 401 acquires input three-dimensional data 411 that is point cloud data in a three-dimensional space (S401).
  • the coding area determination unit 402 determines the spatial area to be coded based on the spatial area in which the point cloud data exists (S402).
  • the SWLD extraction unit 403 defines the spatial area to be encoded as WLD, and calculates the feature amount from each VXL included in the WLD. Then, the SWLD extraction unit 403 extracts VXL whose feature amount is equal to or larger than a predetermined threshold value, defines the extracted VXL as FVXL, and adds the FVXL to SWLD to generate the extracted three-dimensional data 412. (S403). That is, the extracted three-dimensional data 412 whose feature amount is the threshold value or more is extracted from the input three-dimensional data 411.
  • the WLD encoding unit 404 generates the encoded three-dimensional data 413 corresponding to the WLD by encoding the input three-dimensional data 411 corresponding to the WLD (S404). At this time, the WLD encoding unit 404 adds information for distinguishing that the encoded three-dimensional data 413 is a stream including the WLD to the header of the encoded three-dimensional data 413.
  • the SWLD encoding unit 405 also generates encoded three-dimensional data 414 corresponding to SWLD by encoding the extracted three-dimensional data 412 corresponding to SWLD (S405). At this time, the SWLD encoding unit 405 adds information for distinguishing that the encoded three-dimensional data 414 is a stream including SWLD to the header of the encoded three-dimensional data 414.
  • processing order of the process of generating the encoded three-dimensional data 413 and the process of generating the encoded three-dimensional data 414 may be reversed. Further, some or all of these processes may be performed in parallel.
  • a parameter “world_type” is defined.
  • one of the encoded three-dimensional data 413 and 414 may include a specific flag.
  • the encoded three-dimensional data 414 may be provided with a flag including that the stream includes SWLD. In this case, the decoding device can determine whether the stream includes the WLD or the stream including the SWLD depending on the presence or absence of the flag.
  • the encoding method used when the WLD encoding unit 404 encodes the WLD and the encoding method used when the SWLD encoding unit 405 encodes the SWLD may be different.
  • inter prediction may be prioritized among the intra prediction and the inter prediction over the coding method used for WLD.
  • the encoding method used for SWLD and the encoding method used for WLD may differ in the method of expressing the three-dimensional position.
  • the three-dimensional position of FVXL may be expressed by three-dimensional coordinates
  • WLD the three-dimensional position may be expressed by an octree described below, and vice versa.
  • the SWLD encoding unit 405 also performs encoding so that the data size of the encoded three-dimensional data 414 of SWLD is smaller than the data size of the encoded three-dimensional data 413 of WLD.
  • SWLD may have a lower correlation between data than WLD.
  • the encoding efficiency is reduced, and the data size of the encoded three-dimensional data 414 may be larger than the data size of the encoded three-dimensional data 413 of the WLD. Therefore, when the data size of the obtained encoded three-dimensional data 414 is larger than the data size of the encoded three-dimensional data 413 of the WLD, the SWLD encoding unit 405 re-encodes the data size. To regenerate the encoded three-dimensional data 414 in which
  • the SWLD extraction unit 403 regenerates the extracted three-dimensional data 412 with the reduced number of feature points to be extracted, and the SWLD encoding unit 405 encodes the extracted three-dimensional data 412.
  • the degree of quantization in the SWLD encoding unit 405 may be coarser. For example, in the octree structure described later, by rounding the data in the bottom layer, the degree of quantization can be made coarse.
  • the SWLD encoding unit 405 does not generate the SWLD encoded three-dimensional data 414. May be.
  • the WLD encoded three-dimensional data 413 may be copied to the SWLD encoded three-dimensional data 414. That is, the encoded three-dimensional data 413 of the WLD may be used as it is as the encoded three-dimensional data 414 of the SWLD.
  • FIG. 18 is a block diagram of three-dimensional data decoding device 500 according to the present embodiment.
  • FIG. 19 is a flowchart of the three-dimensional data decoding process performed by the three-dimensional data decoding device 500.
  • the three-dimensional data decoding device 500 shown in FIG. 18 generates decoded three-dimensional data 512 or 513 by decoding the encoded three-dimensional data 511.
  • the encoded three-dimensional data 511 is, for example, the encoded three-dimensional data 413 or 414 generated by the three-dimensional data encoding device 400.
  • the three-dimensional data decoding device 500 includes an acquisition unit 501, a header analysis unit 502, a WLD decoding unit 503, and a SWLD decoding unit 504.
  • the acquisition unit 501 acquires the encoded three-dimensional data 511 (S501).
  • the header analysis unit 502 analyzes the header of the encoded three-dimensional data 511, and determines whether the encoded three-dimensional data 511 is a stream including WLD or a stream including SWLD (S502). For example, the determination is performed by referring to the above-mentioned parameter of world_type.
  • the WLD decoding unit 503 When the encoded three-dimensional data 511 is a stream including the WLD (Yes in S503), the WLD decoding unit 503 generates the decoded three-dimensional data 512 of the WLD by decoding the encoded three-dimensional data 511 (S504). .. On the other hand, when the encoded three-dimensional data 511 is a stream including SWLD (No in S503), the SWLD decoding unit 504 generates the decoded three-dimensional data 513 of SWLD by decoding the encoded three-dimensional data 511 ( S505).
  • the decoding method used when the WLD decoding unit 503 decodes the WLD and the decoding method used when the SWLD decoding unit 504 decodes the SWLD may be different.
  • inter prediction may be prioritized among the intra prediction and the inter prediction over the decoding method used for WLD.
  • the decoding method used for SWLD and the decoding method used for WLD may differ in the method of expressing the three-dimensional position.
  • the three-dimensional position of FVXL may be expressed by three-dimensional coordinates
  • WLD the three-dimensional position may be expressed by an octree described below, and vice versa.
  • FIG. 20 is a diagram illustrating an example of VXL of WLD.
  • FIG. 21 is a diagram showing an octree tree structure of the WLD shown in FIG.
  • the octree structure is composed of nodes and leaves. Each node has a maximum of 8 nodes or leaves. Each leaf has VXL information.
  • leaves 1, 2, and 3 represent VXL1, VXL2, and VXL3 shown in FIG. 20, respectively.
  • each node and leaf corresponds to a three-dimensional position.
  • Node 1 corresponds to the entire block shown in FIG.
  • the block corresponding to the node 1 is divided into eight blocks. Of the eight blocks, the block containing the valid VXL is set as the node, and the other blocks are set as the leaves.
  • the block corresponding to the node is further divided into eight nodes or leaves, and this process is repeated for each hierarchical level of the tree structure. Further, all the blocks in the lowermost layer are set as leaves.
  • FIG. 22 is a diagram showing an example of SWLD generated from the WLD shown in FIG. VXL1 and VXL2 shown in FIG. 20 are determined to be FVXL1 and FVXL2 as a result of feature amount extraction, and added to SWLD.
  • VXL3 is not determined to be FVXL and is not included in SWLD.
  • FIG. 23 is a diagram showing an octree tree structure of the SWLD shown in FIG. In the octree structure shown in FIG. 23, the leaf 3 corresponding to VXL3 shown in FIG. 21 is deleted. As a result, the node 3 shown in FIG. 21 has no valid VXL and is changed to a leaf.
  • the number of leaves of SWLD is generally smaller than the number of leaves of WLD, and the encoded three-dimensional data of SWLD is smaller than the encoded three-dimensional data of WLD.
  • a client such as an in-vehicle device receives SWLD from a server when performing self-position estimation, performs self-position estimation using SWLD, and when performing obstacle detection, a range sensor such as a range finder or a stereo.
  • Obstacle detection may be performed based on three-dimensional information of the surroundings acquired by oneself using various methods such as a camera or a combination of a plurality of monocular cameras.
  • the server may hold a subsampled world (subWLD) that subsamples the WLD and send SWLD and subWLD to the client for static obstacle detection.
  • subWLD subsampled world
  • the client side can perform self-position estimation and obstacle detection while suppressing the network band.
  • the server may generate a mesh from the WLD and hold it in advance as a mesh world (MWLD). For example, the client receives the MWLD when it needs a rough three-dimensional drawing and the WLD when it needs a detailed three-dimensional drawing. Thereby, the network band can be suppressed.
  • MWLD mesh world
  • the server sets the VXL of each VXL whose feature amount is equal to or more than the threshold value to the FVXL, but the FVXL may be calculated by a different method. For example, the server determines that VXL, VLM, SPC, or GOS forming a traffic light or an intersection is necessary for self-position estimation, driving assistance, autonomous driving, etc., and includes them in SWLD as FVXL, FVLM, FSPC, FGOS. You may do so. Further, the above determination may be made manually. Note that the FVXL or the like obtained by the above method may be added to the FVXL or the like set based on the feature amount. That is, the SWLD extraction unit 403 may further extract, from the input three-dimensional data 411, data corresponding to an object having a predetermined attribute as the extracted three-dimensional data 412.
  • the server may separately hold FVXL required for self-position estimation such as traffic lights or intersections, driving assistance, or automatic driving as an upper layer of SWLD (for example, lane world).
  • the server may add an attribute to the VXL in the WLD for each random access unit or each predetermined unit.
  • the attribute includes, for example, information indicating whether it is necessary or unnecessary for self-position estimation, or information indicating whether it is important as traffic information such as a signal or an intersection. Further, the attribute may include a correspondence relationship with Feature (intersection or road) in the lane information (GDF: Geographic Data Files etc.).
  • the following method may be used as a method for updating WLD or SWLD.
  • Update information that indicates changes in people, construction, or row of trees (for trucks) is uploaded to the server as point clouds or metadata.
  • the server updates the WLD based on the upload, and then updates the SWLD using the updated WLD.
  • the client may transmit the 3D information generated by itself to the server together with the update notification. Good.
  • the server updates SWLD using WLD. If the SWLD is not updated, the server determines that the WLD itself is old.
  • header information of the encoded stream information for distinguishing between WLD and SWLD is added, but when there are many kinds of worlds such as mesh world or lane world, they are distinguished.
  • the information may be added to the header information.
  • information for distinguishing each may be added to the header information.
  • the SWLD is composed of FVXL, but may include VXL that is not determined to be FVXL.
  • the SWLD may include an adjacent VXL used when calculating the feature amount of the FVXL.
  • the SWLD may include information for distinguishing whether each VXL is FVXL or VXL.
  • the three-dimensional data encoding device 400 extracts and extracts the extracted three-dimensional data 412 (second three-dimensional data) whose feature amount is the threshold value or more from the input three-dimensional data 411 (first three-dimensional data).
  • the encoded three-dimensional data 412 is encoded to generate encoded three-dimensional data 414 (first encoded three-dimensional data).
  • the three-dimensional data encoding device 400 generates the encoded three-dimensional data 414 by encoding the data whose feature amount is equal to or more than the threshold value. As a result, the data amount can be reduced as compared with the case where the input three-dimensional data 411 is directly encoded. Therefore, the three-dimensional data encoding device 400 can reduce the amount of data to be transmitted.
  • the three-dimensional data encoding device 400 further generates encoded three-dimensional data 413 (second encoded three-dimensional data) by encoding the input three-dimensional data 411.
  • the three-dimensional data encoding device 400 can selectively transmit the encoded three-dimensional data 413 and the encoded three-dimensional data 414 according to the intended use or the like.
  • the extracted three-dimensional data 412 is encoded by the first encoding method, and the input three-dimensional data 411 is encoded by the second encoding method different from the first encoding method.
  • the three-dimensional data encoding device 400 can use an encoding method suitable for the input three-dimensional data 411 and the extracted three-dimensional data 412, respectively.
  • inter prediction is given priority over intra prediction and inter prediction over the second coding method.
  • the three-dimensional data encoding device 400 can increase the priority of inter prediction for the extracted three-dimensional data 412 in which the correlation between adjacent data tends to be low.
  • the three-dimensional position representation method is different between the first encoding method and the second encoding method.
  • a three-dimensional position is represented by an octree
  • a three-dimensional position is represented by three-dimensional coordinates.
  • the three-dimensional data encoding device 400 can use a more suitable three-dimensional position representation method for three-dimensional data having different data numbers (the number of VXL or FVXL).
  • At least one of the encoded three-dimensional data 413 and 414 is the encoded three-dimensional data obtained by encoding the input three-dimensional data 411, or the input three-dimensional data 411. It includes an identifier indicating whether the data is encoded three-dimensional data obtained by encoding a part of the data. That is, the identifier indicates whether the encoded three-dimensional data is the encoded three-dimensional data 413 of the WLD or the encoded three-dimensional data 414 of the SWLD.
  • the decoding device can easily determine whether the acquired encoded three-dimensional data is the encoded three-dimensional data 413 or the encoded three-dimensional data 414.
  • the three-dimensional data encoding device 400 encodes the extracted three-dimensional data 412 so that the data amount of the encoded three-dimensional data 414 is smaller than the data amount of the encoded three-dimensional data 413.
  • the three-dimensional data encoding device 400 can make the data amount of the encoded three-dimensional data 414 smaller than the data amount of the encoded three-dimensional data 413.
  • the three-dimensional data encoding device 400 further extracts, from the input three-dimensional data 411, data corresponding to an object having a predetermined attribute as the extracted three-dimensional data 412.
  • an object having a predetermined attribute is an object necessary for self-position estimation, driving assistance, automatic driving, or the like, such as a signal or an intersection.
  • the three-dimensional data encoding device 400 can generate the encoded three-dimensional data 414 including the data required by the decoding device.
  • the three-dimensional data encoding device 400 (server) further transmits one of the encoded three-dimensional data 413 and 414 to the client according to the state of the client.
  • the three-dimensional data encoding device 400 can transmit appropriate data according to the state of the client.
  • the status of the client includes the communication status of the client (for example, network bandwidth) or the moving speed of the client.
  • the three-dimensional data encoding device 400 further transmits one of the encoded three-dimensional data 413 and 414 to the client in response to the request from the client.
  • the three-dimensional data encoding device 400 can transmit appropriate data according to the request of the client.
  • the three-dimensional data decoding device 500 decodes the encoded three-dimensional data 413 or 414 generated by the above three-dimensional data encoding device 400.
  • the three-dimensional data decoding device 500 first-decodes the encoded three-dimensional data 414 obtained by encoding the extracted three-dimensional data 412 in which the feature amount extracted from the input three-dimensional data 411 is equal to or more than the threshold value. Decrypt by the method. Also, the three-dimensional data decoding device 500 decodes the encoded three-dimensional data 413 obtained by encoding the input three-dimensional data 411 by the second decoding method different from the first decoding method.
  • the three-dimensional data decoding device 500 selects the encoded three-dimensional data 414 obtained by encoding the data whose feature amount is equal to or more than the threshold value and the encoded three-dimensional data 413, for example, according to the intended use. Can be received. Thereby, the three-dimensional data decoding device 500 can reduce the amount of data to be transmitted. Furthermore, the three-dimensional data decoding device 500 can use a decoding method suitable for the input three-dimensional data 411 and the extracted three-dimensional data 412, respectively.
  • inter prediction is given priority over intra prediction and inter prediction over the second decoding method.
  • the three-dimensional data decoding device 500 can increase the priority of inter prediction with respect to the extracted three-dimensional data in which the correlation between adjacent data tends to be low.
  • the representation method of the three-dimensional position is different between the first decoding method and the second decoding method.
  • the three-dimensional position is represented by an octree
  • the three-dimensional position is represented by the three-dimensional coordinates.
  • the three-dimensional data decoding device 500 can use a more suitable three-dimensional position representation method for three-dimensional data having different data numbers (the number of VXL or FVXL).
  • At least one of the encoded three-dimensional data 413 and 414 is the encoded three-dimensional data obtained by encoding the input three-dimensional data 411, or the input three-dimensional data 411. It includes an identifier indicating whether the data is encoded three-dimensional data obtained by encoding a part of the data.
  • the three-dimensional data decoding device 500 identifies the encoded three-dimensional data 413 and 414 with reference to the identifier.
  • the three-dimensional data decoding device 500 can easily determine whether the acquired encoded three-dimensional data is the encoded three-dimensional data 413 or the encoded three-dimensional data 414.
  • the three-dimensional data decoding device 500 further notifies the server of the status of the client (three-dimensional data decoding device 500).
  • the three-dimensional data decoding device 500 receives one of the encoded three-dimensional data 413 and 414 transmitted from the server according to the state of the client.
  • the three-dimensional data decoding device 500 can receive appropriate data according to the state of the client.
  • the status of the client includes the communication status of the client (for example, network bandwidth) or the moving speed of the client.
  • the three-dimensional data decoding device 500 further requests one of the encoded three-dimensional data 413 and 414 from the server, and in response to the request, transmits one of the encoded three-dimensional data 413 and 414 transmitted from the server. To receive.
  • the three-dimensional data decoding device 500 can receive appropriate data according to the application.
  • FIG. 24 is a block diagram of the three-dimensional data creation device 620 according to this embodiment.
  • the three-dimensional data creation device 620 is, for example, included in the own vehicle, and by combining the received second three-dimensional data 635 with the first three-dimensional data 632 created by the three-dimensional data creation device 620, it becomes more dense. 3rd three-dimensional data 636 is created.
  • the three-dimensional data creation device 620 includes a three-dimensional data creation unit 621, a request range determination unit 622, a search unit 623, a reception unit 624, a decoding unit 625, and a synthesis unit 626.
  • the three-dimensional data creation unit 621 creates the first three-dimensional data 632 using the sensor information 631 detected by the sensor of the vehicle.
  • the request range determination unit 622 determines the request range which is the three-dimensional space range in which the data is lacking in the created first three-dimensional data 632.
  • the search unit 623 searches for a peripheral vehicle that owns the three-dimensional data of the requested range, and transmits the requested range information 633 indicating the requested range to the peripheral vehicles specified by the search.
  • the receiving unit 624 receives the encoded three-dimensional data 634, which is the encoded stream in the requested range, from the surrounding vehicles (S624).
  • the search unit 623 may indiscriminately issue a request to all vehicles existing in the specific range and receive the encoded three-dimensional data 634 from the other party who responded.
  • the search unit 623 may issue a request to an object such as a traffic light or a sign, and receive the encoded three-dimensional data 634 from the object, not limited to the vehicle.
  • the decoding unit 625 acquires the second three-dimensional data 635 by decoding the received encoded three-dimensional data 634.
  • the synthesizing unit 626 synthesizes the first three-dimensional data 632 and the second three-dimensional data 635 to create more dense third three-dimensional data 636.
  • FIG. 25 is a block diagram of the three-dimensional data transmission device 640.
  • the three-dimensional data transmission device 640 is, for example, included in the above-described peripheral vehicle, processes the fifth three-dimensional data 652 created by the peripheral vehicle into the sixth three-dimensional data 654 required by the own vehicle, and then generates the sixth three-dimensional data.
  • the encoded three-dimensional data 634 is generated by encoding 654, and the encoded three-dimensional data 634 is transmitted to the vehicle.
  • the three-dimensional data transmitting device 640 includes a three-dimensional data creating unit 641, a receiving unit 642, an extracting unit 643, an encoding unit 644, and a transmitting unit 645.
  • the three-dimensional data creating unit 641 creates the fifth three-dimensional data 652 using the sensor information 651 detected by the sensors provided in the surrounding vehicles.
  • the receiving unit 642 receives the request range information 633 transmitted from the own vehicle.
  • the extraction unit 643 processes the fifth three-dimensional data 652 into the sixth three-dimensional data 654 by extracting the three-dimensional data of the requested range indicated by the requested range information 633 from the fifth three-dimensional data 652. To do.
  • the encoding unit 644 encodes the sixth three-dimensional data 654 to generate encoded three-dimensional data 634 which is an encoded stream. Then, the transmission unit 645 transmits the encoded three-dimensional data 634 to the vehicle.
  • each vehicle includes the three-dimensional data creation device 620 and the surrounding vehicles include the three-dimensional data transmission device 640.
  • each vehicle includes the three-dimensional data creation device 620 and the three-dimensional data transmission device It may have a function with 640.
  • the self-position estimation matches a three-dimensional map with three-dimensional information (hereinafter, three-dimensional data detected by the vehicle) around the vehicle acquired by a range finder (LiDAR, etc.) mounted on the vehicle or a sensor such as a stereo camera. Then, it can be realized by estimating the own vehicle position in the three-dimensional map.
  • three-dimensional information hereinafter, three-dimensional data detected by the vehicle
  • LiDAR range finder
  • a sensor such as a stereo camera
  • 3D maps are not only 3D point clouds such as HD maps advocated by HERE, but also 2D map data such as road and intersection shape information, or real-time changes such as traffic jams and accidents. Information may be included.
  • a three-dimensional map is composed of a plurality of layers such as three-dimensional data, two-dimensional data, and metadata that changes in real time, and the device can also acquire or refer to only necessary data.
  • the point cloud data may be the SWLD described above, or may include point cloud data that is not a feature point.
  • data transmission/reception of the point cloud is performed based on one or a plurality of random access units.
  • the apparatus compares the shapes of the point clouds in the point clouds with each other, and determines that the sites having high similarity between the feature points are at the same position. Further, when the three-dimensional map is composed of SWLD, the apparatus compares the feature points forming the SWLD with the three-dimensional feature points extracted from the own-vehicle detected three-dimensional data to perform matching.
  • FIG. 26 is a block diagram showing a configuration example of the three-dimensional information processing apparatus 700 according to this embodiment.
  • the three-dimensional information processing device 700 is mounted on a moving body such as an automobile. As shown in FIG. 26, the 3D information processing apparatus 700 includes a 3D map acquisition unit 701, a vehicle detection data acquisition unit 702, an abnormal case determination unit 703, a coping operation determination unit 704, and an operation control unit 705. With.
  • the three-dimensional information processing apparatus 700 is not shown for detecting a structure or a moving object around the vehicle such as a camera for acquiring a two-dimensional image or a sensor for one-dimensional data using ultrasonic waves or lasers.
  • a two-dimensional or one-dimensional sensor may be provided.
  • the 3D information processing apparatus 700 may include a communication unit (not shown) for acquiring the 3D map by a mobile communication network such as 4G or 5G, or vehicle-to-vehicle communication or road-to-vehicle communication. ..
  • the three-dimensional map acquisition unit 701 acquires a three-dimensional map 711 near the travel route.
  • the three-dimensional map acquisition unit 701 acquires the three-dimensional map 711 by a mobile communication network, vehicle-to-vehicle communication, or road-to-vehicle communication.
  • the vehicle detection data acquisition unit 702 acquires the vehicle detection three-dimensional data 712 based on the sensor information. For example, the vehicle detection data acquisition unit 702 generates the vehicle detection three-dimensional data 712 based on the sensor information acquired by the sensor included in the vehicle.
  • the abnormal case determination unit 703 detects an abnormal case by performing a predetermined check on at least one of the acquired three-dimensional map 711 and the detected vehicle three-dimensional data 712. That is, the abnormal case determination unit 703 determines whether at least one of the acquired three-dimensional map 711 and the acquired vehicle three-dimensional data 712 is abnormal.
  • the coping operation determining unit 704 determines the coping operation for the abnormal case.
  • the operation control unit 705 controls the operation of each processing unit, such as the three-dimensional map acquisition unit 701, which is necessary for performing the coping operation.
  • the 3D information processing apparatus 700 ends the process.
  • the three-dimensional information processing apparatus 700 uses the three-dimensional map 711 and the own-vehicle detected three-dimensional data 712 to estimate the self-position of the vehicle having the three-dimensional information processing apparatus 700. Next, the three-dimensional information processing apparatus 700 uses the result of self-position estimation to automatically drive the vehicle.
  • the three-dimensional information processing apparatus 700 acquires the map data (three-dimensional map 711) including the first three-dimensional position information via the communication path.
  • the first three-dimensional position information is encoded in units of a subspace having three-dimensional coordinate information, each is an aggregate of one or more subspaces, and each of the first three-dimensional position information is a plurality of random numbers that can be independently decoded.
  • Including access unit for example, the first three-dimensional position information is data (SWLD) in which feature points having a three-dimensional feature amount equal to or larger than a predetermined threshold value are encoded.
  • SWLD data
  • the three-dimensional information processing device 700 also generates second three-dimensional position information (self-vehicle detected three-dimensional data 712) from the information detected by the sensor. Next, the three-dimensional information processing apparatus 700 performs an abnormality determination process on the first three-dimensional position information or the second three-dimensional position information, and thereby the first three-dimensional position information or the second three-dimensional position information. It is determined whether the three-dimensional position information is abnormal.
  • the three-dimensional information processing device 700 determines a coping action for the abnormality. Next, the three-dimensional information processing apparatus 700 carries out the control necessary for carrying out the coping operation.
  • the three-dimensional information processing apparatus 700 can detect an abnormality in the first three-dimensional position information or the second three-dimensional position information and take a coping operation.
  • FIG. 27 is a block diagram showing a configuration example of the three-dimensional data creation device 810 according to the present embodiment.
  • the three-dimensional data creation device 810 is installed in, for example, a vehicle.
  • the three-dimensional data creation device 810 sends and receives three-dimensional data to and from an external traffic monitoring cloud, a preceding vehicle or a following vehicle, and creates and stores three-dimensional data.
  • the three-dimensional data creation device 810 includes a data reception unit 811, a communication unit 812, a reception control unit 813, a format conversion unit 814, a plurality of sensors 815, a three-dimensional data creation unit 816, and a three-dimensional data synthesis unit. 817, a three-dimensional data storage unit 818, a communication unit 819, a transmission control unit 820, a format conversion unit 821, and a data transmission unit 822.
  • the data receiving unit 811 receives the three-dimensional data 831 from the traffic monitoring cloud or the preceding vehicle.
  • the three-dimensional data 831 includes, for example, information such as a point cloud, a visible light image, depth information, sensor position information, or speed information including a region that cannot be detected by the sensor 815 of the vehicle.
  • the communication unit 812 communicates with the traffic monitoring cloud or the preceding vehicle and transmits a data transmission request or the like to the traffic monitoring cloud or the preceding vehicle.
  • the reception control unit 813 exchanges information such as compatible formats with the communication destination via the communication unit 812, and establishes communication with the communication destination.
  • the format conversion unit 814 generates the three-dimensional data 832 by performing format conversion or the like on the three-dimensional data 831 received by the data receiving unit 811. Also, the format conversion unit 814 performs decompression or decoding processing when the three-dimensional data 831 is compressed or encoded.
  • the plurality of sensors 815 is a sensor group such as LiDAR, visible light camera, infrared camera, or the like that acquires information outside the vehicle, and generates sensor information 833.
  • the sensor 815 is a laser sensor such as LiDAR
  • the sensor information 833 is three-dimensional data such as a point cloud (point cloud data). Note that the number of sensors 815 need not be plural.
  • the three-dimensional data creation unit 816 generates three-dimensional data 834 from the sensor information 833.
  • the three-dimensional data 834 includes information such as a point cloud, a visible light image, depth information, sensor position information, or speed information.
  • the three-dimensional data synthesizing unit 817 synthesizes the three-dimensional data 832 created by the traffic monitoring cloud, the preceding vehicle, or the like with the three-dimensional data 834 created based on the sensor information 833 of the own vehicle.
  • the three-dimensional data 835 including the space in front of the preceding vehicle that cannot be detected by the sensor 815 is constructed.
  • the three-dimensional data storage unit 818 stores the generated three-dimensional data 835 and the like.
  • the communication unit 819 communicates with the traffic monitoring cloud or the following vehicle and transmits a data transmission request or the like to the traffic monitoring cloud or the following vehicle.
  • the transmission control unit 820 exchanges information such as a compatible format with the communication destination via the communication unit 819, and establishes communication with the communication destination. Further, the transmission control unit 820 determines the space of the three-dimensional data to be transmitted based on the three-dimensional data construction information of the three-dimensional data 832 generated by the three-dimensional data synthesizing unit 817 and the data transmission request from the communication destination. Determine a transmission area.
  • the transmission control unit 820 determines a transmission area including a space in front of the own vehicle which cannot be detected by the sensor of the following vehicle in response to a data transmission request from the traffic monitoring cloud or the following vehicle. In addition, the transmission control unit 820 determines the transmission region by determining whether or not the transmittable space or the transmitted space is updated based on the three-dimensional data construction information. For example, the transmission control unit 820 determines the area designated by the data transmission request and the area in which the corresponding three-dimensional data 835 exists as the transmission area. Then, the transmission control unit 820 notifies the format conversion unit 821 of the format and the transmission area that the communication destination supports.
  • the format conversion unit 821 converts the three-dimensional data 836 in the transmission area out of the three-dimensional data 835 stored in the three-dimensional data storage unit 818 into a format compatible with the receiving side to generate the three-dimensional data 837. To generate.
  • the format conversion unit 821 may reduce the data amount by compressing or encoding the three-dimensional data 837.
  • the data transmission unit 822 transmits the three-dimensional data 837 to the traffic monitoring cloud or the following vehicle.
  • the three-dimensional data 837 includes, for example, information such as a point cloud in front of the own vehicle including a blind spot of the following vehicle, a visible light image, depth information, or sensor position information.
  • the three-dimensional data creation device 810 acquires from the outside the three-dimensional data 831 of the area that cannot be detected by the sensor 815 of the own vehicle, and the three-dimensional data 831 and the sensor information 833 detected by the sensor 815 of the own vehicle.
  • the three-dimensional data 835 is generated by synthesizing the three-dimensional data 834 based on the above. Accordingly, the three-dimensional data creation device 810 can generate three-dimensional data in a range that cannot be detected by the sensor 815 of the vehicle.
  • the three-dimensional data creation device 810 in response to a data transmission request from the traffic monitoring cloud or the following vehicle, converts the three-dimensional data including the space in front of the own vehicle, which cannot be detected by the sensor of the following vehicle, to the traffic monitoring cloud or the following vehicle. Can be sent to vehicles, etc.
  • a client device such as a vehicle transmits three-dimensional data to another vehicle or a server such as a traffic monitoring cloud.
  • the client device transmits the sensor information obtained by the sensor to the server or another client device.
  • FIG. 28 is a diagram showing the configuration of the transmission/reception system for the three-dimensional map and the sensor information according to the present embodiment.
  • the system includes a server 901 and client devices 902A and 902B.
  • client apparatuses 902A and 902B are not particularly distinguished, they are also referred to as the client apparatus 902.
  • the client device 902 is, for example, an in-vehicle device mounted on a moving body such as a vehicle.
  • the server 901 is, for example, a traffic monitoring cloud or the like, and can communicate with a plurality of client devices 902.
  • the server 901 transmits a three-dimensional map composed of a point cloud to the client device 902.
  • the structure of the three-dimensional map is not limited to the point cloud, and may be other three-dimensional data such as a mesh structure.
  • the client device 902 transmits the sensor information acquired by the client device 902 to the server 901.
  • the sensor information includes, for example, at least one of LiDAR acquisition information, visible light image, infrared image, depth image, sensor position information, and speed information.
  • the data transmitted and received between the server 901 and the client device 902 may be compressed for data reduction, or may be left uncompressed to maintain the accuracy of the data.
  • a three-dimensional compression method based on an octree structure for example, can be used for the point cloud.
  • a two-dimensional image compression method can be used for the visible light image, the infrared image, and the depth image.
  • the two-dimensional image compression method is, for example, MPEG-4 AVC or HEVC standardized by MPEG.
  • the server 901 transmits the three-dimensional map managed by the server 901 to the client device 902 in response to the transmission request of the three-dimensional map from the client device 902.
  • the server 901 may transmit the three-dimensional map without waiting for the transmission request for the three-dimensional map from the client device 902.
  • the server 901 may broadcast the three-dimensional map to one or more client devices 902 in a predetermined space.
  • the server 901 may transmit the three-dimensional map suitable for the position of the client device 902 to the client device 902 which has once received the transmission request, at regular time intervals.
  • the server 901 may also send the three-dimensional map to the client device 902 every time the three-dimensional map managed by the server 901 is updated.
  • the client device 902 issues a three-dimensional map transmission request to the server 901. For example, when the client device 902 wants to perform self-position estimation during traveling, the client device 902 transmits a transmission request for a three-dimensional map to the server 901.
  • the client device 902 may issue a three-dimensional map transmission request to the server 901 in the following cases.
  • the client device 902 may issue a request for transmitting the three-dimensional map to the server 901.
  • the client device 902 may issue a request for transmitting the three-dimensional map to the server 901 when a certain period of time has passed since the client device 902 acquired the three-dimensional map.
  • the client device 902 may issue a transmission request for the three-dimensional map to the server 901 at a certain time before the client device 902 leaves the space indicated by the three-dimensional map held by the client device 902. For example, when the client device 902 exists within a predetermined distance from the boundary of the space indicated by the three-dimensional map held by the client device 902, the client device 902 issues a three-dimensional map transmission request to the server 901. May be. In addition, when the movement route and the movement speed of the client device 902 are known, the time when the client device 902 goes out is predicted from the space indicated by the three-dimensional map held by the client device 902 based on these. May be.
  • the client device 902 may issue a request for transmitting the three-dimensional map to the server 901 when the error in aligning the three-dimensional data created by the client device 902 from the sensor information and the three-dimensional map is greater than or equal to a certain value.
  • the client device 902 transmits the sensor information to the server 901 in response to the sensor information transmission request transmitted from the server 901.
  • the client device 902 may send the sensor information to the server 901 without waiting for the sensor information transmission request from the server 901.
  • the client device 902 may transmit the sensor information to the server 901 periodically during a certain period when the sensor information transmission request is received from the server 901 once.
  • the client device 902 determines that if the error at the time of alignment between the three-dimensional data created by the client device 902 based on the sensor information and the three-dimensional map obtained from the server 901 is equal to or greater than a certain value, It may be determined that there is a possibility that the three-dimensional map has changed, and the fact and the sensor information may be transmitted to the server 901.
  • the server 901 issues a sensor information transmission request to the client device 902.
  • the server 901 receives the position information of the client device 902 such as GPS from the client device 902. If the server 901 determines that the client device 902 is approaching a space with less information in the three-dimensional map managed by the server 901 based on the position information of the client device 902, the client 902 generates a new three-dimensional map.
  • a request for transmitting sensor information is issued to the device 902.
  • the server 901 issues a sensor information transmission request when updating the three-dimensional map, when confirming road conditions such as snowfall or disaster, when confirming traffic jam condition, incident accident condition, etc. Good.
  • the client device 902 may set the data amount of the sensor information to be transmitted to the server 901 according to the communication state or the band at the time of receiving the sensor information transmission request received from the server 901.
  • Setting the data amount of the sensor information to be transmitted to the server 901 means, for example, increasing or decreasing the data itself, or selecting a compression method appropriately.
  • FIG. 29 is a block diagram showing a configuration example of the client device 902.
  • the client device 902 receives a three-dimensional map composed of a point cloud or the like from the server 901 and estimates the self-position of the client device 902 from the three-dimensional data created based on the sensor information of the client device 902. In addition, the client device 902 transmits the acquired sensor information to the server 901.
  • the client device 902 includes a data reception unit 1011, a communication unit 1012, a reception control unit 1013, a format conversion unit 1014, a plurality of sensors 1015, a three-dimensional data creation unit 1016, and a three-dimensional image processing unit 1017.
  • a three-dimensional data storage unit 1018, a format conversion unit 1019, a communication unit 1020, a transmission control unit 1021, and a data transmission unit 1022 are provided.
  • the data receiving unit 1011 receives the three-dimensional map 1031 from the server 901.
  • the three-dimensional map 1031 is data including a point cloud such as WLD or SWLD.
  • the three-dimensional map 1031 may include either compressed data or non-compressed data.
  • the communication unit 1012 communicates with the server 901 and sends a data transmission request (for example, a three-dimensional map transmission request) to the server 901.
  • a data transmission request for example, a three-dimensional map transmission request
  • the reception control unit 1013 exchanges information such as a compatible format with the communication destination via the communication unit 1012, and establishes communication with the communication destination.
  • the format conversion unit 1014 generates a three-dimensional map 1032 by performing format conversion or the like on the three-dimensional map 1031 received by the data receiving unit 1011. Also, the format conversion unit 1014 performs decompression or decoding processing when the three-dimensional map 1031 is compressed or encoded. Note that the format conversion unit 1014 does not perform decompression or decoding processing if the 3D map 1031 is uncompressed data.
  • the plurality of sensors 1015 is a sensor group such as LiDAR, visible light camera, infrared camera, or depth sensor that acquires information outside the vehicle in which the client device 902 is installed, and generates sensor information 1033.
  • the sensor 1015 is a laser sensor such as LiDAR
  • the sensor information 1033 is three-dimensional data such as a point cloud (point cloud data). Note that the number of sensors 1015 need not be plural.
  • the three-dimensional data creating unit 1016 creates three-dimensional data 1034 around the vehicle based on the sensor information 1033.
  • the three-dimensional data creation unit 1016 creates point cloud data with color information around the vehicle using the information acquired by LiDAR and the visible light image obtained by the visible light camera.
  • the three-dimensional image processing unit 1017 uses the received three-dimensional map 1032 such as a point cloud and the three-dimensional data 1034 around the own vehicle generated from the sensor information 1033 to perform self-position estimation processing of the own vehicle. ..
  • the three-dimensional image processing unit 1017 creates three-dimensional data 1035 around the host vehicle by synthesizing the three-dimensional map 1032 and the three-dimensional data 1034, and estimates the self-position using the created three-dimensional data 1035. Processing may be performed.
  • the 3D data storage unit 1018 stores the 3D map 1032, the 3D data 1034, and the 3D data 1035.
  • the format conversion unit 1019 generates the sensor information 1037 by converting the sensor information 1033 into a format compatible with the receiving side.
  • the format conversion unit 1019 may reduce the data amount by compressing or encoding the sensor information 1037. Further, the format conversion unit 1019 may omit the processing when it is not necessary to perform the format conversion. Further, the format conversion unit 1019 may control the amount of data to be transmitted according to the designation of the transmission range.
  • the communication unit 1020 communicates with the server 901 and receives a data transmission request (sensor information transmission request) and the like from the server 901.
  • the transmission control unit 1021 exchanges information such as a compatible format with a communication destination via the communication unit 1020 to establish communication.
  • the data transmission unit 1022 transmits the sensor information 1037 to the server 901.
  • the sensor information 1037 includes, for example, a plurality of sensors such as information acquired by LiDAR, a brightness image acquired by a visible light camera, an infrared image acquired by an infrared camera, a depth image acquired by a depth sensor, sensor position information, and speed information.
  • 1015 includes the information acquired by 1015.
  • FIG. 30 is a block diagram showing a configuration example of the server 901.
  • the server 901 receives the sensor information transmitted from the client device 902, and creates three-dimensional data based on the received sensor information.
  • the server 901 updates the three-dimensional map managed by the server 901 using the created three-dimensional data. Further, the server 901 transmits the updated three-dimensional map to the client device 902 in response to the transmission request of the three-dimensional map from the client device 902.
  • the server 901 includes a data reception unit 1111, a communication unit 1112, a reception control unit 1113, a format conversion unit 1114, a three-dimensional data creation unit 1116, a three-dimensional data synthesis unit 1117, and a three-dimensional data storage unit 1118.
  • the data receiving unit 1111 receives the sensor information 1037 from the client device 902.
  • the sensor information 1037 includes, for example, information acquired by LiDAR, a brightness image acquired by a visible light camera, an infrared image acquired by an infrared camera, a depth image acquired by a depth sensor, sensor position information, and speed information.
  • the communication unit 1112 communicates with the client device 902 and transmits a data transmission request (for example, a sensor information transmission request) to the client device 902.
  • a data transmission request for example, a sensor information transmission request
  • the reception control unit 1113 exchanges information such as a compatible format with a communication destination via the communication unit 1112 to establish communication.
  • the format conversion unit 1114 When the received sensor information 1037 is compressed or encoded, the format conversion unit 1114 generates the sensor information 1132 by performing decompression or decoding processing. If the sensor information 1037 is uncompressed data, the format conversion unit 1114 does not perform decompression or decoding processing.
  • the three-dimensional data creation unit 1116 creates three-dimensional data 1134 around the client device 902 based on the sensor information 1132. For example, the three-dimensional data creation unit 1116 creates point cloud data with color information around the client device 902 using the information acquired by LiDAR and the visible light image obtained by the visible light camera.
  • the three-dimensional data combination unit 1117 updates the three-dimensional map 1135 by combining the three-dimensional data 1134 created based on the sensor information 1132 with the three-dimensional map 1135 managed by the server 901.
  • the three-dimensional data storage unit 1118 stores the three-dimensional map 1135 and the like.
  • the format conversion unit 1119 generates the three-dimensional map 1031 by converting the three-dimensional map 1135 into a format compatible with the receiving side.
  • the format conversion unit 1119 may reduce the data amount by compressing or encoding the three-dimensional map 1135. Further, the format conversion unit 1119 may omit the processing when it is not necessary to perform the format conversion. Also, the format conversion unit 1119 may control the amount of data to be transmitted according to the designation of the transmission range.
  • the communication unit 1120 communicates with the client device 902 and receives a data transmission request (three-dimensional map transmission request) and the like from the client device 902.
  • the transmission control unit 1121 exchanges information such as a compatible format with a communication destination via the communication unit 1120 to establish communication.
  • the data transmission unit 1122 transmits the three-dimensional map 1031 to the client device 902.
  • the three-dimensional map 1031 is data including a point cloud such as WLD or SWLD.
  • the three-dimensional map 1031 may include either compressed data or non-compressed data.
  • FIG. 31 is a flowchart showing the operation when the client device 902 acquires a three-dimensional map.
  • the client device 902 requests the server 901 to transmit a three-dimensional map (point cloud or the like) (S1001). At this time, the client device 902 may request the server 901 to transmit the three-dimensional map related to the position information by also transmitting the position information of the client device 902 obtained by GPS or the like.
  • a three-dimensional map point cloud or the like
  • the client device 902 receives the three-dimensional map from the server 901 (S1002). If the received 3D map is compressed data, the client device 902 decodes the received 3D map to generate an uncompressed 3D map (S1003).
  • the client device 902 creates three-dimensional data 1034 around the client device 902 from the sensor information 1033 obtained by the plurality of sensors 1015 (S1004).
  • the client device 902 estimates the self-position of the client device 902 using the three-dimensional map 1032 received from the server 901 and the three-dimensional data 1034 created from the sensor information 1033 (S1005).
  • FIG. 32 is a flowchart showing the operation when the client device 902 transmits sensor information.
  • the client device 902 receives a sensor information transmission request from the server 901 (S1011).
  • the client device 902 having received the transmission request transmits the sensor information 1037 to the server 901 (S1012).
  • the sensor information 1033 includes a plurality of pieces of information obtained by the plurality of sensors 1015
  • the client device 902 generates the sensor information 1037 by compressing each piece of information with a compression method suitable for each piece of information. Good.
  • FIG. 33 is a flowchart showing the operation when the server 901 acquires sensor information.
  • the server 901 requests the client device 902 to transmit sensor information (S1021).
  • the server 901 receives the sensor information 1037 transmitted from the client device 902 in response to the request (S1022).
  • the server 901 creates three-dimensional data 1134 using the received sensor information 1037 (S1023).
  • the server 901 reflects the created three-dimensional data 1134 in the three-dimensional map 1135 (S1024).
  • FIG. 34 is a flowchart showing the operation when the server 901 transmits a three-dimensional map.
  • the server 901 receives a transmission request for a three-dimensional map from the client device 902 (S1031).
  • the server 901 having received the request for transmitting the three-dimensional map transmits the three-dimensional map 1031 to the client device 902 (S1032).
  • the server 901 may extract a three-dimensional map in the vicinity according to the position information of the client device 902 and transmit the extracted three-dimensional map.
  • the server 901 may compress the three-dimensional map configured by the point cloud using, for example, a compression method having an octree structure, and transmit the compressed three-dimensional map.
  • the server 901 creates three-dimensional data 1134 near the position of the client device 902 using the sensor information 1037 received from the client device 902. Next, the server 901 calculates the difference between the three-dimensional data 1134 and the three-dimensional map 1135 by matching the created three-dimensional data 1134 and the three-dimensional map 1135 of the same area managed by the server 901. .. The server 901 determines that some abnormality has occurred around the client device 902 when the difference is equal to or greater than a predetermined threshold value. For example, when a land subsidence occurs due to a natural disaster such as an earthquake, a large difference occurs between the three-dimensional map 1135 managed by the server 901 and the three-dimensional data 1134 created based on the sensor information 1037. It is possible.
  • the sensor information 1037 may include information indicating at least one of the type of sensor, the performance of the sensor, and the model number of the sensor. Further, a class ID or the like according to the performance of the sensor may be added to the sensor information 1037. For example, when the sensor information 1037 is information acquired by LiDAR, a sensor capable of acquiring information with an accuracy of several mm is class 1, a sensor capable of acquiring information with accuracy of several cm is a class 2, and sensor is several m. It is conceivable to assign an identifier to the performance of the sensor, such as a class 3 sensor that can acquire information with accuracy.
  • the server 901 may also estimate sensor performance information and the like from the model number of the client device 902.
  • the server 901 may determine the sensor specification information from the vehicle type of the vehicle. In this case, the server 901 may acquire the vehicle type information of the vehicle in advance, or the sensor information may include the information. Further, the server 901 may switch the degree of correction for the three-dimensional data 1134 created using the sensor information 1037, using the acquired sensor information 1037. For example, when the sensor performance is high accuracy (class 1), the server 901 does not perform correction on the three-dimensional data 1134. When the sensor performance is low accuracy (class 3), the server 901 applies correction to the three-dimensional data 1134 according to the accuracy of the sensor. For example, the server 901 increases the degree of correction (strength) as the accuracy of the sensor decreases.
  • the server 901 increases the degree of correction (strength) as the accuracy of the sensor decreases.
  • the server 901 may issue a request for transmitting sensor information to a plurality of client devices 902 in a certain space at the same time.
  • the server 901 receives a plurality of sensor information from a plurality of client devices 902, it is not necessary to use all the sensor information to create the three-dimensional data 1134.
  • the sensor to be used is selected according to the performance of the sensor. You may select the information.
  • the server 901 selects highly accurate sensor information (class 1) from the plurality of received sensor information, and creates three-dimensional data 1134 using the selected sensor information. You may.
  • the server 901 is not limited to a server such as a traffic monitoring cloud, but may be another client device (vehicle).
  • FIG. 35 is a diagram showing a system configuration in this case.
  • the client device 902C issues a sensor information transmission request to the nearby client device 902A, and acquires the sensor information from the client device 902A. Then, the client device 902C creates three-dimensional data using the acquired sensor information of the client device 902A, and updates the three-dimensional map of the client device 902C. As a result, the client apparatus 902C can generate a three-dimensional map of the space that can be acquired from the client apparatus 902A, by utilizing the performance of the client apparatus 902C. For example, such a case is considered to occur when the performance of the client device 902C is high.
  • the client device 902A that has provided the sensor information is given the right to acquire the highly accurate three-dimensional map generated by the client device 902C.
  • the client device 902A receives the highly accurate three-dimensional map from the client device 902C according to the right.
  • the client device 902C may issue a sensor information transmission request to a plurality of client devices 902 (client device 902A and client device 902B) located nearby.
  • client device 902A and client device 902B client devices 902 located nearby.
  • the client device 902C can create three-dimensional data using the sensor information obtained by this high-performance sensor.
  • FIG. 36 is a block diagram showing the functional configurations of the server 901 and the client device 902.
  • the server 901 includes, for example, a three-dimensional map compression/decoding processing unit 1201 that compresses and decodes a three-dimensional map, and a sensor information compression/decoding processing unit 1202 that compresses and decodes sensor information.
  • the client device 902 includes a three-dimensional map decoding processing unit 1211 and a sensor information compression processing unit 1212.
  • the three-dimensional map decoding processing unit 1211 receives the encoded data of the compressed three-dimensional map, decodes the encoded data, and acquires the three-dimensional map.
  • the sensor information compression processing unit 1212 compresses the sensor information itself instead of the three-dimensional data created from the acquired sensor information, and transmits the encoded data of the compressed sensor information to the server 901.
  • the client device 902 only needs to internally hold a processing unit (device or LSI) that performs a process of decoding a three-dimensional map (point cloud or the like), and three-dimensional data of the three-dimensional map (point cloud or the like). It is not necessary to internally hold the processing unit that performs the processing for compressing. As a result, the cost and power consumption of the client device 902 can be suppressed.
  • the client device 902 is mounted on a moving body, and based on the sensor information 1033 indicating the peripheral condition of the moving body obtained by the sensor 1015 mounted on the moving body, The peripheral three-dimensional data 1034 is created.
  • the client device 902 estimates the self-position of the moving body using the created three-dimensional data 1034.
  • the client device 902 transmits the acquired sensor information 1033 to the server 901 or another mobile body 902.
  • the client device 902 transmits the sensor information 1033 to the server 901 and the like.
  • the data amount of the transmission data may be reduced as compared with the case of transmitting the three-dimensional data.
  • the processing amount of the client device 902 can be reduced. Therefore, the client device 902 can reduce the amount of data to be transmitted or simplify the configuration of the device.
  • the client device 902 further transmits a three-dimensional map transmission request to the server 901 and receives the three-dimensional map 1031 from the server 901. In estimating the self-position, the client device 902 estimates the self-position by using the three-dimensional data 1034 and the three-dimensional map 1032.
  • the sensor information 1033 includes at least one of information obtained by a laser sensor, a brightness image, an infrared image, a depth image, sensor position information, and sensor speed information.
  • the sensor information 1033 also includes information indicating the performance of the sensor.
  • the client device 902 encodes or compresses the sensor information 1033, and in transmitting the sensor information, the encoded or compressed sensor information 1037 is transmitted to the server 901 or another mobile body 902. According to this, the client device 902 can reduce the amount of data to be transmitted.
  • the client device 902 includes a processor and a memory, and the processor uses the memory to perform the above processing.
  • the server 901 can communicate with the client device 902 mounted on the mobile body, and the sensor information 1037 indicating the surrounding situation of the mobile body, which is obtained by the sensor 1015 mounted on the mobile body. Is received from the client device 902. The server 901 creates three-dimensional data 1134 around the moving body from the received sensor information 1037.
  • the server 901 creates the three-dimensional data 1134 using the sensor information 1037 transmitted from the client device 902. As a result, the data amount of the transmission data may be reduced as compared with the case where the client device 902 transmits the three-dimensional data. Further, since it is not necessary to perform processing such as compression or encoding of three-dimensional data in the client device 902, the processing amount of the client device 902 can be reduced. Therefore, the server 901 can realize reduction of the amount of data to be transmitted or simplification of the device configuration.
  • the server 901 further transmits a sensor information transmission request to the client device 902.
  • the server 901 further updates the three-dimensional map 1135 using the created three-dimensional data 1134, and sends the three-dimensional map 1135 to the client device 902 in response to a transmission request of the three-dimensional map 1135 from the client device 902. Send.
  • the sensor information 1037 includes at least one of information obtained by a laser sensor, a brightness image, an infrared image, a depth image, sensor position information, and sensor speed information.
  • the sensor information 1037 also includes information indicating the performance of the sensor.
  • the server 901 further corrects the three-dimensional data according to the sensor performance. According to this, the three-dimensional data creation method can improve the quality of the three-dimensional data.
  • the server 901 receives a plurality of sensor information 1037 from a plurality of client devices 902 in receiving the sensor information, and based on the plurality of information indicating the performance of the sensor included in the plurality of sensor information 1037, the three-dimensional data 1134.
  • the sensor information 1037 used to create the is selected. According to this, the server 901 can improve the quality of the three-dimensional data 1134.
  • the server 901 decodes or expands the received sensor information 1037, and creates three-dimensional data 1134 from the decoded or expanded sensor information 1132. According to this, the server 901 can reduce the amount of data to be transmitted.
  • the server 901 includes a processor and a memory, and the processor uses the memory to perform the above processing.
  • FIG. 37 is a block diagram of three-dimensional data encoding apparatus 1300 according to this embodiment.
  • the three-dimensional data encoding device 1300 encodes three-dimensional data to generate an encoded bit stream (hereinafter, also simply referred to as a bit stream) that is an encoded signal.
  • the three-dimensional data encoding device 1300 includes a division unit 1301, a subtraction unit 1302, a conversion unit 1303, a quantization unit 1304, an inverse quantization unit 1305, an inverse transformation unit 1306, and
  • the addition unit 1307, the reference volume memory 1308, the intra prediction unit 1309, the reference space memory 1310, the inter prediction unit 1311, the prediction control unit 1312, and the entropy coding unit 1313 are included.
  • the dividing unit 1301 divides each space (SPC) included in the three-dimensional data into a plurality of volumes (VLM) that are coding units. Further, the dividing unit 1301 expresses voxels in each volume into an octree tree (Octree). The dividing unit 1301 may make the space and the volume the same size and express the space in an octree tree representation. Further, the dividing unit 1301 may add information (depth information, etc.) necessary for octree tree formation to the header of the bitstream or the like.
  • the subtraction unit 1302 calculates a difference between the volume (encoding target volume) output from the division unit 1301 and a prediction volume generated by intra prediction or inter prediction described later, and the calculated difference is used as a prediction residual. It is output to the conversion unit 1303.
  • FIG. 38 is a diagram illustrating a calculation example of the prediction residual.
  • the bit strings of the encoding target volume and the prediction volume shown here are, for example, position information indicating the positions of three-dimensional points (for example, point clouds) included in the volume.
  • FIG. 39 is a diagram showing a structural example of a volume including a plurality of voxels.
  • FIG. 40 is a diagram showing an example in which the volume shown in FIG. 39 is converted into an octree structure.
  • leaves 1, 2, and 3 respectively represent the voxels VXL1, VXL2, and VXL3 shown in FIG. 39, and represent VXL including the point cloud (hereinafter, effective VXL).
  • the octree is represented by a binary string of 0 and 1, for example. For example, if a node or valid VXL has a value of 1 and other values have a value of 0, the binary string shown in FIG. 40 is assigned to each node and leaf. Then, the binary sequence is scanned according to the scan order of the width priority or the depth priority. For example, in the case of scanning with the width priority, the binary string shown in A of FIG. 41 is obtained. When scanning with depth priority, the binary string shown in B of FIG. 41 is obtained. The binary string obtained by this scan is coded by entropy coding to reduce the amount of information.
  • the depth in the octree representation is used to control to what granularity the point cloud information included in the volume is retained. If the depth is set large, the point cloud information can be reproduced to a finer level, but the amount of data for expressing the nodes and leaves increases. Conversely, if the depth is set to a small value, the amount of data will decrease, but since the point cloud information of multiple different positions and different colors is considered to be the same position and the same color, the original information of the point cloud information will be lost. become.
  • the octree shown in FIG. 42 has a smaller amount of data than the octree shown in FIG. That is, the octree shown in FIG. 42 has a smaller number of bits after binarization than the octree shown in FIG.
  • the leaf 1 and the leaf 2 shown in FIG. 40 are represented by the leaf 1 shown in FIG. That is, the information that the leaf 1 and the leaf 2 shown in FIG. 40 are at different positions is lost.
  • the three-dimensional data encoding device 1300 generates the color information of VXL12 shown in FIG. 43 from the color information of VXL1 and VXL2 shown in FIG. For example, the three-dimensional data encoding device 1300 calculates the average value, the intermediate value, or the weighted average value of the color information of VXL1 and VXL2 as the color information of VXL12. As described above, the three-dimensional data encoding device 1300 may control the reduction of the data amount by changing the depth of the octree.
  • the three-dimensional data encoding device 1300 may set the depth information of the octree in any of world units, space units, and volume units. At that time, the three-dimensional data encoding device 1300 may add depth information to the world header information, the space header information, or the volume header information. Also, the same value may be used for depth information in all worlds, spaces, and volumes at different times. In this case, the three-dimensional data encoding device 1300 may add depth information to the header information that manages the world at all times.
  • the conversion unit 1303 applies frequency conversion such as orthogonal transformation to the prediction residual of the voxel color information in the volume. For example, the conversion unit 1303 creates a one-dimensional array by scanning the prediction residuals in a certain scan order. After that, the transforming unit 1303 transforms the one-dimensional array into the frequency domain by applying a one-dimensional orthogonal transform to the created one-dimensional array.
  • the quantizer 1304 can more efficiently reduce the code amount.
  • the transforming unit 1303 may use orthogonal transform of two or more dimensions instead of one dimension. For example, the conversion unit 1303 maps the prediction residuals to a two-dimensional array in a certain scan order, and applies the two-dimensional orthogonal transformation to the obtained two-dimensional array. Further, the transforming unit 1303 may select the orthogonal transform method to be used from the plurality of orthogonal transform methods. In this case, the three-dimensional data encoding device 1300 adds information indicating which orthogonal transform method was used to the bitstream. Further, the transforming unit 1303 may select an orthogonal transform method to be used from a plurality of orthogonal transform methods having different dimensions. In this case, the 3D data encoding apparatus 1300 adds to the bitstream which dimension of the orthogonal transform method was used.
  • the conversion unit 1303 matches the scan order of the prediction residuals with the scan order (width priority or depth priority) in the octree of the volume. By this means, it is not necessary to add information indicating the scan order of prediction residuals to the bitstream, so overhead can be reduced. Further, the conversion unit 1303 may apply a scan order different from the scan order of the octree. In this case, the three-dimensional data encoding device 1300 adds information indicating the scan order of the prediction residual to the bitstream. Thereby, the three-dimensional data encoding device 1300 can efficiently encode the prediction residual.
  • the three-dimensional data encoding device 1300 adds information (flag or the like) indicating whether or not to apply the scan order of the octree to the bitstream, and predicts when the scan order of the octree is not applied.
  • Information indicating the scan order of residuals may be added to the bitstream.
  • the conversion unit 1303 may convert not only the prediction residual of the color information but also other attribute information of the voxel.
  • the conversion unit 1303 may convert and encode information such as reflectance obtained when the point cloud is acquired by LiDAR or the like.
  • the conversion unit 1303 may skip the process when the space does not have attribute information such as color information. Further, the three-dimensional data encoding device 1300 may add information (flag) indicating whether or not to skip the processing of the conversion unit 1303 to the bitstream.
  • the quantization unit 1304 generates a quantization coefficient by performing quantization on the frequency component of the prediction residual generated by the conversion unit 1303 using the quantization control parameter. This reduces the amount of information.
  • the generated quantized coefficient is output to the entropy coding unit 1313.
  • the quantization unit 1304 may control the quantization control parameter in world units, space units, or volume units.
  • the three-dimensional data encoding device 1300 adds the quantization control parameter to each header information or the like.
  • the quantization unit 1304 may perform the quantization control by changing the weight for each frequency component of the prediction residual. For example, the quantization unit 1304 may finely quantize the low frequency component and roughly quantize the high frequency component. In this case, the three-dimensional data encoding device 1300 may add a parameter representing the weight of each frequency component to the header.
  • the quantizer 1304 may skip the process when the space does not have attribute information such as color information. Also, the three-dimensional data encoding device 1300 may add information (flag) indicating whether or not to skip the processing of the quantization unit 1304 to the bitstream.
  • the dequantization unit 1305 uses the quantization control parameter to dequantize the quantized coefficient generated by the quantization unit 1304 to generate the dequantized coefficient of the prediction residual, and to generate the dequantized coefficient.
  • the conversion coefficient is output to the inverse transform unit 1306.
  • the inverse transform unit 1306 applies the inverse transform to the inverse quantized coefficient generated by the inverse quantization unit 1305 to generate the prediction residual after the inverse transform is applied. Since the prediction residual after application of the inverse transform is the prediction residual generated after the quantization, the prediction residual does not have to completely match the prediction residual output by the transform unit 1303.
  • the adder 1307 includes the post-inverse-transformation-applied prediction residual generated by the inverse-transformer 1306, and a prediction volume generated by intra-prediction or inter-prediction described below, which is used for generating the prediction residual before quantization. To generate a reconstructed volume. This reconstructed volume is stored in the reference volume memory 1308 or the reference space memory 1310.
  • the intra prediction unit 1309 uses the attribute information of the adjacent volume stored in the reference volume memory 1308 to generate the prediction volume of the encoding target volume.
  • the attribute information includes voxel color information or reflectance.
  • the intra prediction unit 1309 generates color information of the encoding target volume or a predicted value of reflectance.
  • FIG. 44 is a diagram for explaining the operation of the intra prediction unit 1309.
  • the volume idx is identifier information added to the volume in the space, and a different value is assigned to each volume.
  • the order of allocation of the volume idx may be the same as the encoding order or may be different from the encoding order.
  • the prediction residual is generated by subtracting the predicted value of the color information from the color information of each voxel included in the encoding target volume.
  • the processing after the conversion unit 1303 is performed on this prediction residual.
  • the three-dimensional data encoding device 1300 adds the adjacent volume information and the prediction mode information to the bitstream.
  • the adjacent volume information is information indicating the adjacent volume used for the prediction, and indicates, for example, the volume idx of the adjacent volume used for the prediction.
  • the prediction mode information indicates the mode used to generate the prediction volume.
  • the mode is, for example, an average value mode in which a predicted value is generated from the average value of voxels in the adjacent volume, an intermediate value mode in which a predicted value is generated from the intermediate value of voxels in the adjacent volume, or the like.
  • FIG. 45 is a diagram schematically showing the inter prediction process according to the present embodiment.
  • the inter prediction unit 1311 encodes (inter prediction) a space (SPC) at a certain time T_Cur using a coded space at a different time T_LX.
  • the inter prediction unit 1311 performs the encoding process by applying the rotation and translation process to the encoded spaces at different times T_LX.
  • the three-dimensional data encoding device 1300 adds RT information relating to rotation and translation processing applied to spaces at different times T_LX to a bitstream.
  • the different time T_LX is, for example, time T_L0 before the certain time T_Cur.
  • the three-dimensional data encoding device 1300 may add RT information RT_L0 relating to the rotation and translation processing applied to the space at time T_L0 to the bitstream.
  • the different time T_LX is, for example, the time T_L1 after the certain time T_Cur.
  • the three-dimensional data encoding device 1300 may add RT information RT_L1 relating to the rotation and translation processing applied to the space at time T_L1 to the bitstream.
  • the inter prediction unit 1311 performs encoding (bi-prediction) with reference to both spaces at different times T_L0 and T_L1.
  • the three-dimensional data encoding device 1300 may add both the RT information RT_L0 and RT_L1 relating to rotation and translation applied to each space to the bitstream.
  • T_L0 is the time before T_Cur and T_L1 is the time after T_Cur.
  • T_L0 and T_L1 may be times before T_Cur.
  • both T_L0 and T_L1 may be times after T_Cur.
  • the three-dimensional data encoding device 1300 performs encoding by referring to a plurality of spaces at different times, even if RT information relating to rotation and translation applied to each space is added to the bitstream.
  • the three-dimensional data encoding device 1300 manages a plurality of encoded spaces to be referred to by two reference lists (L0 list and L1 list). Let L0R0 be the first reference space in the L0 list, L0R1 be the second reference space in the L0 list, L1R0 be the first reference space in the L1 list, and L1R1 be the second reference space in the L1 list.
  • the three-dimensional data encoding device 1300 adds the RT information RT_L0R0 of L0R0, the RT information RT_L0R1 of L0R1, the RT information RT_L1R0 of L1R0, and the RT information RT_L1R1 of L1R1 to the bitstream. For example, the three-dimensional data encoding device 1300 adds these RT information to the header of the bit stream or the like.
  • the three-dimensional data encoding device 1300 when it performs encoding by referring to a plurality of reference spaces at different times, it determines whether or not rotation and translation are applied for each reference space. At that time, the three-dimensional data encoding device 1300 may add information (RT application flag or the like) indicating whether or not rotation and translation have been applied for each reference space to the header information or the like of the bitstream. For example, the three-dimensional data encoding device 1300 calculates RT information and an ICP error value using an ICP (Interactive Closest Point) algorithm for each reference space referred to from the encoding target space.
  • ICP Interactive Closest Point
  • the three-dimensional data encoding device 1300 determines that it is not necessary to rotate and translate, and sets the RT application flag to OFF. On the other hand, when the ICP error value is larger than the constant value, the three-dimensional data encoding device 1300 sets the RT application flag to ON and adds the RT information to the bitstream.
  • FIG. 46 is a diagram showing a syntax example in which the RT information and the RT application flag are added to the header.
  • the number of bits assigned to each syntax may be determined within a range that the syntax can take. For example, when the number of reference spaces included in the reference list L0 is 8, MaxRefSpc_10 may be assigned 3 bits.
  • the number of bits to be assigned may be variable according to the value that each syntax can take, or may be fixed regardless of the value that the syntax can take.
  • the three-dimensional data encoding device 1300 may add the fixed number of bits to another header information.
  • MaxRefSpc_10 shown in FIG. 46 indicates the number of reference spaces included in the reference list L0.
  • RT_flag_10[i] is an RT application flag of the reference space i in the reference list L0.
  • RT_flag_10[i] is 1, rotation and translation are applied to the reference space i. If RT_flag_10[i] is 0, then rotation and translation are not applied to reference space i.
  • R_l0[i] and T_l0[i] are RT information of the reference space i in the reference list L0.
  • R_10[i] is rotation information of the reference space i in the reference list L0.
  • the rotation information indicates the content of the applied rotation processing, and is, for example, a rotation matrix or a quaternion.
  • T_10[i] is translation information of the reference space i in the reference list L0.
  • the translation information indicates the content of the applied translation processing, and is, for example, a translation vector or the like.
  • MaxRefSpc_l1 indicates the number of reference spaces included in the reference list L1.
  • RT_flag_l1[i] is an RT application flag of the reference space i in the reference list L1. When RT_flag_l1[i] is 1, rotation and translation are applied to the reference space i. If RT_flag_l1[i] is 0, then rotation and translation are not applied to reference space i.
  • R_l1[i] and T_l1[i] are RT information of the reference space i in the reference list L1.
  • R_l1[i] is rotation information of the reference space i in the reference list L1.
  • the rotation information indicates the content of the applied rotation processing, and is, for example, a rotation matrix or a quaternion.
  • T_l1[i] is translation information of the reference space i in the reference list L1.
  • the translation information indicates the content of the applied translation processing, and is, for example, a translation vector or the like.
  • the inter prediction unit 1311 uses the information of the encoded reference space stored in the reference space memory 1310 to generate the prediction volume of the encoding target volume. As described above, the inter prediction unit 1311 uses the encoding target space and the reference space in order to make the overall positional relationship between the encoding target space and the reference space close to each other before generating the prediction volume of the encoding target volume.
  • RT information is obtained using an ICP (Interactive Closest Point) algorithm. Then, the inter prediction unit 1311 obtains the reference space B by applying rotation and translation processing to the reference space using the obtained RT information. After that, the inter prediction unit 1311 generates a prediction volume of the encoding target volume in the encoding target space using the information in the reference space B.
  • the three-dimensional data encoding device 1300 adds the RT information used to obtain the reference space B to the header information or the like of the encoding target space.
  • the inter prediction unit 1311 approximates the overall positional relationship between the coding target space and the reference space by applying the rotation and translation processing to the reference space, and then uses the information of the reference space to predict the prediction volume. By generating, the accuracy of the prediction volume can be improved. Moreover, since the prediction residual can be suppressed, the code amount can be reduced.
  • the ICP is performed using the encoding target space and the reference space is shown, the present invention is not limited to this.
  • the inter prediction unit 1311 performs ICP using at least one of a coding target space in which the number of voxels or point clouds is thinned and a reference space in which the number of voxels or point cloud is thinned in order to reduce the processing amount. Therefore, the RT information may be obtained.
  • the inter prediction unit 1311 performs rotation and rotation when the ICP error value obtained as a result of ICP is smaller than the first threshold value set in advance, that is, when the positional relationship between the encoding target space and the reference space is close. It may be determined that the translation process is not necessary, and the rotation and translation may not be performed. In this case, the three-dimensional data encoding device 1300 may suppress the overhead by not adding the RT information to the bitstream.
  • the inter prediction unit 1311 determines that the shape change between spaces is large when the ICP error value is larger than the second threshold value set in advance, and applies intra prediction to all the volumes of the encoding target space. You may.
  • the space to which the intra prediction is applied will be referred to as the intra space.
  • the second threshold is a value larger than the first threshold.
  • any method may be applied as long as it is a method of obtaining RT information from two voxel sets or two point cloud sets.
  • the inter prediction unit 1311 uses, as a prediction volume of the encoding target volume in the encoding target space, for example, the encoding target volume in the reference space. Then, a volume whose attribute information such as shape or color is closest is searched.
  • the reference space is, for example, the reference space after the above-described rotation and translation processing is performed.
  • the inter prediction unit 1311 generates a prediction volume from the volume (reference volume) obtained by the search.
  • FIG. 47 is a diagram for explaining a predicted volume generation operation.
  • the inter prediction unit 1311 refers to the encoding target volume while scanning the reference volume in the reference space in order.
  • the volume with the smallest prediction residual which is the difference from the volume, is searched for.
  • the inter prediction unit 1311 selects the volume with the smallest prediction residual as the prediction volume.
  • the prediction residual between the encoding target volume and the prediction volume is encoded by the processing of the conversion unit 1303 and subsequent steps.
  • the prediction residual is a difference between the attribute information of the encoding target volume and the attribute information of the prediction volume.
  • the three-dimensional data encoding device 1300 adds the volume idx of the reference volume in the reference space referred to as the prediction volume to the bitstream header or the like.
  • the prediction control unit 1312 controls which of intra prediction and inter prediction is used to encode the encoding target volume.
  • a mode including intra prediction and inter prediction is called a prediction mode.
  • the prediction control unit 1312 calculates, as the evaluation value, the prediction residual when the encoding target volume is predicted by the intra prediction and the prediction residual when the prediction is performed by the inter prediction, and the prediction with the smaller evaluation value is performed.
  • Select a mode The prediction control unit 1312 calculates and calculates the actual code amount by applying orthogonal transform, quantization, and entropy coding to the prediction residual of intra prediction and the prediction residual of inter prediction, respectively.
  • the prediction mode may be selected using the calculated code amount as an evaluation value.
  • the prediction control unit 1312 may always select the intra prediction when it is determined in advance that the coding target space is coded in the intra space.
  • the entropy coding unit 1313 generates a coded signal (coded bit stream) by performing variable length coding on the quantized coefficient that is the input from the quantization unit 1304. Specifically, the entropy coding unit 1313, for example, binarizes the quantized coefficient and arithmetically codes the obtained binary signal.
  • FIG. 48 is a block diagram of three-dimensional data decoding device 1400 according to the present embodiment.
  • the three-dimensional data decoding device 1400 includes an entropy decoding unit 1401, an inverse quantization unit 1402, an inverse conversion unit 1403, an addition unit 1404, a reference volume memory 1405, an intra prediction unit 1406, and a reference space memory 1407.
  • the inter prediction unit 1408 and the prediction control unit 1409 are included.
  • the entropy decoding unit 1401 performs variable length decoding of the coded signal (coded bit stream). For example, the entropy decoding unit 1401 arithmetically decodes the encoded signal to generate a binary signal, and generates a quantization coefficient from the generated binary signal.
  • the inverse quantization unit 1402 generates an inverse quantization coefficient by inversely quantizing the quantization coefficient input from the entropy decoding unit 1401 using the quantization parameter added to the bitstream or the like.
  • the inverse transform unit 1403 generates a prediction residual by inversely transforming the inverse quantization coefficient input from the inverse quantization unit 1402. For example, the inverse transform unit 1403 generates a prediction residual by performing an inverse orthogonal transform on the inverse quantized coefficient based on the information added to the bitstream.
  • the adding unit 1404 adds the prediction residual generated by the inverse transforming unit 1403 and the prediction volume generated by intra prediction or inter prediction to generate a reconstructed volume.
  • This reconstructed volume is output as decoded three-dimensional data and stored in the reference volume memory 1405 or the reference space memory 1407.
  • the intra prediction unit 1406 generates a prediction volume by intra prediction using the reference volume in the reference volume memory 1405 and the information added to the bitstream. Specifically, the intra prediction unit 1406 acquires the adjacent volume information (for example, volume idx) added to the bitstream and the prediction mode information, and uses the adjacent volume indicated by the adjacent volume information to calculate the prediction mode information. A prediction volume is generated in the mode indicated by. The details of these processes are the same as the processes by the intra prediction unit 1309 described above, except that the information added to the bitstream is used.
  • the adjacent volume information for example, volume idx
  • the inter prediction unit 1408 uses the reference space in the reference space memory 1407 and the information added to the bitstream to generate a prediction volume by inter prediction. Specifically, the inter prediction unit 1408 applies the rotation and translation processing to the reference space using the RT information for each reference space added to the bitstream, and uses the applied reference space to calculate the prediction volume. To generate. When the RT application flag for each reference space exists in the bitstream, the inter prediction unit 1408 applies the rotation and translation processing to the reference space according to the RT application flag. The details of these processes are the same as the processes by the inter prediction unit 1311 described above, except that the information added to the bitstream is used.
  • the prediction control unit 1409 controls whether the decoding target volume is decoded by intra prediction or inter prediction. For example, the prediction control unit 1409 selects intra prediction or inter prediction according to the information indicating the prediction mode used, which is added to the bitstream. Note that the prediction control unit 1409 may always select intra prediction when it is determined in advance that the decoding target space will be decoded in the intra space.
  • the three-dimensional data encoding device 1300 may divide a space into subspaces and apply rotation and translation in subspace units. In this case, the three-dimensional data encoding device 1300 generates RT information for each subspace and adds the generated RT information to the bitstream header or the like. Also, the three-dimensional data encoding device 1300 may apply rotation and translation in units of volume, which is an encoding unit. In this case, the three-dimensional data encoding device 1300 generates RT information in units of encoded volumes, and adds the generated RT information to a bitstream header or the like.
  • the three-dimensional data encoding device 1300 may apply rotation and translation in large units and then apply rotation and translation in small units.
  • the three-dimensional data encoding device 1300 may apply rotation and translation in space units, and may apply different rotation and translation to each of the plurality of volumes included in the obtained space.
  • the three-dimensional data encoding device 1300 may change the size of the three-dimensional data by applying scaling processing, for example. Further, the three-dimensional data encoding device 1300 may apply any one or two of rotation, translation, and scale. When the processing is applied in different units in multiple stages as described above, the type of processing applied to each unit may be different. For example, rotation and translation may be applied in space units, and translation may be applied in volume units.
  • FIG. 48 is a flowchart of inter prediction processing by the three-dimensional data encoding device 1300.
  • the three-dimensional data encoding device 1300 uses the position information of the three-dimensional points included in the reference three-dimensional data (for example, the reference space) at a different time from the target three-dimensional data (for example, the encoding target space) to calculate the predicted position information.
  • a prediction volume is generated (S1301).
  • the three-dimensional data encoding device 1300 generates predicted position information by applying rotation and translation processing to the position information of the three-dimensional points included in the reference three-dimensional data.
  • the three-dimensional data encoding apparatus 1300 performs rotation and translation processing in a first unit (for example, space), and generates predicted position information in a second unit (for example, volume) that is smaller than the first unit. Good. For example, the three-dimensional data encoding device 1300 selects the volume having the smallest difference in position information from the encoding target volume included in the encoding target space among the plurality of volumes included in the reference space after the rotation and translation processing. The volume obtained by searching is used as the prediction volume. The three-dimensional data encoding device 1300 may perform rotation and translation processing and generation of predicted position information in the same unit.
  • the three-dimensional data encoding device 1300 applies the first rotation and translation processing in the first unit (for example, space) to the position information of the three-dimensional points included in the reference three-dimensional data, and then performs the first rotation and translation processing.
  • the predicted position information may be generated by applying the second rotation and translation processing in the second unit (for example, volume) smaller than the first unit to the position information of the three-dimensional point obtained by.
  • the position information of the three-dimensional point and the predicted position information are represented by an octree structure as shown in FIG. 41, for example.
  • the position information of the three-dimensional point and the predicted position information are represented in a scan order in which the width has priority among the depth and the width in the octree structure.
  • the position information and the predicted position information of the three-dimensional point are represented in the order of scanning in which depth is prioritized among the depth and width in the octree structure.
  • the three-dimensional data encoding device 1300 encodes an RT application flag indicating whether to apply rotation and translation processing to the position information of the three-dimensional points included in the reference three-dimensional data. To do. That is, the three-dimensional data encoding device 1300 generates an encoded signal (encoded bit stream) including the RT application flag. The three-dimensional data encoding device 1300 also encodes RT information indicating the contents of rotation and translation processing. That is, the three-dimensional data encoding device 1300 generates an encoded signal (encoded bit stream) including RT information. Note that the three-dimensional data encoding apparatus 1300 encodes RT information when the RT application flag indicates that the rotation and translation processing is applied, and the RT application flag indicates that the rotation and translation processing is not applied. The RT information does not have to be encoded.
  • the 3D data includes, for example, position information of 3D points and attribute information (color information etc.) of each 3D point.
  • the three-dimensional data encoding device 1300 generates prediction attribute information using the attribute information of the three-dimensional points included in the reference three-dimensional data (S1302).
  • the three-dimensional data encoding device 1300 encodes the position information of the three-dimensional points included in the target three-dimensional data using the predicted position information. For example, the three-dimensional data encoding device 1300 calculates difference position information that is the difference between the position information of the three-dimensional point included in the target three-dimensional data and the predicted position information as shown in FIG. 38 (S1303).
  • the three-dimensional data encoding device 1300 encodes the attribute information of the three-dimensional points included in the target three-dimensional data using the prediction attribute information. For example, the three-dimensional data encoding device 1300 calculates difference attribute information that is a difference between the attribute information of the three-dimensional point included in the target three-dimensional data and the prediction attribute information (S1304). Next, the three-dimensional data encoding device 1300 performs conversion and quantization on the calculated difference attribute information (S1305).
  • the three-dimensional data encoding device 1300 encodes (eg, entropy encoding) the difference position information and the quantized difference attribute information (S1306). That is, the three-dimensional data encoding device 1300 generates an encoded signal (encoded bit stream) including the difference position information and the difference attribute information.
  • the 3D data encoding apparatus 1300 does not have to perform steps S1302, S1304, and S1305. Also, the three-dimensional data encoding device 1300 may perform only one of the encoding of the position information of the three-dimensional point and the encoding of the attribute information of the three-dimensional point.
  • the order of the processes shown in FIG. 49 is an example, and the order is not limited to this.
  • the processing for position information (S1301, S1303) and the processing for attribute information (S1302, S1304, S1305) are independent of each other, and thus may be performed in any order, or some of them may be processed in parallel. May be.
  • the three-dimensional data encoding device 1300 generates the predicted position information using the position information of the three-dimensional points included in the reference three-dimensional data at a time different from that of the target three-dimensional data, and the target three-dimensional data.
  • the difference position information which is the difference between the position information of the three-dimensional point included in the original data and the predicted position information, is encoded.
  • the data amount of the encoded signal can be reduced, and thus the encoding efficiency can be improved.
  • the three-dimensional data encoding device 1300 generates prediction attribute information by using the attribute information of the three-dimensional points included in the reference three-dimensional data, and determines the three-dimensional points included in the target three-dimensional data.
  • the difference attribute information which is the difference between the attribute information and the predicted attribute information, is encoded. As a result, the data amount of the encoded signal can be reduced, and thus the encoding efficiency can be improved.
  • the three-dimensional data encoding device 1300 includes a processor and a memory, and the processor uses the memory to perform the above processing.
  • FIG. 48 is a flowchart of the inter prediction process by the three-dimensional data decoding device 1400.
  • the three-dimensional data decoding device 1400 decodes (for example, entropy decoding) the difference position information and the difference attribute information from the coded signal (coded bit stream) (S1401).
  • the 3D data decoding apparatus 1400 decodes the RT application flag indicating whether or not the rotation and translation processing is applied to the position information of the 3D point included in the reference 3D data, from the encoded signal. Also, the three-dimensional data decoding device 1400 decodes RT information indicating the contents of the rotation and translation processing. The three-dimensional data decoding apparatus 1400 decodes the RT information when the RT application flag indicates that the rotation and translation processing is to be applied, and when the RT application flag indicates that the rotation and translation processing is not to be applied. The RT information need not be decoded.
  • the three-dimensional data decoding device 1400 performs inverse quantization and inverse transformation on the decoded difference attribute information (S1402).
  • the three-dimensional data decoding device 1400 uses the position information of the three-dimensional point included in the reference three-dimensional data (for example, the reference space) at a different time from the target three-dimensional data (for example, the decoding target space) to calculate the predicted position information ( For example, a predicted volume) is generated (S1403). Specifically, the 3D data decoding apparatus 1400 generates predicted position information by applying rotation and translation processing to the position information of the 3D point included in the reference 3D data.
  • the 3D data decoding apparatus 1400 when the RT application flag indicates that the rotation and translation processing is to be applied, the 3D data decoding apparatus 1400 includes position information of the 3D points included in the reference 3D data indicated by the RT information. Apply rotation and translation processing to. On the other hand, when the RT application flag indicates that the rotation and translation processing is not applied, the three-dimensional data decoding device 1400 does not apply the rotation and translation processing to the position information of the three-dimensional point included in the reference three-dimensional data. ..
  • the three-dimensional data decoding device 1400 may perform the rotation and translation processing in the first unit (for example, space), and may generate the predicted position information in the second unit (for example, volume) smaller than the first unit. Good.
  • the three-dimensional data decoding device 1400 may perform rotation and translation processing and generation of predicted position information in the same unit.
  • the 3D data decoding apparatus 1400 applies the first rotation and translation processing in the first unit (for example, space) to the position information of the 3D points included in the reference 3D data, and performs the first rotation and translation processing.
  • the predicted position information may be generated by applying the second rotation and translation processing in a second unit (for example, a volume) smaller than the first unit to the obtained position information of the three-dimensional point.
  • the position information of the three-dimensional point and the predicted position information are represented by an octree structure as shown in FIG. 41, for example.
  • the position information of the three-dimensional point and the predicted position information are represented in a scan order in which the width has priority among the depth and the width in the octree structure.
  • the position information and the predicted position information of the three-dimensional point are represented in the order of scanning in which depth is prioritized among the depth and width in the octree structure.
  • the three-dimensional data decoding device 1400 generates prediction attribute information by using the attribute information of the three-dimensional points included in the reference three-dimensional data (S1404).
  • the 3D data decoding device 1400 restores the 3D point position information included in the target 3D data by decoding the encoded position information included in the encoded signal using the predicted position information.
  • the encoded position information is, for example, difference position information
  • the three-dimensional data decoding device 1400 adds the difference position information and the predicted position information to determine the three-dimensional point included in the target three-dimensional data.
  • the position information is restored (S1405).
  • the 3D data decoding apparatus 1400 restores the 3D point attribute information included in the target 3D data by decoding the encoded attribute information included in the encoded signal using the prediction attribute information.
  • the encoded attribute information is, for example, difference attribute information
  • the three-dimensional data decoding device 1400 adds the difference attribute information and the prediction attribute information to determine the three-dimensional point included in the target three-dimensional data.
  • the attribute information is restored (S1406).
  • the 3D data decoding apparatus 1400 does not have to perform steps S1402, S1404, and S1406. Further, the three-dimensional data decoding device 1400 may perform only one of the decoding of the position information of the three-dimensional point and the decoding of the attribute information of the three-dimensional point.
  • the order of processing shown in FIG. 50 is an example, and the order is not limited to this.
  • the processing for position information (S1403, S1405) and the processing for attribute information (S1402, S1404, S1406) are independent of each other, and therefore may be performed in any order, or some of them may be processed in parallel. May be.
  • FIG. 51 and 52 are diagrams showing reference relationships according to the present embodiment.
  • FIG. 51 is a diagram showing the reference relation on the octree structure
  • FIG. 52 is a diagram showing the reference relation on the spatial domain.
  • the three-dimensional data encoding device when encoding the encoding information of the node to be encoded (hereinafter, referred to as the target node), in the parent node (parent node) to which the target node belongs Refer to the encoding information of each node.
  • the coding information of each node in another node (hereinafter, parent adjacent node) on the same layer as the parent node is not referred to. That is, the three-dimensional data encoding device sets the reference of the parent adjacent node to be disabled or prohibits the reference.
  • the three-dimensional data encoding device may permit the reference of the encoding information in the parent node to which the parent node belongs (hereinafter, referred to as a grandfather node (grandparent node)). That is, the three-dimensional data coding apparatus may code the coding information of the target node by referring to the coding information of the parent node and the grandfather node to which the target node belongs.
  • the encoded information here is, for example, an occupancy code.
  • the three-dimensional data encoding device when encoding the occupancy code of the target node, refers to information (hereinafter, occupancy information) indicating whether or not each node in the parent node to which the target node belongs includes a point cloud. To do. In other words, the three-dimensional data encoding device refers to the occupancy code of the parent node when encoding the occupancy code of the target node. On the other hand, the three-dimensional data encoding device does not refer to the occupation information of each node in the parent adjacent node. That is, the three-dimensional data encoding device does not refer to the occupancy code of the parent adjacent node. Further, the three-dimensional data encoding device may refer to the occupation information of each node in the grandfather node. That is, the three-dimensional data encoding device may refer to the occupation information of the parent node and the parent adjacent node.
  • the three-dimensional data encoding device when encoding the occupancy code of the target node, is used when entropy encoding the occupancy code of the target node using the occupancy code of the parent node or grandfather node to which the target node belongs. Switch the encoding table. The details will be described later. At this time, the three-dimensional data encoding device does not have to refer to the occupancy code of the parent adjacent node. Thus, the three-dimensional data encoding device, when encoding the occupancy code of the target node, it is possible to appropriately switch the encoding table according to the information of the occupancy code of the parent node or the grandfather node, the encoding The efficiency can be improved.
  • the three-dimensional data encoding apparatus can suppress the information confirmation processing of the parent adjacent node and the memory capacity for storing them by not referring to the parent adjacent node. Further, it becomes easy to scan and encode the occupancy code of each node of the octree in the depth priority order.
  • FIG. 53 is a diagram illustrating an example of a target node and an adjacent reference node.
  • FIG. 54 is a diagram showing a relationship between parent nodes and nodes.
  • FIG. 55 is a diagram illustrating an example of the occupancy code of the parent node.
  • the adjacent reference node is a node that is referred to when the target node is encoded among the nodes spatially adjacent to the target node.
  • the adjacent node is a node belonging to the same layer as the target node.
  • a node X adjacent to the target block in the x direction a node Y adjacent to the y direction, and a node Z adjacent to the z direction are used. That is, one adjacent block is set as the reference adjacent block in each of the x, y, and z directions.
  • node numbers shown in FIG. 54 are examples, and the relationship between the node numbers and the positions of the nodes is not limited to this.
  • FIG. 55 the node 0 is assigned to the lower bit and the node 7 is assigned to the upper bit, but the assignment may be performed in the reverse order. Also, each node may be assigned to any bit.
  • the three-dimensional data encoding device determines the encoding table when entropy-encoding the occupancy code of the target node, for example, by the following formula.
  • CodingTable (FlagX ⁇ 2)+(FlagY ⁇ 1)+(FlagZ)
  • CodingTable indicates an encoding table for the occupancy code of the target node, and has a value of 0 to 7.
  • FlagX is occupancy information of the adjacent node X, and indicates 1 if the adjacent node X includes (occupies) a point cloud, and indicates 0 otherwise.
  • FlagY is occupancy information of the adjacent node Y, and indicates 1 if the adjacent node Y includes (occupies) a point cloud, and indicates 0 otherwise.
  • FlagZ is occupancy information of the adjacent node Z, and indicates 1 if the adjacent node Z includes (occupies) a point cloud, and indicates 0 otherwise.
  • the three-dimensional data encoding device uses the value indicated by the occupancy code of the parent node to encode the information.
  • a conversion table may be selected.
  • the three-dimensional data encoding device can improve the encoding efficiency by switching the encoding table using the information indicating whether or not the point cloud is included in the adjacent node of the target node.
  • the three-dimensional data encoding device may switch the adjacent reference node according to the spatial position of the target node in the parent node, as shown in FIG. That is, the three-dimensional data encoding device may switch the adjacent node to be referred to among the plurality of adjacent nodes according to the spatial position in the parent node of the target node.
  • FIG. 56 is a block diagram of three-dimensional data encoding apparatus 2100 according to this embodiment.
  • the three-dimensional data encoding device 2100 shown in FIG. 56 includes an octree tree generation unit 2101, a geometric information calculation unit 2102, an encoding table selection unit 2103, and an entropy encoding unit 2104.
  • the octree tree generation unit 2101 generates, for example, an octree from the input three-dimensional points (point cloud) and occupancy codes of the nodes included in the octree.
  • the geometric information calculation unit 2102 acquires occupancy information indicating whether or not the adjacent reference node of the target node is occupied. For example, the geometric information calculation unit 2102 acquires the occupation information of the adjacent reference node from the occupancy code of the parent node to which the target node belongs.
  • the geometric information calculation unit 2102 may switch the adjacent reference node according to the position in the parent node of the target node, as shown in FIG. Further, the geometric information calculation unit 2102 does not refer to the occupation information of each node in the parent adjacent node.
  • the coding table selection unit 2103 selects the coding table used for entropy coding of the occupancy code of the target node using the occupancy information of the adjacent reference node calculated by the geometric information calculation unit 2102.
  • the entropy coding unit 2104 generates a bitstream by entropy coding the occupancy code using the selected coding table. Note that the entropy coding unit 2104 may add information indicating the selected coding table to the bitstream.
  • FIG. 57 is a block diagram of the three-dimensional data decoding device 2110 according to this embodiment.
  • the three-dimensional data decoding device 2110 illustrated in FIG. 57 includes an octree tree generation unit 2111, a geometric information calculation unit 2112, an encoding table selection unit 2113, and an entropy decoding unit 2114.
  • the octree tree generation unit 2111 generates an octree of a certain space (node) using the header information of the bitstream and the like.
  • the octree tree generation unit 2111 generates a large space (root node) using the size of a certain space added to the header information in the x-axis, y-axis, and z-axis directions, and uses that space as the x-axis, Eight small spaces A (nodes A0 to A7) are generated by dividing the y-axis and the z-axis into two, and an octree is generated. Further, nodes A0 to A7 are sequentially set as target nodes.
  • the geometric information calculation unit 2112 acquires occupancy information indicating whether the adjacent reference node of the target node is occupied. For example, the geometric information calculation unit 2112 acquires the occupancy information of the adjacent reference node from the occupancy code of the parent node to which the target node belongs. The geometric information calculation unit 2112 may switch the adjacent reference node according to the position in the parent node of the target node, as shown in FIG. The geometric information calculation unit 2112 does not refer to the occupation information of each node in the parent adjacent node.
  • the coding table selection unit 2113 selects a coding table (decoding table) used for entropy decoding of the occupancy code of the target node using the occupancy information of the adjacent reference node calculated by the geometric information calculation unit 2112.
  • the entropy decoding unit 2114 generates a three-dimensional point by entropy decoding the occupancy code using the selected coding table.
  • the coding table selection unit 2113 decodes and acquires the information of the selected coding table added to the bitstream, and the entropy decoding unit 2114 uses the coding table indicated by the acquired information. May be.
  • Each bit of the occupancy code (8 bits) included in the bitstream indicates whether or not each of the eight small spaces A (node A0 to node A7) includes a point cloud. Furthermore, the three-dimensional data decoding device divides the small space node A0 into eight small spaces B (nodes B0 to B7) to generate an octree, and each node of the small space B includes a point cloud. The information indicating whether or not to be acquired is acquired by decoding the occupancy code. Thus, the three-dimensional data decoding device decodes the occupancy code of each node while generating an octree from the large space to the small space.
  • FIG. 58 is a flowchart of the three-dimensional data encoding process in the three-dimensional data encoding device.
  • the three-dimensional data encoding device determines (defines) a space (target node) including a part or all of the input three-dimensional point cloud (S2101).
  • the three-dimensional data encoding device divides the target node into eight to generate eight small spaces (nodes) (S2102).
  • the three-dimensional data encoding device generates the occupancy code of the target node according to whether or not each node includes a point cloud (S2103).
  • the three-dimensional data encoding device calculates (obtains) the occupation information of the adjacent reference node of the target node from the occupancy code of the parent node of the target node (S2104).
  • the three-dimensional data encoding device selects an encoding table used for entropy encoding based on the determined occupation information of the adjacent reference node of the target node (S2105).
  • the three-dimensional data encoding device entropy-encodes the occupancy code of the target node using the selected encoding table (S2106).
  • the three-dimensional data encoding device repeats the process of dividing each node into eight and encoding the occupancy code of each node until the node cannot be divided (S2107). That is, the processing of steps S2102 to S2106 is recursively repeated.
  • FIG. 59 is a flowchart of the three-dimensional data decoding method in the three-dimensional data decoding device.
  • the three-dimensional data decoding device determines (defines) a space (target node) to be decoded using the header information of the bitstream (S2111).
  • the three-dimensional data decoding device divides the target node into eight to generate eight small spaces (nodes) (S2112).
  • the three-dimensional data decoding device calculates (obtains) the occupation information of the adjacent reference node of the target node from the occupancy code of the parent node of the target node (S2113).
  • the three-dimensional data decoding device selects an encoding table used for entropy decoding based on the occupation information of the adjacent reference node (S2114).
  • the three-dimensional data decoding device entropy-decodes the occupancy code of the target node using the selected coding table (S2115).
  • the three-dimensional data decoding device repeats the process of dividing each node into eight and decoding the occupancy code of each node until the node cannot be divided (S2116). That is, the processing of steps S2112 to S2115 is recursively repeated.
  • FIG. 60 is a diagram showing an example of switching encoding tables.
  • the same context model may be applied to a plurality of occupancy codes.
  • a different context model may be assigned to each occupancy code.
  • a context model can be assigned according to the occurrence probability of the occupancy code, so that the coding efficiency can be improved.
  • a context model that updates the probability table according to the frequency of occurrence of the occupancy code may be used.
  • a context model with a fixed probability table may be used.
  • FIG. 61 is a diagram showing a reference relationship in this modification.
  • the three-dimensional data encoding device does not refer to the occupancy code of the parent adjacent node, but whether or not to refer to the occupancy encoding of the parent adjacent node is switched according to a specific condition. Good.
  • the three-dimensional data encoding device encodes the occupancy code of the target node by referring to the occupancy information of the node in the parent adjacent node when performing the encoding while scanning the octree with the breadth priority.
  • the three-dimensional data encoding device prohibits the reference of the occupation information of the node in the parent adjacent node when encoding while scanning the octree with the depth priority. In this way, by appropriately switching the referenceable nodes according to the scan order (encoding order) of the octree nodes, it is possible to improve encoding efficiency and suppress processing load.
  • the three-dimensional data encoding device may add information such as whether the octree is encoded with the width priority or the depth priority to the header of the bitstream.
  • FIG. 62 is a diagram showing a syntax example of header information in this case.
  • Octree_scan_order shown in FIG. 62 is coding order information (coding order flag) indicating the coding order of the octree. For example, when octree_scan_order is 0, it indicates width priority, and when it is 1, it indicates depth priority. With this, the three-dimensional data decoding apparatus can know whether the bitstream is coded in the width priority or the depth priority by referring to the octree_scan_order, and thus can appropriately decode the bitstream.
  • the three-dimensional data encoding device may add information indicating whether or not the reference of the parent adjacent node is prohibited to the header information of the bitstream.
  • FIG. 63 is a diagram showing a syntax example of header information in this case.
  • the limit_refer_flag is prohibition switching information (prohibition switching flag) indicating whether or not the reference of the parent adjacent node is prohibited. For example, when limit_refer_flag is 1, it indicates that the reference of the parent adjacent node is prohibited, and when 0, it indicates that there is no reference restriction (permits the reference of the parent adjacent node).
  • the three-dimensional data encoding device determines whether to prohibit the reference of the parent adjacent node, and switches the reference or prohibition of the reference of the parent adjacent node based on the result of the above determination.
  • the three-dimensional data encoding device also generates a bitstream that is the result of the above determination and that includes prohibition switching information indicating whether to prohibit the reference of the parent adjacent node.
  • the three-dimensional data decoding device acquires prohibition switching information indicating whether to prohibit the reference of the parent adjacent node from the bitstream, and prohibits or permits the reference of the parent adjacent node based on the prohibition switching information. Or switch.
  • the three-dimensional data encoding device can generate a bitstream by controlling the reference of the parent adjacent node. Also, the 3D data decoding apparatus can acquire information indicating whether or not the reference of the parent adjacent node is prohibited from the header of the bitstream.
  • the occupancy code encoding process is described as an example of the encoding process that prohibits the reference of the parent adjacent node, but the present invention is not limited to this.
  • a similar method can be applied when encoding other information of the octree node.
  • the method of this embodiment may be applied when encoding other attribute information such as a color, a normal vector, or a reflectance added to a node.
  • a similar method can be applied when encoding the encoding table or the predicted value.
  • FIG. 53 an example in which three reference adjacent nodes are used is shown, but four or more reference adjacent nodes may be used.
  • FIG. 64 is a diagram illustrating an example of the target node and the reference neighboring node.
  • the three-dimensional data encoding device calculates the encoding table when entropy-encoding the occupancy code of the target node shown in FIG.
  • CodingTable (FlagX0 ⁇ 3)+(FlagX1 ⁇ 2)+(FlagY ⁇ 1)+(FlagZ)
  • CodingTable indicates an encoding table for the occupancy code of the target node, and has a value of 0 to 15.
  • FlagY is occupancy information of the adjacent node Y, and indicates 1 if the adjacent node Y includes (occupies) a point cloud, and indicates 0 otherwise.
  • FlagZ is occupancy information of the adjacent node Z, and indicates 1 if the adjacent node Z includes (occupies) a point cloud, and indicates 0 otherwise.
  • the three-dimensional data encoding apparatus determines that the substitute value is 1 (occupied) or 0 (not occupied). Any fixed value may be used.
  • FIG. 65 is a diagram showing an example of a target node and an adjacent node.
  • the occupancy information of the adjacent node may be calculated by referring to the occupancy code of the grandfather node of the target node.
  • the three-dimensional data encoding device calculates FlagX0 in the above equation using the occupancy information of the adjacent node G0 instead of the adjacent node X0 shown in FIG. 65, and calculates the value of the encoding table using the calculated FlagX0. You may decide.
  • the adjacent node G0 shown in FIG. 65 is an adjacent node whose occupancy code of the grandfather node can determine whether or not it is occupied.
  • the adjacent node X1 is an adjacent node whose occupancy code of the parent node can determine whether or not it is occupied.
  • FIG. 66 and 67 are diagrams showing reference relationships according to the present modification.
  • FIG. 66 is a diagram showing the reference relation on the octree structure
  • FIG. 67 is a diagram showing the reference relation on the spatial domain.
  • the three-dimensional data encoding device when encoding the encoding information of the node to be encoded (hereinafter referred to as the target node 2), encodes the encoding information of each node in the parent node to which the target node 2 belongs.
  • the target node 2 refers to the encoding information. That is, the three-dimensional data encoding device permits the reference of the information (for example, the occupation information) of the child node of the first node having the same parent node as the target node among the plurality of adjacent nodes.
  • the three-dimensional data encoding apparatus encodes the occupancy code of the target node 2 shown in FIG.
  • the node existing in the parent node to which the target node 2 belongs for example, the occupancy of the target node shown in FIG. 66.
  • the occupancy code of the target node shown in FIG. 66 represents, for example, whether or not each node in the target nodes adjacent to the target node 2 is occupied, as shown in FIG. 67. Therefore, the three-dimensional data encoding device can switch the encoding table of the occupancy code of the target node 2 according to the finer shape of the target node, so that the encoding efficiency can be improved.
  • the three-dimensional data encoding device may calculate an encoding table when entropy-encoding the occupancy code of the target node 2, for example, by the following formula.
  • CodingTable (FlagX1 ⁇ 5)+(FlagX2 ⁇ 4)+(FlagX3 ⁇ 3)+(FlagX4 ⁇ 2)+(FlagY ⁇ 1)+(FlagZ)
  • CodingTable indicates an encoding table for the occupancy code of the target node 2 and has a value of 0 to 63.
  • FlagY is occupancy information of the adjacent node Y, and indicates 1 if the adjacent node Y includes (occupies) a point cloud, and indicates 0 otherwise.
  • FlagZ is occupancy information of the adjacent node Y, and indicates 1 if the adjacent node Z includes (occupies) a point cloud, and indicates 0 otherwise.
  • the three-dimensional data encoding device may change the encoding table calculation method according to the node position of the target node 2 in the parent node.
  • the three-dimensional data encoding device may refer to the encoding information of each node in the parent adjacent node when the reference of the parent adjacent node is not prohibited. For example, when the reference of the parent adjacent node is not prohibited, the reference of the information (for example, the occupation information) of the child node of the third node whose parent node is different from the target node is permitted.
  • the three-dimensional data encoding device acquires the occupation information of the child node of the adjacent node X0 by referring to the occupancy code of the adjacent node X0 whose parent node is different from the target node.
  • the three-dimensional data encoding device switches the encoding table used for entropy encoding of the occupancy code of the target node based on the acquired occupation information of the child node of the adjacent node X0.
  • the three-dimensional data encoding apparatus is the information of the target node included in the N (N is an integer of 2 or more) branch tree structure of a plurality of three-dimensional points included in the three-dimensional data.
  • Encode eg, occupancy code
  • the three-dimensional data encoding device is configured such that, in the above encoding, the first node is the same as the target node among the plurality of adjacent nodes spatially adjacent to the target node.
  • Information for example, occupancy information
  • reference of information for example, occupancy information
  • the three-dimensional data encoding apparatus permits reference to information on the parent node (eg, occupancy code) and allows information on other nodes (parent adjacent nodes) on the same layer as the parent node (eg, occupancy). (Reference) is prohibited.
  • the three-dimensional data encoding apparatus performs encoding by referring to the information of the first node of the plurality of adjacent nodes that are spatially adjacent to the target node and whose target node and parent node are the same.
  • the efficiency can be improved.
  • the three-dimensional data encoding apparatus can reduce the processing amount by not referring to the information of the second node having a different parent node from the target node among the plurality of adjacent nodes. In this way, the three-dimensional data encoding device can improve the encoding efficiency and reduce the processing amount.
  • the three-dimensional data encoding device further determines whether to prohibit the reference of the information of the second node, and in the encoding, prohibits the reference of the information of the second node based on the result of the determination. Switch to allow or allow.
  • the three-dimensional data encoding device further outputs a bitstream that is the result of the determination and that includes prohibition switching information (for example, limit_refer_flag illustrated in FIG. 63) indicating whether to prohibit the reference of the information of the second node. To generate.
  • the three-dimensional data encoding device can switch whether to prohibit the reference of the information of the second node. Further, the three-dimensional data decoding device can appropriately perform the decoding process using the prohibition switching information.
  • the information of the target node is information indicating whether or not a three-dimensional point exists in each of the child nodes belonging to the target node (eg, occupancy code), and the information of the first node is the three-dimensional information of the first node.
  • Information indicating whether or not a point exists occupancy information of the first node
  • information of the second node indicates whether or not a three-dimensional point exists in the second node (occupancy of the second node).
  • Information is information indicating whether or not a three-dimensional point exists in each of the child nodes belonging to the target node (eg, occupancy code)
  • the information of the first node is the three-dimensional information of the first node.
  • Information indicating whether or not a point exists occupancy information of the first node
  • information of the second node indicates whether or not a three-dimensional point exists in the second node (occupancy of the second node).
  • the three-dimensional data encoding device selects an encoding table based on whether or not a three-dimensional point exists in the first node, and uses the selected encoding table to determine the target node.
  • Information for example, occupancy code
  • the three-dimensional data encoding device permits the reference of the information (for example, the occupation information) of the child node of the first node among the plurality of adjacent nodes as shown in FIGS. 66 and 67. ..
  • the three-dimensional data encoding device can refer to more detailed information of the adjacent node, the encoding efficiency can be improved.
  • the three-dimensional data encoding device switches the adjacent node to be referred from among a plurality of adjacent nodes in the above encoding in accordance with the spatial position in the parent node of the target node.
  • the three-dimensional data encoding device can refer to an appropriate adjacent node according to the spatial position in the parent node of the target node.
  • the three-dimensional data encoding device includes a processor and a memory, and the processor performs the above processing using the memory.
  • the three-dimensional data decoding apparatus is configured such that information of a target node included in an N (N is an integer of 2 or more) branch tree structure of a plurality of three-dimensional points included in the three-dimensional data (for example, occupancy code). ) Is decrypted.
  • N is an integer of 2 or more
  • branch tree structure of a plurality of three-dimensional points included in the three-dimensional data for example, occupancy code.
  • the three-dimensional data decoding device uses the information of the first node in which the target node and the parent node are the same among the plurality of adjacent nodes spatially adjacent to the target node in the above decoding. (For example, exclusive information) is permitted, and reference of information (for example, exclusive information) on the second node having a different parent node from the target node is prohibited.
  • the three-dimensional data decoding device permits the reference of the information of the parent node (eg, occupancy code), and the information of the other node (parent adjacent node) in the same layer as the parent node (eg, occupancy code). Ban reference to.
  • the three-dimensional data decoding apparatus refers to the information of the first node, which is the same as the target node and the parent node, among the plurality of adjacent nodes spatially adjacent to the target node, so that the coding efficiency is improved. Can be improved.
  • the three-dimensional data decoding device can reduce the processing amount by not referring to the information of the second node having a different parent node from the target node among the plurality of adjacent nodes.
  • the three-dimensional data decoding device can improve the coding efficiency and reduce the processing amount.
  • the three-dimensional data decoding device further acquires prohibition switching information (for example, limit_refer_flag shown in FIG. 63) indicating whether or not to prohibit the reference of the information of the second node from the bitstream, and in the above decoding, prohibition switching information is prohibited. Based on the switching information, the reference to the information of the second node is prohibited or permitted.
  • prohibition switching information for example, limit_refer_flag shown in FIG. 63
  • the three-dimensional data decoding device can appropriately perform the decoding process using the prohibition switching information.
  • the information of the target node is information indicating whether or not a three-dimensional point exists in each of the child nodes belonging to the target node (eg, occupancy code), and the information of the first node is the three-dimensional information of the first node.
  • Information indicating whether or not a point exists occupancy information of the first node
  • information of the second node indicates whether or not a three-dimensional point exists in the second node (occupancy of the second node).
  • Information is information indicating whether or not a three-dimensional point exists in each of the child nodes belonging to the target node (eg, occupancy code)
  • the information of the first node is the three-dimensional information of the first node.
  • Information indicating whether or not a point exists occupancy information of the first node
  • information of the second node indicates whether or not a three-dimensional point exists in the second node (occupancy of the second node).
  • the three-dimensional data decoding device selects an encoding table based on whether or not a three-dimensional point exists in the first node, and uses the selected encoding table to obtain information about the target node.
  • Entropy decode e.g., occupancy code
  • the three-dimensional data decoding device permits reference to the information (for example, occupation information) of the child node of the first node among a plurality of adjacent nodes, as shown in FIGS. 66 and 67.
  • the three-dimensional data decoding device can refer to more detailed information of the adjacent node, the coding efficiency can be improved.
  • the three-dimensional data decoding device switches the reference adjacent node among the plurality of adjacent nodes in the above decoding according to the spatial position in the parent node of the target node.
  • the 3D data decoding apparatus can refer to an appropriate adjacent node according to the spatial position in the parent node of the target node.
  • the three-dimensional data decoding device includes a processor and a memory, and the processor uses the memory to perform the above processing.
  • the information of the three-dimensional point cloud includes position information (geometry) and attribute information (attribute).
  • the position information includes coordinates (x coordinate, y coordinate, z coordinate) based on a certain point.
  • the position of each three-dimensional point is represented by an octree tree and the information of the octree is encoded. A method of reducing the quantity is used.
  • the attribute information includes information indicating color information (RGB, YUV, etc.) of each three-dimensional point, reflectance, normal vector, and the like.
  • the three-dimensional data encoding device can encode the attribute information by using an encoding method different from the position information.
  • an attribute information encoding method will be described.
  • an integer value is used as the value of the attribute information for description.
  • each color component of color information RGB or YUV has 8-bit accuracy
  • each color component takes an integer value of 0 to 255.
  • the reflectance value has a precision of 10 bits
  • the reflectance value takes an integer value of 0 to 1023.
  • the three-dimensional data encoding apparatus may multiply the value of the attribute information by a scale value and then round the integer value so that the value of the attribute information becomes an integer value. .. Note that the three-dimensional data encoding device may add this scale value to the header of the bit stream or the like.
  • the code amount can be reduced by entropy coding the difference absolute value Diffp using a coding table in which the smaller the value, the smaller the number of generated bits.
  • the reference three-dimensional point is a three-dimensional point within a predetermined distance range from the target three-dimensional point.
  • the three-dimensional data encoding device uses the three-dimensional data represented by (Expression A1). The Euclidean distance d(p,q) between the point p and the three-dimensional point q is calculated.
  • the three-dimensional data encoding device determines that the position of the three-dimensional point q is close to the position of the target three-dimensional point p, and determines the target three-dimensional position. It is determined that the value of the attribute information of the three-dimensional point q is used to generate the predicted value of the attribute information of the point p.
  • the distance calculation method may be another method, for example, the Mahalanobis distance or the like may be used.
  • the three-dimensional data encoding device may determine that a three-dimensional point outside the predetermined distance range from the target three-dimensional point is not used in the prediction process.
  • the three-dimensional data encoding device predicts the three-dimensional point r. You may decide not to use it for. Note that the three-dimensional data encoding device may add information indicating the threshold THd to the bit stream header or the like.
  • FIG. 68 is a diagram showing an example of three-dimensional points.
  • the distance d(p,q) between the target three-dimensional point p and the three-dimensional point q is smaller than the threshold THd. Therefore, the three-dimensional data encoding device determines the three-dimensional point q as a reference three-dimensional point of the target three-dimensional point p, and generates the predicted value Pp of the attribute information Ap of the target three-dimensional p in the attribute of the three-dimensional point q. It is determined to use the value of the information Aq.
  • the three-dimensional data encoding device determines that the three-dimensional point r is not the reference three-dimensional point of the target three-dimensional point p, and generates the predicted value Pp of the attribute information Ap of the target three-dimensional point p in the three-dimensional point r. It is determined that the value of the attribute information Ar of is not used.
  • the 3D data encoding device uses the 3D point that has already been encoded and decoded as the reference 3D point.
  • the 3D data decoding device uses the 3D point that has already been decoded as the attribute information as the reference 3D point.
  • each 3D point when encoding the attribute information of a 3D point, it is possible to classify each 3D point into multiple layers using the position information of the 3D point before encoding.
  • each classified layer is referred to as LoD (Level of Detail).
  • the LoD generation method will be described with reference to FIG.
  • the three-dimensional data encoding device selects the initial point a0 and assigns it to LoD0.
  • the three-dimensional data encoding device extracts a point a1 whose distance from the point a0 is larger than the threshold Thres_LoD[0] of LoD0 and assigns it to LoD0.
  • the three-dimensional data encoding device extracts a point a2 whose distance from the point a1 is larger than the threshold Thres_LoD[0] of LoD0 and assigns it to LoD0.
  • the three-dimensional data encoding device configures LoD0 so that the distance between the points in LoD0 is larger than the threshold Thres_LoD[0].
  • the three-dimensional data encoding device selects the point b0 to which LoD is not yet assigned and assigns it to LoD1.
  • the three-dimensional data encoding device extracts the point b1 to which LoD1 has not been assigned and whose distance from the point b0 is larger than the threshold Thres_LoD[1] of LoD1 and assigns it to LoD1.
  • the three-dimensional data encoding device extracts the point b2 to which LoD1 has not been assigned and whose distance from the point b1 is larger than the threshold Thres_LoD[1] of LoD1 and assigns it to LoD1. In this way, the three-dimensional data encoding device configures LoD1 so that the distance between the points in LoD1 is greater than the threshold Thres_LoD[1].
  • the three-dimensional data encoding device selects the point c0 to which LoD is not yet assigned and assigns it to LoD2.
  • the three-dimensional data encoding device extracts a point c1 to which LoD2 has not been assigned and whose distance from the point c0 is larger than the threshold Thres_LoD[2] of LoD2 and assigns it to LoD2.
  • the three-dimensional data encoding device extracts a point c2 to which LoD2 is not assigned yet, and which is not assigned to LoD2, and which is greater than the threshold Thres_LoD[2] of LoD2.
  • the three-dimensional data encoding device configures LoD2 so that the distance between the points in LoD2 is greater than the threshold Thres_LoD[2].
  • thresholds Thres_LoD[0], Thres_LoD[1], and Thres_LoD[2] of each LoD are set.
  • the three-dimensional data encoding device may add information indicating the threshold of each LoD to the header of the bit stream or the like. For example, in the case of the example illustrated in FIG. 70, the three-dimensional data encoding device may add thresholds Thres_LoD[0], Thres_LoD[1], and Thres_LoD[2] to the header.
  • the three-dimensional data encoding device may assign all three-dimensional points to which LoD has not been assigned to the lowest layer of LoD. In this case, the three-dimensional data encoding device can reduce the code amount of the header by not adding the threshold of the lowest layer of LoD to the header. For example, in the case of the example shown in FIG. 70, the three-dimensional data encoding device adds the thresholds Thres_LoD[0] and Thres_LoD[1] to the header and does not add Thres_LoD[2] to the header. In this case, the three-dimensional data decoding device may estimate the value of Thres_LoD[2] to be 0. Also, the three-dimensional data encoding device may add the number of LoD layers to the header. Thereby, the three-dimensional data decoding device can determine the LoD of the lowest layer by using the number of layers of LoD.
  • the upper layer (layer closer to LoD0) becomes a sparse point group (sparse) in which the distance between the three-dimensional points is larger.
  • the lower the layer is, the closer the distance between the three-dimensional points becomes, the denser point group (dense).
  • LoD0 is the highest layer.
  • the method of selecting the initial three-dimensional points when setting each LoD may depend on the coding order at the time of position information coding. For example, the three-dimensional data encoding device selects, as the initial point a0 of LoD0, the three-dimensional point first encoded at the time of position information encoding, and selects the points a1 and a2 based on the initial point a0. Configure LoD0. Then, the three-dimensional data encoding device may select, as the initial point b0 of LoD1, the three-dimensional point having the earliest position information encoded among the three-dimensional points that do not belong to LoD0.
  • the three-dimensional data encoding apparatus uses the three-dimensional point having the earliest position information encoded as the initial point n0 of LoDn among the three-dimensional points not belonging to the upper layer of LoDn (LoD0 to LoDn-1). May be selected.
  • the three-dimensional data decoding device can configure the same LoD as at the time of encoding by using the same initial point selection method at the time of decoding, and thus can appropriately decode the bitstream.
  • the three-dimensional data decoding device selects, as the initial point n0 of LoDn, the three-dimensional point whose position information is decoded earliest among the three-dimensional points that do not belong to the upper layer of LoDn.
  • a method for generating a predicted value of attribute information of a three-dimensional point by using LoD information will be described below.
  • the three-dimensional data encoding device sequentially encodes three-dimensional points included in LoD0
  • the target three-dimensional points included in LoD1 are encoded and decoded in LoD0 and LoD1 (hereinafter simply referred to as “ (Also referred to as “coded”).
  • the three-dimensional data encoding apparatus calculates the predicted value of the attribute information of a three-dimensional point from N or less three-dimensional points among the encoded three-dimensional points around the target three-dimensional point to be encoded. It is generated by calculating the average of attribute values. Also, the three-dimensional data encoding device may add the value of N to the header of the bit stream or the like. Note that the three-dimensional data encoding device may change the value of N for each three-dimensional point and add the value of N for each three-dimensional point. With this, it is possible to select an appropriate N for each three-dimensional point, and thus it is possible to improve the accuracy of the predicted value. Therefore, the prediction residual can be reduced.
  • the three-dimensional data encoding device may add the value of N to the header of the bitstream and fix the value of N in the bitstream. This eliminates the need to encode or decode the value of N for each three-dimensional point, so that the processing amount can be reduced. Also, the three-dimensional data encoding device may separately encode the value of N for each LoD. This makes it possible to improve coding efficiency by selecting an appropriate N for each LoD.
  • the three-dimensional data encoding device may calculate the predicted value of the attribute information of the three-dimensional point by the weighted average value of the attribute information of the N encoded three-dimensional points around the point. For example, the three-dimensional data encoding device calculates the weight using the distance information of each of the target three-dimensional point and the surrounding three N-dimensional points.
  • the upper layer of LoD sets a larger N value
  • the lower layer sets a smaller N value. Since the distance between the belonging three-dimensional points is large in the upper layer of LoD, there is a possibility that the prediction accuracy can be improved by setting a large value of N, selecting a plurality of surrounding three-dimensional points, and averaging. Further, in the lower layer of LoD, since the distances between the three-dimensional points to which they belong are short, it is possible to set the value of N small and suppress the amount of processing for averaging while performing efficient prediction.
  • FIG. 71 is a diagram showing an example of attribute information used for a predicted value.
  • the surrounding point P′ is selected based on the distance from the point P.
  • the predicted value of the attribute information of the point b2 shown in FIG. 71 is generated using the attribute information of the points a0, a1, a2, b0, b1.
  • the predicted value is calculated by a distance-dependent weighted average.
  • the predicted value a2p of the point a2 is calculated by the weighted average of the attribute information of the points a0 and a1 as shown in (Expression A2) and (Expression A3).
  • a i is the value of the attribute information of the point ai.
  • the predicted value b2p of the point b2 is calculated by the weighted average of the attribute information of the points a0, a1, a2, b0, b1 as shown in (Expression A4) to (Expression A6). Note that B i is the value of the attribute information of the point bi.
  • the three-dimensional data encoding device calculates a difference value (prediction residual) between the value of the attribute information of the three-dimensional point and the prediction value generated from the surrounding points, and quantizes the calculated prediction residual.
  • prediction residual a difference value between the value of the attribute information of the three-dimensional point and the prediction value generated from the surrounding points.
  • the three-dimensional data encoding device performs quantization by dividing the prediction residual by a quantization scale (also called a quantization step).
  • a quantization scale also called a quantization step.
  • the smaller the quantization scale the smaller the error (quantization error) that can occur due to the quantization.
  • the larger the quantization scale the larger the quantization error.
  • the three-dimensional data encoding device may change the quantization scale used for each LoD. For example, the three-dimensional data encoding device reduces the quantization scale in the upper layer and increases the quantization scale in the lower layer. Since the value of the attribute information of the 3D points belonging to the upper layer may be used as the predicted value of the attribute information of the 3D points belonging to the lower layer, the quantization scale of the upper layer should be reduced to Encoding efficiency can be improved by suppressing the quantization error that may occur and improving the accuracy of the predicted value.
  • the three-dimensional data encoding device may add the quantization scale used for each LoD to the header or the like. With this, the three-dimensional data decoding apparatus can correctly decode the quantization scale, and thus can appropriately decode the bitstream.
  • the three-dimensional data encoding device may convert a signed integer value (signed quantized value) that is the prediction residual after quantization into an unsigned integer value (unsigned quantized value). This eliminates the need to consider the occurrence of negative integers when entropy coding the prediction residual. Note that the three-dimensional data encoding device does not necessarily need to convert a signed integer value into an unsigned integer value, and may, for example, separately entropy code the code bit.
  • the prediction residual is calculated by subtracting the prediction value from the original value.
  • the prediction residual a2r at the point a2 is calculated by subtracting the predicted value a2p at the point a2 from the value A 2 of the attribute information at the point a2 as shown in (Expression A7).
  • the prediction residual b2r at the point b2 is calculated by subtracting the predicted value b2p at the point b2 from the value B 2 of the attribute information at the point b2, as shown in (Expression A8).
  • Prediction residuals are quantized by being divided by QS (Quantization Step).
  • the quantized value a2q of the point a2 is calculated by (Equation A9).
  • the quantized value b2q at the point b2 is calculated by (Equation A10).
  • QS_LoD0 is QS for LoD0
  • QS_LoD1 is QS for LoD1. That is, QS may be changed according to LoD.
  • the three-dimensional data encoding device converts a signed integer value, which is the quantized value, into an unsigned integer value as follows.
  • the signed integer value a2q is smaller than 0, the three-dimensional data coding device sets the unsigned integer value a2u to ⁇ 1 ⁇ (2 ⁇ a2q).
  • the signed integer value a2q is 0 or more, the three-dimensional data coding device sets the unsigned integer value a2u to 2 ⁇ a2q.
  • the three-dimensional data coding device sets the unsigned integer value b2u to -1-(2 ⁇ b2q).
  • the three-dimensional data coding device sets the unsigned integer value b2u to 2 ⁇ b2q.
  • the three-dimensional data encoding device may encode the prediction residual after quantization (unsigned integer value) by entropy encoding.
  • an unsigned integer value may be binarized and then binary arithmetic coding may be applied.
  • the three-dimensional data encoding device may switch the binarization method according to the value of the prediction residual. For example, when the prediction residual pu is smaller than the threshold R_TH, the three-dimensional data encoding device binarizes the prediction residual pu with the fixed number of bits required to express the threshold R_TH. In addition, when the prediction residual pu is equal to or larger than the threshold R_TH, the three-dimensional data encoding device uses the binary data of the threshold R_TH and the value of (pu-R_TH) by using an exponential Golomb or the like. Quantify.
  • the three-dimensional data encoding device binarizes the prediction residual pu with 6 bits.
  • the three-dimensional data encoding device binarizes the binary data (111111) and (pu-63) of the threshold R_TH by using the exponential Golomb. Performs arithmetic coding.
  • the three-dimensional data encoding device when the prediction residual pu is 32, the three-dimensional data encoding device generates 6-bit binary data (100000) and arithmetically encodes this bit string. Also, when the prediction residual pu is 66, the three-dimensional data encoding device generates binary data (111111) of the threshold value R_TH and a bit string (00100) in which the value 3 (66-63) is represented by exponential Golomb. , This bit string (111111+00100) is arithmetically encoded.
  • the three-dimensional data encoding device switches the binarization method according to the magnitude of the prediction residual, thereby causing a rapid increase in the number of binarization bits when the prediction residual becomes large. It becomes possible to encode while suppressing.
  • the three-dimensional data encoding device may add the threshold value R_TH to the header of the bit stream or the like.
  • the three-dimensional data encoding device sets the threshold value R_TH to a large value. This reduces the possibility of encoding the binarized data having the threshold value R_TH and improves the encoding efficiency.
  • the three-dimensional data encoding device sets the threshold value R_TH to a small value. This makes it possible to prevent a sharp increase in the bit length of the binarized data.
  • the three-dimensional data encoding device may switch the threshold value R_TH for each LoD and add the threshold value R_TH for each LoD to the header or the like. That is, the three-dimensional data encoding device may switch the binarization method for each LoD. For example, in the upper layer, since the distance between the three-dimensional points is long, the prediction accuracy is poor and, as a result, the prediction residual may increase. Therefore, the three-dimensional data encoding device prevents the sudden increase in the bit length of the binarized data by setting the threshold value R_TH small for the upper layer. Further, in the lower layer, since the distance between the three-dimensional points is short, the prediction accuracy is high, and as a result, the prediction residual may be small. Therefore, the three-dimensional data encoding device improves the encoding efficiency by setting the threshold value R_TH large for the hierarchy.
  • FIG. 72 is a diagram showing an example of the exponential Golomb code, and is a diagram showing a relationship between a value (multi-value) before binarization and a bit (code) after binarization. Note that 0 and 1 shown in FIG. 72 may be reversed.
  • the three-dimensional data encoding device applies arithmetic encoding to the binarized data of the prediction residual.
  • the coding efficiency can be improved.
  • the n-bit code which is the binarized part with n bits, of the binarized data, and the remaining part that is binarized with the exponential Golomb.
  • the tendency of the appearance probability of 0 and 1 of each bit may be different depending on the code (remaining code). Therefore, the three-dimensional data encoding device may switch the application method of the arithmetic encoding between the n-bit code and the remaining code.
  • the three-dimensional data encoding device performs arithmetic encoding on an n-bit code by using a different encoding table (probability table) for each bit.
  • the three-dimensional data encoding device may change the number of encoding tables used for each bit.
  • the three-dimensional data encoding device performs arithmetic encoding using one encoding table for the head bit b0 of the n-bit code.
  • the three-dimensional data encoding device uses two encoding tables for the next bit b1.
  • the three-dimensional data encoding device switches the encoding table used for arithmetic encoding of the bit b1 according to the value of b0 (0 or 1).
  • the three-dimensional data encoding device further uses four encoding tables for the next bit b2. Further, the three-dimensional data encoding device switches the encoding table used for arithmetic encoding of the bit b2 according to the values (0 to 3) of b0 and b1.
  • the three-dimensional data encoding device uses 2 n ⁇ 1 encoding tables when arithmetically encoding each bit bn ⁇ 1 of the n-bit code. Also, the three-dimensional data encoding device switches the encoding table to be used according to the value (generation pattern) of the bits before bn-1. By this means, the three-dimensional data encoding device can use an appropriate encoding table for each bit, so that the encoding efficiency can be improved.
  • the three-dimensional data encoding device may reduce the number of encoding tables used for each bit.
  • the three-dimensional data encoding device when arithmetically encoding each bit bn ⁇ 1, has 2 m bits depending on the value (generation pattern) of m bits (m ⁇ n ⁇ 1) before bn ⁇ 1.
  • the encoding table of may be switched. This makes it possible to improve the coding efficiency while suppressing the number of coding tables used for each bit.
  • the three-dimensional data encoding device may update the occurrence probabilities of 0 and 1 in each encoding table according to the value of the actually generated binarized data. Further, the three-dimensional data encoding device may fix the occurrence probabilities of 0 and 1 in the encoding table of some bits. As a result, the number of times the occurrence probability is updated can be suppressed, and the processing amount can be reduced.
  • the number of coding tables for b0 is one (CTb0).
  • CTb10, CTb11 There are two coding tables for b1 (CTb10, CTb11). Further, the coding table to be used is switched according to the value of b0 (0 to 1).
  • CTb20, CTb21, CTb22, CTb23 There are four coding tables for b2 (CTb20, CTb21, CTb22, CTb23). Further, the coding table to be used is switched according to the values (0 to 3) of b0 and b1.
  • the coding table for bn-1 is 2 n-1 (CTbn0, CTbn1,..., CTbn(2 n-1 -1)). Further, the coding table to be used can be switched according to the value of b0b1...bn-2 (0 to 2 n-1 -1).
  • FIG. 73 is a diagram for explaining the processing when the remaining code is an exponential Golomb code, for example.
  • the remaining code which is a binarized part using the exponential Golomb, includes a prefix part and a suffix part, as shown in FIG.
  • the three-dimensional data encoding device switches the encoding table between the prefix section and the suffix section. That is, the three-dimensional data encoding device arithmetically encodes each bit included in the prefix portion using the encoding table for prefix, and encodes each bit included in the suffix portion using the encoding table for sufix. Use arithmetic coding.
  • the three-dimensional data encoding device may update the occurrence probabilities of 0 and 1 in each encoding table according to the value of the actually generated binarized data.
  • the three-dimensional data encoding device may fix the occurrence probabilities of 0 and 1 in either encoding table.
  • the number of times the occurrence probability is updated can be suppressed, and the processing amount can be reduced.
  • the three-dimensional data encoding device may update the occurrence probability for the prefix section and fix the occurrence probability for the suffix section.
  • the three-dimensional data encoding device decodes the prediction residual after quantization by inverse quantization and reconstruction, and decodes the decoded value that is the decoded prediction residual of the three-dimensional point or later of the encoding target. Used for prediction. Specifically, the three-dimensional data encoding device calculates an inverse quantized value by multiplying the quantized prediction residual (quantized value) by the quantization scale, and calculates the inverse quantized value and the predicted value. To obtain a decoded value (reconstruction value).
  • the inverse quantized value a2iq at the point a2 is calculated by (Equation A11) using the quantized value a2q at the point a2.
  • the inverse quantized value b2iq at the point b2 is calculated by (Equation A12) using the quantized value b2q at the point b2.
  • QS_LoD0 is QS for LoD0
  • QS_LoD1 is QS for LoD1. That is, QS may be changed according to LoD.
  • the decoded value a2rec of the point a2 is calculated by adding the predicted value a2p of the point a2 to the dequantized value a2iq of the point a2 as shown in (Expression A13).
  • the decoded value b2rec at the point b2 is calculated by adding the predicted value b2p at the point b2 to the dequantized value b2iq at the point b2, as shown in (Expression A14).
  • FIG. 74 is a diagram showing a syntax example of an attribute header (attribute_header) according to the present embodiment.
  • the attribute header is header information of attribute information.
  • the attribute header includes hierarchy number information (NumLoD), three-dimensional score information (NumOfPoint[i]), hierarchy threshold value (Thres_Lod[i]), and surrounding score information (NumNeighborPoint[i]).
  • QS[i] quantization scale
  • R_TH[i] binarization threshold
  • the layer number information indicates the number of LoD layers used.
  • the three-dimensional score information indicates the number of three-dimensional points belonging to the hierarchy i.
  • the three-dimensional data encoding device may add three-dimensional point total number information (AllNumOfPoint) indicating the total number of three-dimensional points to another header.
  • the three-dimensional data encoding device does not have to add NumOfPoint[NumLoD-1] indicating the number of three-dimensional points belonging to the lowest layer to the header.
  • the three-dimensional data decoding device can calculate NumOfPoint[NumLoD-1] by (Equation A15). Thereby, the code amount of the header can be reduced.
  • Tier threshold (Thres_Lod[i]) is a threshold used for setting the tier i.
  • the three-dimensional data encoding device and the three-dimensional data decoding device configure LoDi so that the distance between points in LoDi is larger than the threshold value Thres_LoD[i].
  • the three-dimensional data encoding device may not add the value of Thres_Lod[NumLoD-1] (lowermost layer) to the header. In this case, the three-dimensional data decoding apparatus estimates the value of Thres_Lod[NumLoD-1] as 0. As a result, the code amount of the header can be reduced.
  • the surrounding score information indicates the upper limit of the surrounding score used to generate the predicted value of the three-dimensional point belonging to the hierarchy i.
  • the three-dimensional data encoding device may calculate the prediction value using M surrounding points.
  • the three-dimensional data encoding device does not need to divide the value of NumNeighborPoint[i] in each LoD, even if one piece of surrounding point information (NumNeighborPoint) used in all LoDs is added to the header. Good.
  • the prediction threshold (THd[i]) indicates the upper limit value of the distance between the surrounding 3D points used for prediction of the target 3D point to be encoded or decoded in the layer i and the target 3D point.
  • the three-dimensional data encoding device and the three-dimensional data decoding device do not use a three-dimensional point whose distance from the target three-dimensional point is greater than THd[i] for prediction.
  • the three-dimensional data encoding device may add one prediction threshold value (THd) used in all LoDs to the header when it is not necessary to divide the value of THd[i] in each LoD. ..
  • Quantization scale indicates a quantization scale used for quantization and dequantization of layer i.
  • the binarization threshold (R_TH[i]) is a threshold for switching the binarization method of the prediction residual of the three-dimensional point belonging to the layer i.
  • the three-dimensional data encoding device binarizes the prediction residual pu with a fixed number of bits when the prediction residual is smaller than the threshold R_TH, and binarizes the threshold R_TH when the prediction residual is equal to or larger than the threshold R_TH.
  • the binarized data and the value of (pu-R_TH) are binarized using the exponential Golomb.
  • the three-dimensional data encoding device adds one binary threshold (R_TH) used in all LoDs to the header. Good.
  • R_TH[i] may be the maximum value that can be represented by nbit.
  • R_TH is 63 at 6 bits and R_TH is 255 at 8 bits.
  • the three-dimensional data encoding device may define the minimum value of the number of bits representing R_TH[i] (minimum number of bits), and add the relative number of bits from the minimum value to the header.
  • the three-dimensional data encoding apparatus entropy-encodes at least one of NumLoD, Thres_Lod[i], NumNeighborPoint[i], THd[i], QS[i], and R_TH[i] and adds the entropy to the header.
  • the three-dimensional data encoding device may binarize each value and arithmetically encode it.
  • the three-dimensional data encoding device may encode each value with a fixed length in order to suppress the processing amount.
  • the three-dimensional data encoding device may not add at least one of NumLoD, Thres_Lod[i], NumNeighborPoint[i], THd[i], QS[i], and R_TH[i] to the header. ..
  • at least one of these values may be defined by profile or level of a standard or the like. As a result, the bit amount of the header can be reduced.
  • FIG. 75 is a diagram showing a syntax example of attribute data (attribute_data) according to the present embodiment.
  • This attribute data includes encoded data of attribute information of a plurality of three-dimensional points. As shown in FIG. 75, the attribute data includes an n-bit code (n-bit code) and a remaining code (remaining code).
  • the (n-bit code) is the encoded data of the prediction residual of the value of the attribute information or a part thereof.
  • the bit length of the n-bit code depends on the value of R_TH[i]. For example, when the value indicated by R_TH[i] is 63, the n-bit code is 6 bits, and when the value indicated by R_TH[i] is 255, the n-bit code is 8 bits.
  • the remaining code is the encoded data of the prediction residual of the value of the attribute information, which is encoded by exponential Golomb. This remaining code is encoded or decoded when the n-bit code is the same as R_TH[i]. Further, the three-dimensional data decoding device adds the value of the n-bit code and the value of the remaining code to decode the prediction residual. If the n-bit code does not have the same value as R_TH[i], the remaining code may not be encoded or decoded.
  • FIG. 76 is a flowchart of the three-dimensional data encoding process by the three-dimensional data encoding device.
  • the three-dimensional data encoding device encodes position information (geometry) (S3001).
  • position information geometry
  • the three-dimensional data encoding is performed by using an octree tree representation.
  • the three-dimensional data encoding device reassigns the attribute information of the original three-dimensional point to the changed three-dimensional point when the position of the three-dimensional point changes due to quantization or the like after encoding the position information ( S3002). For example, the three-dimensional data encoding device performs reallocation by interpolating the value of the attribute information according to the amount of change in position. For example, the three-dimensional data encoding device detects N three-dimensional points before the change that are close to the three-dimensional position after the change, and weights and averages the attribute information values of the N three-dimensional points. For example, the three-dimensional data encoding device determines the weight based on the distance from the changed three-dimensional position to each of the three N dimensions in the weighted average.
  • the three-dimensional data encoding device determines the value obtained by the weighted average as the value of the attribute information of the changed three-dimensional point.
  • the three-dimensional data encoding apparatus sets the value of the attribute information of the changed three-dimensional point as the value before the change. You may assign the average value of the attribute information of two or more three-dimensional points.
  • the three-dimensional data encoding device encodes the reassigned attribute information (Attribute) (S3003).
  • the three-dimensional data encoding device may encode a plurality of types of attribute information in order when encoding a plurality of types of attribute information.
  • the three-dimensional data encoding device may generate a bitstream in which the reflectance encoding result is added after the color encoding result. ..
  • the order of the plurality of encoding results of the attribute information added to the bitstream is not limited to this order and may be any order.
  • the three-dimensional data encoding device may add information indicating the encoded data start location of each attribute information in the bitstream to a header or the like. Accordingly, the three-dimensional data decoding device can selectively decode the attribute information that needs to be decoded, and thus the decoding process of the attribute information that does not need to be decoded can be omitted. Therefore, the processing amount of the three-dimensional data decoding device can be reduced. Further, the three-dimensional data encoding device may encode a plurality of types of attribute information in parallel and integrate the encoding result into one bitstream. Thereby, the three-dimensional data encoding device can encode a plurality of types of attribute information at high speed.
  • FIG. 77 is a flowchart of the attribute information encoding process (S3003).
  • the three-dimensional data encoding device sets LoD (S3011). That is, the three-dimensional data encoding device assigns each three-dimensional point to any of a plurality of LoDs.
  • the three-dimensional data encoding device starts a LoD-unit loop (S3012). That is, the three-dimensional data encoding device repeats the processing of steps S3013 to S3021 for each LoD.
  • the three-dimensional data encoding device starts a loop for each three-dimensional point (S3013). That is, the three-dimensional data encoding device repeats the processing of steps S3014 to S3020 for each three-dimensional point.
  • the three-dimensional data encoding device searches for a plurality of surrounding points, which are three-dimensional points existing around the target three-dimensional point, which are used to calculate the predicted value of the target three-dimensional point to be processed (S3014).
  • the three-dimensional data encoding device calculates a weighted average of the values of the attribute information of a plurality of surrounding points, and sets the obtained value as the predicted value P (S3015).
  • the three-dimensional data encoding device calculates a prediction residual which is a difference between the attribute information of the target three-dimensional point and the predicted value (S3016).
  • the three-dimensional data encoding device calculates a quantized value by quantizing the prediction residual (S3017).
  • the three-dimensional data encoding device arithmetically encodes the quantized value (S3018).
  • the three-dimensional data encoding device calculates the inverse quantized value by inversely quantizing the quantized value (S3019). Next, the three-dimensional data encoding device generates a decoded value by adding the prediction value to the dequantized value (S3020). Next, the three-dimensional data encoding device ends the loop for each three-dimensional point (S3021). Further, the three-dimensional data encoding device ends the LoD unit loop (S3022).
  • the three-dimensional data decoding process in the three-dimensional data decoding device that decodes the bitstream generated by the above three-dimensional data encoding device will be described below.
  • the three-dimensional data decoding device is decoded by arithmetically decoding the binarized data of the attribute information in the bitstream generated by the three-dimensional data encoding device in the same manner as the three-dimensional data encoding device. Generate binarized data.
  • the application method of arithmetic encoding is switched between the binarized portion with n bits (n-bit code) and the binarized portion with exponential Golomb (remaining code). In this case, the three-dimensional data decoding device performs decoding according to the arithmetic decoding when it is applied.
  • the three-dimensional data decoding device performs arithmetic decoding using an encoding table (decoding table) that differs for each bit in the arithmetic decoding method of n-bit code.
  • the three-dimensional data decoding device may change the number of coding tables used for each bit. For example, the first bit b0 of the n-bit code is subjected to arithmetic decoding using one coding table. Further, the three-dimensional data decoding device uses two coding tables for the next bit b1. Further, the three-dimensional data decoding device switches the coding table used for arithmetic decoding of the bit b1 according to the value of b0 (0 or 1).
  • the three-dimensional data decoding device uses four coding tables for the next bit b2. Further, the three-dimensional data decoding device switches the coding table used for arithmetic decoding of the bit b2 according to the values (0 to 3) of b0 and b1.
  • the three-dimensional data decoding device uses 2 n ⁇ 1 coding tables when arithmetically decoding each bit bn ⁇ 1 of the n-bit code. Further, the three-dimensional data decoding device switches the coding table to be used according to the value (generation pattern) of bits before bn ⁇ 1. By this means, the three-dimensional data decoding device can appropriately decode a bitstream with improved coding efficiency by using an appropriate coding table for each bit.
  • the three-dimensional data decoding device may reduce the number of coding tables used for each bit. For example, when arithmetically decoding each bit bn ⁇ 1, the three-dimensional data decoding device uses 2 m codes according to the value (generation pattern) of m bits (m ⁇ n ⁇ 1) before bn ⁇ 1. The conversion table may be switched. Accordingly, the three-dimensional data decoding device can appropriately decode a bitstream with improved coding efficiency while suppressing the number of coding tables used for each bit.
  • the three-dimensional data decoding device may update the occurrence probabilities of 0 and 1 in each encoding table according to the value of the actually generated binarized data.
  • the three-dimensional data decoding device may fix the occurrence probabilities of 0 and 1 in the coding table of some bits. As a result, the number of times the occurrence probability is updated can be suppressed, and the processing amount can be reduced.
  • the number of coding tables for b0 is one (CTb0).
  • CTb10, CTb11 There are two coding tables for b1 (CTb10, CTb11). Further, the coding table is switched according to the value of b0 (0 to 1).
  • CTb20, CTb21, CTb22, CTb23 There are four coding tables for b2 (CTb20, CTb21, CTb22, CTb23). Also, the coding table is switched according to the values of b0 and b1 (0 to 3).
  • the encoding table for bn ⁇ 1 is 2 n ⁇ 1 (CTbn0, CTbn1,..., CTbn(2 n ⁇ 1 ⁇ 1)). Further, the coding table is switched according to the value of b0b1...bn-2 (0 to 2 n-1 -1).
  • FIG. 78 is a diagram for explaining the process when the remaining code is an exponential Golomb code, for example.
  • the part (remaining code) that is binarized and coded by the three-dimensional data coding device using exponential Golomb includes a prefix part and a suffix part, as shown in FIG. 78.
  • the three-dimensional data decoding device switches the encoding table between the prefix unit and the suffix unit. That is, the three-dimensional data decoding device arithmetically decodes each bit included in the prefix section by using the encoding table for prefix, and arithmetically decodes each bit included in the suffix section by using the encoding table for suffix. Decrypt.
  • the three-dimensional data decoding device may update the occurrence probabilities of 0 and 1 in each coding table according to the value of the binarized data generated at the time of decoding.
  • the three-dimensional data decoding device may fix the occurrence probabilities of 0 and 1 in either of the coding tables.
  • the number of times the occurrence probability is updated can be suppressed, and the processing amount can be reduced.
  • the three-dimensional data decoding device may update the occurrence probability in the prefix section and fix the occurrence probability in the suffix section.
  • the three-dimensional data decoding device multi-values the binary data of the arithmetically-decoded prediction residual according to the coding method used in the three-dimensional data coding device to predict the prediction residual after quantization. Decode the difference (an unsigned integer value).
  • the three-dimensional data decoding device first calculates the value of the decoded n-bit code by arithmetically decoding the binarized data of the n-bit code. Next, the three-dimensional data decoding device compares the value of the n-bit code with the value of R_TH.
  • the three-dimensional data decoding device determines that there is a bit coded by exponential Golomb next, and the binary data coded by exponential Golomb is used. Arithmetically decode a certain remaining code. Then, the three-dimensional data decoding device calculates the value of the remaining code from the decoded remaining code by using a reverse lookup table indicating the relationship between the remaining code and its value.
  • FIG. 79 is a diagram showing an example of a reverse lookup table showing the relationship between the remaining code and its value.
  • the three-dimensional data decoding device obtains the multi-valued quantized prediction residual by adding the value of the obtained residual code to R_TH.
  • the three-dimensional data decoding device when the value of the n-bit code and the value of R_TH do not match (the value is smaller than R_TH), the three-dimensional data decoding device retains the value of the n-bit code as it is, and the prediction residual after multi-value quantization is used. Determine the difference. Accordingly, the three-dimensional data decoding apparatus can appropriately decode the bitstream generated by switching the binarization method according to the value of the prediction residual in the three-dimensional data encoding apparatus.
  • the three-dimensional data decoding apparatus may decode the value of the threshold value R_TH from the header and switch the decoding method using the decoded value of the threshold value R_TH. Good. Further, when the threshold R_TH is added to the header or the like for each LoD, the three-dimensional data decoding device switches the decoding method using the threshold R_TH decoded for each LoD.
  • the three-dimensional data decoding device obtains the value of the remaining code by decoding the remaining code by exponential Golomb. For example, in the example shown in FIG. 79, the remaining code is 00100, and 3 is obtained as the value of the remaining code. Next, the three-dimensional data decoding device obtains a prediction residual value 66 by adding the threshold value R_TH value 63 and the remaining code value 3.
  • the three-dimensional data decoding device sets the n-bit code value 32 to the prediction residual value.
  • the three-dimensional data decoding device converts the decoded and quantized prediction residual from an unsigned integer value to a signed integer value by, for example, a process reverse to the process in the three-dimensional data encoding device. Accordingly, the three-dimensional data decoding apparatus can appropriately decode the generated bitstream without considering the occurrence of negative integers when entropy-encoding the prediction residual. Note that the three-dimensional data decoding device does not necessarily need to convert an unsigned integer value to a signed integer value. For example, when decoding a bitstream generated by separately entropy-encoding a code bit, the code bit is decoded. You may.
  • the three-dimensional data decoding device generates a decoded value by decoding the quantized prediction residual converted into a signed integer value by inverse quantization and reconstruction. Further, the three-dimensional data decoding device uses the generated decoded value for prediction after the three-dimensional point to be decoded. Specifically, the three-dimensional data decoding device calculates an inverse quantized value by multiplying the quantized prediction residual by the decoded quantization scale, and adds the inverse quantized value and the predicted value. To get the decrypted value.
  • the decoded unsigned integer value (unsigned quantized value) is converted to a signed integer value by the following process.
  • the LSB least signature bit
  • the three-dimensional data decoding device sets the signed integer value a2q to ⁇ ((a2u+1)>>1).
  • the three-dimensional data decoding device sets the signed integer value a2q to (a2u>>1).
  • the three-dimensional data decoding device sets the signed integer value b2q to ⁇ ((b2u+1)>>1).
  • the three-dimensional data decoding device sets the signed integer value b2q to (b2u>>1).
  • the details of the inverse quantization and reconstruction processing by the 3D data decoding device are the same as the inverse quantization and reconstruction processing by the 3D data encoding device.
  • FIG. 80 is a flowchart of the three-dimensional data decoding process performed by the three-dimensional data decoding device.
  • the three-dimensional data decoding device decodes position information (geometry) from the bitstream (S3031). For example, the three-dimensional data decoding device performs decoding using the octree tree representation.
  • the three-dimensional data decoding device decodes the attribute information (Attribute) from the bitstream (S3032).
  • the three-dimensional data decoding device may decode a plurality of types of attribute information in order when decoding a plurality of types of attribute information.
  • the three-dimensional data decoding apparatus decodes the color coding result and the reflectance coding result in the order of being added to the bitstream.
  • the three-dimensional data decoding device decodes the color coding result, and then the reflectance coding result. To decrypt.
  • the three-dimensional data decoding device may decode the coding result of the attribute information added to the bitstream in any order.
  • the three-dimensional data decoding device may obtain the information indicating the encoded data start location of each attribute information in the bitstream by decoding the header or the like. Accordingly, the three-dimensional data decoding device can selectively decode the attribute information that needs to be decoded, and thus the decoding process of the attribute information that does not need to be decoded can be omitted. Therefore, the processing amount of the three-dimensional data decoding device can be reduced. Further, the three-dimensional data decoding device may decode a plurality of types of attribute information in parallel and integrate the decoding result into one three-dimensional point cloud. Thereby, the three-dimensional data decoding device can decode a plurality of types of attribute information at high speed.
  • the three-dimensional data decoding device sets LoD (S3041). That is, the three-dimensional data decoding device assigns each of the plurality of three-dimensional points having the decoded position information to any of the plurality of LoDs.
  • this allocation method is the same as the allocation method used in the three-dimensional data encoding device.
  • the three-dimensional data decoding device starts a loop for each LoD (S3042). That is, the three-dimensional data decoding device repeats the processing of steps S3043 to S3049 for each LoD.
  • the three-dimensional data decoding device starts a loop for each three-dimensional point (S3043). That is, the three-dimensional data decoding device repeats the processing of steps S3044 to S3048 for each three-dimensional point.
  • the three-dimensional data decoding device searches for a plurality of surrounding points, which are three-dimensional points existing around the target three-dimensional point, which are used to calculate the predicted value of the target three-dimensional point to be processed (S3044).
  • the three-dimensional data decoding device calculates a weighted average of the values of the attribute information of a plurality of surrounding points, and sets the obtained value as the predicted value P (S3045). Note that these processes are the same as the processes in the three-dimensional data encoding device.
  • the three-dimensional data decoding device arithmetically decodes the quantized value from the bitstream (S3046). Further, the three-dimensional data decoding device calculates the inverse quantized value by inversely quantizing the decoded quantized value (S3047). Next, the three-dimensional data decoding device generates a decoded value by adding the prediction value to the dequantized value (S3048). Next, the three-dimensional data decoding device ends the loop for each three-dimensional point (S3049). Also, the three-dimensional data decoding device ends the loop in LoD units (S3050).
  • FIG. 82 is a block diagram showing the configuration of three-dimensional data encoding device 3000 according to the present embodiment.
  • the three-dimensional data encoding device 3000 includes a position information encoding unit 3001, an attribute information reassignment unit 3002, and an attribute information encoding unit 3003.
  • the attribute information encoding unit 3003 encodes position information (geometry) of a plurality of three-dimensional points included in the input point group.
  • the attribute information reassignment unit 3002 reassigns the values of the attribute information of a plurality of three-dimensional points included in the input point group, using the encoding and decoding results of the position information.
  • the attribute information encoding unit 3003 encodes the reassigned attribute information (attribute).
  • the three-dimensional data encoding device 3000 also generates a bitstream including encoded position information and encoded attribute information.
  • FIG. 83 is a block diagram showing the configuration of three-dimensional data decoding device 3010 according to the present embodiment.
  • the three-dimensional data decoding device 3010 includes a position information decoding unit 3011 and an attribute information decoding unit 3012.
  • the position information decoding unit 3011 decodes position information (geometry) of a plurality of three-dimensional points from the bitstream.
  • the attribute information decoding unit 3012 decodes the attribute information (attribute) of a plurality of three-dimensional points from the bitstream.
  • the three-dimensional data decoding device 3010 also generates an output point cloud by combining the decoded position information and the decoded attribute information.
  • the three-dimensional data encoding device performs the processing shown in FIG.
  • the three-dimensional data encoding device encodes a three-dimensional point having attribute information.
  • the three-dimensional data encoding device calculates a predicted value of attribute information of a three-dimensional point (S3061).
  • the three-dimensional data encoding device calculates a prediction residual which is a difference between the attribute information of the three-dimensional point and the predicted value (S3062).
  • the three-dimensional data encoding device binarizes the prediction residual to generate binary data (S3063).
  • the three-dimensional data encoding device arithmetically encodes the binary data (S3064).
  • the three-dimensional data encoding device calculates the prediction residual of the attribute information, and further binarizes and arithmetically encodes the prediction residual to obtain the code amount of the encoded data of the attribute information. Can be reduced.
  • the three-dimensional data coding device uses a different coding table for each bit of binary data. According to this, the three-dimensional data encoding device can improve the encoding efficiency.
  • the three-dimensional data encoding device selects an encoding table used for the arithmetic encoding of the target bit according to the value of the high-order bit of the target bit included in the binary data. .. According to this, the three-dimensional data encoding device can select the encoding table according to the value of the higher-order bits, and thus the encoding efficiency can be improved.
  • the three-dimensional data encoding device binarizes the prediction residual with a fixed number of bits to generate binary data.
  • the prediction residual is greater than or equal to the threshold (R_TH)
  • the first code n-bit code
  • the value obtained by subtracting the threshold (R_TH) from the prediction residual are calculated by exponential Golomb.
  • Binary data including the binarized second code is generated.
  • the three-dimensional data coding apparatus uses different arithmetic coding methods for the first code and the second code.
  • the three-dimensional data encoding device can arithmetically encode the first code and the second code by, for example, an arithmetic encoding method suitable for each of the first code and the second code, so that the encoding efficiency is improved. Can be improved.
  • the three-dimensional data encoding device quantizes the prediction residual, and in binarization (S3063), the quantized prediction residual is binarized.
  • the threshold value (R_TH) is changed according to the quantization scale in quantization. According to this, the three-dimensional data encoding device can use an appropriate threshold value according to the quantization scale, so that encoding efficiency can be improved.
  • the second code includes a prefix part and a suffix part.
  • the three-dimensional data coding apparatus uses different coding tables for the prefix section and the suffix section. According to this, the three-dimensional data encoding device can improve the encoding efficiency.
  • the three-dimensional data encoding device includes a processor and a memory, and the processor performs the above processing using the memory.
  • the three-dimensional data decoding device performs the processing shown in FIG.
  • the three-dimensional data decoding device decodes a three-dimensional point having attribute information.
  • the 3D data decoding apparatus calculates a predicted value of the attribute information of a 3D point (S3071).
  • the three-dimensional data decoding device arithmetically decodes the encoded data included in the bitstream to generate binary data (S3072).
  • the three-dimensional data decoding device multi-values the binary data to generate a prediction residual (S3073).
  • the three-dimensional data decoding device calculates the decoded value of the attribute information of the three-dimensional point by adding the prediction value and the prediction residual (S3074).
  • the three-dimensional data decoding device appropriately calculates the prediction residual of the attribute information, and further appropriately sets the bit stream of the attribute information generated by binarizing and arithmetically coding the prediction residual. Can be decrypted.
  • the three-dimensional data decoding device uses a different encoding table for each bit of binary data. According to this, the three-dimensional data decoding device can appropriately decode a bitstream with improved coding efficiency.
  • the three-dimensional data decoding device selects the encoding table used for arithmetic decoding of the target bit according to the value of the higher bit of the target bit included in the binary data. According to this, the three-dimensional data decoding device can appropriately decode a bitstream with improved coding efficiency.
  • the three-dimensional data decoding device multi-values (S3073), multi-values the first code (n-bit code) having a fixed number of bits included in the binary data to generate the first value.
  • the three-dimensional data decoding device determines the first value as the prediction residual when the first value is smaller than the threshold value (R_TH), and includes the binary data when the first value is equal to or larger than the threshold value (R_TH).
  • the second value (remaining code), which is an exponential Golomb code, is multivalued to generate a second value, and the first value and the second value are added to generate a prediction residual.
  • the three-dimensional data decoding device uses different arithmetic decoding methods for the first code and the second code.
  • the three-dimensional data decoding device can appropriately decode a bitstream with improved coding efficiency.
  • the three-dimensional data decoding device dequantizes the prediction residual, and in addition (S3074), adds the prediction value and the dequantized prediction residual.
  • the threshold value (R_TH) is changed according to the quantization scale in inverse quantization. According to this, the three-dimensional data decoding device can appropriately decode a bitstream with improved coding efficiency.
  • the second code includes a prefix part and a suffix part.
  • the three-dimensional data decoding device uses different encoding tables for the prefix section and the suffix section. According to this, the three-dimensional data decoding device can appropriately decode a bitstream with improved coding efficiency.
  • the three-dimensional data decoding device includes a processor and a memory, and the processor uses the memory to perform the above processing.
  • the prediction value may be generated by a method different from that of the ninth embodiment.
  • the three-dimensional point to be encoded may be referred to as a first three-dimensional point, and the surrounding three-dimensional points may be referred to as a second three-dimensional point.
  • the attribute value of the closest 3D point among the 3D points that have already been encoded and have been decoded of the 3D point to be encoded is unchanged. It may be generated as a predicted value.
  • the prediction mode information (PredMode) may be added for each three-dimensional point, and one prediction value may be selected from the plurality of prediction values so that the prediction value can be generated. That is, for example, in the total number M of prediction modes, the prediction mode 0 is assigned the average value, the prediction mode 1 is assigned the attribute value of the three-dimensional point A,... It is conceivable to add the prediction mode used for prediction to the bitstream for each 3D point.
  • the “average value”, which is the predicted value calculated in the prediction mode 0 is the average value of the attribute values of the three-dimensional points around the three-dimensional point to be encoded.
  • FIG. 86 is a diagram showing a first example of a table showing prediction values calculated in each prediction mode according to the tenth embodiment.
  • FIG. 87 is a diagram showing an example of attribute information used for predicted values according to the tenth embodiment.
  • FIG. 88 is a diagram showing a second example of a table showing prediction values calculated in each prediction mode according to the tenth embodiment.
  • Prediction mode number M may be added to the bitstream.
  • the predicted value of the attribute information of the point b2 can be generated using the attribute information of the points a0, a1, a2, b1.
  • the attribute value of each point a0, a1, a2, b1 is a predicted value based on the distance information from the point b2 to each point a0, a1, a2, b1. You may select the prediction mode produced
  • the prediction mode is added for each 3D point to be encoded.
  • the predicted value is calculated according to the value according to the added prediction mode.
  • the predicted value of the attribute information of the point a2 can be generated using the attribute information of the points a0 and a1.
  • the prediction mode that generates the attribute value of each point a0, a1 as a prediction value based on the distance information from the point a2 to each store a0, a1 is selected. May be.
  • the prediction mode is added for each 3D point to be encoded. The predicted value is calculated according to the value according to the added prediction mode.
  • the prediction mode in which the prediction value is not assigned in the table may be set as not available.
  • the prediction mode values may be assigned in order of distance from the 3D point to be encoded.
  • the prediction mode value indicating a plurality of prediction modes is smaller as the distance from the encoding target 3D point to the surrounding 3D point having the attribute information used as the prediction value is smaller.
  • FIG. 86 shows that the distances to the point b2, which is the three-dimensional point to be encoded, are close in the order of the points b1, a2, a1, and a0.
  • the attribute information of the point b1 is calculated as the prediction value in the prediction mode in which the prediction mode value among the two or more prediction modes is indicated by "1", and the prediction mode value is indicated by "2".
  • the attribute information of the point a2 is calculated as the predicted value.
  • the prediction mode value indicating the prediction mode in which the attribute information of the point b1 is calculated as the prediction value is the prediction in which the attribute information of the point a2 located farther than the point b1 is calculated as the prediction value. It is smaller than the prediction mode value indicating the mode.
  • a small prediction mode value may be preferentially assigned to a three-dimensional point belonging to the same LoD as the three-dimensional point to be encoded.
  • FIG. 89 is a diagram showing a third example of a table showing predicted values calculated in each prediction mode according to the tenth embodiment.
  • the third example is an example in which the attribute information used for the predicted value is a value based on the color information (YUV) of the surrounding three-dimensional points.
  • the attribute information used for the predicted value may be color information indicating the color of the three-dimensional point.
  • the prediction value calculated in the prediction mode in which the prediction mode value is “0” is the average of the YUV components that define the YUV color space.
  • the predicted value is a weighted average Yave of Yb1, Ya2, Ya1, and Ya0, which are Y component values corresponding to points b1, a2, a1, and a0, respectively, and points b1, a2, a1 and a0.
  • Yave of Yb1, Ya2, Ya1, and Ya0 are Y component values corresponding to points b1, a2, a1, and a0, respectively, and points b1, a2, a1 and a0.
  • Uave of Ub1, Ua2, Ua1, and Ua0 corresponding to the values of V component and Vb1, Va2, Va1, and Va0 of values of V component corresponding to points b1, a2, a1, and a0, respectively.
  • a weighted average Vave is a weighted average Vave.
  • the prediction values calculated in the prediction modes indicated by the prediction mode values “1” to “4” include color information of the surrounding three-dimensional points b1, a2, a1, and a0, respectively.
  • the color information is indicated by a combination of Y component value, U component value, and V component value.
  • the color information is shown by a value defined in the YUV color space, but the color information is not limited to the YUV color space, and may be shown by a value defined in the RGB color space, or other. May be represented by a value defined in the color space of.
  • two or more averages or attribute information may be calculated as the prediction value of the prediction mode.
  • the two or more averages or the attribute information may indicate the values of two or more components that define the color space.
  • the Y component, U component, and V component of the attribute value of the three-dimensional point to be encoded are predicted values, respectively. You may encode using it as Ya2, Ua2, and Va2. In this case, “2” as the prediction mode value is added to the bitstream.
  • FIG. 90 is a diagram showing a fourth example of a table showing prediction values calculated in each prediction mode according to the tenth embodiment.
  • the fourth example is an example in which the attribute information used for the predicted value is a value based on reflectance information of surrounding three-dimensional points.
  • the reflectance information is information indicating the reflectance R, for example.
  • the prediction values calculated in the prediction mode in which the prediction mode value is “0” are the reflectances Rb1, Ra2, Ra1, and Ra0 corresponding to the points b1, a2, a1, and a0, respectively. It is a weighted average Rave. Further, the prediction values calculated in the prediction modes indicated by the prediction mode values “1” to “4” are the reflectances Rb1, Ra2, Ra1, Ra0 of the surrounding three-dimensional points b1, a2, a1, a0, respectively. Is.
  • the prediction mode indicated by the prediction mode value “3” in the table of FIG. 90 when the prediction mode indicated by the prediction mode value “3” in the table of FIG. 90 is selected, the reflectance of the attribute value of the three-dimensional point to be encoded is used as the prediction value Ra1 to perform encoding. Good. In this case, “3” as the prediction mode value is added to the bitstream.
  • the attribute information may include first attribute information and second attribute information of a type different from the first attribute information.
  • the first attribute information is, for example, color information.
  • the second attribute information is, for example, reflectance information.
  • the first predicted value may be calculated using the first attribute information, and the second predicted value may be calculated using the second attribute information.
  • FIG. 91 is a diagram showing an example of the reference relationship.
  • the three-dimensional data encoding device calculates the predicted value of the three-dimensional point included in LoD2 using the attribute information of the three-dimensional point included in LoD0 or LoD1.
  • the three-dimensional data encoding device calculates the predicted value of the three-dimensional point included in LoD1 using the attribute information of the three-dimensional point included in LoD0.
  • LoD0 or LoD1 does not necessarily have to be encoded and decoded attribute information.
  • the three-dimensional data encoding device may use the value before encoding, for example.
  • the three-dimensional data encoding device may generate the predicted value of the attribute information of the three-dimensional point included in LoDn using the attribute information included in LoDn' (n' ⁇ n). Accordingly, the plurality of three-dimensional points included in LoDn do not refer to each other, and thus the three-dimensional data encoding device can calculate the predicted values of the plurality of three-dimensional points included in LoDn in parallel.
  • the three-dimensional data encoding device calculates the predicted value of the attribute information of the three-dimensional point as an average of the attribute values of N or less three-dimensional points among the three-dimensional points around the target three-dimensional point to be encoded. It is generated by calculating. Also, the three-dimensional data encoding device may add the value of N to the header of the bit stream or the like. Note that the three-dimensional data encoding device may change the value of N for each three-dimensional point and add the value of N for each three-dimensional point. This makes it possible to select an appropriate N for each of the three-dimensional points, so that the accuracy of the predicted value can be improved. Therefore, the prediction residual can be reduced.
  • the three-dimensional data encoding device may add the value of N to the header of the bitstream and fix the value of N in the bitstream. This eliminates the need to encode or decode the value of N for each three-dimensional point, so that the processing amount can be reduced. Also, the three-dimensional data encoding device may separately encode the value of N for each LoD. This makes it possible to improve coding efficiency by selecting an appropriate N for each LoD.
  • the three-dimensional data encoding device may calculate the predicted value of the attribute information of the three-dimensional point by the weighted average value of the attribute information of N surrounding three-dimensional points. For example, the three-dimensional data encoding device calculates the weight using the distance information of each of the target three-dimensional point and the surrounding three N-dimensional points.
  • the upper layer of LoD sets a larger N value
  • the lower layer sets a smaller N value.
  • the distance between the three-dimensional points belonging to the upper layer of LoD is larger than the distance between the three-dimensional points belonging to the upper layer of LoD. Therefore, in the upper layer, there is a possibility that the prediction accuracy can be improved by setting a large value of N to average many surrounding three-dimensional points. Further, the distance between the three-dimensional points belonging to the lower layer of LoD is short. Therefore, in the lower layer, by setting the value of N small, it is possible to perform efficient prediction while suppressing the processing amount of averaging.
  • the surrounding point P′ is selected based on the distance from the point P.
  • the predicted value of the attribute information of the point b2 shown in FIG. 91 is generated using the attribute information of the points a0, a1, and a2.
  • the predicted value is calculated by a distance-dependent weighted average.
  • the predicted value b2p of the point b2 is calculated by the weighted average of the attribute information of the points a0 and a1 as shown in (Formula J1) and (Formula J2).
  • a i is the value of the attribute information of the point ai.
  • d(p,q) is, for example, the Euclidean distance between the three-dimensional point p and the three-dimensional point q.
  • the predicted value aNp of the point aN is calculated by the weighted average of the attribute information of the points aN-4, aN-3, aN-2, and aN-1 as shown in (Formula J3) and (Formula J4). ..
  • the three-dimensional data encoding device calculates a difference value (prediction residual) between the value of the attribute information of the three-dimensional point and the prediction value generated from the surrounding points, and quantizes the calculated prediction residual.
  • prediction residual a difference value between the value of the attribute information of the three-dimensional point and the prediction value generated from the surrounding points.
  • the three-dimensional data encoding device performs quantization by dividing the prediction residual by a quantization scale (also called a quantization step).
  • a quantization scale also called a quantization step.
  • the smaller the quantization scale the smaller the error (quantization error) that can occur due to the quantization.
  • the larger the quantization scale the larger the quantization error.
  • the three-dimensional data encoding device may change the quantization scale used for each LoD. For example, the three-dimensional data encoding device reduces the quantization scale in the upper layer and increases the quantization scale in the lower layer. Since the value of the attribute information of the 3D points belonging to the upper layer may be used as the predicted value of the attribute information of the 3D points belonging to the lower layer, the quantization scale of the upper layer should be reduced to Encoding efficiency can be improved by suppressing the quantization error that may occur and improving the accuracy of the predicted value.
  • the three-dimensional data encoding device may add the quantization scale used for each LoD to the header or the like. With this, the three-dimensional data decoding apparatus can correctly decode the quantization scale, and thus can appropriately decode the bitstream.
  • the three-dimensional data encoding device may adaptively switch the quantization scale to be used according to the importance of the target three-dimensional point.
  • the three-dimensional data encoding device uses a small quantization scale for a three-dimensional point having high importance and uses a large quantization scale for a three-dimensional point having low importance.
  • the importance may be calculated, for example, from the number of times the target three-dimensional point is referred to by another three-dimensional point when the predicted value is calculated, or the weight at that time.
  • the value of the following QW (Quantization Weight) is used as the importance.
  • the three-dimensional data encoding apparatus sets the QW value of the three-dimensional point having high importance to a large value and reduces the quantization scale. As a result, the quantization error of the three-dimensional point having a high degree of importance becomes small, so that the coding efficiency can be improved.
  • FIG. 92 is a diagram showing an example of QW calculation.
  • the QS (quantization step) may be changed according to LoD.
  • QS_LoD0 is the QS for LoD0
  • QS_LoD1 is the QS for LoD1.
  • QW is a value representing the degree of importance of the target three-dimensional point.
  • the value obtained by multiplying the QW value of the point c0 by the weight W b2 _c0 for the point b2 calculated when the predicted value of the point c0 is generated. May be added to the value of QW at the point b2.
  • the QW value of the three-dimensional point that is often used for generating the predicted value becomes large, and the prediction efficiency can be improved by suppressing the quantization error at the three-dimensional point.
  • the three-dimensional data encoding apparatus may first initialize the QW values of all three-dimensional points to 1, and update the QW of each three-dimensional point according to the prediction structure.
  • the three-dimensional data encoding device may change the initial values according to the hierarchy of LoD without initializing the QWs of all three-dimensional points with the value 1.
  • the three-dimensional data encoding device may set the quantization value of the upper layer to be smaller by setting the initial value of QW to be higher for the upper layer. As a result, the prediction error of the upper layer can be suppressed, so that the prediction accuracy of the lower layer can be improved and the coding efficiency can be improved.
  • the three-dimensional data encoding device may convert a signed integer value (signed quantized value) that is the prediction residual after quantization into an unsigned integer value (unsigned quantized value). This eliminates the need to consider the occurrence of negative integers when entropy coding the prediction residual. Note that the three-dimensional data encoding device does not necessarily need to convert a signed integer value into an unsigned integer value, and may, for example, separately entropy code the code bit.
  • FIG. 93 is a diagram illustrating an example of calculating the prediction residual.
  • the prediction residual is calculated by subtracting the prediction value from the original value.
  • the prediction residual b2r at the point b2 is calculated by subtracting the predicted value b2p at the point b2 from the value B 2 of the attribute information at the point b2 as shown in (Equation J5).
  • Prediction residuals are quantized by being divided by QS (Quantization Step).
  • QS Quantized value b2q of the point b2
  • QS_LoD1 is the QS for LoD1. That is, QS may be changed according to LoD.
  • the three-dimensional data encoding device converts a signed integer value, which is the quantized value, into an unsigned integer value as follows.
  • the signed integer value b2q is smaller than 0, the three-dimensional data coding device sets the unsigned integer value b2u to ⁇ 1 ⁇ (2 ⁇ b2q).
  • the signed integer value b2q is 0 or more, the three-dimensional data coding device sets the unsigned integer value b2u to 2 ⁇ b2q.
  • the three-dimensional data encoding device scans and encodes the prediction residual after quantization (unsigned integer value) in a certain order.
  • the three-dimensional data encoding device encodes a plurality of three-dimensional points in order from the three-dimensional point included in the upper layer of LoD toward the lower layer.
  • FIG. 94 is a diagram showing an example of this encoding.
  • the three-dimensional data encoding apparatus includes a plurality of third orders in the order of a0 to a1, a2, b0, b1, b2, c0, c1, c2,... Encode the original point.
  • the lower the LoD the more likely the prediction residual after quantization becomes 0.
  • the following can be cited as factors for this.
  • the prediction value of the 3D points belonging to the LoD of the lower layer is generated by referring to more 3D points than the prediction value of the 3D points of the upper layer, so the prediction accuracy is high and the prediction residual is 0.
  • Cheap the quantization scale
  • the quantization scale becomes larger in the lower layers, and the prediction residual after quantization tends to be zero.
  • the lower the three-dimensional point the more likely the prediction residual after quantization becomes 0. Therefore, the value 0 is more likely to occur continuously in the first code string in the lower layer.
  • the first code string is a code string in which the prediction residuals after quantization of a plurality of points are arranged according to the above coding order.
  • the three-dimensional data encoding device counts the number of times the value 0 has occurred in the first code string and encodes the number of times the value 0 has occurred consecutively, instead of the consecutive value 0. That is, the three-dimensional data encoding device generates the second code string by replacing the prediction residual of the value 0 that is continuous in the first code string with the number of continuous times of zero (ZeroCnt).
  • ZeroCnt the number of continuous times of zero
  • the three-dimensional data encoding device may entropy-encode the value of ZeroCnt. For example, the three-dimensional data encoding device binarizes the value of ZeroCnt with a trunked unary code of the total number T of encoded three-dimensional points, and arithmetically encodes each bit after binarization. .. FIG. 95 is a diagram showing an example of a trunket unary code when the total number of encoded three-dimensional points is T. At this time, the three-dimensional data coding apparatus may improve coding efficiency by using a different coding table for each bit.
  • the three-dimensional data encoding device uses the encoding table 1 for the first bit, the encoding table 2 for the second bit, and the encoding table 3 for the subsequent bits.
  • the three-dimensional data encoding device can improve the encoding efficiency by switching the encoding table for each bit.
  • the three-dimensional data encoding device may binarize ZeroCnt with exponential-Golomb and then perform arithmetic encoding. As a result, when the value of ZeroCnt tends to be large, the efficiency can be improved as compared with the binary arithmetic coding by the trunket unary code.
  • the three-dimensional data encoding device may add a flag to the header for switching whether to use the Trunket Unary code or the exponential Golomb. Accordingly, the three-dimensional data encoding device can improve the encoding efficiency by selecting the optimum binarization method. Also, the three-dimensional data decoding device can correctly decode the bitstream by referring to the flag included in the header and switching the binarization method.
  • FIG. 96 is a diagram showing a syntax example of attribute information (attribute_data).
  • the attribute information (attribute_data) includes the number of consecutive zeros (ZeroCnt), the number of attribute dimensions (attribute_dimension), and the prediction residual (value[j][i]).
  • the number of continuous zeros indicates the number of times the value 0 continues in the prediction residual after quantization. Note that the three-dimensional data encoding device may binarize ZeroCnt and then perform arithmetic encoding.
  • Attribute dimension number indicates the dimension number of attribute information. For example, when the attribute information is three-dimensional point color information (RGB, YUV, or the like), the color information is three-dimensional, and the attribute dimension number is set to 3. When the attribute information is the reflectance, the reflectance is one-dimensional, and thus the attribute dimension number is set to the value 1. The attribute dimension number may be added to the header or the like of the attribute information of the bitstream.
  • Prediction residual indicates the prediction residual after quantization of the j-th attribute information of the i-th three-dimensional point. For example, when the attribute information is color information, value[99][1] indicates the prediction residual of the second dimension (for example, G value) of the 100th three-dimensional point. If the attribute information is reflectance information, value[119][0] indicates the prediction residual of the first dimension (for example, reflectance) of the 120th three-dimensional point.
  • the three-dimensional data encoding device may subtract the value 1 from value[j][i] and entropy-encode the obtained value.
  • the three-dimensional data decoding device restores the prediction residual by adding the value 1 to the value[j][i] after entropy decoding.
  • the three-dimensional data decoding device adds the value 1 to the decoded value to calculate the prediction residual.
  • the three-dimensional data encoding apparatus encodes the value 9 obtained by subtracting the value 1 from the value 10 of the prediction residual.
  • the three-dimensional data decoding device adds the value 1 to the decoded value 9 to calculate the prediction residual value 10.
  • the three-dimensional data encoding apparatus uses, for example, each prediction residual when the prediction residual after quantization of each component of R, G, and B is the same.
  • the value 1 is subtracted from the difference and the resulting value is encoded.
  • the three-dimensional data decoding device adds 1 to each component of (0, 0, 0) to calculate (1, 1, 1).
  • the three-dimensional data decoding device uses the decoded (2, 1, 2) as it is as the prediction residual.
  • FIG. 97 is a diagram showing an example of the prediction residual and ZeroCnt in this case.
  • the three-dimensional data encoding apparatus counts the number of consecutive prediction residuals in which the R, G, and B components are all 0, and sets the counted number as ZeroCnt in the bit stream. Add. This eliminates the need to encode the ZeroCnt for each component and reduces the overhead. Therefore, the coding efficiency can be improved.
  • the three-dimensional data encoding device may calculate the ZeroCnt for each dimension even if the attribute_dimension is 2 or more, and add the calculated ZeroCnt to the bitstream.
  • FIG. 98 is a diagram showing another syntax example of the attribute information (attribute_data).
  • attribute information shown in FIG. 98 further includes prediction mode information (PredMode).
  • maxdiff is the maximum absolute difference value of the attribute information of a plurality of 3D points that can be referred to.
  • Thfix[i] is a predetermined threshold value.
  • the value 0 of the prediction mode information is, for example, a prediction mode that uses the average value of the attribute information of a plurality of referable three-dimensional points as the prediction value. That is, when the difference between the plurality of pieces of attribute information that can be referred to is smaller than a predetermined value, a predetermined prediction mode is used.
  • NumPredMode[i] indicates the number of prediction modes that can be used. That is, when the number of usable prediction modes is 1, a predetermined prediction mode is used.
  • the three-dimensional data decoding device is not limited to the value 0, and may use a predetermined value from 0 to M ⁇ 1 as the estimated value.
  • an estimated value when PredMode is not included in the bitstream may be added separately to the header or the like.
  • the three-dimensional data encoding device may binarize the PredMode by using the number of prediction modes to which the predictive value is assigned by using the Trunket Unary code for arithmetic coding.
  • FIG. 99 is a flowchart of the three-dimensional data encoding process according to this embodiment.
  • the three-dimensional data encoding device encodes position information (geometry) (S6501).
  • the three-dimensional data encoding device performs encoding using an octree tree representation.
  • the three-dimensional data encoding device converts the attribute information (S6502). For example, the three-dimensional data encoding device reassigns the attribute information of the original three-dimensional point to the changed three-dimensional point when the position of the three-dimensional point changes due to quantization or the like after encoding the position information. To do. Note that the three-dimensional data encoding device may interpolate the value of the attribute information according to the amount of change in position and perform reallocation. For example, the three-dimensional data encoding apparatus detects N three-dimensional points before change, which are close to the three-dimensional position after change, and obtains the attribute information values of N three-dimensional points from the three-dimensional position after change.
  • Weighted averaging is performed based on the distance to each of the N three-dimensional points, and the obtained value is determined as the value of the attribute information of the changed three-dimensional point.
  • the three-dimensional data encoding device sets the attribute information value after the change to two or more before the change. You may allocate the average value of the attribute information in a three-dimensional point.
  • the three-dimensional data encoding device encodes the attribute information (S6503). For example, when encoding a plurality of attribute information, the three-dimensional data encoding device may encode a plurality of attribute information in order. For example, when the color and the reflectance are encoded as the attribute information, the three-dimensional data encoding device generates a bitstream in which the reflectance encoding result is added after the color encoding result. Note that the plurality of encoding results of the attribute information added to the bitstream may be in any order.
  • the three-dimensional data encoding device may add information indicating the start location of the encoded data of each attribute information in the bitstream to the header or the like. Accordingly, the three-dimensional data decoding device can selectively decode the attribute information that needs to be decoded, and thus the decoding process of the attribute information that does not need to be decoded can be omitted. Therefore, the processing amount of the three-dimensional data decoding device can be reduced. Further, the three-dimensional data encoding device may encode a plurality of pieces of attribute information in parallel and integrate the encoding result into one bitstream. Thereby, the three-dimensional data encoding device can encode a plurality of attribute information at high speed.
  • FIG. 100 is a flowchart of the attribute information encoding process (S6503).
  • the three-dimensional data encoding device sets LoD (S6511). That is, the three-dimensional data encoding device assigns each three-dimensional point to any of a plurality of LoDs.
  • the three-dimensional data encoding device starts a loop for each LoD (S6512). That is, the three-dimensional data encoding device repeats the processing of steps S6513 to S6521 for each LoD.
  • the three-dimensional data encoding device starts a loop for each three-dimensional point (S6513). That is, the three-dimensional data encoding device repeats the processing of steps S6514 to S6520 for each three-dimensional point.
  • the three-dimensional data encoding device searches for a plurality of surrounding points, which are three-dimensional points existing around the target three-dimensional point, which are used to calculate the predicted value of the target three-dimensional point to be processed (S6514).
  • the three-dimensional data encoding device calculates a weighted average of the values of the attribute information of a plurality of surrounding points, and sets the obtained value as the predicted value P (S6515).
  • the three-dimensional data encoding device calculates a prediction residual which is a difference between the attribute information of the target three-dimensional point and the predicted value (S6516).
  • the three-dimensional data encoding device calculates a quantized value by quantizing the prediction residual (S6517).
  • the three-dimensional data encoding device arithmetically encodes the quantized value (S6518).
  • the three-dimensional data encoding device calculates the inverse quantized value by inversely quantizing the quantized value (S6519).
  • the three-dimensional data encoding device generates a decoded value by adding the prediction value to the dequantized value (S6520).
  • the three-dimensional data encoding device ends the loop for each three-dimensional point (S6521).
  • the three-dimensional data encoding device also ends the LoD-unit loop (S6522).
  • FIG. 101 is a flowchart of the prediction residual coding process (S6518).
  • the three-dimensional data encoding device converts the prediction residual from a signed integer value to an unsigned integer value (S6531).
  • the three-dimensional data encoding device determines whether the value of the prediction residual to be processed is zero (S6533). If the value of the prediction residual to be processed is zero (Yes in S6533), the three-dimensional data encoding device increments ZeroCnt by 1 (S6534), and returns to step S6532.
  • the three-dimensional data encoding device encodes ZeroCnt and resets ZeroCnt to 0 (S6535).
  • the three-dimensional data encoding device also encodes the prediction residual to be processed (S6536), and returns to step S6532.
  • the three-dimensional data encoding device performs binary arithmetic encoding. Further, the three-dimensional data encoding device may subtract the value 1 from the prediction residual and encode the obtained value.
  • steps S6533 to S6536 is repeated for each prediction residual. If all the prediction residuals have been processed (Yes in S6532), the three-dimensional data encoding device ends the process.
  • FIG. 102 is a flowchart of the three-dimensional data decoding process according to this embodiment.
  • the three-dimensional data decoding device decodes position information (geometry) from the bitstream (S6541). For example, the three-dimensional data decoding device performs decoding using the octree tree representation.
  • the three-dimensional data decoding device decodes the attribute information from the bitstream (S6542). For example, when decoding a plurality of attribute information, the three-dimensional data decoding device may decode a plurality of attribute information in order. For example, when decoding the color and the reflectance as the attribute information, the three-dimensional data decoding apparatus decodes the color coding result and the reflectance coding result in the order of being added to the bitstream. For example, in the bitstream, when the reflectance coding result is added after the color coding result, the three-dimensional data decoding apparatus decodes the color coding result, and then the reflectance coding. Decrypt the result. Note that the three-dimensional data decoding device may decode the coding result of the attribute information added to the bitstream in any order.
  • the three-dimensional data decoding device may also acquire information indicating the start location of the encoded data of each attribute information in the bitstream by decoding the header or the like. Accordingly, the three-dimensional data decoding device can selectively decode the attribute information that needs to be decoded, and thus the decoding process of the attribute information that does not need to be decoded can be omitted. Therefore, the processing amount of the three-dimensional data decoding device can be reduced. Further, the three-dimensional data decoding device may decode a plurality of attribute information in parallel and integrate the decoding result into one three-dimensional point cloud. Thereby, the three-dimensional data decoding device can decode a plurality of attribute information at high speed.
  • FIG. 103 is a flowchart of the attribute information decryption process (S6542).
  • the three-dimensional data decoding device sets LoD (S6551). That is, the three-dimensional data decoding device assigns each of the plurality of three-dimensional points having the decoded position information to any of the plurality of LoDs.
  • this allocation method is the same as the allocation method used in the three-dimensional data encoding device.
  • the three-dimensional data decoding device starts a loop for each LoD (S6552). That is, the three-dimensional data decoding device repeats the processes of steps S6553 to S6559 for each LoD.
  • the 3D data decoding apparatus starts a loop for each 3D point (S6553). That is, the 3D data decoding apparatus repeats the processing of steps S6554 to S6558 for each 3D point.
  • the three-dimensional data decoding device searches for a plurality of surrounding points, which are three-dimensional points existing around the target three-dimensional point, which are used to calculate the predicted value of the target three-dimensional point to be processed (S6554).
  • the three-dimensional data decoding device calculates a weighted average of the values of the attribute information of a plurality of surrounding points and sets the obtained value as the predicted value P (S6555). Note that these processes are the same as the processes in the three-dimensional data encoding device.
  • the three-dimensional data decoding device arithmetically decodes the quantized value from the bitstream (S6556). Also, the three-dimensional data decoding device calculates the inverse quantized value by inversely quantizing the decoded quantized value (S6557). Next, the three-dimensional data decoding device generates a decoded value by adding the prediction value to the dequantized value (S6558). Next, the three-dimensional data decoding device ends the loop in units of three-dimensional points (S6559). Also, the three-dimensional data decoding device ends the LoD unit loop (S6560).
  • FIG. 104 is a flowchart of the prediction residual decoding process (S6556).
  • the three-dimensional data decoding device decodes ZeroCnt from the bitstream (S6561). If all prediction residuals have not been processed (No in S6562), the three-dimensional data decoding apparatus determines whether ZeroCnt is larger than 0 (S6563).
  • the three-dimensional data decoding device sets the prediction residual of the processing target to 0 (S6564). Next, the three-dimensional data decoding device subtracts 1 from ZeroCnt (S6565), and returns to step S6562.
  • the three-dimensional data decoding apparatus decodes the prediction residual of the processing target (S6566). For example, the three-dimensional data decoding device uses binary arithmetic decoding. Further, the three-dimensional data decoding device may add the value 1 to the decoded prediction residual.
  • the three-dimensional data decoding device decodes ZeroCnt, sets the obtained value in ZeroCnt (S6567), and returns to step S6562.
  • steps S6563 to S6567 is repeated for each prediction residual. If all the prediction residuals have been processed (Yes in S6562), the three-dimensional data encoding device converts the decoded prediction residuals from unsigned integer values to signed integer values (S6568). ..
  • FIG. 105 is a block diagram of the attribute information encoding unit 6500 included in the three-dimensional data encoding device.
  • the attribute information encoding unit 6500 includes a LoD setting unit 6501, a searching unit 6502, a predicting unit 6503, a subtracting unit 6504, a quantizing unit 6505, an inverse quantizing unit 6506, a reconstructing unit 6507, and a memory 6508.
  • a LoD setting unit 6501 includes a LoD setting unit 6501, a searching unit 6502, a predicting unit 6503, a subtracting unit 6504, a quantizing unit 6505, an inverse quantizing unit 6506, a reconstructing unit 6507, and a memory 6508.
  • the LoD setting unit 6501 generates LoD using the position information of the three-dimensional point.
  • the search unit 6502 searches for neighboring 3D points of each 3D point using the LoD generation result and the distance information between the 3D points.
  • the prediction unit 6503 generates a predicted value of the attribute information of the target 3D point. Also, the prediction unit 6503 assigns prediction values to a plurality of prediction modes of 0 to M-1, and selects a prediction mode to be used from the plurality of prediction modes.
  • the subtraction unit 6504 generates a prediction residual by subtracting the prediction value from the attribute information.
  • the quantizer 6505 quantizes the prediction residual of the attribute information.
  • the inverse quantization unit 6506 inversely quantizes the quantized prediction residual.
  • the reconstruction unit 6507 generates a decoded value by adding the prediction value and the prediction residual after dequantization.
  • the memory 6508 stores the value (decoded value) of the attribute information of each decoded three-dimensional point.
  • the decoded three-dimensional point attribute information stored in the memory 6508 is used by the prediction unit 6503 for prediction of uncoded three-dimensional points.
  • the arithmetic coding unit 6509 calculates ZeroCnt from the prediction residual after quantization, and arithmetically codes ZeroCnt. Also, the arithmetic encoding unit 6509 arithmetically encodes the non-zero prediction residual after quantization. The arithmetic coding unit 6509 may binarize the prediction residual before the arithmetic coding. Further, the arithmetic coding unit 6509 may generate and code various kinds of header information. Further, the arithmetic encoding unit 6509 may arithmetically encode the prediction mode information (PredMode) indicating the prediction mode used by the prediction unit 6503 for encoding and add the prediction mode information (PredMode) to the bitstream.
  • PredMode prediction mode information
  • FIG. 106 is a block diagram of the attribute information decoding unit 6510 included in the three-dimensional data decoding device.
  • the attribute information decoding unit 6510 includes an arithmetic decoding unit 6511, a LoD setting unit 6512, a search unit 6513, a prediction unit 6514, a dequantization unit 6515, a reconstruction unit 6516, and a memory 6517.
  • the arithmetic decoding unit 6511 arithmetically decodes the ZeroCnt and the prediction residual included in the bitstream. Further, the arithmetic decoding unit 6511 decodes various header information. Further, the arithmetic decoding unit 6511 arithmetically decodes the prediction mode information (PredMode) from the bitstream, and outputs the obtained prediction mode information to the prediction unit 6514.
  • PredMode prediction mode information
  • the LoD setting unit 6512 generates LoD by using the position information of the decoded three-dimensional point.
  • the search unit 6513 searches for neighboring 3D points of each 3D point using the LoD generation result and the distance information between the 3D points.
  • the prediction unit 6514 generates a predicted value of the attribute information of the target 3D point to be decoded.
  • the inverse quantization unit 6515 inversely quantizes the arithmetically decoded prediction residual.
  • the reconstruction unit 6516 generates a decoded value by adding the prediction value and the prediction residual after dequantization.
  • the memory 6517 stores the value (decoded value) of the attribute information of each decoded three-dimensional point.
  • the attribute information of the decoded 3D points stored in the memory 6517 is used by the prediction unit 6514 to predict the undecoded 3D points.
  • the present invention is not limited to this.
  • the three-dimensional data encoding device or the three-dimensional data decoding device may generate a Morton code using the position information of the three-dimensional points, and may perform encoding or decoding in order of the Morton code.
  • the processing time for generating the LoD can be reduced, so that the speedup can be realized.
  • the three-dimensional data encoding device may use a method in which after generating the prediction residual of the lower layer, the prediction residual of the lower layer is fed back to the upper layer for encoding. For example, the three-dimensional data encoding device weights the prediction residual of the lower layer to the attribute value (attribute information) of the upper layer used for prediction, adds the attribute value, and adds the added attribute value to the three-dimensional data of the upper layer.
  • this method may be applied when the prediction residual is encoded. As a result, the prediction residual can be efficiently coded, and the coding efficiency can be improved.
  • the three-dimensional data encoding device may switch whether or not to use the encoding method using ZeroCnt described in the present embodiment on a WLD, SPC or volume basis.
  • the three-dimensional data encoding device may add information indicating whether or not the encoding method using ZeroCnt is applied to the header information.
  • the three-dimensional data decoding device can properly perform decoding.
  • the switching method for example, the three-dimensional data encoding device counts the number of occurrences of the prediction residual of the value 0 for one volume.
  • the three-dimensional data encoding device applies the method using ZeroCnt to the next volume when the count value exceeds a predetermined threshold value, and uses the ZeroCnt to the next volume when the count value is less than or equal to the threshold value.
  • the method that was used is not applied.
  • the three-dimensional data encoding apparatus can appropriately switch whether or not to apply the encoding method using ZeroCnt according to the characteristics of the three-dimensional point to be encoded, thus improving the encoding efficiency. it can.
  • the three-dimensional data encoding device scans and encodes the prediction residuals (unsigned integer values) after quantization in a certain order.
  • the three-dimensional data encoding device encodes a plurality of three-dimensional points in order from the three-dimensional point included in the lower layer of LoD toward the upper layer.
  • FIG. 107 is a diagram showing an example of this encoding.
  • the three-dimensional data encoding device includes a plurality of three-dimensional points in the order of c2, c1, c0, b2, b1, b0, a2, a1, a0 from the point cN included in the lower layer LoD2. Is encoded.
  • the lower the LoD the more likely the prediction residual after quantization becomes 0. The following can be cited as factors for this.
  • the prediction value of the three-dimensional point belonging to the LoD of the lower layer is generated by referring to more three-dimensional points than the prediction value of the three-dimensional point of the upper layer, so the prediction accuracy is high and the prediction residual itself is 0. Prone. Further, the above-mentioned adaptive switching of the quantization scale makes the quantization scale larger in the lower layers, and the prediction residual after quantization tends to be zero. As described above, the lower the three-dimensional point, the more likely the prediction residual after quantization becomes 0. Therefore, the value 0 is more likely to occur continuously in the first code string in the lower layer.
  • the three-dimensional data encoding device counts the number of times the value 0 has occurred in the first code string and encodes the number of times the value 0 has occurred consecutively, instead of the consecutive value 0.
  • encoding efficiency can be improved by encoding the number of consecutive 0s (ZeroCnt) rather than encoding a large number of 0s.
  • the three-dimensional data encoding device may encode information indicating the total number of occurrences of the value 0. As a result, the overhead of encoding ZeroCnt can be reduced, and the encoding efficiency can be improved.
  • the three-dimensional data encoding device encodes the total number of prediction residuals with a value of 0 as TotalZeroCnt.
  • the three-dimensional data encoding device may entropy encode TotalZeroCnt. For example, the three-dimensional data encoding device binarizes the value of TotalZeroCnt with a trunket unary code of the total number T of encoded three-dimensional points, and arithmetically encodes each bit after binarization. At this time, the three-dimensional data coding apparatus may improve coding efficiency by using a different coding table for each bit. For example, the three-dimensional data encoding device uses the encoding table 1 for the first bit, the encoding table 2 for the second bit, and the encoding table 3 for the subsequent bits. Thus, the three-dimensional data encoding device can improve the encoding efficiency by switching the encoding table for each bit.
  • the three-dimensional data encoding device may binarize TotalZeroCnt with exponential Golomb and then perform arithmetic encoding. As a result, when the value of TotalZeroCnt tends to be large, the efficiency can be improved as compared with the binary arithmetic coding by the trunket unary code.
  • the three-dimensional data encoding device may add a flag to the header for switching whether to use the Trunket Unary code or the exponential Golomb. Accordingly, the three-dimensional data encoding device can improve the encoding efficiency by selecting the optimum binarization method. Also, the three-dimensional data decoding device can correctly decode the bitstream by referring to the flag included in the header and switching the binarization method.
  • FIG. 108 is a diagram showing a syntax example of attribute information (attribute_data) in the present modification.
  • the attribute information (attribute_data) shown in FIG. 108 further includes a zero total number (TotalZeroCnt). Note that other information is the same as in FIG. 96.
  • the total number of zeros (TotalZeroCnt) indicates the total number of prediction residuals having a value of 0 after quantization.
  • FIG. 109 is a diagram illustrating an example of the prediction residual, ZeroCnt, and TotalZeroCnt in this case. For example, in the case of the color information shown in FIG. 109, the three-dimensional data encoding device counts the number of consecutive prediction residuals in which the R, G, and B components are all 0, and the counted numbers are bit-coded as TotalZeroCnt and ZeroCnt.
  • the three-dimensional data encoding device may calculate TotalZeoCnt and ZeroCnt for each dimension and add the calculated TotalZeoCnt and ZeroCnt to the bitstream even when attribute_dimension is 2 or more.
  • FIG. 110 is a flowchart of the prediction residual coding process (S6518) in this modification.
  • the three-dimensional data encoding device converts the prediction residual from a signed integer value to an unsigned integer value (S6571).
  • the three-dimensional data encoding device encodes TotalZeroCnt (S6572).
  • the three-dimensional data encoding device determines whether the value of the prediction residual to be processed is zero (S6574). When the value of the prediction residual of the processing target is zero (Yes in S6574), the three-dimensional data encoding device increments ZeroCnt by 1 (S6575), and returns to step S6573.
  • the three-dimensional data encoding device determines whether TotalZeroCnt is greater than 0 (S6576). If TotalZeroCnt is larger than 0 (Yes in S6576), the three-dimensional data encoding device encodes ZeroCnt and sets TotalZeroCnt to TotalZeroCnt-ZeroCnt (S6577).
  • the three-dimensional data encoding device encodes the prediction residual, resets ZeroCnt to 0 (S6578), and returns to step S6573.
  • the three-dimensional data encoding device performs binary arithmetic encoding. Further, the three-dimensional data encoding device may subtract the value 1 from the prediction residual and encode the obtained value.
  • steps S6574 to S6578 is repeated for each prediction residual. If all prediction residuals have been processed (Yes in S6573), the three-dimensional data encoding device ends the process.
  • FIG. 111 is a flowchart of the prediction residual decoding process (S6556) in this modification.
  • the three-dimensional data decoding device decodes TotalZeroCnt from the bitstream (S6581).
  • the three-dimensional data decoding apparatus decodes ZeroCnt from the bitstream, and sets TotalZeroCnt to TotalZeroCnt-ZeroCnt (S6582).
  • the three-dimensional data decoding device determines whether ZeroCnt is greater than 0 (S6584).
  • the three-dimensional data decoding device sets the prediction residual of the processing target to 0 (S6585). Next, the three-dimensional data decoding device subtracts 1 from ZeroCnt (S6586), and returns to step S6583.
  • the three-dimensional data decoding device decodes the prediction residual of the processing target (S6587). For example, the three-dimensional data decoding device uses binary arithmetic decoding. Further, the three-dimensional data decoding device may add the value 1 to the decoded prediction residual.
  • the three-dimensional data decoding device determines whether TotalZeroCnt is greater than 0 (S6588). If TotalZeroCnt is greater than 0 (Yes in S6588), the three-dimensional data decoding apparatus decodes ZeroCnt, sets the obtained value in ZeroCnt, sets TotalZeroCnt in TotalZeroCnt-ZeroCnt (S6589), and returns to step S6583. .. If TotalZeroCnt is 0 (No in S6588), the three-dimensional data decoding apparatus returns to step S6583.
  • steps S6584 to S6589 is repeated for each prediction residual. If all the prediction residuals have been processed (Yes in S6583), the three-dimensional data encoding device converts the decoded prediction residuals from unsigned integer values to signed integer values (S6590).
  • the three-dimensional data encoding device uses a plurality of difference values (for example, prediction residuals) that are differences between each of a plurality of pieces of attribute information of a plurality of three-dimensional points included in the point cloud data and a prediction value corresponding to the attribute information. ) Is calculated (S6951).
  • the three-dimensional data encoding device includes first information (for example, ZeroCnt) indicating the number of consecutive zero difference values that are zero-value difference values in a first code string in which a plurality of difference values are arranged, and non-zero values.
  • a second code string including second information (eg value) indicating the value of the difference value is generated (S 6592 ).
  • the three-dimensional data encoding device generates a bitstream including the second code string (S6593).
  • the three-dimensional data encoding device can reduce the code amount when the difference value of the value zero continues by using the first information, and thus the encoding efficiency can be improved.
  • each of the plurality of attribute information includes a plurality of components
  • each of the plurality of difference values includes a plurality of difference components corresponding to the plurality of components
  • the first information includes a plurality of difference components.
  • the second information indicates the values of the plurality of difference components included in the non-zero difference value in which at least one of the plurality of difference components is not zero. ..
  • the three-dimensional data encoding device can reduce the code amount as compared with the case where the first information is provided for each component, the encoding efficiency can be improved.
  • the second information indicates the values of the plurality of components
  • the values of the plurality of components included in the non-zero difference value are When all are the same, a value obtained by subtracting 1 from each of the values of the plurality of components is shown.
  • the three-dimensional data encoding device can reduce the code amount, and thus can improve the encoding efficiency.
  • the second information indicates the value of the two or more components when each of the plurality of attribute information includes two or more components, and the one of the plurality of attribute information when each of the plurality of attribute information includes one component.
  • the value obtained by subtracting 1 from the value of one component is shown.
  • the three-dimensional data encoding device can reduce the code amount, and thus can improve the encoding efficiency.
  • the plurality of 3D points are classified into a plurality of layers (for example, LoD) based on the position information of the plurality of 3D points, and the plurality of difference values are arranged for each layer in the first code string.
  • a plurality of layers for example, LoD
  • the three-dimensional data encoding device further quantizes each of the plurality of difference values, and the plurality of quantized difference values are arranged in the first code string.
  • the three-dimensional data encoding device includes a processor and a memory, and the processor performs the above processing using the memory.
  • the three-dimensional data decoding device performs the processing shown in FIG. 113.
  • the three-dimensional data decoding device includes a plurality of difference values (for example, a plurality of difference values, which are differences between the plurality of three-dimensional point attribute information included in the point cloud data and the predicted value corresponding to the attribute information, from the bitstream (for example, , Prediction residual), first information (eg ZeroCnt) indicating the number of consecutive zero difference values that are difference values of the value zero in the first code string, and the first information indicating the value of the non-zero difference value.
  • a second code string including two pieces of information (for example, value) is acquired (S6595).
  • the three-dimensional data decoding device acquires a plurality of difference values by restoring the first code string from the second code string (S6596).
  • the three-dimensional data decoding device calculates a plurality of attribute information by adding a prediction value corresponding to the difference value to the plurality of difference values (S6597).
  • the three-dimensional data decoding device can reduce the code amount in the case where the difference value of the value zero continues by using the first information, and thus the coding efficiency can be improved.
  • each of the plurality of attribute information includes a plurality of components
  • each of the plurality of difference values includes a plurality of difference components corresponding to the plurality of components
  • the first information includes a plurality of difference components.
  • the second information indicates the values of the plurality of difference components included in the non-zero difference value in which at least one of the plurality of difference components is not zero. ..
  • the three-dimensional data decoding device can reduce the code amount as compared with the case where the first information is provided for each component, so that the coding efficiency can be improved.
  • the second information indicates the values of the plurality of components
  • the values of the plurality of components included in the non-zero difference value are When all are the same, a value obtained by subtracting 1 from each of the values of the plurality of components is shown.
  • the three-dimensional data decoding device can reduce the code amount, the coding efficiency can be improved.
  • the three-dimensional data decoding device calculates the values of the plurality of components by adding 1 to each of the plurality of values, and calculates the plurality of calculated components.
  • the value of is used to restore the first code string.
  • the second information indicates the value of the two or more components when each of the plurality of attribute information includes two or more components, and the one of the plurality of attribute information when each of the plurality of attribute information includes one component.
  • the value obtained by subtracting 1 from the value of one component is shown.
  • the three-dimensional data decoding device can reduce the code amount, the coding efficiency can be improved.
  • the three-dimensional data decoding apparatus calculates the value of one component by adding 1 to the value, and calculates the value of one calculated component. The value is used to restore the first code string.
  • the plurality of 3D points are classified into a plurality of layers (for example, LoD) based on the position information of the plurality of 3D points, and the plurality of difference values are arranged for each layer in the first code string.
  • a plurality of layers for example, LoD
  • a plurality of quantized difference values are arranged in the first code string, and the three-dimensional data decoding apparatus acquires the plurality of quantized difference values by restoring the first code string, A plurality of difference values are acquired by dequantizing each of the plurality of difference values that have been converted.
  • the three-dimensional data decoding device includes a processor and a memory, and the processor uses the memory to perform the above processing.
  • FIG. 114 is a diagram for explaining encoding of attribute information using RAHT.
  • the three-dimensional data encoding device generates a Morton code based on the position information of the three-dimensional points, and sorts the attribute information of the three-dimensional points in Morton code order. For example, the three-dimensional data encoding device may sort the Morton codes in ascending order. The sort order is not limited to the Morton code order, and another order may be used.
  • the three-dimensional data encoding device generates the high-frequency component and the low-frequency component of the layer L by applying the Haar transform to the attribute information of two adjacent three-dimensional points in Morton code order.
  • the three-dimensional data encoding device may use Haar transform of a 2 ⁇ 2 matrix.
  • the generated high frequency component is included in the coding coefficient as the high frequency component of the layer L, and the generated low frequency component is used as the input value of the upper layer L+1 of the layer L.
  • the three-dimensional data encoding device continues to process the layer L+1 after generating the high frequency component of the layer L using the attribute information of the layer L.
  • the three-dimensional data encoding device generates the high-frequency component and the low-frequency component of the layer L+1 by applying the Haar transform to the two low-frequency components obtained by the Haar transform of the attribute information of the layer L. To do.
  • the generated high frequency component is included in the coding coefficient as the high frequency component of the layer L+1, and the generated low frequency component is used as the input value of the upper layer L+2 of the layer L+1.
  • the three-dimensional data encoding device repeats such hierarchical processing and determines that the highest hierarchical level Lmax has been reached when the number of low frequency components input to the hierarchical level becomes one.
  • the three-dimensional data encoding device includes the low frequency component of the layer Lmax-1 input to the layer Lmax in the encoding coefficient. Then, the value of the low frequency component or the high frequency component included in the coding coefficient is quantized and coded using entropy coding or the like.
  • the 3D data encoding apparatus sets the value of the attribute information of the existing 3D point in the upper layer. It may be used as an input value.
  • the three-dimensional data encoding apparatus hierarchically applies the Haar transform to the input attribute information, generates the high frequency component and the low frequency component of the attribute information, and applies the quantization or the like described later. Encoding. As a result, the coding efficiency can be improved.
  • the three-dimensional data encoding device may apply the Haar transform independently for each dimension and calculate the respective encoding coefficients. For example, when the attribute information is color information (RGB, YUV, or the like), the three-dimensional data encoding device applies the Haar transform to each component and calculates each encoding coefficient.
  • the three-dimensional data encoding device may apply the Haar transform in the order of layers L, L+1,..., Layer Lmax. The closer to the layer Lmax, the more the coding coefficient including many low frequency components of the input attribute information is generated.
  • W0 and w1 shown in FIG. 114 are weights assigned to each three-dimensional point.
  • the three-dimensional data encoding device may calculate the weight based on the distance information between two adjacent three-dimensional points to which the Haar transform is applied.
  • the three-dimensional data encoding device may improve the encoding efficiency by increasing the weight as the distance becomes shorter. Note that the three-dimensional data encoding device may calculate this weight by another method or may not use the weight.
  • the input attribute information is a0, a1, a2, a3, a4 and a5. Further, among the coding coefficients after the Haar transform, Ta1, Ta5, Tb1, Tb3, Tc1, and d0 are coded. The other coding coefficients (b0, b2, c0, etc.) are intermediate values and are not coded.
  • the high frequency component Ta1 and the low frequency component b0 are generated by performing the Haar conversion on a0 and a1.
  • the low frequency component b0 is the average value of a0 and a1
  • the high frequency component Ta1 is the difference between a0 and a1.
  • a2 Since a2 does not have a pair of attribute information, a2 is used as it is as b1. Similarly, since there is no paired attribute information in a3, a3 is used as it is as b2. Further, the Haar conversion is performed on a4 and a5 to generate a high frequency component Ta5 and a low frequency component b3.
  • Haar conversion is performed on b0 and b1 to generate a high frequency component Tb1 and a low frequency component c0.
  • Haar conversion is performed on b2 and b3, a high frequency component Tb3 and a low frequency component c1 are generated.
  • the high frequency component Tc1 and the low frequency component d0 are generated by performing the Haar conversion on c0 and c1.
  • the three-dimensional data coding device may quantize the coding coefficient after applying the Haar transform and then code it.
  • a three-dimensional data encoding device performs quantization by dividing an encoding coefficient by a quantization scale (also referred to as a quantization step (QS (Quantization Step))).
  • QS Quantization Step
  • the smaller the quantization scale the smaller the error (quantization error) that can occur due to the quantization.
  • the larger the quantization scale the larger the quantization error.
  • FIG. 115 is a diagram showing an example of setting the quantization scale for each layer.
  • the three-dimensional data encoding device reduces the quantization scale in the upper layer and increases the quantization scale in the lower layer. Since the coding coefficient of the three-dimensional point belonging to the upper layer contains more low frequency components than the lower layer, it is highly likely that it is an important component in human visual characteristics. Therefore, by reducing the quantization scale of the upper layer to suppress the quantization error that may occur in the upper layer, visual deterioration can be suppressed and the coding efficiency can be improved.
  • the three-dimensional data encoding device may add a quantization scale for each layer to a header or the like.
  • the three-dimensional data decoding device can correctly decode the quantization scale and can properly decode the bitstream.
  • the three-dimensional data encoding device may adaptively switch the value of the quantization scale according to the importance of the target three-dimensional point to be encoded. For example, the three-dimensional data encoding device uses a small quantization scale for a three-dimensional point having high importance and uses a large quantization scale for a three-dimensional point having low importance. For example, the three-dimensional data encoding device may calculate the degree of importance from the weight or the like at the time of Haar conversion. For example, the three-dimensional data encoding device may calculate the quantization scale using the added value of w0 and w1. By thus reducing the quantization scale of the three-dimensional points having high importance, the quantization error is reduced, and the coding efficiency can be improved.
  • the upper layer may have a smaller QS value.
  • the higher the layer is the larger the QW value becomes, and the prediction efficiency can be improved by suppressing the quantization error at the three-dimensional point.
  • the quantized coding coefficient Ta1q of the coding coefficient Ta1 of the attribute information a1 is represented by Ta1/QS_L.
  • QS may have the same value in all layers or some layers.
  • QW Quality Weight
  • the added value of w0 and w1 described above may be used as QW.
  • the three-dimensional data encoding apparatus first initializes the QW values of all three-dimensional points with 1, and updates the QW of each three-dimensional point using the values of w0 and w1 at the time of Haar conversion. Good.
  • the three-dimensional data encoding device may change the initial values according to the hierarchy without initializing the QWs of all three-dimensional points with the value 1.
  • the quantization scale of the upper layer becomes smaller by setting the initial value of QW larger for the upper layer.
  • the prediction error of the upper layer can be suppressed, so that the prediction accuracy of the lower layer can be improved and the coding efficiency can be improved.
  • the three-dimensional data encoding device does not necessarily need to use QW.
  • the quantized value Ta1q of Ta1 is calculated by (Equation K1) and (Equation K2).
  • the three-dimensional data encoding device scans and encodes the quantized coding coefficients (unsigned integer values) in a certain order. For example, the three-dimensional data encoding device encodes a plurality of three-dimensional points in order from the three-dimensional points included in the upper layer toward the lower layer.
  • the three-dimensional data encoding apparatus encodes a plurality of three-dimensional points in the order of d0q to Tc1q, Tb1q, Tb3q, Ta1q, Ta5q included in the upper layer Lmax.
  • the lower the layer L the more likely the quantized coding coefficient becomes 0.
  • the following can be cited as factors for this.
  • the coding coefficient of the lower layer L shows higher frequency components than the upper layer, it tends to be 0 depending on the target 3D point. Also, by switching the quantization scale according to the importance or the like described above, the quantization scale becomes larger in the lower layers, and the coding coefficient after quantization tends to become zero.
  • FIG. 116 is a diagram illustrating an example of the first code string and the second code string.
  • the three-dimensional data encoding device counts the number of times the value 0 has occurred in the first code string, and encodes the number of times the value 0 has occurred consecutively, instead of the consecutive value 0. That is, the three-dimensional data encoding device generates the second code string by replacing the continuous encoding coefficient of the value 0 in the first code string with the number of consecutive 0s (ZeroCnt). Accordingly, when the value 0 of the quantized coding coefficient is continuous, the coding efficiency can be improved by coding the number of consecutive 0s rather than coding a large number of 0s.
  • the three-dimensional data encoding device may entropy-encode the value of ZeroCnt. For example, the three-dimensional data encoding device binarizes the value of ZeroCnt with a trunked unary code of the total number T of encoded three-dimensional points, and arithmetically encodes each bit after binarization. ..
  • FIG. 117 is a diagram illustrating an example of a trunket unary code when the total number of encoded three-dimensional points is T. At this time, the three-dimensional data coding apparatus may improve coding efficiency by using a different coding table for each bit.
  • the three-dimensional data encoding device uses the encoding table 1 for the first bit, the encoding table 2 for the second bit, and the encoding table 3 for the subsequent bits.
  • the three-dimensional data encoding device can improve the encoding efficiency by switching the encoding table for each bit.
  • the three-dimensional data encoding device may binarize ZeroCnt with exponential-Golomb and then perform arithmetic encoding. As a result, when the value of ZeroCnt tends to be large, the efficiency can be improved as compared with the binary arithmetic coding by the trunket unary code.
  • the three-dimensional data encoding device may add a flag to the header for switching whether to use the Trunket Unary code or the exponential Golomb. Accordingly, the three-dimensional data encoding device can improve the encoding efficiency by selecting the optimum binarization method. Also, the three-dimensional data decoding device can correctly decode the bitstream by referring to the flag included in the header and switching the binarization method.
  • the three-dimensional data decoding device may convert the decoded quantized coding coefficient from an unsigned integer value to a signed integer value by a method reverse to the method performed by the three-dimensional data coding device. Accordingly, when the coding coefficient is entropy-coded, the three-dimensional data decoding apparatus can appropriately decode the generated bitstream without considering the occurrence of a negative integer.
  • the three-dimensional data decoding device does not necessarily need to convert the coding coefficient from the unsigned integer value to the signed integer value. For example, when the three-dimensional data decoding device decodes a bitstream including coded bits that are separately entropy coded, the three-dimensional data decoding device may decode the coded bits.
  • the three-dimensional data decoding device decodes the quantized coding coefficient converted into a signed integer value by inverse quantization and inverse Haar transform.
  • the three-dimensional data decoding device also uses the decoded coding coefficient for prediction after the three-dimensional point to be decoded. Specifically, the three-dimensional data decoding device calculates the inverse quantized value by multiplying the quantized coding coefficient by the decoded quantization scale. Next, the three-dimensional data decoding device obtains a decoded value by applying an inverse Haar transform described below to the inverse quantized value.
  • the three-dimensional data decoding device converts the decoded unsigned integer value into a signed integer value by the following method.
  • the signed integer value Ta1q is set to ⁇ ((a2u+1)>>1).
  • the signed integer value Ta1q is set to (a2u>>1).
  • Ta1q is a quantized value of Ta1.
  • QS_L is a quantization step of the layer L.
  • the three-dimensional data encoding device may add information indicating QS to a header or the like. By this means, the three-dimensional data decoding device can correctly perform inverse quantization using the same QS used in the three-dimensional data encoding device.
  • FIG. 118 is a diagram for explaining the inverse Haar conversion.
  • the three-dimensional data decoding device decodes the attribute value of the three-dimensional point by applying the inverse Haar transform to the coded coefficient after the inverse quantization.
  • the 3D data decoding device generates a Morton code based on the position information of the 3D points, and sorts the 3D points in the Morton code order.
  • the three-dimensional data decoding device may sort the Morton codes in ascending order.
  • the sort order is not limited to the Morton code order, and another order may be used.
  • the three-dimensional data decoding apparatus applies the inverse Haar transform to the coding coefficient including the low-frequency component of the layer L+1 and the coding coefficient including the high-frequency component of the layer L so that the layer L is adjacent to each other in Morton code order.
  • the attribute information of the matching 3D points is restored.
  • the three-dimensional data decoding device may use the inverse Haar transform of a 2 ⁇ 2 matrix.
  • the restored attribute information of the layer L is used as an input value of the lower layer L-1.
  • the three-dimensional data decoding device repeats such hierarchical processing and ends the processing when all the attribute information of the lowest layer is decoded. If only one three-dimensional point exists as two adjacent three-dimensional points in the layer L-1 when the inverse Haar transform is applied, the three-dimensional data decoding apparatus determines that the attribute value of one existing three-dimensional point. You may substitute the value of the coding component of the hierarchy L into. Thereby, the three-dimensional data decoding device can apply the Haar transform to all the values of the input attribute information, and can correctly decode the bitstream with improved coding efficiency.
  • the three-dimensional data decoding device may independently apply the inverse Haar transform for each dimension and decode each coding coefficient. For example, when the attribute information is color information (RGB, YUV, or the like), the three-dimensional data decoding device applies the inverse Haar transform to the coding coefficient for each component and decodes each attribute value.
  • the attribute information is color information (RGB, YUV, or the like)
  • the three-dimensional data decoding device applies the inverse Haar transform to the coding coefficient for each component and decodes each attribute value.
  • the three-dimensional data decoding device may apply the inverse Haar transform in the order of layers Lmax, L+1,..., Layer L. Further, w0 and w1 shown in FIG. 118 are weights assigned to each three-dimensional point. For example, the three-dimensional data decoding device may calculate the weight based on distance information between two adjacent three-dimensional points to which the inverse Haar transform is applied. For example, the three-dimensional data encoding device may decode a bitstream in which the encoding efficiency is improved by increasing the weight as the distance is shorter.
  • the coding coefficients after dequantization are Ta1, Ta5, Tb1, Tb3, Tc1 and d0, and decoded values a0, a1, a2, a3, a4 and a5 are obtained.
  • FIG. 119 is a diagram illustrating a syntax example of attribute information (attribute_data).
  • the attribute information (attribute_data) includes the number of consecutive zeros (ZeroCnt), the number of attribute dimensions (attribute_dimension), and the coding coefficient (value[j][i]).
  • the number of consecutive zeros indicates the number of times the value 0 continues in the quantized coding coefficient. Note that the three-dimensional data encoding device may binarize ZeroCnt and then perform arithmetic encoding.
  • the three-dimensional data encoding apparatus determines whether or not the layer L (layerL) to which the encoding coefficient belongs is equal to or greater than a predetermined threshold TH_layer, and adds it to the bitstream according to the determination result.
  • Information may be switched.
  • the three-dimensional data encoding device adds all the encoding coefficients of the attribute information to the bitstream if the determination result is true.
  • the three-dimensional data encoding device may add some encoding coefficients to the bitstream if the determination result is false.
  • the three-dimensional data encoding device adds the encoding result of RGB or YUV three-dimensional information of color information to the bitstream. If the determination result is false, the three-dimensional data encoding apparatus may add some of the color information such as G or Y to the bitstream and add no other components to the bitstream. Good. In this way, the three-dimensional data encoding apparatus does not add a part of the coding coefficient of the layer (layer smaller than TH_layer) including the coding coefficient indicating the high-frequency component in which deterioration is not noticeable visually to the bitstream. , The coding efficiency can be improved.
  • Attribute dimension number indicates the dimension number of attribute information. For example, when the attribute information is three-dimensional point color information (RGB, YUV, or the like), the color information is three-dimensional, and the attribute dimension number is set to 3. When the attribute information is the reflectance, the reflectance is one-dimensional, and thus the attribute dimension number is set to the value 1. The attribute dimension number may be added to the header or the like of the attribute information of the bitstream.
  • the coding coefficient indicates the coding coefficient after the quantization of the j-th attribute information of the i-th three-dimensional point. For example, when the attribute information is color information, value[99][1] indicates the second-dimensional (eg G value) coding coefficient of the 100-th three-dimensional point. When the attribute information is reflectance information, value[119][0] indicates the first-dimensional (for example, reflectance) coding coefficient of the 120th three-dimensional point.
  • the three-dimensional data encoding device may subtract the value 1 from value[j][i] and entropy-encode the obtained value.
  • the three-dimensional data decoding device restores the coding coefficient by adding the value 1 to value[j][i] after entropy decoding.
  • the three-dimensional data coding apparatus codes the value 9 obtained by subtracting the value 1 from the value 10 of the coding coefficient.
  • the three-dimensional data decoding device adds the value 1 to the decoded value 9 to calculate the value 10 of the coding coefficient.
  • the three-dimensional data encoding apparatus uses, for example, when the R, G, and B components have the same encoding coefficient after quantization, The value 1 is subtracted from the coefficient and the resulting value is encoded.
  • value[0][i] shown in FIG. 119 indicates the quantized coding coefficient of the one-dimensional attribute information of the i-th three-dimensional point. As shown in FIG. 119, if the layer L (layerL) to which the coding coefficient belongs is smaller than the threshold value TH_layer, the attribute information of the first dimension is added to the bitstream (the attribute information of the second dimension and thereafter is not added). The code amount may be reduced by.
  • FIG. 120 is a diagram showing an example of coding coefficients and ZeroCnt in this case. For example, in the case of the color information shown in FIG. 120, the three-dimensional data encoding device counts the number of consecutive encoding coefficients whose R, G, and B components are all 0, and sets the counted number as a ZeroCnt in a bit stream. Add. This eliminates the need to encode the ZeroCnt for each component and reduces the overhead. Therefore, the coding efficiency can be improved. Note that the three-dimensional data encoding device may calculate the ZeroCnt for each dimension even if the attribute_dimension is 2 or more, and add the calculated ZeroCnt to the bitstream.
  • FIG. 121 is a flowchart of the three-dimensional data encoding process according to this embodiment.
  • the three-dimensional data encoding device encodes position information (geometry) (S6601).
  • the three-dimensional data encoding device performs encoding using an octree tree representation.
  • the three-dimensional data encoding device converts the attribute information (S6602). For example, the three-dimensional data encoding device reassigns the attribute information of the original three-dimensional point to the changed three-dimensional point when the position of the three-dimensional point changes due to quantization or the like after encoding the position information. To do. Note that the three-dimensional data encoding device may interpolate the value of the attribute information according to the amount of change in position and perform reallocation. For example, the three-dimensional data encoding apparatus detects N three-dimensional points before the change that are close to the three-dimensional position after the change and obtains the attribute information values of the N three-dimensional points from the three-dimensional position after the change.
  • Weighted averaging is performed based on the distances to each of the N three-dimensional points, and the obtained value is set as the value of the attribute information of the changed three-dimensional point.
  • the three-dimensional data encoding device sets the attribute information value after the change to two or more before the change. You may allocate the average value of the attribute information in a three-dimensional point.
  • the three-dimensional data encoding device encodes the attribute information (S6603). For example, when encoding a plurality of attribute information, the three-dimensional data encoding device may encode a plurality of attribute information in order. For example, when the color and the reflectance are encoded as the attribute information, the three-dimensional data encoding device generates a bitstream in which the reflectance encoding result is added after the color encoding result. Note that the plurality of encoding results of the attribute information added to the bitstream may be in any order.
  • the three-dimensional data encoding device may add information indicating the start location of the encoded data of each attribute information in the bitstream to the header or the like. Accordingly, the three-dimensional data decoding device can selectively decode the attribute information that needs to be decoded, and thus the decoding process of the attribute information that does not need to be decoded can be omitted. Therefore, the processing amount of the three-dimensional data decoding device can be reduced. Further, the three-dimensional data encoding device may encode a plurality of pieces of attribute information in parallel and integrate the encoding result into one bitstream. Thereby, the three-dimensional data encoding device can encode a plurality of attribute information at high speed.
  • FIG. 122 is a flowchart of the attribute information encoding process (S6603).
  • the three-dimensional data encoding device generates an encoding coefficient from the attribute information by Haar conversion (S6611).
  • the three-dimensional data encoding device applies quantization to the encoding coefficient (S6612).
  • the three-dimensional data encoding device encodes the quantized coding coefficient to generate coding attribute information (bit stream) (S6613).
  • the three-dimensional data encoding device applies inverse quantization to the encoded coefficient after quantization (S6614).
  • the three-dimensional data decoding device decodes the attribute information by applying the inverse Haar transform to the coded coefficient after the dequantization (S6615). For example, the decoded attribute information is referred to in the subsequent encoding.
  • FIG. 123 is a flowchart of the coding coefficient coding process (S6613).
  • the three-dimensional data encoding device converts an encoding coefficient from a signed integer value to an unsigned integer value (S6621).
  • the three-dimensional data encoding device converts a signed integer value into an unsigned integer value as follows. If the signed integer value Ta1q is less than 0, the unsigned integer value is set to ⁇ 1 ⁇ (2 ⁇ Ta1q). When the signed integer value Ta1q is 0 or more, the unsigned integer value is set to 2 ⁇ Ta1q. If the coding coefficient does not have a negative value, the three-dimensional data coding apparatus may code the coding coefficient as it is as an unsigned integer value.
  • the three-dimensional data coding apparatus determines whether the value of the coding coefficient to be processed is zero (S6623). When the value of the coding coefficient to be processed is zero (Yes in S6623), the three-dimensional data coding device increments ZeroCnt by 1 (S6624), and returns to step S6622.
  • the three-dimensional data encoding apparatus encodes ZeroCnt and resets ZeroCnt to 0 (S6625). Also, the three-dimensional data encoding device arithmetically encodes the encoding coefficient to be processed (S6626), and returns to step S6622. For example, the three-dimensional data encoding device performs binary arithmetic encoding. Further, the three-dimensional data encoding device may subtract the value 1 from the encoding coefficient and encode the obtained value.
  • steps S6623 to S6626 are repeated for each coding coefficient. If all the coding coefficients have been processed (Yes in S6622), the three-dimensional data coding apparatus ends the process.
  • FIG. 124 is a flowchart of the three-dimensional data decoding process according to this embodiment.
  • the three-dimensional data decoding device decodes position information (geometry) from the bitstream (S6631). For example, the three-dimensional data decoding device performs decoding using the octree tree representation.
  • the three-dimensional data decoding device decodes the attribute information from the bitstream (S6632). For example, when decoding a plurality of attribute information, the three-dimensional data decoding device may decode a plurality of attribute information in order. For example, when decoding the color and the reflectance as the attribute information, the three-dimensional data decoding apparatus decodes the color coding result and the reflectance coding result in the order of being added to the bitstream. For example, in the bitstream, when the reflectance coding result is added after the color coding result, the three-dimensional data decoding apparatus decodes the color coding result, and then the reflectance coding. Decrypt the result. Note that the three-dimensional data decoding device may decode the coding result of the attribute information added to the bitstream in any order.
  • the three-dimensional data decoding device may also acquire information indicating the start location of the encoded data of each attribute information in the bitstream by decoding the header or the like. Accordingly, the three-dimensional data decoding device can selectively decode the attribute information that needs to be decoded, and thus the decoding process of the attribute information that does not need to be decoded can be omitted. Therefore, the processing amount of the three-dimensional data decoding device can be reduced. Further, the three-dimensional data decoding device may decode a plurality of attribute information in parallel and integrate the decoding result into one three-dimensional point cloud. Thereby, the three-dimensional data decoding device can decode a plurality of attribute information at high speed.
  • FIG. 125 is a flowchart of the attribute information decoding process (S6632).
  • the three-dimensional data decoding device decodes the coding coefficient from the bitstream (S6641).
  • the three-dimensional data decoding device applies inverse quantization to the coding coefficient (S6642).
  • the three-dimensional data decoding device decodes the attribute information by applying the inverse Haar transform to the coded coefficient after the dequantization (S6643).
  • FIG. 126 is a flowchart of the coding coefficient decoding process (S6641).
  • the three-dimensional data decoding device decodes ZeroCnt from the bitstream (S6651).
  • the three-dimensional data decoding apparatus determines whether ZeroCnt is larger than 0 (S6653).
  • the three-dimensional data decoding device sets the coding coefficient of the processing target to 0 (S6654). Next, the three-dimensional data decoding device subtracts 1 from ZeroCnt (S6655), and returns to step S6652.
  • the three-dimensional data decoding device decodes the coding coefficient to be processed (S6656). For example, the three-dimensional data decoding device uses binary arithmetic decoding. The three-dimensional data decoding device may add the value 1 to the decoded coding coefficient.
  • the three-dimensional data decoding device decodes ZeroCnt, sets the obtained value in ZeroCnt (S6657), and returns to step S6652.
  • the processes of steps S6653 to S6657 are repeated for each coding coefficient. If all the coding coefficients have been processed (Yes in S6652), the three-dimensional data coding apparatus converts the decoded plural coding coefficients from unsigned integer values to signed integer values (S6658). ..
  • the three-dimensional data decoding device may convert the decoded coding coefficient from an unsigned integer value to a signed integer value as follows. When the LSB (least signature bit) of the decoded unsigned integer value Ta1u is 1, the signed integer value Ta1q is set to ⁇ ((Ta1u+1)>>1).
  • the three-dimensional data decoding device may use the decoded coding coefficient as it is as a signed integer value.
  • FIG. 127 is a block diagram of the attribute information encoding unit 6600 included in the three-dimensional data encoding device.
  • the attribute information encoding unit 6600 includes a sorting unit 6601, a Haar conversion unit 6602, a quantization unit 6603, an inverse quantization unit 6604, an inverse Haar conversion unit 6605, a memory 6606, and an arithmetic encoding unit 6607.
  • the sorting unit 6601 generates a Morton code using the position information of the 3D points, and sorts the 3D points in order of the Morton code.
  • the Haar transform unit 6602 generates a coding coefficient by applying the Haar transform to the attribute information.
  • the quantization unit 6603 quantizes the coding coefficient of the attribute information.
  • the inverse quantization unit 6604 inversely quantizes the quantized coding coefficient.
  • the inverse Haar transform unit 6605 applies the inverse Haar transform to the coding coefficient.
  • the memory 6606 stores the values of the attribute information of the decoded three-dimensional points. For example, the decoded 3D point attribute information stored in the memory 6606 may be used for prediction of an uncoded 3D point or the like.
  • the arithmetic coding unit 6607 calculates ZeroCnt from the quantized coding coefficient, and arithmetically codes ZeroCnt. Also, the arithmetic coding unit 6607 performs arithmetic coding on the non-zero coding coefficient after quantization. The arithmetic coding unit 6607 may binarize the coding coefficient before the arithmetic coding. Further, the arithmetic coding unit 6607 may generate and code various header information.
  • FIG. 128 is a block diagram of the attribute information decoding unit 6610 included in the three-dimensional data decoding device.
  • the attribute information decoding unit 6610 includes an arithmetic decoding unit 6611, an inverse quantization unit 6612, an inverse Haar conversion unit 6613, and a memory 6614.
  • the arithmetic decoding unit 6611 arithmetically decodes ZeroCnt and coding coefficients included in the bitstream.
  • the arithmetic decoding unit 6611 may decode various header information.
  • the inverse quantization unit 6612 inversely quantizes the arithmetically decoded coding coefficient.
  • the inverse Haar transform unit 6613 applies the inverse Haar transform to the encoded coefficient after the inverse quantization.
  • the memory 6614 stores the values of the attribute information of the decoded three-dimensional points. For example, the attribute information of the decoded 3D points stored in the memory 6614 may be used to predict the 3D points that have not been decoded.
  • the present invention is not limited to this.
  • a method of scanning the coding coefficient after the Haar transform from the upper layer to the lower layer may be used.
  • the three-dimensional data encoding device may encode the number of consecutive 0s as ZeroCnt.
  • the three-dimensional data encoding device may switch whether or not to use the encoding method using ZeroCnt described in the present embodiment on a WLD, SPC or volume basis.
  • the three-dimensional data encoding device may add information indicating whether or not the encoding method using ZeroCnt is applied to the header information.
  • the three-dimensional data decoding device can properly perform decoding.
  • the switching method for example, the three-dimensional data encoding device counts the number of times the encoding coefficient having the value 0 is generated for one volume.
  • the three-dimensional data encoding device applies the method using ZeroCnt to the next volume when the count value exceeds a predetermined threshold value, and uses the ZeroCnt to the next volume when the count value is less than or equal to the threshold value.
  • the method that was used is not applied.
  • the three-dimensional data encoding apparatus can appropriately switch whether or not to apply the encoding method using ZeroCnt according to the characteristics of the three-dimensional point to be encoded, thus improving the encoding efficiency. it can.
  • the three-dimensional data coding device scans and codes the quantized coding coefficients (unsigned integer values) in a certain order.
  • the three-dimensional data encoding device encodes a plurality of three-dimensional points in order from the three-dimensional points included in the lower layer toward the upper layer.
  • FIG. 129 is a diagram showing an example of the first code string and the second code string when this method is used for the attribute information shown in FIG. 114.
  • the three-dimensional data encoding apparatus encodes a plurality of encoding coefficients in the order of Ta1q to Ta5q, Tb1q, Tb3q, Tc1q, and d0q included in the lower layer L.
  • the lower the layer the more likely the quantized coding coefficient becomes 0.
  • the following can be cited as factors for this.
  • the coding coefficient of the lower layer L shows a higher frequency component than that of the upper layer, it tends to be 0 depending on the 3D point to be coded. Also, by switching the quantization scale according to the importance or the like described above, the quantization scale becomes larger in the lower layers, and the coding coefficient after quantization tends to become zero.
  • the three-dimensional data encoding device counts the number of times the value 0 has occurred in the first code string, and encodes the number of times the value 0 has occurred consecutively (ZeroCnt) instead of the consecutive value 0. Accordingly, when the value 0 of the quantized coding coefficient is continuous, the coding efficiency can be improved by coding the number of consecutive 0s rather than coding a large number of 0s.
  • the three-dimensional data encoding device may encode information indicating the total number of occurrences of the value 0. As a result, the overhead of encoding ZeroCnt can be reduced, and the encoding efficiency can be improved.
  • the three-dimensional data encoding device may entropy encode TotalZeroCnt. For example, the three-dimensional data encoding device binarizes the value of TotalZeroCnt with a trunket unary code of the total number T of encoded three-dimensional points, and arithmetically encodes each bit after binarization. At this time, the three-dimensional data coding apparatus may improve coding efficiency by using a different coding table for each bit. For example, the three-dimensional data encoding device uses the encoding table 1 for the first bit, the encoding table 2 for the second bit, and the encoding table 3 for the subsequent bits. Thus, the three-dimensional data encoding device can improve the encoding efficiency by switching the encoding table for each bit.
  • the three-dimensional data encoding device may binarize TotalZeroCnt with exponential Golomb and then perform arithmetic encoding. As a result, when the value of TotalZeroCnt tends to be large, the efficiency can be improved as compared with the binary arithmetic coding by the trunket unary code.
  • the three-dimensional data encoding device may add a flag to the header for switching whether to use the Trunket Unary code or the exponential Golomb. Accordingly, the three-dimensional data encoding device can improve the encoding efficiency by selecting the optimum binarization method. Also, the three-dimensional data decoding device can correctly decode the bitstream by referring to the flag included in the header and switching the binarization method.
  • FIG. 130 is a diagram showing a syntax example of attribute information (attribute_data) in the present modification.
  • the attribute information (attribute_data) illustrated in FIG. 130 further includes the total number of zeros (TotalZeroCnt) in addition to the attribute information illustrated in FIG. 119.
  • the other information is the same as in FIG. 119.
  • the total number of zeros (TotalZeroCnt) indicates the total number of coding coefficients having a value of 0 after quantization.
  • FIG. 131 is a diagram illustrating an example of the coding coefficient, ZeroCnt, and TotalZeroCnt in this case. For example, in the case of the color information shown in FIG. 131, the three-dimensional data encoding apparatus counts the number of consecutive encoding coefficients whose R, G, and B components are all 0, and sets the counted number as bits TotalZeroCnt and ZeroCnt.
  • the three-dimensional data encoding device may calculate TotalZeoCnt and ZeroCnt for each dimension and add the calculated TotalZeoCnt and ZeroCnt to the bitstream even when attribute_dimension is 2 or more.
  • FIG. 132 is a flowchart of the coding coefficient coding process (S6613) in this modification.
  • the three-dimensional data encoding device converts an encoding coefficient from a signed integer value to an unsigned integer value (S6661).
  • the three-dimensional data encoding device encodes TotalZeroCnt (S6662).
  • the three-dimensional data coding apparatus determines whether the value of the coding coefficient to be processed is zero (S6664). When the value of the coding coefficient to be processed is zero (Yes in S6664), the three-dimensional data coding device increments ZeroCnt by 1 (S6665), and returns to step S6663.
  • the three-dimensional data encoding device determines whether TotalZeroCnt is greater than 0 (S6666). When TotalZeroCnt is larger than 0 (Yes in S6666), the three-dimensional data encoding device encodes ZeroCnt and sets TotalZeroCnt to TotalZeroCnt-ZeroCnt (S6667).
  • the three-dimensional data encoding device encodes the encoding coefficient, resets ZeroCnt to 0 (S6668), and returns to step S6663.
  • the three-dimensional data encoding device performs binary arithmetic encoding. Further, the three-dimensional data encoding device may subtract the value 1 from the encoding coefficient and encode the obtained value.
  • steps S6664 to S6668 are repeatedly performed for each coding coefficient. If all the coding coefficients have been processed (Yes in S6663), the three-dimensional data coding apparatus ends the process.
  • FIG. 133 is a flowchart of the coding coefficient decoding process (S6641) in this modification.
  • the three-dimensional data decoding device decodes TotalZeroCnt from the bitstream (S6671).
  • the three-dimensional data decoding device decodes ZeroCnt from the bitstream and sets TotalZeroCnt to TotalZeroCnt-ZeroCnt (S6672).
  • the three-dimensional data coding device determines whether ZeroCnt is larger than 0 (S6674).
  • the three-dimensional data decoding device sets the coding coefficient of the processing target to 0 (S6675). Next, the three-dimensional data decoding device subtracts 1 from ZeroCnt (S6676), and returns to step S6673.
  • the three-dimensional data decoding device decodes the coding coefficient to be processed (S6677). For example, the three-dimensional data decoding device uses binary arithmetic decoding. The three-dimensional data decoding device may add the value 1 to the decoded coding coefficient.
  • the three-dimensional data decoding device determines whether TotalZeroCnt is larger than 0 (S6678). If TotalZeroCnt is greater than 0 (Yes in S6678), the three-dimensional data decoding apparatus decodes ZeroCnt, sets the obtained value in ZeroCnt, sets TotalZeroCnt in TotalZeroCnt-ZeroCnt (S6679), and returns to step S6673. .. If TotalZeroCnt is 0 (No in S6678), the three-dimensional data decoding apparatus returns to step S6673.
  • steps S6674 to S6679 are repeated for each coding coefficient. If all the coding coefficients have been processed (Yes in S6673), the three-dimensional data coding device converts the decoded coding coefficient from an unsigned integer value to a signed integer value (S6680).
  • FIG. 134 is a diagram showing another syntax example of attribute information (attribute_data).
  • the attribute information (attribute_data) shown in FIG. 134 includes value[j][i]_greater_zero_flag and value[j][i]_greater_one_flag instead of the coding coefficient (value[j][i]) shown in FIG. 119. , Value[j][i].
  • the other information is the same as in FIG. 119.
  • Value[j][i]_greater_zero_flag indicates whether the value of the coding coefficient (value[j][i]) is greater than 0 (is 1 or more). In other words, value[j][i]_greater_zero_flag indicates whether the value of the coding coefficient (value[j][i]) is 0 or not.
  • value[j][i]_greater_zero_flag is set to the value 1
  • value[j][i]_greater_zero_flag is set to the value 0. Is set.
  • the three-dimensional data encoding device does not need to add value[j][i] to the bitstream. In this case, the three-dimensional data decoding device may determine that the value of value[j][i] is 0. Thereby, the code amount can be reduced.
  • Value[j][i]_greater_one_flag indicates whether or not the value of the coding coefficient (value[j][i]) is larger than 1 (is 2 or more). In other words, value[j][i]_greater_one_flag indicates whether the value of the coding coefficient (value[j][i]) is 1.
  • value[j][i]_greater_one_flag is set to the value 1. Otherwise (when the value of the encoding coefficient is 1 or less), value[j][i]_greater_one_flag is set to the value 0.
  • the three-dimensional data encoding apparatus does not need to add value[j][i] to the bitstream when the value of value[j][i]_greater_one_flag is 0. In this case, the three-dimensional data decoding device may determine that the value of value[j][i] is the value one.
  • Value[j][i] indicates the quantized coding coefficient of the j-th attribute information of the i-th three-dimensional point. For example, when the attribute information is color information, value[99][1] indicates the second-dimensional (eg G value) coding coefficient of the 100-th three-dimensional point. When the attribute information is reflectance information, value[119][0] indicates the first-dimensional (for example, reflectance) coding coefficient of the 120th three-dimensional point.
  • the three-dimensional data encoding device may entropy encode value[j][i]_greater_zero_flag and value[j][i]_greater_one_flag.
  • binary arithmetic coding and binary arithmetic decoding may be used. This can improve the coding efficiency.
  • the three-dimensional data encoding device performs the processing shown in FIG. 135.
  • the three-dimensional data encoding device calculates a plurality of coefficient values (for example, encoding coefficients) from a plurality of pieces of attribute information of a plurality of three-dimensional points included in the point cloud data (S6691).
  • the three-dimensional data encoding device includes first information (for example, ZeroCnt) indicating the number of consecutive zero coefficient values that are zero coefficient values in the first code string in which a plurality of coefficient values are arranged, and A second code string including second information (for example, value[j][i]_greater_zero_flag) indicating whether the numerical value is zero is generated (S6692).
  • the three-dimensional data encoding device generates a bitstream including the second code string (S6693).
  • the coefficient value is not limited to the coding coefficient and may be a prediction residual which is a difference value between the attribute information and the predicted value.
  • the three-dimensional data encoding device can reduce the code amount when the coefficient value of the value zero continues by using the first information, and thus can improve the encoding efficiency. Furthermore, the three-dimensional data encoding device can improve the encoding efficiency when a large number of coefficient values of zero occur by using the second information, the third information, and the fourth information.
  • each of the plurality of attribute information includes a plurality of components
  • each of the plurality of coefficient values includes a plurality of coefficient components corresponding to the plurality of components
  • the first information is that the plurality of coefficient components are all zero.
  • a certain zero coefficient value indicates a continuous number
  • the second information indicates whether or not each of the plurality of coefficient components is zero.
  • the three-dimensional data encoding device can reduce the code amount as compared with the case where the first information is provided for each component, the encoding efficiency can be improved.
  • the second code string further includes third information (eg, value[j][i]_greater_one_flag) indicating whether each of the plurality of coefficient components is 1, and 2 from each of the plurality of coefficient components.
  • third information eg, value[j][i]_greater_one_flag
  • fourth information indicating the subtracted value is included.
  • the three-dimensional data encoding device can improve the encoding efficiency when a large number of coefficient values of 0 or 1 occur.
  • a plurality of coefficient values are generated by dividing each of a plurality of attribute information into a high frequency component and a low frequency component and layering them.
  • the three-dimensional data encoding device further quantizes each of the plurality of coefficient values, and the plurality of quantized coefficient values are arranged in the first code string.
  • the three-dimensional data encoding device includes a processor and a memory, and the processor performs the above processing using the memory.
  • the three-dimensional data decoding device performs the processing shown in FIG. 136.
  • the three-dimensional data decoding device uses a coefficient value of zero in a first code string in which a plurality of coefficient values generated from a plurality of attribute information of a plurality of three-dimensional points included in the point cloud data are arranged from a bitstream.
  • a second code including first information (for example, ZeroCnt) indicating the number of consecutive zero coefficient values and second information (for example, value[j][i]_greater_zero_flag) indicating whether or not the coefficient value is zero.
  • a row is acquired (S6695).
  • the three-dimensional data decoding device acquires a plurality of coefficient values by restoring the first code string from the second code string (S6669).
  • the three-dimensional data decoding device calculates a plurality of pieces of attribute information from the plurality of coefficient values (S6697).
  • the coefficient value is not limited to the coding coefficient and may be a prediction residual which is a difference value between the attribute information and the predicted value.
  • the three-dimensional data decoding device can reduce the code amount in the case where the coefficient values having the value of zero are consecutive by using the first information, so that the coding efficiency can be improved. Furthermore, the three-dimensional data decoding device can improve the coding efficiency when a large number of coefficient values of zero occur by using the second information.
  • each of the plurality of attribute information includes a plurality of components
  • each of the plurality of coefficient values includes a plurality of coefficient components corresponding to the plurality of components
  • the first information is that the plurality of coefficient components are all zero.
  • a certain zero coefficient value indicates a continuous number
  • the second information indicates whether or not each of the plurality of coefficient components is zero.
  • the three-dimensional data decoding device can reduce the code amount as compared with the case where the first information is provided for each component, so that the coding efficiency can be improved.
  • the second code string further includes third information (eg, value[j][i]_greater_one_flag) indicating whether each of the plurality of coefficient components is 1, and 2 from each of the plurality of coefficient components.
  • third information eg, value[j][i]_greater_one_flag
  • fourth information indicating the subtracted value is included.
  • the three-dimensional data decoding device can improve the coding efficiency when a large number of coefficient values of 0 or 1 occur.
  • the plurality of coefficient values are generated by dividing each of the plurality of attribute information into a high frequency component and a low frequency component and layering them.
  • a plurality of quantized coefficient values are arranged in the first code string.
  • the three-dimensional data decoding device obtains a plurality of quantized coefficient values by restoring the first code string, and dequantizes each of the quantized coefficient values to obtain a plurality of coefficient values. get.
  • the three-dimensional data decoding device includes a processor and a memory, and the processor uses the memory to perform the above processing.
  • the three-dimensional data encoding device and the three-dimensional data decoding device according to the embodiment of the present disclosure have been described above, but the present disclosure is not limited to this embodiment.
  • Each processing unit included in the three-dimensional data encoding device, the three-dimensional data decoding device, and the like according to the above embodiments is typically realized as an LSI that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • the integrated circuit is not limited to the LSI, and it may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure connection and settings of circuit cells inside the LSI may be used.
  • each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory.
  • the present disclosure may be realized as a three-dimensional data encoding method or a three-dimensional data decoding method executed by a three-dimensional data encoding device, a three-dimensional data decoding device, or the like.
  • the division of functional blocks in the block diagram is an example, and multiple functional blocks are realized as one functional block, one functional block is divided into multiple, and some functions are moved to other functional blocks. May be. Further, the functions of a plurality of functional blocks having similar functions may be processed in parallel or in time division by a single piece of hardware or software.
  • the three-dimensional data encoding device and the three-dimensional data decoding device have been described above based on the embodiments, but the present disclosure is not limited to the embodiments. .. As long as it does not depart from the gist of the present disclosure, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and configurations in which components in different embodiments are combined are constructed within the scope of one or more aspects. May be included within.
  • the present disclosure can be applied to a three-dimensional data encoding device and a three-dimensional data decoding device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

三次元データ符号化方法は、点群データに含まれる複数の三次元点の複数の属性情報から複数の係数値を算出し(S6691)、複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、係数値がゼロであるか否かを示す第2情報とを含む第2符号列を生成し(S6692)、第2符号列を含むビットストリームを生成する(S6693)。例えば、複数の属性情報の各々は、複数の成分を含み、複数の係数値の各々は、複数の成分に対応する複数の係数成分を含み、第1情報は、複数の係数成分が全てゼロである前記ゼロ係数値が連続する数を示し、第2情報は、前記複数の係数成分の各々がゼロであるか否かを示してもよい。

Description

三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
 本開示は、三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置に関する。
 自動車或いはロボットが自律的に動作するためのコンピュータビジョン、マップ情報、監視、インフラ点検、又は、映像配信など、幅広い分野において、今後、三次元データを活用した装置又はサービスの普及が見込まれる。三次元データは、レンジファインダなどの距離センサ、ステレオカメラ、又は複数の単眼カメラの組み合わせなど様々な方法で取得される。
 三次元データの表現方法の1つとして、三次元空間内の点群によって三次元構造の形状を表すポイントクラウドと呼ばれる表現方法がある。ポイントクラウドでは、点群の位置と色とが格納される。ポイントクラウドは三次元データの表現方法として主流になると予想されるが、点群はデータ量が非常に大きい。よって、三次元データの蓄積又は伝送においては二次元の動画像(一例として、MPEGで規格化されたMPEG-4 AVC又はHEVCなどがある)と同様に、符号化によるデータ量の圧縮が必須となる。
 また、ポイントクラウドの圧縮については、ポイントクラウド関連の処理を行う公開のライブラリ(Point Cloud Library)などによって一部サポートされている。
 また、三次元の地図データを用いて、車両周辺に位置する施設を検索し、表示する技術が知られている(例えば、特許文献1参照)。
国際公開第2014/020663号
 三次元データの符号化処理では、符号化効率を向上できることが望まれている。
 本開示は、符号化効率を向上できる三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、又は三次元データ復号装置を提供することを目的とする。
 本開示の一態様に係る三次元データ符号化方法は、点群データに含まれる複数の三次元点の複数の属性情報から複数の係数値を算出し、前記複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を生成し、前記第2符号列を含むビットストリームを生成する。
 本開示の一態様に係る三次元データ復号方法は、ビットストリームから、点群データに含まれる複数の三次元点の複数の属性情報から生成された複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を取得し、前記第2符号列から前記第1符号列を復元することで前記複数の係数値を取得し、前記複数の係数値から前記複数の属性情報を算出する。
 本開示は、符号化効率を向上できる三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、又は三次元データ復号装置を提供できる。
図1は、実施の形態1に係る符号化三次元データの構成を示す図である。 図2は、実施の形態1に係るGOSの最下層レイヤに属するSPC間の予測構造の一例を示す図である。 図3は、実施の形態1に係るレイヤ間の予測構造の一例を示す図である。 図4は、実施の形態1に係るGOSの符号化順の一例を示す図である。 図5は、実施の形態1に係るGOSの符号化順の一例を示す図である。 図6は、実施の形態1に係る三次元データ符号化装置のブロック図である。 図7は、実施の形態1に係る符号化処理のフローチャートである。 図8は、実施の形態1に係る三次元データ復号装置のブロック図である。 図9は、実施の形態1に係る復号処理のフローチャートである。 図10は、実施の形態1に係るメタ情報の一例を示す図である。 図11は、実施の形態2に係るSWLDの構成例を示す図である。 図12は、実施の形態2に係るサーバ及びクライアントの動作例を示す図である。 図13は、実施の形態2に係るサーバ及びクライアントの動作例を示す図である。 図14は、実施の形態2に係るサーバ及びクライアントの動作例を示す図である。 図15は、実施の形態2に係るサーバ及びクライアントの動作例を示す図である。 図16は、実施の形態2に係る三次元データ符号化装置のブロック図である。 図17は、実施の形態2に係る符号化処理のフローチャートである。 図18は、実施の形態2に係る三次元データ復号装置のブロック図である。 図19は、実施の形態2に係る復号処理のフローチャートである。 図20は、実施の形態2に係るWLDの構成例を示す図である。 図21は、実施の形態2に係るWLDの8分木構造の例を示す図である。 図22は、実施の形態2に係るSWLDの構成例を示す図である。 図23は、実施の形態2に係るSWLDの8分木構造の例を示す図である。 図24は、実施の形態3に係る三次元データ作成装置のブロック図である。 図25は、実施の形態3に係る三次元データ送信装置のブロック図である。 図26は、実施の形態4に係る三次元情報処理装置のブロック図である。 図27は、実施の形態5に係る三次元データ作成装置のブロック図である。 図28は、実施の形態6に係るシステムの構成を示す図である。 図29は、実施の形態6に係るクライアント装置のブロック図である。 図30は、実施の形態6に係るサーバのブロック図である。 図31は、実施の形態6に係るクライアント装置による三次元データ作成処理のフローチャートである。 図32は、実施の形態6に係るクライアント装置によるセンサ情報送信処理のフローチャートである。 図33は、実施の形態6に係るサーバによる三次元データ作成処理のフローチャートである。 図34は、実施の形態6に係るサーバによる三次元マップ送信処理のフローチャートである。 図35は、実施の形態6に係るシステムの変形例の構成を示す図である。 図36は、実施の形態6に係るサーバ及びクライアント装置の構成を示す図である。 図37は、実施の形態7に係る三次元データ符号化装置のブロック図である。 図38は、実施の形態7に係る予測残差の例を示す図である。 図39は、実施の形態7に係るボリュームの例を示す図である。 図40は、実施の形態7に係るボリュームの8分木表現の例を示す図である。 図41は、実施の形態7に係るボリュームのビット列の例を示す図である。 図42は、実施の形態7に係るボリュームの8分木表現の例を示す図である。 図43は、実施の形態7に係るボリュームの例を示す図である。 図44は、実施の形態7に係るイントラ予測処理を説明するための図である。 図45は、実施の形態7に係る回転及び並進処理を説明するための図である。 図46は、実施の形態7に係るRT適用フラグ及びRT情報のシンタックス例を示す図である。 図47は、実施の形態7に係るインター予測処理を説明するための図である。 図48は、実施の形態7に係る三次元データ復号装置のブロック図である。 図49は、実施の形態7に係る三次元データ符号化装置による三次元データ符号化処理のフローチャートである。 図50は、実施の形態7に係る三次元データ復号装置による三次元データ復号処理のフローチャートである。 図51は、実施の形態8に係る8分木構造における参照関係を示す図である。 図52は、実施の形態8に係る空間領域における参照関係を示す図である。 図53は、実施の形態8に係る隣接参照ノードの例を示す図である。 図54は、実施の形態8に係る親ノードとノードとの関係を示す図である。 図55は、実施の形態8に係る親ノードのオキュパンシー符号の例を示す図である。 図56は、実施の形態8に係る三次元データ符号化装置のブロック図である。 図57は、実施の形態8に係る三次元データ復号装置のブロック図である。 図58は、実施の形態8に係る三次元データ符号化処理のフローチャートである。 図59は、実施の形態8に係る三次元データ復号処理のフローチャートである。 図60は、実施の形態8に係る符号化テーブルの切替え例を示す図である。 図61は、実施の形態8の変形例1に係る空間領域における参照関係を示す図である。 図62は、実施の形態8の変形例1に係るヘッダ情報のシンタックス例を示す図である。 図63は、実施の形態8の変形例1に係るヘッダ情報のシンタックス例を示す図である。 図64は、実施の形態8の変形例2に係る隣接参照ノードの例を示す図である。 図65は、実施の形態8の変形例2に係る対象ノード及び隣接ノードの例を示す図である。 図66は、実施の形態8の変形例3に係る8分木構造における参照関係を示す図である。 図67は、実施の形態8の変形例3に係る空間領域における参照関係を示す図である。 図68は、実施の形態9に係る三次元点の例を示す図である。 図69は、実施の形態9に係るLoDの設定例を示す図である。 図70は、実施の形態9に係るLoDの設定に用いる閾値の例を示す図である。 図71は、実施の形態9に係る予測値に用いる属性情報の例を示す図である。 図72は、実施の形態9に係る指数ゴロム符号の一例を示す図である。 図73は、実施の形態9に係る指数ゴロム符号に対する処理を示す図である。 図74は、実施の形態9に係る属性ヘッダのシンタックス例を示す図である。 図75は、実施の形態9に係る属性データのシンタックス例を示す図である。 図76は、実施の形態9に係る三次元データ符号化処理のフローチャートである。 図77は、実施の形態9に係る属性情報符号化処理のフローチャートである。 図78は、実施の形態9に係る指数ゴロム符号に対する処理を示す図である。 図79は、実施の形態9に係る残り符号とその値との関係を示す逆引きテーブルの例を示す図である。 図80は、実施の形態9に係る三次元データ復号処理のフローチャートである。 図81は、実施の形態9に係る属性情報復号処理のフローチャートである。 図82は、実施の形態9に係る三次元データ符号化装置のブロック図である。 図83は、実施の形態9に係る三次元データ復号装置のブロック図である。 図84は、実施の形態9に係る三次元データ符号化処理のフローチャートである。 図85は、実施の形態9に係る三次元データ復号処理のフローチャートである。 図86は、実施の形態10に係る各予測モードにおいて算出される予測値を示すテーブルの第1の例を示す図である。 図87は、実施の形態10に係る予測値に用いる属性情報の例を示す図である。 図88は、実施の形態10に係る各予測モードにおいて算出される予測値を示すテーブルの第2の例を示す図である。 図89は、実施の形態10に係る各予測モードにおいて算出される予測値を示すテーブルの第3の例を示す図である。 図90は、実施の形態10に係る各予測モードにおいて算出される予測値を示すテーブルの第4の例を示す図である。 図91は、実施の形態11に係る参照関係の例を示す図である。 図92は、実施の形態11に係るQWの算出例を示す図である。 図93は、実施の形態11に係る予測残差の算出例を示す図である。 図94は、実施の形態11に係る符号化処理の例を示す図である。 図95は、実施の形態11に係るトランケットユーナリ符号の例を示す図である。 図96は、実施の形態11に係る属性情報のシンタックス例を示す図である。 図97は、実施の形態11に係る予測残差とZeroCntの例を示す図である。 図98は、実施の形態11に係る属性情報のシンタックス例を示す図である。 図99は、実施の形態11に係る三次元データ符号化処理のフローチャートである。 図100は、実施の形態11に係る属性情報符号化処理のフローチャートである。 図101は、実施の形態11に係る予測残差符号化処理のフローチャートである。 図102は、実施の形態11に係る三次元データ復号処理のフローチャートである。 図103は、実施の形態11に係る属性情報復号処理のフローチャートである。 図104は、実施の形態11に係る予測残差復号処理のフローチャートである。 図105は、実施の形態11に係る属性情報符号化部のブロック図である。 図106は、実施の形態11に係る属性情報復号部のブロック図である。 図107は、実施の形態11の変形例に係る符号化処理の例を示す図である。 図108は、実施の形態11の変形例に係る属性情報のシンタックス例を示す図である。 図109は、実施の形態11の変形例に係る予測残差、ZeroCnt及びTotalZeroCntの例を示す図である。 図110は、実施の形態11の変形例に係る予測残差符号化処理のフローチャートである。 図111は、実施の形態11の変形例に係る予測残差復号処理のフローチャートである。 図112は、実施の形態11に係る三次元データ符号化処理のフローチャートである。 図113は、実施の形態11に係る三次元データ復号処理のフローチャートである。 図114は、実施の形態12に係るRAHTを用いた属性情報の符号化を説明するための図である。 図115は、実施の形態12に係る、階層毎に量子化スケールを設定する例を示す図である。 図116は、実施の形態12に係る第1符号列及び第2符号列の例を示す図である。 図117は、実施の形態12に係るトランケットユーナリ符号の例を示す図である。 図118は、実施の形態12に係る逆Haar変換を説明するための図である。 図119は、実施の形態12に係る属性情報のシンタックス例を示す図である。 図120は、実施の形態12に係る符号化係数とZeroCntの例を示す図である。 図121は、実施の形態12に係る三次元データ符号化処理のフローチャートである。 図122は、実施の形態12に係る属性情報符号化処理のフローチャートである。 図123は、実施の形態12に係る符号化係数符号化処理のフローチャートである。 図124は、実施の形態12に係る三次元データ復号処理のフローチャートである。 図125は、実施の形態12に係る属性情報復号処理のフローチャートである。 図126は、実施の形態12に係る符号化係数復号処理のフローチャートである。 図127は、実施の形態12に係る属性情報符号化部のブロック図である。 図128は、実施の形態12に係る属性情報復号部のブロック図である。 図129は、実施の形態12の変形例に係る第1符号列及び第2符号列の例を示す図である。 図130は、実施の形態12の変形例に係る属性情報のシンタックス例を示す図である。 図131は、実施の形態12の変形例に係る符号化係数、ZeroCnt及びTotalZeroCntの例を示す図である。 図132は、実施の形態12の変形例に係る符号化係数符号化処理のフローチャートである。 図133は、実施の形態12の変形例に係る符号化係数復号処理のフローチャートである。 図134は、実施の形態12の変形例に係る属性情報のシンタックス例を示す図である。 図135は、実施の形態12に係る三次元データ符号化処理のフローチャートである。 図136は、実施の形態12に係る三次元データ復号処理のフローチャートである。
 本開示の一態様に係る三次元データ符号化方法は、点群データに含まれる複数の三次元点の複数の属性情報から複数の係数値を算出し、前記複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を生成し、前記第2符号列を含むビットストリームを生成する。
 これによれば、当該三次元データ符号化方法は、第1情報を用いることで値ゼロの係数値が連続する場合における符号量を低減できるので、符号化効率を向上できる。さらに、当該三次元データ符号化方法は、第2情報を用いることで、値ゼロの係数値が多く発生する場合において符号化効率を向上できる。
 例えば、前記複数の属性情報の各々は、複数の成分を含み、前記複数の係数値の各々は、前記複数の成分に対応する複数の係数成分を含み、前記第1情報は、前記複数の係数成分が全てゼロである前記ゼロ係数値が連続する数を示し、前記第2情報は、前記複数の係数成分の各々がゼロであるか否かを示してもよい。
 これによれば、当該三次元データ符号化方法は、成分毎に第1情報を設ける場合に比べて符号量を低減できるので、符号化効率を向上できる。
 例えば、前記第2符号列は、さらに、前記複数の係数成分の各々が1であるか否かを示す第3情報と、前記複数の係数成分の各々から2を減算した値を示す第4情報とを含んでもよい。
 これによれば、当該三次元データ符号化方法は、第2情報、第3情報及び第4情報を用いることで、値ゼロ又は値1の係数値が多く発生する場合において符号化効率を向上できる。
 例えば、前記複数の係数値は、前記複数の属性情報の各々を高周波成分と低周波成分とに分けて階層化することにより生成されてもよい。
 例えば、前記三次元データ符号化方法は、さらに、前記複数の係数値の各々を量子化し、前記第1符号列には、量子化後の複数の係数値が配列されてもよい。
 本開示の一態様に係る三次元データ復号方法は、ビットストリームから、点群データに含まれる複数の三次元点の複数の属性情報から生成された複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を取得し、前記第2符号列から前記第1符号列を復元することで前記複数の係数値を取得し、前記複数の係数値から前記複数の属性情報を算出する。
 これによれば、当該三次元データ復号方法は、第1情報を用いることで値ゼロの係数値が連続する場合における符号量を低減できるので、符号化効率を向上できる。さらに、当該三次元データ復号方法は、第2情報を用いることで、値ゼロの係数値が多く発生する場合において符号化効率を向上できる。
 例えば、前記複数の属性情報の各々は、複数の成分を含み、前記複数の係数値の各々は、前記複数の成分に対応する複数の係数成分を含み、前記第1情報は、前記複数の係数成分が全てゼロである前記ゼロ係数値が連続する数を示し、前記第2情報は、前記複数の係数成分の各々がゼロであるか否かを示してもよい。
 これによれば、当該三次元データ復号方法は、成分毎に第1情報を設ける場合に比べて符号量を低減できるので、符号化効率を向上できる。
 例えば、前記第2符号列は、さらに、前記複数の係数成分の各々が1であるか否かを示す第3情報と、前記複数の係数成分の各々から2を減算した値を示す第4情報とを含んでもよい。
 これによれば、当該三次元データ復号方法は、第2情報、第3情報及び第4情報を用いることで、値ゼロ又は値1の係数値が多く発生する場合において符号化効率を向上できる。
 例えば、前記複数の係数値は、前記複数の属性情報の各々を高周波成分と低周波成分とに分けて階層化することにより生成されてもよい。
 例えば、前記第1符号列には、量子化された複数の係数値が配列され、前記第1符号列を復元することで前記量子化された複数の係数値を取得し、前記量子化された複数の係数値の各々を逆量子化することで前記複数の係数値を取得してもよい。
 また、本開示の一態様に係る三次元データ符号化装置は、プロセッサと、メモリとを備え、前記プロセッサは、前記メモリを用いて、点群データに含まれる複数の三次元点の複数の属性情報から複数の係数値を算出し、前記複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を生成し、前記第2符号列を含むビットストリームを生成する。
 これによれば、当該三次元データ符号化装置は、第1情報を用いることで値ゼロの係数値が連続する場合における符号量を低減できるので、符号化効率を向上できる。さらに、当該三次元データ符号化装置は、第2情報を用いることで、値ゼロの係数値が多く発生する場合において符号化効率を向上できる。
 また、本開示の一態様に係る三次元データ復号装置は、プロセッサと、メモリとを備え、前記プロセッサは、前記メモリを用いて、ビットストリームから、点群データに含まれる複数の三次元点の複数の属性情報から生成された複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を取得し、前記第2符号列から前記第1符号列を復元することで前記複数の係数値を取得し、前記複数の係数値から前記複数の属性情報を算出する。
 これによれば、当該三次元データ復号装置は、第1情報を用いることで値ゼロの係数値が連続する場合における符号量を低減できるので、符号化効率を向上できる。さらに、当該三次元データ復号装置は、第2情報を用いることで、値ゼロの係数値が多く発生する場合において符号化効率を向上できる。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 まず、本実施の形態に係る符号化三次元データ(以下、符号化データとも記す)のデータ構造について説明する。図1は、本実施の形態に係る符号化三次元データの構成を示す図である。
 本実施の形態では、三次元空間は、動画像の符号化におけるピクチャに相当するスペース(SPC)に分割され、スペースを単位として三次元データが符号化される。スペースは、さらに、動画像符号化におけるマクロブロックなどに相当するボリューム(VLM)に分割され、VLMを単位として予測及び変換が行われる。ボリュームは、位置座標が対応付けられる最小単位である複数のボクセル(VXL)を含む。なお、予測とは、二次元画像で行われる予測と同様に、他の処理単位を参照し、処理対象の処理単位と類似する予測三次元データを生成し、当該予測三次元データと処理対象の処理単位との差分を符号化することである。また、この予測は、同一時刻の他の予測単位を参照する空間予測のみならず、異なる時刻の予測単位を参照する時間予測を含む。
 例えば、三次元データ符号化装置(以下、符号化装置とも記す)は、ポイントクラウドなどの点群データにより表現される三次元空間を符号化する際には、ボクセルのサイズに応じて、点群の各点、又は、ボクセル内に含まれる複数点をまとめて符号化する。ボクセルを細分化すれば点群の三次元形状を高精度に表現でき、ボクセルのサイズを大きくすれば点群の三次元形状をおおまかに表現できる。
 なお、以下では、三次元データがポイントクラウドである場合を例に説明を行うが、三次元データはポイントクラウドに限定されず、任意の形式の三次元データでよい。
 また、階層構造のボクセルを用いてもよい。この場合、n次の階層では、n-1次以下の階層(n次の階層の下層)にサンプル点が存在するかどうかを順に示してもよい。例えば、n次の階層のみを復号する際において、n-1次以下の階層にサンプル点が存在する場合は、n次階層のボクセルの中心にサンプル点が存在するとみなして復号できる。
 また、符号化装置は、点群データを、距離センサ、ステレオカメラ、単眼カメラ、ジャイロ、又は慣性センサなどを用いて取得する。
 スペースは、動画像の符号化と同様に、単独で復号可能なイントラ・スペース(I-SPC)、単方向の参照のみ可能なプレディクティブ・スペース(P-SPC)、及び、双方向の参照が可能なバイディレクショナル・スペース(B-SPC)を含む少なくとも3つの予測構造のいずれかに分類される。また、スペースは復号時刻と表示時刻との2種類の時刻情報を有する。
 また、図1に示すように、複数のスペースを含む処理単位として、ランダムアクセス単位であるGOS(Group Of Space)が存在する。さらに、複数のGOSを含む処理単位としてワールド(WLD)が存在する。
 ワールドが占める空間領域は、GPS又は緯度及び経度情報などにより、地球上の絶対位置と対応付けられる。この位置情報はメタ情報として格納される。なお、メタ情報は、符号化データに含まれてもよいし、符号化データとは別に伝送されてもよい。
 また、GOS内では、全てのSPCが三次元的に隣接してもよいし、他のSPCと三次元的に隣接しないSPCが存在してもよい。
 なお、以下では、GOS、SPC又はVLM等の処理単位に含まれる三次元データに対する、符号化、復号又は参照等の処理を、単に、処理単位を符号化、復号又は参照する等とも記す。また、処理単位に含まれる三次元データは、例えば、三次元座標等の空間位置と、色情報等の特性値との少なくとも一つの組を含む。
 次に、GOSにおけるSPCの予測構造について説明する。同一GOS内の複数のSPC、又は、同一SPC内の複数のVLMは、互いに異なる空間を占めるが、同じ時刻情報(復号時刻及び表示時刻)を持つ。
 また、GOS内で復号順で先頭となるSPCはI-SPCである。また、GOSにはクローズドGOSとオープンGOSとの2種類が存在する。クローズドGOSは、先頭I-SPCから復号開始する際に、GOS内の全てのSPCを復号できるGOSである。オープンGOSでは、GOS内で先頭I-SPCよりも表示時刻が前となる一部のSPCは異なるGOSを参照しており、当該GOSのみで復号を行うことができない。
 なお、地図情報などの符号化データでは、WLDを符号化順とは逆方向から復号することがあり、GOS間に依存性があると逆方向再生が困難である。よって、このような場合には、基本的にはクローズドGOSが用いられる。
 また、GOSは、高さ方向にレイヤ構造を有し、下のレイヤのSPCから順に符号化又は復号が行われる。
 図2はGOSの最下層レイヤに属するSPC間の予測構造の一例を示す図である。図3はレイヤ間の予測構造の一例を示す図である。
 GOS内には1つ以上のI-SPCが存在する。三次元空間内には、ヒト、動物、車、自転車、信号、又はランドマークとなる建物などのオブジェクトが存在するが、特にサイズが小さいオブジェクトはI-SPCとして符号化すると有効である。例えば、三次元データ復号装置(以下、復号装置とも記す)は、GOSを低処理量又は高速に復号する際には、GOS内のI-SPCのみを復号する。
 また、符号化装置は、WLD内のオブジェクトの粗密さに応じてI-SPCの符号化間隔又は出現頻度を切替えてもよい。
 また、図3に示す構成において、符号化装置又は復号装置は、複数のレイヤを下層(レイヤ1)から順に符号化又は復号する。これにより、例えば自動走行車などにとってより情報量の多い地面付近のデータの優先度を上げることができる。
 なお、ドローンなどで用いられる符号化データでは、GOS内において高さ方向で上のレイヤのSPCから順に符号化又は復号してもよい。
 また、符号化装置又は復号装置は、復号装置が荒くGOSを把握でき、徐々に解像度を上げるようにできるように、複数のレイヤを符号化又は復号してもよい。例えば、符号化装置又は復号装置は、レイヤ3、8、1、9…の順に符号化又は復号してもよい。
 次に、静的オブジェクト及び動的オブジェクトの扱い方について説明する。
 三次元空間には、建物又は道路など静的なオブジェクト又はシーン(以降、まとめて静的オブジェクトと呼ぶ)と、車又はヒトなどの動的なオブジェクト(以降、動的オブジェクトと呼ぶ)とが存在する。オブジェクトの検出は、ポイントクラウドのデータ、又は、ステレオカメラなどのカメラ映像などから特徴点を抽出するなどして、別途行われる。ここでは、動的オブジェクトの符号化方法の例について説明する。
 第1方法は、静的オブジェクトと動的オブジェクトとを区別せずに符号化する方法である。第2方法は、静的オブジェクトと動的オブジェクトとを識別情報により区別する方法である。
 例えば、GOSが識別単位として用いられる。この場合、静的オブジェクトを構成するSPCを含むGOSと、動的オブジェクトを構成するSPCを含むGOSとが、符号化データ内、又は符号化データとは別途格納される識別情報により区別される。
 または、SPCが識別単位として用いられてもよい。この場合、静的オブジェクトを構成するVLMを含むSPCと、動的オブジェクトを構成するVLMを含むSPCとが、上記識別情報により区別される。
 または、VLM或いはVXLが識別単位として用いられてもよい。この場合、静的オブジェクトを含むVLM又はVXLと、動的オブジェクトを含むVLM又はVXLとが上記識別情報により区別される。
 また、符号化装置は、動的オブジェクトを1以上のVLM又はSPCとして符号化し、静的オブジェクトを含むVLM又はSPCと、動的オブジェクトを含むSPCとを、互いに異なるGOSとして符号化してもよい。また、符号化装置は、動的オブジェクトのサイズに応じてGOSのサイズが可変となる場合には、GOSのサイズをメタ情報として別途格納する。
 また、符号化装置は、静的オブジェクトと動的オブジェクトとを互いに独立に符号化し、静的オブジェクトから構成されるワールドに対して、動的オブジェクトを重畳してもよい。このとき、動的オブジェクトは1以上のSPCから構成され、各SPCは、当該SPCが重畳される静的オブジェクトを構成する1以上のSPCに対応付けられる。なお、動的オブジェクトをSPCではなく、1以上のVLM又はVXLにより表現してもよい。
 また、符号化装置は、静的オブジェクトと動的オブジェクトとを互いに異なるストリームとして符号化してもよい。
 また、符号化装置は、動的オブジェクトを構成する1以上のSPCを含むGOSを生成してもよい。さらに、符号化装置は、動的オブジェクトを含むGOS(GOS_M)と、GOS_Mの空間領域に対応する静的オブジェクトのGOSとを同一サイズ(同一の空間領域を占める)に設定してもよい。これにより、GOS単位で重畳処理を行うことができる。
 動的オブジェクトを構成するP-SPC又はB-SPCは、符号化済みの異なるGOSに含まれるSPCを参照してもよい。動的オブジェクトの位置が時間的に変化し、同一の動的オブジェクトが異なる時刻のGOSとして符号化されるケースでは、GOSを跨いだ参照が圧縮率の観点から有効となる。
 また、符号化データの用途に応じて、上記の第1方法と第2方法とを切替えてもよい。例えば、符号化三次元データを地図として用いる場合は、動的オブジェクトを分離できることが望ましいため、符号化装置は、第2方法を用いる。一方、符号化装置は、コンサート又はスポーツなどのイベントの三次元データを符号化する場合に、動的オブジェクトを分離する必要がなければ、第1方法を用いる。
 また、GOS又はSPCの復号時刻と表示時刻とは符号化データ内、又はメタ情報として格納できる。また、静的オブジェクトの時刻情報は全て同一としてもよい。このとき、実際の復号時刻と表示時刻は、復号装置が決定するものとしてもよい。あるいは、復号時刻として、GOS、あるいは、SPC毎に異なる値が付与され、表示時刻として全て同一の値が付与されてもよい。さらに、HEVCのHRD(Hypothetical Reference Decoder)など動画像符号化におけるデコーダモデルのように、デコーダが所定のサイズのバッファを有し、復号時刻に従って所定のビットレートでビットストリームを読み込めば破綻なく復号できることを保証するモデルを導入してもよい。
 次に、ワールド内におけるGOSの配置について説明する。ワールドにおける三次元空間の座標は、互いに直交する3本の座標軸(x軸、y軸、z軸)により表現される。GOSの符号化順に所定のルールを設けることで、空間的に隣接するGOSが符号化データ内で連続するように符号化を行える。例えば、図4に示す例では、xz平面内のGOSを連続的に符号化する。あるxz平面内の全てのGOSの符号化終了後にy軸の値を更新する。すなわち、符号化が進むにつれて、ワールドはy軸方向に伸びていく。また、GOSのインデックス番号は符号化順に設定される。
 ここで、ワールドの三次元空間は、GPS、或いは緯度及び経度などの地理的な絶対座標と1対1に対応付けておく。或いは、予め設定した基準位置からの相対位置により三次元空間が表現されてもよい。三次元空間のx軸、y軸、z軸の方向は、緯度及び経度などに基づいて決定される方向ベクトルとして表現され、当該方向ベクトルはメタ情報として符号化データと共に格納される。
 また、GOSのサイズは固定とし、符号化装置は、当該サイズをメタ情報として格納する。また、GOSのサイズは、例えば、都市部か否か、又は、室内か外かなどに応じて切替えられてもよい。つまり、GOSのサイズは、情報としての価値があるオブジェクトの量又は性質に応じて切替えられてもよい。あるいは、符号化装置は、同一ワールド内において、オブジェクトの密度などに応じて、GOSのサイズ、又は、GOS内のI-SPCの間隔を適応的に切替えてもよい。例えば、符号化装置は、オブジェクトの密度が高いほど、GOSのサイズを小さくし、GOS内のI-SPCの間隔を短くする。
 図5の例では、3番目から10番目のGOSの領域では、オブジェクトの密度が高いため、細かい粒度でのランダムアクセスを実現するために、GOSが細分化されている。なお、7番目から10番目のGOSは、それぞれ、3番目から6番目のGOSの裏側に存在する。
 次に、本実施の形態に係る三次元データ符号化装置の構成及び動作の流れを説明する。図6は、本実施の形態に係る三次元データ符号化装置100のブロック図である。図7は、三次元データ符号化装置100の動作例を示すフローチャートである。
 図6に示す三次元データ符号化装置100は、三次元データ111を符号化することで符号化三次元データ112を生成する。この三次元データ符号化装置100は、取得部101と、符号化領域決定部102と、分割部103と、符号化部104とを備える。
 図7に示すように、まず、取得部101は、点群データである三次元データ111を取得する(S101)。
 次に、符号化領域決定部102は、取得した点群データに対応する空間領域のうち、符号化対象の領域を決定する(S102)。例えば、符号化領域決定部102は、ユーザ又は車両の位置に応じて、当該位置の周辺の空間領域を符号化対象の領域に決定する。
 次に、分割部103は、符号化対象の領域に含まれる点群データを、各処理単位に分割する。ここで処理単位とは、上述したGOS及びSPC等である。また、この符号化対象の領域は、例えば、上述したワールドに対応する。具体的には、分割部103は、予め設定したGOSのサイズ、又は、動的オブジェクトの有無或いはサイズに基づいて、点群データを処理単位に分割する(S103)。また、分割部103は、各GOSにおいて符号化順で先頭となるSPCの開始位置を決定する。
 次に、符号化部104は、各GOS内の複数のSPCを順次符号化することで符号化三次元データ112を生成する(S104)。
 なお、ここでは、符号化対象の領域をGOS及びSPCに分割した後に、各GOSを符号化する例を示したが、処理の手順は上記に限らない。例えば、一つのGOSの構成を決定した後にそのGOSを符号化し、その後、次のGOSの構成を決定する等の手順を用いてもよい。
 このように、三次元データ符号化装置100は、三次元データ111を符号化することで符号化三次元データ112を生成する。具体的には、三次元データ符号化装置100は、三次元データを、ランダムアクセス単位であって、各々が三次元座標に対応付けられている第1処理単位(GOS)に分割し、第1処理単位(GOS)を複数の第2処理単位(SPC)に分割し、第2処理単位(SPC)を複数の第3処理単位(VLM)に分割する。また、第3処理単位(VLM)は、位置情報が対応付けられる最小単位である1以上のボクセル(VXL)を含む。
 次に、三次元データ符号化装置100は、複数の第1処理単位(GOS)の各々を符号化することで符号化三次元データ112を生成する。具体的には、三次元データ符号化装置100は、各第1処理単位(GOS)において、複数の第2処理単位(SPC)の各々を符号化する。また、三次元データ符号化装置100は、各第2処理単位(SPC)において、複数の第3処理単位(VLM)の各々を符号化する。
 例えば、三次元データ符号化装置100は、処理対象の第1処理単位(GOS)がクローズドGOSである場合には、処理対象の第1処理単位(GOS)に含まれる処理対象の第2処理単位(SPC)を、処理対象の第1処理単位(GOS)に含まれる他の第2処理単位(SPC)を参照して符号化する。つまり、三次元データ符号化装置100は、処理対象の第1処理単位(GOS)とは異なる第1処理単位(GOS)に含まれる第2処理単位(SPC)を参照しない。
 一方、処理対象の第1処理単位(GOS)がオープンGOSである場合には、処理対象の第1処理単位(GOS)に含まれる処理対象の第2処理単位(SPC)を、処理対象の第1処理単位(GOS)に含まれる他の第2処理単位(SPC)、又は、処理対象の第1処理単位(GOS)とは異なる第1処理単位(GOS)に含まれる第2処理単位(SPC)を参照して符号化する。
 また、三次元データ符号化装置100は、処理対象の第2処理単位(SPC)のタイプとして、他の第2処理単位(SPC)を参照しない第1タイプ(I-SPC)、他の一つの第2処理単位(SPC)を参照する第2タイプ(P-SPC)、及び他の二つの第2処理単位(SPC)を参照する第3タイプのうちいずれかを選択し、選択したタイプに従い処理対象の第2処理単位(SPC)を符号化する。
 次に、本実施の形態に係る三次元データ復号装置の構成及び動作の流れを説明する。図8は、本実施の形態に係る三次元データ復号装置200のブロックのブロック図である。図9は、三次元データ復号装置200の動作例を示すフローチャートである。
 図8に示す三次元データ復号装置200は、符号化三次元データ211を復号することで復号三次元データ212を生成する。ここで、符号化三次元データ211は、例えば、三次元データ符号化装置100で生成された符号化三次元データ112である。この三次元データ復号装置200は、取得部201と、復号開始GOS決定部202と、復号SPC決定部203と、復号部204とを備える。
 まず、取得部201は、符号化三次元データ211を取得する(S201)。次に、復号開始GOS決定部202は、復号対象のGOSに決定する(S202)。具体的には、復号開始GOS決定部202は、符号化三次元データ211内、又は符号化三次元データとは別に格納されたメタ情報を参照して、復号を開始する空間位置、オブジェクト、又は、時刻に対応するSPCを含むGOSを復号対象のGOSに決定する。
 次に、復号SPC決定部203は、GOS内で復号するSPCのタイプ(I、P、B)を決定する(S203)。例えば、復号SPC決定部203は、(1)I-SPCのみを復号するか、(2)I-SPC及びP-SPCを復号するか、(3)全てのタイプを復号するかを決定する。なお、全てのSPCを復号するなど、予め復号するSPCのタイプが決定している場合は、本ステップは行われなくてもよい。
 次に、復号部204は、GOS内で復号順(符号化順と同一)で先頭となるSPCが符号化三次元データ211内で開始するアドレス位置を取得し、当該アドレス位置から先頭SPCの符号化データを取得し、当該先頭SPCから順に各SPCを順次復号する(S204)。なお、上記アドレス位置は、メタ情報等に格納されている。
 このように、三次元データ復号装置200は、復号三次元データ212を復号する。具体的には、三次元データ復号装置200は、ランダムアクセス単位であって、各々が三次元座標に対応付けられている第1処理単位(GOS)の符号化三次元データ211の各々を復号することで第1処理単位(GOS)の復号三次元データ212を生成する。より具体的には、三次元データ復号装置200は、各第1処理単位(GOS)において、複数の第2処理単位(SPC)の各々を復号する。また、三次元データ復号装置200は、各第2処理単位(SPC)において、複数の第3処理単位(VLM)の各々を復号する。
 以下、ランダムアクセス用のメタ情報について説明する。このメタ情報は、三次元データ符号化装置100で生成され、符号化三次元データ112(211)に含まれる。
 従来の二次元の動画像におけるランダムアクセスでは、指定した時刻の近傍となるランダムアクセス単位の先頭フレームから復号を開始していた。一方、ワールドにおいては、時刻に加えて、空間(座標又はオブジェクトなど)に対するランダムアクセスが想定される。
 そこで、少なくとも座標、オブジェクト、及び時刻の3つの要素へのランダムアクセスを実現するために、各要素とGOSのインデックス番号とを対応付けるテーブルを用意する。さらに、GOSのインデックス番号とGOSの先頭となるI-SPCのアドレスを対応付ける。図10は、メタ情報に含まれるテーブルの一例を示す図である。なお、図10に示す全てのテーブルが用いられる必要はなく、少なくとも一つのテーブルが用いられればよい。
 以下、一例として、座標を起点とするランダムアクセスについて説明する。座標(x2、y2、z2)にアクセスする際には、まず、座標-GOSテーブルを参照して、座標が(x2、y2、z2)である地点は2番目のGOSに含まれることが分かる。次に、GOSアドレステーブルを参照し、2番目のGOSにおける先頭のI-SPCのアドレスがaddr(2)であることが分かるため、復号部204は、このアドレスからデータを取得して復号を開始する。
 なお、アドレスは、論理フォーマットにおけるアドレスであっても、HDD又はメモリの物理アドレスであってもよい。また、アドレスの代わりにファイルセグメントを特定する情報が用いられてもよい。例えば、ファイルセグメントは、1つ以上のGOSなどをセグメント化した単位である。
 また、オブジェクトが複数のGOSに跨る場合には、オブジェクト-GOSテーブルにおいて、オブジェクトが属するGOSを複数示してもよい。当該複数のGOSがクローズドGOSであれば、符号化装置及び復号装置は、並列に符号化又は復号を行うことができる。一方、当該複数のGOSがオープンGOSであれば、複数のGOSが互いに参照しあうことでより圧縮効率を高めることができる。
 オブジェクトの例としては、ヒト、動物、車、自転車、信号、又はランドマークとなる建物などがある。例えば、三次元データ符号化装置100は、ワールドの符号化時に三次元のポイントクラウドなどからオブジェクトに特有の特徴点を抽出し、当該特徴点に基づきオブジェクトを検出し、検出したオブジェクトをランダムアクセスポイントとして設定できる。
 このように、三次元データ符号化装置100は、複数の第1処理単位(GOS)と、複数の第1処理単位(GOS)の各々に対応付けられている三次元座標とを示す第1情報を生成する。また、符号化三次元データ112(211)は、この第1情報を含む。また、第1情報は、さらに、複数の第1処理単位(GOS)の各々に対応付けられている、オブジェクト、時刻及びデータ格納先のうち少なくとも一つを示す。
 三次元データ復号装置200は、符号化三次元データ211から第1情報を取得し、第1情報を用いて、指定された三次元座標、オブジェクト又は時刻に対応する第1処理単位の符号化三次元データ211を特定し、当該符号化三次元データ211を復号する。
 以下、その他のメタ情報の例について説明する。ランダムアクセス用のメタ情報の他に、三次元データ符号化装置100は、以下のようなメタ情報を生成及び格納してもよい。また、三次元データ復号装置200は、このメタ情報を復号時に利用してもよい。
 三次元データを地図情報として用いる場合などには、用途に応じてプロファイルが規定され、当該プロファイルを示す情報がメタ情報に含まれてもよい。例えば、市街地或いは郊外向け、又は、飛行物体向けのプロファイルが規定され、それぞれにおいてワールド、SPC又はVLMの最大又は最小サイズなどが定義される。例えば、市街地向けでは、郊外向けよりも詳細な情報が必要なため、VLMの最小サイズが小さく設定される。
 メタ情報は、オブジェクトの種類を示すタグ値を含んでもよい。このタグ値はオブジェクトを構成するVLM、SPC、又はGOSと対応付けられる。例えば、タグ値「0」は「人」を示し、タグ値「1」は「車」を示し、タグ値「2」は「信号機」を示す、などオブジェクトの種類ごとにタグ値が設定されてもよい。または、オブジェクトの種類が判定しにくい又は判定する必要がない場合はサイズ、又は、動的オブジェクトか静的オブジェクトかなどの性質を示すタグ値が用いられてもよい。
 また、メタ情報は、ワールドが占める空間領域の範囲を示す情報を含んでもよい。
 また、メタ情報は、符号化データのストリーム全体、又は、GOS内のSPCなど、複数のSPCに共通のヘッダ情報として、SPC又はVXLのサイズを格納してもよい。
 また、メタ情報は、ポイントクラウドの生成に用いた距離センサ或いはカメラなどの識別情報、又は、ポイントクラウド内の点群の位置精度を示す情報を含んでもよい。
 また、メタ情報は、ワールドが静的オブジェクトのみから構成されるか、動的オブジェクトを含むかを示す情報を含んでもよい。
 以下、本実施の形態の変形例について説明する。
 符号化装置又は復号装置は、互いに異なる2以上のSPC又はGOSを並列で符号化又は復号してもよい。並列で符号化又は復号するGOSは、GOSの空間位置を示すメタ情報などに基づいて決定できる。
 三次元データを車又は飛行物体などが移動する際の空間地図として用いる、又はこのような空間地図を生成するケースなどでは、符号化装置又は復号装置は、GPS、経路情報、又はズーム倍率などに基づいて特定される空間に含まれるGOS又はSPCを符号化又は復号してもよい。
 また、復号装置は、自己位置又は走行経路に近い空間から順に復号を行ってもよい。符号化装置又は復号装置は、自己位置又は走行経路から遠い空間を、近い空間に比べて優先度を落として符号化又は復号してもよい。ここで、優先度を落とすとは、処理順を下げる、解像度を下げる(間引いて処理する)、又は、画質を下げる(符号化効率を上げる。例えば、量子化ステップを大きくする。)等である。
 また、復号装置は、空間内で階層的に符号化されている符号化データを復号する際は、低階層のみを復号してもよい。
 また、復号装置は、地図のズーム倍率又は用途に応じて、低階層から優先的に復号してもよい。
 また、車又はロボットの自律走行時に行う自己位置推定又は物体認識などの用途では、符号化装置又は復号装置は、路面から特定高さ以内の領域(認識を行う領域)以外は解像度を落として符号化又は復号を行ってもよい。
 また、符号化装置は、室内と室外との空間形状を表現するポイントクラウドをそれぞれ個別に符号化してもよい。例えば、室内を表現するGOS(室内GOS)と室外を表現するGOS(室外GOS)とを分けることで、復号装置は、符号化データを利用する際に、視点位置に応じて復号するGOSを選択できる。
 また、符号化装置は、座標が近い室内GOSと室外GOSとを、符号化ストリーム内で隣接するように符号化してもよい。例えば、符号化装置は、両者の識別子を対応付け、符号化ストリーム内、又は別途格納されるメタ情報内に対応付けた識別子を示す情報を格納する。これにより、復号装置は、メタ情報内の情報を参照して、座標が近い室内GOSと室外GOSとを識別できる。
 また、符号化装置は、室内GOSと室外GOSとで、GOS又はSPCのサイズを切替えてもよい。例えば、符号化装置は、室内では室外に比べてGOSのサイズを小さく設定する。また、符号化装置は、室内GOSと室外GOSとで、ポイントクラウドから特徴点を抽出する際の精度、又はオブジェクト検出の精度などを変更してもよい。
 また、符号化装置は、復号装置が動的オブジェクトを静的オブジェクトと区別して表示するための情報を符号化データに付加してもよい。これにより、復号装置は、動的オブジェクトと赤枠又は説明用の文字などとを合わせて表示できる。なお、復号装置は、動的オブジェクトの代わりに赤枠又は説明用の文字のみを表示してもよい。また、復号装置は、より細かいオブジェクト種別を表示してもよい。例えば、車には赤枠が用いられ、ヒトには黄色枠が用いられてもよい。
 また、符号化装置又は復号装置は、動的オブジェクトの出現頻度、又は、静的オブジェクトと動的オブジェクトとの割合などに応じて、動的オブジェクトと静的オブジェクトとを異なるSPC又はGOSとして符号化又は復号するかどうかを決定してもよい。例えば、動的オブジェクトの出現頻度又は割合が閾値を超える場合には、動的オブジェクトと静的オブジェクトとが混在するSPC又はGOSが許容され、動的オブジェクトの出現頻度又は割合が閾値を超えない場合には、動的オブジェクトと静的オブジェクトとが混在するSPC又はGOSが許容されない。
 動的オブジェクトをポイントクラウドではなく、カメラの二次元画像情報から検出する際には、符号化装置は、検出結果を識別するための情報(枠又は文字など)とオブジェクト位置とを別途取得し、これらの情報を三次元の符号化データの一部として符号化してもよい。この場合、復号装置は、静的オブジェクトの復号結果に対して、動的オブジェクトを示す補助情報(枠又は文字)を重畳して表示する。
 また、符号化装置は、静的オブジェクトの形状の複雑さなどに応じて、SPCにおけるVXL又はVLMの粗密さを変更してもよい。例えば、符号化装置は、静的オブジェクトの形状が複雑なほど、VXL又はVLMを密に設定する。さらに、符号化装置は、空間位置又は色情報を量子化する際の量子化ステップなどをVXL又はVLMの粗密さに応じて決定してもよい。例えば、符号化装置は、VXL又はVLMが密なほど量子化ステップを小さく設定する。
 以上のように、本実施の形態に係る符号化装置又は復号装置は、座標情報を有するスペース単位で空間の符号化又は復号を行う。
 また、符号化装置及び復号装置は、スペース内において、ボリューム単位で符号化又は復号を行う。ボリュームは、位置情報が対応付けられる最小単位であるボクセルを含む。
 また、符号化装置及び復号装置は、座標、オブジェクト、及び時間等を含む空間情報の各要素とGOPとを対応付けたテーブル、又は各要素間を対応付けたテーブルにより任意の要素間を対応付けて符号化又は復号を行う。また、復号装置は、選択された要素の値を用いて座標を判定し、座標からボリューム、ボクセル又はスペースを特定し、当該ボリューム又はボクセルを含むスペース、又は特定されたスペースを復号する。
 また、符号化装置は、特徴点抽出又はオブジェクト認識により、要素により選択可能なボリューム、ボクセル又はスペースを判定し、ランダムアクセス可能なボリューム、ボクセル又はスペースとして符号化する。
 スペースは、当該スペース単体で符号化又は復号可能なI-SPCと、任意の1つの処理済みスペースを参照して符号化又は復号されるP-SPCと、任意の二つの処理済みスペースを参照して符号化又は復号されるB-SPCとの3種類のタイプに分類される。
 1以上のボリュームが、静的オブジェクト又は動的なオブジェクトに対応する。静的オブジェクトを含むスペースと動的オブジェクトを含むスペースとは互いに異なるGOSとして符号化又は復号される。つまり、静的オブジェクトを含むSPCと、動的オブジェクトを含むSPCとが異なるGOSに割り当てられる。
 動的オブジェクトはオブジェクトごとに符号化又は復号され、静的オブジェクトを含む1以上のスペースに対応付けられる。つまり、複数の動的オブジェクトは個別に符号化され、得られた複数の動的オブジェクトの符号化データは、静的オブジェクトを含むSPCに対応付けられる。
 符号化装置及び復号装置は、GOS内のI-SPCの優先度を上げて、符号化又は復号を行う。例えば、符号化装置は、I-SPCの劣化が少なくなるように(復号後に元の三次元データがより忠実に再現されるように)符号化を行う。また、復号装置は、例えば、I-SPCのみを復号する。
 符号化装置は、ワールド内のオブジェクトの疎密さ又は数(量)に応じてI-SPCを用いる頻度を変えて符号化を行ってもよい。つまり、符号化装置は、三次元データに含まれるオブジェクトの数又は粗密さに応じて、I-SPCを選択する頻度を変更する。例えば、符号化装置は、ワールド内のオブジェクトが密であるほどIスペースを用いる頻度を上げる。
 また、符号化装置は、ランダムアクセスポイントをGOS単位で設定し、GOSに対応する空間領域を示す情報をヘッダ情報に格納する。
 符号化装置は、GOSの空間サイズとして、例えば、デフォルト値を使用する。なお、符号化装置は、オブジェクト又は動的オブジェクトの数(量)又は粗密さに応じてGOSのサイズを変更してもよい。例えば、符号化装置は、オブジェクト或いは動的オブジェクトが密なほど、又は数が多いほど、GOSの空間サイズを小さくする。
 また、スペース又はボリュームは、デプスセンサ、ジャイロ、又はカメラ等のセンサで得られた情報を用いて導出された特徴点群を含む。特徴点の座標はボクセルの中心位置に設定される。また、ボクセルの細分化により位置情報の高精度化を実現できる。
 特徴点群は、複数のピクチャを用いて導出される。複数のピクチャは、実際の時刻情報と、スペースに対応付けられた複数のピクチャで同一の時刻情報(例えば、レート制御等に用いられる符号化時刻)との少なくとも2種類の時刻情報を有する。
 また、1以上のスペースを含むGOS単位で符号化又は復号が行われる。
 符号化装置及び復号装置は、処理済みのGOS内のスペースを参照して、処理対象のGOS内のPスペース又はBスペースの予測を行う。
 または、符号化装置及び復号装置は、異なるGOSを参照せず、処理対象のGOS内の処理済スペースを用いて処理対象のGOS内のPスペース又はBスペースの予測を行う。
 また、符号化装置及び復号装置は、1以上のGOSを含むワールド単位で符号化ストリームを送信又は受信する。
 また、GOSは少なくともワールド内で1方向にレイヤ構造を持ち、符号化装置及び復号装置は、下位レイヤから符号化又は復号を行う。例えば、ランダムアクセス可能なGOSは最下位レイヤに属する。上位レイヤに属するGOSは同一レイヤ以下に属するGOSを参照する。つまり、GOSは、予め定められた方向に空間分割され、各々が1以上のSPCを含む複数のレイヤを含む。符号化装置及び復号装置は、各SPCを、当該SPCと同一レイヤ又は当該SPCより下層のレイヤに含まれるSPCを参照して符号化又は復号する。
 また、符号化装置及び復号装置は、複数のGOSを含むワールド単位内で、連続してGOSを符号化又は復号する。符号化装置及び復号装置は、符号化又は復号の順序(方向)を示す情報をメタデータとして書き込む又は読み出す。つまり、符号化データは、複数のGOSの符号化順を示す情報を含む。
 また、符号化装置及び復号装置は、互いに異なる2以上のスペース又はGOSを並列で符号化又は復号する。
 また、符号化装置及び復号装置は、スペース又はGOSの空間情報(座標、サイズ等)を符号化又は復号する。
 また、符号化装置及び復号装置は、GPS、経路情報、又は倍率など、自己の位置又は/及び領域サイズに関する外部情報に基づいて特定される特定空間に含まれるスペース又はGOSを符号化又は復号する。
 符号化装置又は復号装置は、自己の位置から遠い空間は、近い空間に比べて優先度を落として符号化又は復号する。
 符号化装置は、倍率又は用途に応じて、ワールドのある1方向を設定し、当該方向にレイヤ構造を持つGOSを符号化する。また、復号装置は、倍率又は用途に応じて設定されたワールドのある1方向にレイヤ構造を持つGOSを、下位レイヤから優先的に復号する。
 符号化装置は、室内と室外とでスペースに含まれる特徴点抽出、オブジェクト認識の精度、又は空間領域サイズなどを変化させる。ただし、符号化装置及び復号装置は、座標が近い室内GOSと室外GOSとをワールド内で隣接して符号化又は復号し、これらの識別子も対応付けて符号化又は復号する。
 (実施の形態2)
 ポイントクラウドの符号化データを実際の装置又はサービスにおいて使用する際には、ネットワーク帯域を抑制するために用途に応じて必要な情報を送受信することが望ましい。しかしながら、これまで、三次元データの符号化構造にはそのような機能が存在せず、そのための符号化方法も存在しなかった。
 本実施の形態では、三次元のポイントクラウドの符号化データにおいて用途に応じて必要な情報のみを送受信する機能を提供するための三次元データ符号化方法及び三次元データ符号化装置、並びに、当該符号化データを復号する三次元データ復号方法及び三次元データ復号装置について説明する。
 特徴量を一定以上持つボクセル(VXL)を特徴ボクセル(FVXL)と定義し、FVXLで構成されるワールド(WLD)をスパースワールド(SWLD)と定義する。図11は、スパースワールド及びワールドの構成例を示す図である。SWLDには、FVXLで構成されるGOSであるFGOSと、FVXLで構成されるSPCであるFSPCと、FVXLで構成されるVLMであるFVLMと含まれる。FGOS、FSPC及びFVLMのデータ構造及び予測構造はGOS、SPC及びVLMと同様であっても構わない。
 特徴量とは、VXLの三次元位置情報、又はVXL位置の可視光情報を表現する特徴量であり、特に立体物のコーナー及びエッジ等で多く検出される特徴量である。具体的には、この特徴量は、下記のような三次元特徴量又は可視光の特徴量であるが、その他、VXLの位置、輝度、又は色情報などを表す特徴量であれば、どのようなものでも構わない。
 三次元特徴量として、SHOT特徴量(Signature of Histograms of OrienTations)、PFH特徴量(Point Feature Histograms)、又はPPF特徴量(Point Pair Feature)が用いられる。
 SHOT特徴量は、VXL周辺を分割し、基準点と分割された領域の法線ベクトルとの内積を計算してヒストグラム化することで得られる。このSHOT特徴量は、次元数が高く、特徴表現力が高いという特徴を有する。
 PFH特徴量は、VXL近傍の多数の2点組を選択し、その2点から法線ベクトル等を算出してヒストグラム化することで得られる。このPFH特徴量は、ヒストグラム特徴なので、多少の外乱に対してロバスト性を有し、特徴表現力も高いという特徴を有する。
 PPF特徴量は、2点のVXL毎に法線ベクトル等を用いて算出される特徴量である。このPPF特徴量には、全VXLが使われるため、オクルージョンに対してロバスト性を有する。
 また、可視光の特徴量として、画像の輝度勾配情報等の情報を用いたSIFT(Scale-Invariant Feature Transform)、SURF(Speeded Up Robust Features)、又はHOG(Histogram of Oriented Gradients)等を用いることができる。
 SWLDは、WLDの各VXLから上記特徴量を算出し、FVXLを抽出することで生成される。ここで、SWLDはWLDが更新される度に更新しても構わないし、WLDの更新タイミングに関わらず、一定時間経過後に定期的に更新するようにしても構わない。
 SWLDは特徴量毎に生成しても構わない。例えば、SHOT特徴量に基づくSWLD1とSIFT特徴量に基づくSWLD2とのように、特徴量毎に別々のSWLDが生成され、用途に応じてSWLDを使い分けるようにしても構わない。また、算出した各FVXLの特徴量を特徴量情報として各FVXLに保持するようにしても構わない。
 次に、スパースワールド(SWLD)の利用方法について説明する。SWLDは特徴ボクセル(FVXL)のみを含むため、全てのVXLを含むWLDと比べて一般的にデータサイズが小さい。
 特徴量を利用して何らかの目的を果たすアプリケーションにおいては、WLDの代わりにSWLDの情報を利用することで、ハードディスクからの読み出し時間、並びにネットワーク転送時の帯域及び転送時間を抑制することができる。例えば、地図情報として、WLDとSWLDとをサーバに保持しておき、クライアントからの要望に応じて、送信する地図情報をWLD又はSWLDに切り替えることにより、ネットワーク帯域及び転送時間を抑制することができる。以下、具体的な例を示す。
 図12及び図13は、SWLD及びWLDの利用例を示す図である。図12に示すように、車載装置であるクライアント1が自己位置判定用途として地図情報を必要な場合は、クライアント1はサーバに自己位置推定用の地図データの取得要望を送る(S301)。サーバは、当該取得要望に応じてSWLDをクライアント1に送信する(S302)。クライアント1は、受信したSWLDを用いて自己位置判定を行う(S303)。この際、クライアント1はレンジファインダなどの距離センサ、ステレオカメラ、又は複数の単眼カメラの組合せ等の様々な方法でクライアント1の周辺のVXL情報を取得し、得られたVXL情報とSWLDとから自己位置情報を推定する。ここで自己位置情報は、クライアント1の三次元位置情報及び向き等を含む。
 図13に示すように、車載装置であるクライアント2が三次元地図等の地図描画の用途として地図情報が必要な場合は、クライアント2はサーバに地図描画用の地図データの取得要望を送る(S311)。サーバは、当該取得要望に応じてWLDをクライアント2に送信する(S312)。クライアント2は、受信したWLDを用いて地図描画を行う(S313)。この際、クライアント2は、例えば、自己が可視光カメラ等で撮影した画像と、サーバから取得したWLDとを用いてレンダリング画像を作成し、作成した画像をカーナビ等の画面に描画する。
 上記のように、サーバは、自己位置推定のような各VXLの特徴量を主に必要とする用途ではSWLDをクライアントに送信し、地図描画のように詳細なVXL情報が必要な場合はWLDをクライアントに送信する。これにより、地図データを効率よく送受信することが可能となる。
 なお、クライアントは、自分でSWLDとWLDのどちらが必要かを判断し、サーバへSWLD又はWLDの送信を要求しても構わない。また、サーバは、クライアント又はネットワークの状況に合わせて、SWLDかWLDのどちらを送信すべきかを判断しても構わない。
 次に、スパースワールド(SWLD)とワールド(WLD)との送受信を切り替える方法を説明する。
 ネットワーク帯域に応じてWLD又はSWLDを受信するかを切替えるようにしてもよい。図14は、この場合の動作例を示す図である。例えば、LTE(Long Term Evolution)環境下等の使用できるネットワーク帯域が限られている低速ネットワークが用いられている場合には、クライアントは、低速ネットワーク経由でサーバにアクセスし(S321)、サーバから地図情報としてSWLDを取得する(S322)。一方、Wi‐Fi(登録商標)環境下等のネットワーク帯域に余裕がある高速ネットワークが用いられている場合には、クライアントは、高速ネットワーク経由でサーバにアクセスし(S323)、サーバからWLDを取得する(S324)。これにより、クライアントは、当該クライアントのネットワーク帯域に応じて適切な地図情報を取得することができる。
 具体的には、クライアントは、屋外ではLTE経由でSWLDを受信し、施設等の屋内に入った場合はWi‐Fi(登録商標)経由でWLDを取得する。これにより、クライアントは、屋内のより詳細な地図情報を取得することが可能となる。
 このように、クライアントは、自身が用いるネットワークの帯域に応じてサーバにWLD又はSWLDを要求してもよい。または、クライアントは、自身が用いるネットワークの帯域を示す情報をサーバに送信し、サーバは当該情報に応じて当該クライアントに適したデータ(WLD又はSWLD)を送信してもよい。または、サーバは、クライアントのネットワーク帯域を判別し、当該クライアントに適したデータ(WLD又はSWLD)を送信してもよい。
 また、移動速度に応じてWLD又はSWLDを受信するかを切替えるようにしてもよい。図15は、この場合の動作例を示す図である。例えば、クライアントが高速移動をしている場合は(S331)、クライアントはSWLDをサーバから受信する(S332)。一方、クライアントが低速移動をしている場合は(S333)、クライアントはWLDをサーバから受信する(S334)。これにより、クライアントは、ネットワーク帯域を抑制しながら、速度に合った地図情報を取得することができる。具体的には、クライアントは、高速道路を走行中にはデータ量の少ないSWLDを受信することにより、大まかな地図情報を適切な速度で更新することができる。一方、クライアントは、一般道路を走行中にはWLDを受信することにより、より詳細な地図情報を取得することが可能となる。
 このように、クライアントは、自身の移動速度に応じてサーバにWLD又はSWLDを要求してもよい。または、クライアントは、自身の移動速度を示す情報をサーバに送信し、サーバは当該情報に応じて当該クライアントに適したデータ(WLD又はSWLD)を送信してもよい。または、サーバは、クライアントの移動速度を判別し、当該クライアントに適したデータ(WLD又はSWLD)を送信してもよい。
 また、クライアントは、最初にSWLDをサーバより取得し、その中で重要な領域のWLDを取得しても構わない。例えば、クライアントは、地図データを取得する際に、最初に大まかな地図情報をSWLDで取得し、そこから建物、標識、又は人物等の特徴が多く出現する領域を絞り込み、絞り込んだ領域のWLDを後から取得する。これにより、クライアントは、サーバからの受信データ量を抑制しつつ、必要な領域の詳細な情報を取得することが可能となる。
 また、サーバは、WLDから物体毎に別々のSWLDを作成し、クライアントは、用途に合わせて、それぞれを受信してもよい。これにより、ネットワーク帯域を抑制できる。例えば、サーバは、WLDから予め人又は車を認識し、人のSWLDと車のSWLDを作成する。クライアントは、周囲の人の情報を取得したい場合には人のSWLDを、車の情報を取得したい場合には車のSWLDを受信する。また、このようなSWLDの種類はヘッダ等に付加された情報(フラグ又はタイプ等)によって区別するようにしても構わない。
 次に、本実施の形態に係る三次元データ符号化装置(例えばサーバ)の構成及び動作の流れを説明する。図16は、本実施の形態に係る三次元データ符号化装置400のブロック図である。図17は、三次元データ符号化装置400による三次元データ符号化処理のフローチャートである。
 図16に示す三次元データ符号化装置400は、入力三次元データ411を符号化することで符号化ストリームである符号化三次元データ413及び414を生成する。ここで、符号化三次元データ413はWLDに対応する符号化三次元データであり、符号化三次元データ414はSWLDに対応する符号化三次元データである。この三次元データ符号化装置400は、取得部401と、符号化領域決定部402と、SWLD抽出部403と、WLD符号化部404と、SWLD符号化部405とを備える。
 図17に示すように、まず、取得部401は、三次元空間内の点群データである入力三次元データ411を取得する(S401)。
 次に、符号化領域決定部402は、点群データが存在する空間領域に基づいて、符号化対象の空間領域を決定する(S402)。
 次に、SWLD抽出部403は、符号化対象の空間領域をWLDと定義し、WLDに含まれる各VXLから特徴量を算出する。そして、SWLD抽出部403は、特徴量が予め定められた閾値以上のVXLを抽出し、抽出したVXLをFVXLと定義し、当該FVXLをSWLDへ追加することで、抽出三次元データ412を生成する(S403)。つまり、入力三次元データ411から特徴量が閾値以上の抽出三次元データ412が抽出される。
 次に、WLD符号化部404は、WLDに対応する入力三次元データ411を符号化することでWLDに対応する符号化三次元データ413を生成する(S404)。このとき、WLD符号化部404は、符号化三次元データ413のヘッダに、当該符号化三次元データ413がWLDを含むストリームであることを区別するための情報を付加する。
 また、SWLD符号化部405は、SWLDに対応する抽出三次元データ412を符号化することでSWLDに対応する符号化三次元データ414を生成する(S405)。このとき、SWLD符号化部405は、符号化三次元データ414のヘッダに、当該符号化三次元データ414がSWLDを含むストリームであることを区別するための情報を付加する。
 なお、符号化三次元データ413を生成する処理と、符号化三次元データ414を生成する処理との処理順は上記と逆でもよい。また、これらの処理の一部又は全てが並列に行われてもよい。
 符号化三次元データ413及び414のヘッダに付与される情報として、例えば、「world_type」というパラメータが定義される。world_type=0の場合はストリームがWLDを含むことを表し、world_type=1の場合はストリームがSWLDを含むことを表す。更にその他の多数の種別を定義する場合には、world_type=2のように割り当てる数値を増やすようにしても構わない。また、符号化三次元データ413及び414の一方に特定のフラグが含まれてもよい。例えば、符号化三次元データ414に、当該ストリームがSWLDを含むことを含むフラグが付与されてもよい。この場合、復号装置は、フラグの有無によりWLDを含むストリームか、SWLDを含むストリームかを判別できる。
 また、WLD符号化部404がWLDを符号化する際に使用する符号化方法と、SWLD符号化部405がSWLDを符号化する際に使用する符号化方法とは異なってもよい。
 例えば、SWLDではデータが間引かされているため、WLDに比べ、周辺のデータとの相関が低くなる可能性がある。よって、SWLDに用いられる符号化方法では、WLDに用いられる符号化方法よりもイントラ予測及びインター予測のうちインター予測が優先されてもよい。
 また、SWLDに用いられる符号化方法とWLDに用いられる符号化方法とでは、三次元位置の表現手法が異なってもよい。例えば、SWLDでは、三次元座標によりFVXLの三次元位置を表現し、WLDでは、後述する8分木により三次元位置が表現されてもよいし、その逆でもよい。
 また、SWLD符号化部405は、SWLDの符号化三次元データ414のデータサイズがWLDの符号化三次元データ413のデータサイズより小さくなるように符号化を行う。例えば、上述したようにSWLDは、WLDに比べ、データ間の相関が低くなる可能性がある。これにより、符号化効率が下がり、符号化三次元データ414のデータサイズがWLDの符号化三次元データ413のデータサイズより大きくなる可能性がある。よって、SWLD符号化部405は、得られた符号化三次元データ414のデータサイズが、WLDの符号化三次元データ413のデータサイズより大きい場合には、再符号化を行うことで、データサイズを低減した符号化三次元データ414を再生成する。
 例えば、SWLD抽出部403は、抽出する特徴点の数を減らした抽出三次元データ412を再生成し、SWLD符号化部405は、当該抽出三次元データ412を符号化する。または、SWLD符号化部405における量子化の程度をより粗くしてもよい。例えば、後述する8分木構造において、最下層のデータを丸め込むことで、量子化の程度を粗くすることができる。
 また、SWLD符号化部405は、SWLDの符号化三次元データ414のデータサイズをWLDの符号化三次元データ413のデータサイズより小さくできない場合は、SWLDの符号化三次元データ414を生成しなくてもよい。または、WLDの符号化三次元データ413がSWLDの符号化三次元データ414にコピーされてもよい。つまり、SWLDの符号化三次元データ414としてWLDの符号化三次元データ413がそのまま用いられてもよい。
 次に、本実施の形態に係る三次元データ復号装置(例えばクライアント)の構成及び動作の流れを説明する。図18は、本実施の形態に係る三次元データ復号装置500のブロック図である。図19は、三次元データ復号装置500による三次元データ復号処理のフローチャートである。
 図18に示す三次元データ復号装置500は、符号化三次元データ511を復号することで復号三次元データ512又は513を生成する。ここで、符号化三次元データ511は、例えば、三次元データ符号化装置400で生成された符号化三次元データ413又は414である。
 この三次元データ復号装置500は、取得部501と、ヘッダ解析部502と、WLD復号部503と、SWLD復号部504とを備える。
 図19に示すように、まず、取得部501は、符号化三次元データ511を取得する(S501)。次に、ヘッダ解析部502は、符号化三次元データ511のヘッダを解析し、符号化三次元データ511がWLDを含むストリームか、SWLDを含むストリームかを判別する(S502)。例えば、上述したworld_typeのパラメータが参照され、判別が行われる。
 符号化三次元データ511がWLDを含むストリームである場合(S503でYes)、WLD復号部503は、符号化三次元データ511を復号することでWLDの復号三次元データ512を生成する(S504)。一方、符号化三次元データ511がSWLDを含むストリームである場合(S503でNo)、SWLD復号部504は、符号化三次元データ511を復号することでSWLDの復号三次元データ513を生成する(S505)。
 また、符号化装置と同様に、WLD復号部503がWLDを復号する際に使用する復号方法と、SWLD復号部504がSWLDを復号する際に使用する復号方法とは異なってもよい。例えば、SWLDに用いられる復号方法では、WLDに用いられる復号方法よりもイントラ予測及びインター予測のうちインター予測が優先されてもよい。
 また、SWLDに用いられる復号方法とWLDに用いられる復号方法とでは、三次元位置の表現手法が異なってもよい。例えば、SWLDでは、三次元座標によりFVXLの三次元位置を表現し、WLDでは、後述する8分木により三次元位置が表現されてもよいし、その逆でもよい。
 次に、三次元位置の表現手法である8分木表現について説明する。三次元データに含まれるVXLデータは8分木構造に変換された後、符号化される。図20は、WLDのVXLの一例を示す図である。図21は、図20に示すWLDの8分木構造を示す図である。図20に示す例では、点群を含むVXL(以下、有効VXL)である3つVXL1~3が存在する。図21に示すように、8分木構造はノードとリーフで構成される。各ノードは最大で8つのノードまたはリーフを持つ。各リーフはVXL情報を持つ。ここで、図21に示すリーフのうち、リーフ1、2、3はそれぞれ図20に示すVXL1、VXL2、VXL3を表す。
 具体的には、各ノード及びリーフは三次元位置に対応する。ノード1は、図20に示す全体のブロックに対応する。ノード1に対応するブロックは8つのブロックに分割され、8つのブロックのうち、有効VXLを含むブロックがノードに設定され、それ以外のブロックはリーフに設定される。ノードに対応するブロックは、さらに8つのノードまたはリーフに分割され、この処理が木構造の階層分繰り返される。また、最下層のブロックは、全てリーフに設定される。
 また、図22は、図20に示すWLDから生成したSWLDの例を示す図である。図20に示すVXL1及びVXL2は特徴量抽出の結果、FVXL1及びFVXL2と判定され、SWLDに加えられている。一方で、VXL3はFVXLと判定されず、SWLDに含まれていない。図23は、図22に示すSWLDの8分木構造を示す図である。図23に示す8分木構造では、図21に示す、VXL3に相当するリーフ3が削除されている。これにより、図21に示すノード3が有効VXLを持たなくなり、リーフに変更されている。このように一般的にSWLDのリーフ数はWLDのリーフ数より少なくなり、SWLDの符号化三次元データもWLDの符号化三次元データより小さくなる。
 以下、本実施の形態の変形例について説明する。
 例えば、車載装置等のクライアントは、自己位置推定を行う場合に、SWLDをサーバから受信し、SWLDを用いて自己位置推定を行い、障害物検知を行う場合は、レンジファインダなどの距離センサ、ステレオカメラ、又は複数の単眼カメラの組合せ等の様々な方法を用いて自分で取得した周辺の三次元情報に基づいて障害物検知を実施してもよい。
 また、一般的にSWLDには平坦領域のVXLデータが含まれにくい。そのため、サーバは、静的な障害物の検知用に、WLDをサブサンプルしたサブサンプルワールド(subWLD)を保持し、SWLDとsubWLDをクライアントに送信してもよい。これにより、ネットワーク帯域を抑制しつつ、クライアント側で自己位置推定及び障害物検知を行うことができる。
 また、クライアントが三次元地図データを高速に描画する際には、地図情報がメッシュ構造である方が便利な場合がある。そこで、サーバは、WLDからメッシュを生成し、メッシュワールド(MWLD)として予め保持してもよい。例えばクライアントは、粗い三次元描画を必要としている場合にはMWLDを受信し、詳細な三次元描画を必要としている場合にはWLDを受信する。これにより、ネットワーク帯域を抑制することができる。
 また、サーバは、各VXLのうち、特徴量が閾値以上であるVXLをFVXLに設定したが、異なる方法にてFVXLを算出しても構わない。例えば、サーバは、信号又は交差点などを構成するVXL、VLM、SPC、又はGOSを、自己位置推定、運転アシスト、又は自動運転等に必要と判断し、FVXL、FVLM、FSPC、FGOSとしてSWLDに含めるようにしても構わない。また、上記判断は手動で行われてもよい。なお、特徴量に基づき設定されたFVXL等に、上記方法で得られたFVXL等を加えてもよい。つまり、SWLD抽出部403は、さらに、入力三次元データ411から予め定められた属性を有する物体に対応するデータを抽出三次元データ412として抽出してもよい。
 また、それらの用途に必要な旨を特徴量とは別にラベリングするようにしても構わない。また、サーバは、SWLDの上位レイヤ(例えばレーンワールド)として、信号又は交差点などの自己位置推定、運転アシスト、又は自動運転等に必要なFVXLを別途保持してもよい。
 また、サーバは、WLD内のVXLにもランダムアクセス単位又は所定の単位毎に属性を付加してもよい。属性は、例えば、自己位置推定に必要或いは不要かを示す情報、又は、信号或いは交差点などの交通情報として重要かどうかなどを示す情報を含む。また、属性は、レーン情報(GDF:Geographic Data Filesなど)におけるFeature(交差点又は道路など)との対応関係を含んでもよい。
 また、WLD又はSWLDの更新方法として下記のような方法を用いても構わない。
 人、工事、又は並木(トラック向け)の変化などを示す更新情報が点群又はメタデータとしてサーバにアップロードされる。サーバは、当該アップロードに基づき、WLDを更新し、その後、更新したWLDを用いてSWLDを更新する。
 また、クライアントは、自己位置推定時に自身で生成した三次元情報とサーバから受信した三次元情報との不整合を検知した場合、自身で生成した三次元情報を更新通知とともにサーバに送信してもよい。この場合、サーバは、WLDを用いてSWLDを更新する。SWLDが更新されない場合、サーバは、WLD自体が古いと判断する。
 また、符号化ストリームのヘッダ情報として、WLDかSWLDかを区別する情報が付加されるとしたが、例えば、メッシュワールド又はレーンワールド等、多種類のワールドが存在する場合には、それらを区別する情報がヘッダ情報に付加されても構わない。また、特徴量が異なるSWLDが多数存在する場合には、それぞれを区別する情報がヘッダ情報に付加されても構わない。
 また、SWLDは、FVXLで構成されるとしたが、FVXLと判定されなかったVXLを含んでもよい。例えば、SWLDは、FVXLの特徴量を算出する際に使用する隣接VXLを含んでもよい。これにより、SWLDの各FVXLに特徴量情報が付加されない場合でも、クライアントは、SWLDを受信した際にFVXLの特徴量を算出することができる。なお、その際には、SWLDは各VXLがFVXLかVXLかを区別するための情報を含んでもよい。
 以上のように、三次元データ符号化装置400は、入力三次元データ411(第1三次元データ)から特徴量が閾値以上の抽出三次元データ412(第2三次元データ)を抽出し、抽出三次元データ412を符号化することで符号化三次元データ414(第1符号化三次元データ)を生成する。
 これによれば、三次元データ符号化装置400は、特徴量が閾値以上のデータを符号化した符号化三次元データ414を生成する。これにより、入力三次元データ411をそのまま符号化する場合に比べてデータ量を削減できる。よって、三次元データ符号化装置400は、伝送するデータ量を削減できる。
 また、三次元データ符号化装置400は、さらに、入力三次元データ411を符号化することで符号化三次元データ413(第2符号化三次元データ)を生成する。
 これによれば、三次元データ符号化装置400は、例えば、使用用途等に応じて、符号化三次元データ413と符号化三次元データ414とを選択的に伝送できる。
 また、抽出三次元データ412は、第1符号化方法により符号化され、入力三次元データ411は、第1符号化方法とは異なる第2符号化方法により符号化される。
 これによれば、三次元データ符号化装置400は、入力三次元データ411と抽出三次元データ412とにそれぞれ適した符号化方法を用いることができる。
 また、第1符号化方法では、第2符号化方法よりもイントラ予測及びインター予測のうちインター予測が優先される。
 これによれば、三次元データ符号化装置400は、隣接するデータ間の相関が低くなりやすい抽出三次元データ412に対して、インター予測の優先度を上げることができる。
 また、第1符号化方法と第2符号化方法とでは、三次元位置の表現手法が異なる。例えば、例えば、第2符号化方法では、8分木により三次元位置が表現され、第1符号化方法では、三次元座標により三次元位置を表現される。
 これによれば、三次元データ符号化装置400は、データ数(VXL又はFVXLの数)が異なる三次元データに対して、より適した三次元位置の表現手法を用いることができる。
 また、符号化三次元データ413及び414の少なくとも一方は、当該符号化三次元データが入力三次元データ411を符号化することで得られた符号化三次元データであるか、入力三次元データ411のうちの一部を符号化することで得られた符号化三次元データであるかを示す識別子を含む。つまり、当該識別子は、符号化三次元データがWLDの符号化三次元データ413であるかSWLDの符号化三次元データ414であるかを示す。
 これによれば、復号装置は、取得した符号化三次元データが符号化三次元データ413であるか符号化三次元データ414であるかを容易に判定できる。
 また、三次元データ符号化装置400は、符号化三次元データ414のデータ量が符号化三次元データ413のデータ量より小さくなるように抽出三次元データ412を符号化する。
 これによれば、三次元データ符号化装置400は、符号化三次元データ414のデータ量を符号化三次元データ413のデータ量より小さくできる。
 また、三次元データ符号化装置400は、さらに、入力三次元データ411から予め定められた属性を有する物体に対応するデータを抽出三次元データ412として抽出する。例えば、予め定められた属性を有する物体とは、自己位置推定、運転アシスト、又は自動運転等に必要な物体であり、信号又は交差点などである。
 これによれば、三次元データ符号化装置400は、復号装置で必要となるデータを含む符号化三次元データ414を生成できる。
 また、三次元データ符号化装置400(サーバ)は、さらに、クライアントの状態に応じて、符号化三次元データ413及び414の一方をクライアントに送信する。
 これによれば、三次元データ符号化装置400は、クライアントの状態に応じて適切なデータを送信できる。
 また、クライアントの状態は、クライアントの通信状況(例えばネットワーク帯域)、又はクライアントの移動速度を含む。
 また、三次元データ符号化装置400は、さらに、クライアントの要求に応じて、符号化三次元データ413及び414の一方をクライアントに送信する。
 これによれば、三次元データ符号化装置400は、クライアントの要求に応じて適切なデータを送信できる。
 また、本実施の形態に係る三次元データ復号装置500は、上記三次元データ符号化装置400により生成された符号化三次元データ413又は414を復号する。
 つまり、三次元データ復号装置500は、入力三次元データ411から抽出された特徴量が閾値以上の抽出三次元データ412が符号化されることで得られた符号化三次元データ414を第1復号方法により復号する。また、三次元データ復号装置500は、入力三次元データ411が符号化されることで得られた符号化三次元データ413を、第1復号方法とは異なる第2復号方法により復号する。
 これによれば、三次元データ復号装置500は、特徴量が閾値以上のデータを符号化した符号化三次元データ414と、符号化三次元データ413とを、例えば、使用用途等に応じて選択的に受信できる。これにより、三次元データ復号装置500は、伝送するデータ量を削減できる。さらに、三次元データ復号装置500は、入力三次元データ411と抽出三次元データ412とにそれぞれ適した復号方法を用いることができる。
 また、第1復号方法では、第2復号方法よりもイントラ予測及びインター予測のうちインター予測が優先される。
 これによれば、三次元データ復号装置500は、隣接するデータ間の相関が低くなりやすい抽出三次元データに対して、インター予測の優先度を上げることができる。
 また、第1復号方法と第2復号方法とでは、三次元位置の表現手法が異なる。例えば、例えば、第2復号方法では、8分木により三次元位置が表現され、第1復号方法では、三次元座標により三次元位置を表現される。
 これによれば、三次元データ復号装置500は、データ数(VXL又はFVXLの数)が異なる三次元データに対して、より適した三次元位置の表現手法を用いることができる。
 また、符号化三次元データ413及び414の少なくとも一方は、当該符号化三次元データが入力三次元データ411を符号化することで得られた符号化三次元データであるか、入力三次元データ411のうちの一部を符号化することで得られた符号化三次元データであるかを示す識別子を含む。三次元データ復号装置500は、当該識別子を参照して、符号化三次元データ413及び414を識別する。
 これによれば、三次元データ復号装置500は、取得した符号化三次元データが符号化三次元データ413であるか符号化三次元データ414であるかを容易に判定できる。
 また、三次元データ復号装置500は、さらに、クライアント(三次元データ復号装置500)の状態をサーバに通知する。三次元データ復号装置500は、クライアントの状態に応じて、サーバから送信された符号化三次元データ413及び414の一方を受信する。
 これによれば、三次元データ復号装置500は、クライアントの状態に応じて適切なデータを受信できる。
 また、クライアントの状態は、クライアントの通信状況(例えばネットワーク帯域)、又はクライアントの移動速度を含む。
 また、三次元データ復号装置500は、さらに、符号化三次元データ413及び414の一方をサーバに要求し、当該要求に応じて、サーバから送信された符号化三次元データ413及び414の一方を受信する。
 これによれば、三次元データ復号装置500は、用途に応じた適切なデータを受信できる。
 (実施の形態3)
 本実施の形態では、車両間での三次元データを送受信する方法について説明する。例えば、自車両と周辺車両との間での三次元データの送受信が行われる。
 図24は、本実施の形態に係る三次元データ作成装置620のブロック図である。この三次元データ作成装置620は、例えば、自車両に含まれ、三次元データ作成装置620が作成した第1三次元データ632に、受信した第2三次元データ635を合成することで、より密な第3三次元データ636を作成する。
 この三次元データ作成装置620は、三次元データ作成部621と、要求範囲決定部622と、探索部623と、受信部624と、復号部625と、合成部626とを備える。
 まず、三次元データ作成部621は、自車両が備えるセンサで検知したセンサ情報631を用いて第1三次元データ632を作成する。次に、要求範囲決定部622は、作成した第1三次元データ632の中でデータが不足している三次元空間範囲である要求範囲を決定する。
 次に、探索部623は、要求範囲の三次元データを所有する周辺車両を探索し、探索により特定した周辺車両に要求範囲を示す要求範囲情報633を送信する。次に、受信部624は、周辺車両から、要求範囲の符号化ストリームである符号化三次元データ634を受信する(S624)。なお、探索部623は、特定範囲に存在する全ての車両に対し、無差別にリクエストを出し、応答があった相手から符号化三次元データ634を受信してもよい。また、探索部623は、車両に限らず、信号機又は標識などの物体にリクエストを出し、当該物体から符号化三次元データ634を受信してもよい。
 次に、復号部625は、受信した符号化三次元データ634を復号することで第2三次元データ635を取得する。次に、合成部626は、第1三次元データ632と第2三次元データ635とを合成することで、より密な第3三次元データ636を作成する。
 次に、本実施の形態に係る三次元データ送信装置640の構成及び動作を説明する。図25は、三次元データ送信装置640のブロック図である。
 三次元データ送信装置640は、例えば、上述した周辺車両に含まれ、周辺車両が作成した第5三次元データ652を自車両が要求する第6三次元データ654に加工し、第6三次元データ654を符号化することで符号化三次元データ634を生成し、符号化三次元データ634を自車両に送信する。
 三次元データ送信装置640は、三次元データ作成部641と、受信部642と、抽出部643と、符号化部644と、送信部645とを備える。
 まず、三次元データ作成部641は、周辺車両が備えるセンサで検知したセンサ情報651を用いて第5三次元データ652を作成する。次に、受信部642は、自車両から送信された要求範囲情報633を受信する。
 次に、抽出部643は、第5三次元データ652から、要求範囲情報633で示される要求範囲の三次元データを抽出することで、第5三次元データ652を第6三次元データ654に加工する。次に、符号化部644は、第6三次元データ654を符号化することで、符号化ストリームである符号化三次元データ634を生成する。そして、送信部645は、自車両へ符号化三次元データ634を送信する。
 なお、ここでは、自車両が三次元データ作成装置620を備え、周辺車両が三次元データ送信装置640を備える例を説明するが、各車両が、三次元データ作成装置620と三次元データ送信装置640との機能を有してもよい。
 (実施の形態4)
 本実施の形態では、三次元マップに基づく自己位置推定における異常系の動作について説明する。
 車の自動運転、又は、ロボット、或いはドローンなどの飛行体などの移動体を自律的に移動させるなどの用途が今後拡大すると予想される。このような自律的な移動を実現する手段の一例として、移動体が、三次元マップ内における自らの位置を推定(自己位置推定)しながら、マップに従って走行する方法がある。
 自己位置推定は、三次元マップと、自車に搭載したレンジファインダー(LiDARなど)又はステレオカメラなどのセンサにより取得した自車周辺の三次元情報(以降、自車検知三次元データ)とをマッチングして、三次元マップ内の自車位置を推定することで実現できる。
 三次元マップは、HERE社が提唱するHDマップなどのように、三次元のポイントクラウドだけでなく、道路及び交差点の形状情報など二次元の地図データ、又は、渋滞及び事故などの実時間で変化する情報を含んでもよい。三次元データ、二次元データ、実時間で変化するメタデータなど複数のレイヤから三次元マップが構成され、装置は、必要なデータのみを取得、又は、参照することも可能である。
 ポイントクラウドのデータは、上述したSWLDであってもよいし、特徴点ではない点群データを含んでもよい。また、ポイントクラウドのデータの送受信は、1つ、または、複数のランダムアクセス単位を基本として行われる。
 三次元マップと自車検知三次元データとのマッチング方法として以下の方法を用いることができる。例えば、装置は、互いのポイントクラウドにおける点群の形状を比較し、特徴点間の類似度が高い部位が同一位置であると決定する。また、装置は、三次元マップがSWLDから構成される場合、SWLDを構成する特徴点と、自車検知三次元データから抽出した三次元特徴点とを比較してマッチングを行う。
 ここで、高精度に自己位置推定を行うためには、(A)三次元マップと自車検知三次元データが取得できており、かつ、(B)それらの精度が予め定められた基準を満たすことが必要となる。しかしながら、以下のような異常ケースでは、(A)又は(B)が満たせない。
 (1)三次元マップを通信経由で取得できない。
 (2)三次元マップが存在しない、又は、三次元マップを取得したが破損している。
 (3)自車のセンサが故障している、又は、悪天候のために、自車検知三次元データの生成精度が十分でない。
 これらの異常ケースに対処するための動作を、以下で説明する。以下では、車を例に動作を説明するが、以下の手法は、ロボット又はドローンなど、自律的に移動する動物体全般に対して適用できる。
 以下、三次元マップ又は自車検知三次元データにおける異常ケースに対応するための、本実施の形態に係る三次元情報処理装置の構成及び動作を説明する。図26は、本実施の形態に係る三次元情報処理装置700の構成例を示すブロック図である。
 三次元情報処理装置700は、例えば、自動車等の動物体に搭載される。図26に示すように、三次元情報処理装置700は、三次元マップ取得部701と、自車検知データ取得部702と、異常ケース判定部703と、対処動作決定部704と、動作制御部705とを備える。
 なお、三次元情報処理装置700は、二次元画像を取得するカメラ、又は、超音波或いはレーザーを用いた一次元データのセンサなど、自車周辺の構造物又は動物体を検知するための図示しない二次元又は一次元のセンサを備えてもよい。また、三次元情報処理装置700は、三次元マップを4G或いは5Gなどの移動体通信網、又は、車車間通信或いは路車間通信により取得するための通信部(図示せず)を備えてもよい。
 三次元マップ取得部701は、走行経路近傍の三次元マップ711を取得する。例えば、三次元マップ取得部701は、移動体通信網、又は、車車間通信或いは路車間通信により三次元マップ711を取得する。
 次に、自車検知データ取得部702は、センサ情報に基づいて自車検知三次元データ712を取得する。例えば、自車検知データ取得部702は、自車が備えるセンサにより取得されたセンサ情報に基づき、自車検知三次元データ712を生成する。
 次に、異常ケース判定部703は、取得した三次元マップ711及び自車検知三次元データ712の少なくとも一方に対して予め定められたチェックを実施することで異常ケースを検出する。つまり、異常ケース判定部703は、取得した三次元マップ711及び自車検知三次元データ712の少なくとも一方が異常であるかを判定する。
 異常ケースが検出された場合、対処動作決定部704は、異常ケースに対する対処動作を決定する。次に、動作制御部705は、三次元マップ取得部701など、対処動作の実施に必要となる各処理部の動作を制御する。
 一方、異常ケースが検出されない場合、三次元情報処理装置700は、処理を終了する。
 また、三次元情報処理装置700は、三次元マップ711と自車検知三次元データ712とを用いて、三次元情報処理装置700を有する車両の自己位置推定を行う。次に、三次元情報処理装置700は、自己位置推定の結果を用いて、当該車両を自動運転する。
 このように、三次元情報処理装置700は、第1の三次元位置情報を含むマップデータ(三次元マップ711)を通信路を介して取得する。例えば、第1の三次元位置情報は、三次元の座標情報を有する部分空間を単位として符号化され、各々が1以上の部分空間の集合体であり、各々を独立に復号可能な複数のランダムアクセス単位を含む。例えば、第1の三次元位置情報は、三次元の特徴量が所定の閾値以上となる特徴点が符号化されたデータ(SWLD)である。
 また、三次元情報処理装置700は、センサで検知した情報から第2の三次元位置情報(自車検知三次元データ712)を生成する。次に、三次元情報処理装置700は、第1の三次元位置情報又は第2の三次元位置情報に対して異常判定処理を実施することで、第1の三次元位置情報又は前記第2の三次元位置情報が異常であるかどうかを判定する。
 三次元情報処理装置700は、第1の三次元位置情報又は第2の三次元位置情報が異常であると判定された場合、当該異常に対する対処動作を決定する。次に、三次元情報処理装置700は、対処動作の実施に必要となる制御を実施する。
 これにより、三次元情報処理装置700は、第1の三次元位置情報又は第2の三次元位置情報の異常を検知し、対処動作を行うことができる。
 (実施の形態5)
 本実施の形態では、後続車両への三次元データ送信方法等について説明する。
 図27は、本実施の形態に係る三次元データ作成装置810の構成例を示すブロック図である。この三次元データ作成装置810は、例えば、車両に搭載される。三次元データ作成装置810は、外部の交通監視クラウド、前走車両又は後続車両と三次元データの送受信を行うとともに、三次元データを作成及び蓄積する。
 三次元データ作成装置810は、データ受信部811と、通信部812と、受信制御部813と、フォーマット変換部814と、複数のセンサ815と、三次元データ作成部816と、三次元データ合成部817と、三次元データ蓄積部818と、通信部819と、送信制御部820と、フォーマット変換部821と、データ送信部822とを備える。
 データ受信部811は、交通監視クラウド又は前走車両から三次元データ831を受信する。三次元データ831は、例えば、自車両のセンサ815で検知不能な領域を含む、ポイントクラウド、可視光映像、奥行き情報、センサ位置情報、又は速度情報などの情報を含む。
 通信部812は、交通監視クラウド又は前走車両と通信し、データ送信要求などを交通監視クラウド又は前走車両に送信する。
 受信制御部813は、通信部812を介して、対応フォーマット等の情報を通信先と交換し、通信先との通信を確立する。
 フォーマット変換部814は、データ受信部811が受信した三次元データ831にフォーマット変換等を行うことで三次元データ832を生成する。また、フォーマット変換部814は、三次元データ831が圧縮又は符号化されている場合には、伸張又は復号処理を行う。
 複数のセンサ815は、LiDAR、可視光カメラ又は赤外線カメラなどの、車両の外部の情報を取得するセンサ群であり、センサ情報833を生成する。例えば、センサ情報833は、センサ815がLiDARなどのレーザセンサである場合、ポイントクラウド(点群データ)等の三次元データである。なお、センサ815は複数でなくてもよい。
 三次元データ作成部816は、センサ情報833から三次元データ834を生成する。三次元データ834は、例えば、ポイントクラウド、可視光映像、奥行き情報、センサ位置情報、又は速度情報などの情報を含む。
 三次元データ合成部817は、自車両のセンサ情報833に基づいて作成された三次元データ834に、交通監視クラウド又は前走車両等が作成した三次元データ832を合成することで、自車両のセンサ815では検知できない前走車両の前方の空間も含む三次元データ835を構築する。
 三次元データ蓄積部818は、生成された三次元データ835等を蓄積する。
 通信部819は、交通監視クラウド又は後続車両と通信し、データ送信要求などを交通監視クラウド又は後続車両に送信する。
 送信制御部820は、通信部819を介して、対応フォーマット等の情報を通信先と交換し、通信先と通信を確立する。また、送信制御部820は、三次元データ合成部817で生成された三次元データ832の三次元データ構築情報と、通信先からのデータ送信要求とに基づき、送信対象の三次元データの空間である送信領域を決定する。
 具体的には、送信制御部820は、交通監視クラウド又は後続車両からのデータ送信要求に応じて、後続車両のセンサでは検知できない自車両の前方の空間を含む送信領域を決定する。また、送信制御部820は、三次元データ構築情報に基づいて送信可能な空間又は送信済み空間の更新有無等を判断することで送信領域を決定する。例えば、送信制御部820は、データ送信要求で指定された領域であり、かつ、対応する三次元データ835が存在する領域を送信領域に決定する。そして、送信制御部820は、通信先が対応するフォーマット、及び送信領域をフォーマット変換部821に通知する。
 フォーマット変換部821は、三次元データ蓄積部818に蓄積されている三次元データ835のうち、送信領域の三次元データ836を、受信側が対応しているフォーマットへ変換することで三次元データ837を生成する。なお、フォーマット変換部821は、三次元データ837を圧縮又は符号化することでデータ量を削減してもよい。
 データ送信部822は、三次元データ837を交通監視クラウド又は後続車両に送信する。この三次元データ837は、例えば、後続車両の死角になる領域を含む、自車両の前方のポイントクラウド、可視光映像、奥行き情報、又はセンサ位置情報などの情報を含む。
 なお、ここでは、フォーマット変換部814及び821にてフォーマット変換等が行われる例を述べたが、フォーマット変換は行われなくてもよい。
 このような構成により、三次元データ作成装置810は、自車両のセンサ815では検知できない領域の三次元データ831を外部から取得し、三次元データ831と自車両のセンサ815で検知したセンサ情報833に基づく三次元データ834とを合成することで三次元データ835を生成する。これにより、三次元データ作成装置810は、自車両のセンサ815で検知できない範囲の三次元データを生成できる。
 また、三次元データ作成装置810は、交通監視クラウド又は後続車両からのデータ送信要求に応じて、後続車両のセンサでは検知できない自車両の前方の空間を含む三次元データを、交通監視クラウド又は後続車両等へ送信できる。
 (実施の形態6)
 実施の形態5において、車両等のクライアント装置が、他の車両又は交通監視クラウド等のサーバに三次元データを送信する例を説明した。本実施の形態では、クライアント装置は、サーバ又は他のクライアント装置にセンサで得られたセンサ情報を送信する。
 まず、本実施の形態に係るシステムの構成を説明する。図28は、本実施の形態に係る三次元マップ及びセンサ情報の送受信システムの構成を示す図である。このシステムは、サーバ901と、クライアント装置902A及び902Bを含む。なお、クライアント装置902A及び902Bを特に区別しない場合には、クライアント装置902とも記す。
 クライアント装置902は、例えば、車両等の移動体に搭載される車載機器である。サーバ901は、例えば、交通監視クラウド等であり、複数のクライアント装置902と通信可能である。
 サーバ901は、クライアント装置902に、ポイントクラウドから構成される三次元マップを送信する。なお、三次元マップの構成はポイントクラウドに限定されず、メッシュ構造等、他の三次元データを表すものであってもよい。
 クライアント装置902は、サーバ901に、クライアント装置902が取得したセンサ情報を送信する。センサ情報は、例えば、LiDAR取得情報、可視光画像、赤外画像、デプス画像、センサ位置情報及び速度情報のうち少なくとも一つを含む。
 サーバ901とクライアント装置902との間で送受信されるデータは、データ削減のために圧縮されてもよいし、データの精度を維持するために非圧縮のままでも構わない。データを圧縮する場合、ポイントクラウドには例えば8分木構造に基づく三次元圧縮方式を用いることができる。また、可視光画像、赤外画像、及びデプス画像には二次元の画像圧縮方式を用いることできる。二次元の画像圧縮方式とは、例えば、MPEGで規格化されたMPEG-4 AVC又はHEVC等である。
 また、サーバ901は、クライアント装置902からの三次元マップの送信要求に応じてサーバ901で管理する三次元マップをクライアント装置902に送信する。なお、サーバ901はクライアント装置902からの三次元マップの送信要求を待たずに三次元マップを送信してもよい。例えば、サーバ901は、予め定められた空間にいる1つ以上のクライアント装置902に三次元マップをブロードキャストしても構わない。また、サーバ901は、一度送信要求を受けたクライアント装置902に、一定時間毎にクライアント装置902の位置に適した三次元マップを送信してもよい。また、サーバ901は、サーバ901が管理する三次元マップが更新される度にクライアント装置902に三次元マップを送信してもよい。
 クライアント装置902は、サーバ901に三次元マップの送信要求を出す。例えば、クライアント装置902が、走行時に自己位置推定を行いたい場合に、クライアント装置902は、三次元マップの送信要求をサーバ901に送信する。
 なお、次のような場合に、クライアント装置902はサーバ901に三次元マップの送信要求を出してもよい。クライアント装置902の保持する三次元マップが古い場合に、クライアント装置902はサーバ901に三次元マップの送信要求を出してもよい。例えば、クライアント装置902が三次元マップを取得してから一定期間が経過した場合に、クライアント装置902はサーバ901に三次元マップの送信要求を出してもよい。
 クライアント装置902が保持する三次元マップで示される空間から、クライアント装置902が外に出る一定時刻前に、クライアント装置902はサーバ901に三次元マップの送信要求を出してもよい。例えば、クライアント装置902が、クライアント装置902が保持する三次元マップで示される空間の境界から予め定められた距離以内に存在する場合に、クライアント装置902はサーバ901に三次元マップの送信要求を出してもよい。また、クライアント装置902の移動経路及び移動速度が把握できている場合には、これらに基づき、クライアント装置902が保持する三次元マップで示される空間から、クライアント装置902が外に出る時刻を予測してもよい。
 クライアント装置902がセンサ情報から作成した三次元データと三次元マップとの位置合せ時の誤差が一定以上の場合に、クライアント装置902はサーバ901に三次元マップの送信要求を出してもよい。
 クライアント装置902は、サーバ901から送信されたセンサ情報の送信要求に応じて、サーバ901にセンサ情報を送信する。なお、クライアント装置902はサーバ901からのセンサ情報の送信要求を待たずにセンサ情報をサーバ901に送ってもよい。例えば、クライアント装置902は、一度サーバ901からセンサ情報の送信要求を得た場合、一定期間の間、定期的にセンサ情報をサーバ901に送信してもよい。また、クライアント装置902は、クライアント装置902がセンサ情報を元に作成した三次元データと、サーバ901から得た三次元マップとの位置合せ時の誤差が一定以上の場合、クライアント装置902の周辺の三次元マップに変化が生じた可能性があると判断し、その旨とセンサ情報とをサーバ901に送信してもよい。
 サーバ901は、クライアント装置902にセンサ情報の送信要求を出す。例えば、サーバ901は、クライアント装置902から、GPS等のクライアント装置902の位置情報を受信する。サーバ901は、クライアント装置902の位置情報に基づき、サーバ901が管理する三次元マップにおいて情報が少ない空間にクライアント装置902が近づいていると判断した場合、新たな三次元マップを生成するためにクライアント装置902にセンサ情報の送信要求を出す。また、サーバ901は、三次元マップを更新したい場合、積雪時或いは災害時などの道路状況を確認したい場合、渋滞状況、或いは事件事故状況等を確認したい場合に、センサ情報の送信要求を出してもよい。
 また、クライアント装置902は、サーバ901から受け取るセンサ情報の送信要求の受信時における通信状態又は帯域に応じて、サーバ901に送信するセンサ情報のデータ量を設定してもよい。サーバ901に送信するセンサ情報のデータ量を設定するというのは、例えば、当該データそのものを増減させること、又は圧縮方式を適宜選択することである。
 図29は、クライアント装置902の構成例を示すブロック図である。クライアント装置902は、サーバ901からポイントクラウド等で構成される三次元マップを受信し、クライアント装置902のセンサ情報に基づいて作成した三次元データからクライアント装置902の自己位置を推定する。また、クライアント装置902は、取得したセンサ情報をサーバ901に送信する。
 クライアント装置902は、データ受信部1011と、通信部1012と、受信制御部1013と、フォーマット変換部1014と、複数のセンサ1015と、三次元データ作成部1016と、三次元画像処理部1017と、三次元データ蓄積部1018と、フォーマット変換部1019と、通信部1020と、送信制御部1021と、データ送信部1022とを備える。
 データ受信部1011は、サーバ901から三次元マップ1031を受信する。三次元マップ1031は、WLD又はSWLD等のポイントクラウドを含むデータである。三次元マップ1031には、圧縮データ、及び非圧縮データのどちらが含まれていてもよい。
 通信部1012は、サーバ901と通信し、データ送信要求(例えば、三次元マップの送信要求)などをサーバ901に送信する。
 受信制御部1013は、通信部1012を介して、対応フォーマット等の情報を通信先と交換し、通信先との通信を確立する。
 フォーマット変換部1014は、データ受信部1011が受信した三次元マップ1031にフォーマット変換等を行うことで三次元マップ1032を生成する。また、フォーマット変換部1014は、三次元マップ1031が圧縮又は符号化されている場合には、伸張又は復号処理を行う。なお、フォーマット変換部1014は、三次元マップ1031が非圧縮データであれば、伸張又は復号処理を行わない。
 複数のセンサ1015は、LiDAR、可視光カメラ、赤外線カメラ、又はデプスセンサなど、クライアント装置902が搭載されている車両の外部の情報を取得するセンサ群であり、センサ情報1033を生成する。例えば、センサ情報1033は、センサ1015がLiDARなどのレーザセンサである場合、ポイントクラウド(点群データ)等の三次元データである。なお、センサ1015は複数でなくてもよい。
 三次元データ作成部1016は、センサ情報1033に基づいて自車両の周辺の三次元データ1034を作成する。例えば、三次元データ作成部1016は、LiDARで取得した情報と、可視光カメラで得られた可視光映像とを用いて自車両の周辺の色情報付きのポイントクラウドデータを作成する。
 三次元画像処理部1017は、受信したポイントクラウド等の三次元マップ1032と、センサ情報1033から生成した自車両の周辺の三次元データ1034とを用いて、自車両の自己位置推定処理等を行う。なお、三次元画像処理部1017は、三次元マップ1032と三次元データ1034とを合成することで自車両の周辺の三次元データ1035を作成し、作成した三次元データ1035を用いて自己位置推定処理を行ってもよい。
 三次元データ蓄積部1018は、三次元マップ1032、三次元データ1034及び三次元データ1035等を蓄積する。
 フォーマット変換部1019は、センサ情報1033を、受信側が対応しているフォーマットへ変換することでセンサ情報1037を生成する。なお、フォーマット変換部1019は、センサ情報1037を圧縮又は符号化することでデータ量を削減してもよい。また、フォーマット変換部1019は、フォーマット変換をする必要がない場合は処理を省略してもよい。また、フォーマット変換部1019は、送信範囲の指定に応じて送信するデータ量を制御してもよい。
 通信部1020は、サーバ901と通信し、データ送信要求(センサ情報の送信要求)などをサーバ901から受信する。
 送信制御部1021は、通信部1020を介して、対応フォーマット等の情報を通信先と交換し、通信を確立する。
 データ送信部1022は、センサ情報1037をサーバ901に送信する。センサ情報1037は、例えば、LiDARで取得した情報、可視光カメラで取得した輝度画像、赤外線カメラで取得した赤外画像、デプスセンサで取得したデプス画像、センサ位置情報、及び速度情報など、複数のセンサ1015によって取得した情報を含む。
 次に、サーバ901の構成を説明する。図30は、サーバ901の構成例を示すブロック図である。サーバ901は、クライアント装置902から送信されたセンサ情報を受信し、受信したセンサ情報に基づいて三次元データを作成する。サーバ901は、作成した三次元データを用いて、サーバ901が管理する三次元マップを更新する。また、サーバ901は、クライアント装置902からの三次元マップの送信要求に応じて、更新した三次元マップをクライアント装置902に送信する。
 サーバ901は、データ受信部1111と、通信部1112と、受信制御部1113と、フォーマット変換部1114と、三次元データ作成部1116と、三次元データ合成部1117と、三次元データ蓄積部1118と、フォーマット変換部1119と、通信部1120と、送信制御部1121と、データ送信部1122とを備える。
 データ受信部1111は、クライアント装置902からセンサ情報1037を受信する。センサ情報1037は、例えば、LiDARで取得した情報、可視光カメラで取得した輝度画像、赤外線カメラで取得した赤外画像、デプスセンサで取得したデプス画像、センサ位置情報、及び速度情報などを含む。
 通信部1112は、クライアント装置902と通信し、データ送信要求(例えば、センサ情報の送信要求)などをクライアント装置902に送信する。
 受信制御部1113は、通信部1112を介して、対応フォーマット等の情報を通信先と交換し、通信を確立する。
 フォーマット変換部1114は、受信したセンサ情報1037が圧縮又は符号化されている場合には、伸張又は復号処理を行うことでセンサ情報1132を生成する。なお、フォーマット変換部1114は、センサ情報1037が非圧縮データであれば、伸張又は復号処理を行わない。
 三次元データ作成部1116は、センサ情報1132に基づいてクライアント装置902の周辺の三次元データ1134を作成する。例えば、三次元データ作成部1116は、LiDARで取得した情報と、可視光カメラで得られた可視光映像とを用いてクライアント装置902の周辺の色情報付ポイントクラウドデータを作成する。
 三次元データ合成部1117は、センサ情報1132を元に作成した三次元データ1134を、サーバ901が管理する三次元マップ1135に合成することで三次元マップ1135を更新する。
 三次元データ蓄積部1118は、三次元マップ1135等を蓄積する。
 フォーマット変換部1119は、三次元マップ1135を、受信側が対応しているフォーマットへ変換することで三次元マップ1031を生成する。なお、フォーマット変換部1119は、三次元マップ1135を圧縮又は符号化することでデータ量を削減してもよい。また、フォーマット変換部1119は、フォーマット変換をする必要がない場合は処理を省略してもよい。また、フォーマット変換部1119は、送信範囲の指定に応じて送信するデータ量を制御してもよい。
 通信部1120は、クライアント装置902と通信し、データ送信要求(三次元マップの送信要求)などをクライアント装置902から受信する。
 送信制御部1121は、通信部1120を介して、対応フォーマット等の情報を通信先と交換し、通信を確立する。
 データ送信部1122は、三次元マップ1031をクライアント装置902に送信する。三次元マップ1031は、WLD又はSWLD等のポイントクラウドを含むデータである。三次元マップ1031には、圧縮データ、及び非圧縮データのどちらが含まれていてもよい。
 次に、クライアント装置902の動作フローについて説明する。図31は、クライアント装置902による三次元マップ取得時の動作を示すフローチャートである。
 まず、クライアント装置902は、サーバ901へ三次元マップ(ポイントクラウド等)の送信を要求する(S1001)。このとき、クライアント装置902は、GPS等で得られたクライアント装置902の位置情報を合わせて送信することで、その位置情報に関連する三次元マップの送信をサーバ901に要求してもよい。
 次に、クライアント装置902は、サーバ901から三次元マップを受信する(S1002)。受信した三次元マップが圧縮データであれば、クライアント装置902は、受信した三次元マップを復号して非圧縮の三次元マップを生成する(S1003)。
 次に、クライアント装置902は、複数のセンサ1015で得られたセンサ情報1033からクライアント装置902の周辺の三次元データ1034を作成する(S1004)。次に、クライアント装置902は、サーバ901から受信した三次元マップ1032と、センサ情報1033から作成した三次元データ1034とを用いてクライアント装置902の自己位置を推定する(S1005)。
 図32は、クライアント装置902によるセンサ情報の送信時の動作を示すフローチャートである。まず、クライアント装置902は、サーバ901からセンサ情報の送信要求を受信する(S1011)。送信要求を受信したクライアント装置902は、センサ情報1037をサーバ901に送信する(S1012)。なお、クライアント装置902は、センサ情報1033が複数のセンサ1015で得られた複数の情報を含む場合、各情報を、各情報に適した圧縮方式で圧縮することでセンサ情報1037を生成してもよい。
 次に、サーバ901の動作フローについて説明する。図33は、サーバ901によるセンサ情報の取得時の動作を示すフローチャートである。まず、サーバ901は、クライアント装置902へセンサ情報の送信を要求する(S1021)。次に、サーバ901は、当該要求に応じてクライアント装置902から送信されたセンサ情報1037を受信する(S1022)。次に、サーバ901は、受信したセンサ情報1037を用いて三次元データ1134を作成する(S1023)。次に、サーバ901は、作成した三次元データ1134を三次元マップ1135に反映する(S1024)。
 図34は、サーバ901による三次元マップの送信時の動作を示すフローチャートである。まず、サーバ901は、クライアント装置902から三次元マップの送信要求を受信する(S1031)。三次元マップの送信要求を受信したサーバ901は、クライアント装置902へ三次元マップ1031を送信する(S1032)。このとき、サーバ901は、クライアント装置902の位置情報に合わせてその付近の三次元マップを抽出し、抽出した三次元マップを送信してもよい。また、サーバ901は、ポイントクラウドで構成される三次元マップを、例えば8分木構造による圧縮方式等を用いて圧縮し、圧縮後の三次元マップを送信してもよい。
 以下、本実施の形態の変形例について説明する。
 サーバ901は、クライアント装置902から受信したセンサ情報1037を用いてクライアント装置902の位置付近の三次元データ1134を作成する。次に、サーバ901は、作成した三次元データ1134と、サーバ901が管理する同エリアの三次元マップ1135とのマッチングを行うことによって、三次元データ1134と三次元マップ1135との差分を算出する。サーバ901は、差分が予め定められた閾値以上の場合は、クライアント装置902の周辺で何らかの異常が発生したと判断する。例えば、地震等の自然災害によって地盤沈下等が発生した際などに、サーバ901が管理する三次元マップ1135と、センサ情報1037を基に作成した三次元データ1134との間に大きな差が発生することが考えられる。
 センサ情報1037は、センサの種類、センサの性能、及びセンサの型番のうち少なくとも一つを示す情報を含んでもよい。また、センサ情報1037に、センサの性能に応じたクラスID等が付加されてもよい。例えば、センサ情報1037がLiDARで取得された情報である場合、数mm単位の精度で情報を取得できるセンサをクラス1、数cm単位の精度で情報を取得できるセンサをクラス2、数m単位の精度で情報を取得できるセンサをクラス3のように、センサの性能に識別子を割り当てることが考えられる。また、サーバ901は、センサの性能情報等を、クライアント装置902の型番から推定してもよい。例えば、クライアント装置902が車両に搭載されている場合、サーバ901は、当該車両の車種からセンサのスペック情報を判断してもよい。この場合、サーバ901は、車両の車種の情報を事前に取得していてもよいし、センサ情報に、当該情報が含まれてもよい。また、サーバ901は取得したセンサ情報1037を用いて、センサ情報1037を用いて作成した三次元データ1134に対する補正の度合いを切り替えてもよい。例えば、センサ性能が高精度(クラス1)である場合、サーバ901は、三次元データ1134に対する補正を行わない。センサ性能が低精度(クラス3)である場合、サーバ901は、三次元データ1134に、センサの精度に応じた補正を適用する。例えば、サーバ901は、センサの精度が低いほど補正の度合い(強度)を強くする。
 サーバ901は、ある空間にいる複数のクライアント装置902に同時にセンサ情報の送信要求を出してもよい。サーバ901は、複数のクライアント装置902から複数のセンサ情報を受信した場合に、全てのセンサ情報を三次元データ1134の作成に利用する必要はなく、例えば、センサの性能に応じて、利用するセンサ情報を選択してもよい。例えば、サーバ901は、三次元マップ1135を更新する場合、受信した複数のセンサ情報の中から高精度なセンサ情報(クラス1)を選別し、選別したセンサ情報を用いて三次元データ1134を作成してもよい。
 サーバ901は、交通監視クラウド等のサーバのみに限定されず、他のクライアント装置(車載)であってもよい。図35は、この場合のシステム構成を示す図である。
 例えば、クライアント装置902Cが近くにいるクライアント装置902Aにセンサ情報の送信要求を出し、クライアント装置902Aからセンサ情報を取得する。そして、クライアント装置902Cは、取得したクライアント装置902Aのセンサ情報を用いて三次元データを作成し、クライアント装置902Cの三次元マップを更新する。これにより、クライアント装置902Cは、クライアント装置902Aから取得可能な空間の三次元マップを、クライアント装置902Cの性能を活かして生成できる。例えば、クライアント装置902Cの性能が高い場合に、このようなケースが発生すると考えられる。
 また、この場合、センサ情報を提供したクライアント装置902Aは、クライアント装置902Cが生成した高精度な三次元マップを取得する権利が与えられる。クライアント装置902Aは、その権利に従ってクライアント装置902Cから高精度な三次元マップを受信する。
 また、クライアント装置902Cは近くにいる複数のクライアント装置902(クライアント装置902A及びクライアント装置902B)にセンサ情報の送信要求を出してもよい。クライアント装置902A又はクライアント装置902Bのセンサが高性能である場合には、クライアント装置902Cは、この高性能なセンサで得られたセンサ情報を用いて三次元データを作成できる。
 図36は、サーバ901及びクライアント装置902の機能構成を示すブロック図である。サーバ901は、例えば、三次元マップを圧縮及び復号する三次元マップ圧縮/復号処理部1201と、センサ情報を圧縮及び復号するセンサ情報圧縮/復号処理部1202とを備える。
 クライアント装置902は、三次元マップ復号処理部1211と、センサ情報圧縮処理部1212とを備える。三次元マップ復号処理部1211は、圧縮された三次元マップの符号化データを受信し、符号化データを復号して三次元マップを取得する。センサ情報圧縮処理部1212は、取得したセンサ情報から作成した三次元データの代わりに、センサ情報そのものを圧縮し、圧縮したセンサ情報の符号化データをサーバ901へ送信する。この構成により、クライアント装置902は、三次元マップ(ポイントクラウド等)を復号する処理を行う処理部(装置又はLSI)を内部に保持すればよく、三次元マップ(ポイントクラウド等)の三次元データを圧縮する処理を行う処理部を内部に保持する必要がない。これにより、クライアント装置902のコスト及び消費電力等を抑えることができる。
 以上のように、本実施の形態に係るクライアント装置902は、移動体に搭載され、移動体に搭載されたセンサ1015により得られた、移動体の周辺状況を示すセンサ情報1033から、移動体の周辺の三次元データ1034を作成する。クライアント装置902は、作成された三次元データ1034を用いて移動体の自己位置を推定する。クライアント装置902は、取得したセンサ情報1033をサーバ901又は他の移動体902に送信する。
 これによれば、クライアント装置902は、センサ情報1033をサーバ901等に送信する。これにより、三次元データを送信する場合に比べて、送信データのデータ量を削減できる可能性がある。また、三次元データの圧縮又は符号化等の処理をクライアント装置902で行う必要がないので、クライアント装置902の処理量を削減できる。よって、クライアント装置902は、伝送されるデータ量の削減、又は、装置の構成の簡略化を実現できる。
 また、クライアント装置902は、さらに、サーバ901に三次元マップの送信要求を送信し、サーバ901から三次元マップ1031を受信する。クライアント装置902は、自己位置の推定では、三次元データ1034と三次元マップ1032とを用いて、自己位置を推定する。
 また、センサ情報1033は、レーザセンサで得られた情報、輝度画像、赤外画像、デプス画像、センサの位置情報、及びセンサの速度情報のうち少なくとも一つを含む。
 また、センサ情報1033は、センサの性能を示す情報を含む。
 また、クライアント装置902は、センサ情報1033を符号化又は圧縮し、センサ情報の送信では、符号化又は圧縮後のセンサ情報1037を、サーバ901又は他の移動体902に送信する。これによれば、クライアント装置902は、伝送されるデータ量を削減できる。
 例えば、クライアント装置902は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 また、本実施の形態に係るサーバ901は、移動体に搭載されるクライアント装置902と通信可能であり、移動体に搭載されたセンサ1015により得られた、移動体の周辺状況を示すセンサ情報1037をクライアント装置902から受信する。サーバ901は、受信したセンサ情報1037から、移動体の周辺の三次元データ1134を作成する。
 これによれば、サーバ901は、クライアント装置902から送信されたセンサ情報1037を用いて三次元データ1134を作成する。これにより、クライアント装置902が三次元データを送信する場合に比べて、送信データのデータ量を削減できる可能性がある。また、三次元データの圧縮又は符号化等の処理をクライアント装置902で行う必要がないので、クライアント装置902の処理量を削減できる。よって、サーバ901は、伝送されるデータ量の削減、又は、装置の構成の簡略化を実現できる。
 また、サーバ901は、さらに、クライアント装置902にセンサ情報の送信要求を送信する。
 また、サーバ901は、さらに、作成された三次元データ1134を用いて三次元マップ1135を更新し、クライアント装置902からの三次元マップ1135の送信要求に応じて三次元マップ1135をクライアント装置902に送信する。
 また、センサ情報1037は、レーザセンサで得られた情報、輝度画像、赤外画像、デプス画像、センサの位置情報、及びセンサの速度情報のうち少なくとも一つを含む。
 また、センサ情報1037は、センサの性能を示す情報を含む。
 また、サーバ901は、さらに、センサの性能に応じて、三次元データを補正する。これによれば、当該三次元データ作成方法は、三次元データの品質を向上できる。
 また、サーバ901は、センサ情報の受信では、複数のクライアント装置902から複数のセンサ情報1037を受信し、複数のセンサ情報1037に含まれるセンサの性能を示す複数の情報に基づき、三次元データ1134の作成に用いるセンサ情報1037を選択する。これによれば、サーバ901は、三次元データ1134の品質を向上できる。
 また、サーバ901は、受信したセンサ情報1037を復号又は伸張し、復号又は伸張後のセンサ情報1132から、三次元データ1134を作成する。これによれば、サーバ901は、伝送されるデータ量を削減できる。
 例えば、サーバ901は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 (実施の形態7)
 本実施の形態では、インター予測処理を用いた三次元データの符号化方法及び復号方法について説明する。
 図37は、本実施の形態に係る三次元データ符号化装置1300のブロック図である。この三次元データ符号装置1300は、三次元データを符号化することで符号化信号である符号化ビットストリーム(以下、単にビットストリームとも記す)を生成する。図37に示すように、三次元データ符号化装置1300は、分割部1301と、減算部1302と、変換部1303と、量子化部1304と、逆量子化部1305と、逆変換部1306と、加算部1307と、参照ボリュームメモリ1308と、イントラ予測部1309と、参照スペースメモリ1310と、インター予測部1311と、予測制御部1312と、エントロピー符号化部1313とを備える。
 分割部1301は、三次元データに含まれる各スペース(SPC)を符号化単位である複数のボリューム(VLM)に分割する。また、分割部1301は、各ボリューム内のボクセルを8分木表現化(Octree化)する。なお、分割部1301は、スペースとボリュームを同一サイズとし、スペースを8分木表現化してもよい。また、分割部1301は、8分木化に必要な情報(深度情報など)をビットストリームのヘッダ等に付加してもよい。
 減算部1302は、分割部1301から出力されたボリューム(符号化対象ボリューム)と、後述するイントラ予測又はインター予測によって生成される予測ボリュームとの差分を算出し、算出された差分を予測残差として変換部1303に出力する。図38は、予測残差の算出例を示す図である。なお、ここで示す符号化対象ボリューム及び予測ボリュームのビット列は、例えば、ボリュームに含まれる三次元点(例えばポイントクラウド)の位置を示す位置情報である。
 以下、8分木表現とボクセルのスキャン順について説明する。ボリュームは8分木構造に変換(8分木化)された後、符号化される。8分木構造はノードとリーフとで構成される。各ノードは8つのノード又はリーフを持ち、各リーフはボクセル(VXL)情報を持つ。図39は、複数のボクセルを含むボリュームの構造例を示す図である。図40は、図39に示すボリュームを8分木構造に変換した例を示す図である。ここで、図40に示すリーフのうち、リーフ1、2、3はそれぞれ図39に示すボクセルVXL1、VXL2、VXL3を表し、点群を含むVXL(以下、有効VXL)を表現している。
 8分木は、例えば0、1の二値列で表現される。例えば、ノード又は有効VXLを値1、それ以外を値0とすると、各ノード及びリーフには図40に示す二値列が割当てられる。そして、幅優先又は深さ優先のスキャン順に応じて、この二値列がスキャンされる。例えば幅優先でスキャンされた場合、図41のAに示す二値列が得られる。深さ優先でスキャンした場合は図41のBに示す二値列が得られる。このスキャンにより得られた二値列はエントロピー符号化によって符号化され情報量が削減される。
 次に、8分木表現における深度情報について説明する。8分木表現における深度は、ボリューム内に含まれるポイントクラウド情報を、どの粒度まで保持するかをコントロールするために使用される。深度を大きく設定すると、より細かいレベルまでポイントクラウド情報を再現することができるが、ノード及びリーフを表現するためのデータ量が増える。逆に深度を小さく設定すると、データ量が減少するが、複数の異なる位置及び色の異なるポイントクラウド情報が同一位置かつ同一色であるとみなされるため、本来のポイントクラウド情報が持つ情報を失うことになる。
 例えば、図42は、図40に示す深度=2の8分木を、深度=1の8分木で表現した例を示す図である。図42に示す8分木は図40に示す8分木よりデータ量が少なくなる。つまり、図42に示す8分木は図42に示す8分木より二値列化後のビット数が少ない。ここで、図40に示すリーフ1とリーフ2が図41に示すリーフ1で表現されることになる。つまり、図40に示すリーフ1とリーフ2とが異なる位置であったという情報が失われる。
 図43は、図42に示す8分木に対応するボリュームを示す図である。図39に示すVXL1とVXL2が図43に示すVXL12に対応する。この場合、三次元データ符号化装置1300は、図43に示すVXL12の色情報を、図39に示すVXL1とVXL2との色情報から生成する。例えば、三次元データ符号化装置1300は、VXL1とVXL2との色情報の平均値、中間値、又は重み平均値などをVXL12の色情報として算出する。このように、三次元データ符号化装置1300は、8分木の深度を変えることで、データ量の削減を制御してもよい。
 三次元データ符号化装置1300は、8分木の深度情報を、ワールド単位、スペース単位、及びボリューム単位のいずれの単位で設定しても構わない。またその際、三次元データ符号化装置1300は、ワールドのヘッダ情報、スペースのヘッダ情報、又はボリュームのヘッダ情報に深度情報を付加してもよい。また、時間の異なる全てのワールド、スペース、及びボリュームで深度情報して同一の値を使用してもよい。この場合、三次元データ符号化装置1300は、全時間のワールドを管理するヘッダ情報に深度情報を付加してもよい。
 ボクセルに色情報が含まれる場合には、変換部1303は、ボリューム内のボクセルの色情報の予測残差に対し、直交変換等の周波数変換を適用する。例えば、変換部1303は、あるスキャン順で予測残差をスキャンすることで一次元配列を作成する。その後、変換部1303は、作成した一次元配列に一次元の直交変換を適用することで一次元配列を周波数領域に変換する。これにより、ボリューム内の予測残差の値が近い場合には低域の周波数成分の値が大きくなり、高域の周波数成分の値が小さくなる。よって、量子化部1304においてより効率的に符号量を削減することができる。
 また、変換部1303は、一次元ではなく、二次元以上の直交変換を用いてもよい。例えば、変換部1303は、あるスキャン順で予測残差を二次元配列にマッピングし、得られた二次元配列に二次元直交変換を適用する。また、変換部1303は、複数の直交変換方式から使用する直交変換方式を選択してもよい。この場合、三次元データ符号化装置1300は、どの直交変換方式を用いたかを示す情報をビットストリームに付加する。また、変換部1303は、次元の異なる複数の直交変換方式から使用する直交変換方式を選択してもよい。この場合、三次元データ符号化装置1300は、どの次元の直交変換方式を用いたかをビットストリームに付加する。
 例えば、変換部1303は、予測残差のスキャン順を、ボリューム内の8分木におけるスキャン順(幅優先又は深さ優先など)に合わせる。これにより、予測残差のスキャン順を示す情報をビットストリームに付加する必要がないので、オーバーヘッドを削減できる。また、変換部1303は、8分木のスキャン順とは異なるスキャン順を適用してもよい。この場合、三次元データ符号化装置1300は、予測残差のスキャン順を示す情報をビットストリームに付加する。これにより、三次元データ符号化装置1300は、予測残差を効率よく符号化することができる。また、三次元データ符号化装置1300は、8分木のスキャン順を適用するか否かを示す情報(フラグ等)をビットストリームに付加し、8分木のスキャン順を適用しない場合に、予測残差のスキャン順を示す情報をビットストリームに付加してもよい。
 変換部1303は、色情報の予測残差だけでなく、ボクセルが持つその他の属性情報を変換してもよい。例えば、変換部1303は、ポイントクラウドをLiDAR等で取得した際に得られる反射度等の情報を変換し、符号化してもよい。
 変換部1303は、スペースが色情報等の属性情報を持たない場合は、処理をスキップしてもよい。また、三次元データ符号化装置1300は、変換部1303の処理をスキップするか否かを示す情報(フラグ)をビットストリームに付加してもよい。
 量子化部1304は、変換部1303で生成された予測残差の周波数成分に対し、量子化制御パラメータを用いて量子化を行うことで量子化係数を生成する。これにより情報量が削減される。生成された量子化係数はエントロピー符号化部1313に出力される。量子化部1304は、量子化制御パラメータを、ワールド単位、スペース単位、又はボリューム単位で制御してもよい。その際には、三次元データ符号化装置1300は、量子化制御パラメータをそれぞれのヘッダ情報等に付加する。また、量子化部1304は、予測残差の周波数成分毎に、重みを変えて量子化制御を行ってもよい。例えば、量子化部1304は、低周波数成分は細かく量子化し、高周波成分は粗く量子化してもよい。この場合、三次元データ符号化装置1300は、各周波数成分の重みを表すパラメータをヘッダに付加してもよい。
 量子化部1304は、スペースが色情報等の属性情報を持たない場合は、処理をスキップしてもよい。また、三次元データ符号化装置1300は、量子化部1304の処理をスキップするか否かを示す情報(フラグ)をビットストリームに付加してもよい。
 逆量子化部1305は、量子化制御パラメータを用いて、量子化部1304で生成された量子化係数に逆量子化を行うことで予測残差の逆量子化係数を生成し、生成した逆量子化係数を逆変換部1306に出力する。
 逆変換部1306は、逆量子化部1305で生成された逆量子化係数に対し逆変換を適用することで逆変換適用後予測残差を生成する。この逆変換適用後予測残差は、量子化後に生成された予測残差であるため、変換部1303が出力した予測残差とは完全には一致しなくてもよい。
 加算部1307は、逆変換部1306で生成された逆変換適用後予測残差と、量子化前の予測残差の生成に用いられた、後述するイントラ予測又はインター予測により生成された予測ボリュームとを加算して再構成ボリュームを生成する。この再構成ボリュームは、参照ボリュームメモリ1308、又は、参照スペースメモリ1310に格納される。
 イントラ予測部1309は、参照ボリュームメモリ1308に格納された隣接ボリュームの属性情報を用いて、符号化対象ボリュームの予測ボリュームを生成する。属性情報とは、ボクセルの色情報又は反射度を含む。イントラ予測部1309は、符号化対象ボリュームの色情報又は反射度の予測値を生成する。
 図44は、イントラ予測部1309の動作を説明するための図である。例えば、イントラ予測部1309は、図44に示す、符号化対象ボリューム(ボリュームidx=3)の予測ボリュームを、隣接ボリューム(ボリュームidx=0)から生成する。ここで、ボリュームidxとはスペース内のボリュームに対し付加される識別子情報であり、各ボリュームに異なる値が割当てられる。ボリュームidxの割当ての順番は符号化順と同じ順番であってもよいし、符号化順とは異なる順番であってもよい。例えば、イントラ予測部1309は、図44に示す符号化対象ボリュームの色情報の予測値として、隣接ボリュームであるボリュームidx=0内に含まれるボクセルの色情報の平均値を用いる。この場合、符号化対象ボリューム内に含まれる各ボクセルの色情報から、色情報の予測値が差し引かれることで予測残差が生成される。この予測残差に対して変換部1303以降の処理が行われる。また、この場合、三次元データ符号化装置1300は、隣接ボリューム情報と、予測モード情報とをビットストリームに付加する。ここで隣接ボリューム情報とは、予測に用いた隣接ボリュームを示す情報であり、例えば、予測に用いた隣接ボリュームのボリュームidxを示す。また、予測モード情報とは、予測ボリュームの生成に使用したモードを示す。モードとは、例えば、隣接ボリューム内のボクセルの平均値から予測値を生成する平均値モード、又は隣接ボリューム内のボクセルの中間値から予測値を生成する中間値モード等である。
 イントラ予測部1309は、予測ボリュームを、複数の隣接ボリュームから生成してもよい。例えば、図44に示す構成において、イントラ予測部1309は、ボリュームidx=0のボリュームから予測ボリューム0を生成し、ボリュームidx=1のボリュームから予測ボリューム1を生成する。そして、イントラ予測部1309は、予測ボリューム0と予測ボリューム1の平均を最終的な予測ボリュームとして生成する。この場合、三次元データ符号化装置1300は、予測ボリュームの生成に使用した複数のボリュームの複数のボリュームidxをビットストリームに付加してもよい。
 図45は、本実施の形態に係るインター予測処理を模式的に示す図である。インター予測部1311は、ある時刻T_Curのスペース(SPC)を、異なる時刻T_LXの符号化済みスペースを用いて符号化(インター予測)する。この場合、インター予測部1311は、異なる時刻T_LXの符号化済みスペースに回転及び並進処理を適用して符号化処理を行う。
 また、三次元データ符号化装置1300は、異なる時刻T_LXのスペースに適用した回転及び並進処理に関わるRT情報をビットストリームに付加する。異なる時刻T_LXとは、例えば、前記ある時刻T_Curより前の時刻T_L0である。このとき、三次元データ符号化装置1300は、時刻T_L0のスペースに適用した回転及び並進処理に関わるRT情報RT_L0をビットストリームに付加してもよい。
 または、異なる時刻T_LXとは、例えば、前記ある時刻T_Curより後の時刻T_L1である。このとき、三次元データ符号化装置1300は、時刻T_L1のスペースに適用した回転及び並進処理に関わるRT情報RT_L1をビットストリームに付加してもよい。
 または、インター予測部1311は、異なる時刻T_L0及び時刻T_L1の両方のスペースを参照して符号化(双予測)を行う。この場合には、三次元データ符号化装置1300は、それぞれのスペースに適用した回転及び並進に関わるRT情報RT_L0及びRT_L1の両方をビットストリームに付加してもよい。
 なお、上記ではT_L0をT_Curより前の時刻、T_L1をT_Curより後の時刻としたが、必ずしもこれに限らない。例えば、T_L0とT_L1は共にT_Curより前の時刻でもよい。または、T_L0とT_L1は共にT_Curより後の時刻でもよい。
 また、三次元データ符号化装置1300は、複数の異なる時刻のスペースを参照して符号化を行う場合には、それぞれのスペースに適用した回転及び並進に関わるRT情報をビットストリームに付加してもよい。例えば、三次元データ符号化装置1300は、参照する複数の符号化済みスペースを2つの参照リスト(L0リスト及びL1リスト)で管理する。L0リスト内の第1の参照スペースをL0R0とし、L0リスト内の第2の参照スペースをL0R1とし、L1リスト内の第1の参照スペースをL1R0とし、L1リスト内の第2の参照スペースをL1R1とした場合、三次元データ符号化装置1300は、L0R0のRT情報RT_L0R0と、L0R1のRT情報RT_L0R1と、L1R0のRT情報RT_L1R0と、L1R1のRT情報RT_L1R1とをビットストリームに付加する。例えば、三次元データ符号化装置1300は、これらのRT情報をビットストリームのヘッダ等に付加する。
 また、三次元データ符号化装置1300は、複数の異なる時刻の参照スペースを参照して符号化を行う場合、参照スペース毎に回転及び並進を適用するか否かを判定する。その際、三次元データ符号化装置1300は、参照スペース毎に回転及び並進を適用したか否かを示す情報(RT適用フラグ等)をビットストリームのヘッダ情報等に付加してもよい。例えば、三次元データ符号化装置1300は、符号化対象スペースから参照する参照スペース毎にICP(Interactive Closest Point)アルゴリズムを用いてRT情報、及びICPエラー値を算出する。三次元データ符号化装置1300は、ICPエラー値が、予め定められた一定値以下の場合は、回転及び並進を行う必要がないと判定してRT適用フラグをオフに設定する。一方、三次元データ符号化装置1300は、ICPエラー値が上記一定値より大きい場合は、RT適用フラグをオンに設定し、RT情報をビットストリームに付加する。
 図46は、RT情報及びRT適用フラグをヘッダに付加するシンタックス例を示す図である。なお、各シンタックスに割当てるビット数は、そのシンタックスが取りうる範囲で決定してもよい。例えば、参照リストL0内に含まれる参照スペース数が8つの場合、MaxRefSpc_l0には3bitが割当てられてもよい。割当てるビット数を、各シンタックスが取りうる値に応じて可変にしてもよいし、取りうる値に関わらず固定にしてもよい。割り当てるビット数を固定にする場合は、三次元データ符号化装置1300は、その固定ビット数を別のヘッダ情報に付加してもよい。
 ここで、図46に示す、MaxRefSpc_l0は、参照リストL0内に含まれる参照スペース数を示す。RT_flag_l0[i]は、参照リストL0内の参照スペースiのRT適用フラグである。RT_flag_l0[i]が1の場合、参照スペースiに回転及び並進が適用される。RT_flag_l0[i]が0の場合、参照スペースiに回転及び並進が適用されない。
 R_l0[i]及びT_l0[i]は、参照リストL0内の参照スペースiのRT情報である。R_l0[i]は、参照リストL0内の参照スペースiの回転情報である。回転情報は、適用された回転処理の内容を示し、例えば、回転行列、又はクォータニオン等である。T_l0[i]は、参照リストL0内の参照スペースiの並進情報である。並進情報は、適用された並進処理の内容を示し、例えば、並進ベクトル等である。
 MaxRefSpc_l1は、参照リストL1内に含まれる参照スペース数を示す。RT_flag_l1[i]は、参照リストL1内の参照スペースiのRT適用フラグである。RT_flag_l1[i]が1の場合、参照スペースiに回転及び並進が適用される。RT_flag_l1[i]が0の場合、参照スペースiに回転及び並進が適用されない。
 R_l1[i]及びT_l1[i]は、参照リストL1内の参照スペースiのRT情報である。R_l1[i]は、参照リストL1内の参照スペースiの回転情報である。回転情報は、適用された回転処理の内容を示し、例えば、回転行列、又はクォータニオン等である。T_l1[i]は、参照リストL1内の参照スペースiの並進情報である。並進情報は、適用された並進処理の内容を示し、例えば、並進ベクトル等である。
 インター予測部1311は、参照スペースメモリ1310に格納された符号化済みの参照スペースの情報を用いて符号化対象ボリュームの予測ボリュームを生成する。上述したように、インター予測部1311は、符号化対象ボリュームの予測ボリュームを生成する前に、符号化対象スペースと参照スペースの全体的な位置関係を近づけるために、符号化対象スペースと参照スペースでICP(Interactive Closest Point)アルゴリズムを用いてRT情報を求める。そして、インター予測部1311は、求めたRT情報を用いて参照スペースに回転及び並進処理を適用することで参照スペースBを得る。その後、インター予測部1311は、符号化対象スペース内の符号化対象ボリュームの予測ボリュームを参照スペースB内の情報を用いて生成する。ここで、三次元データ符号化装置1300は、参照スペースBを得るために用いられたRT情報を符号化対象スペースのヘッダ情報等に付加する。
 このように、インター予測部1311は、参照スペースに回転及び並進処理を適用することにより符号化対象スペースと参照スペースとの全体的な位置関係を近づけてから、参照スペースの情報を用いて予測ボリュームを生成することで予測ボリュームの精度を向上できる。また、予測残差を抑制できるので符号量を削減できる。なお、ここでは、符号化対象スペースと参照スペースとを用いてICPを行う例を示したが、必ずしもこれに限らない。例えば、インター予測部1311は、処理量を削減するために、ボクセル又はポイントクラウド数を間引いた符号化対象スペース、及び、ボクセル又はポイントクラウド数を間引いた参照スペースの少なくとも一方を用いてICPを行うことで、RT情報を求めてもよい。
 また、インター予測部1311は、ICPの結果得られるICPエラー値が、予め定められた第1閾値より小さい場合、つまり、例えば符号化対象スペースと参照スペースの位置関係が近い場合には、回転及び並進処理は必要ないと判断し、回転及び並進を行わなくてもよい。この場合、三次元データ符号化装置1300は、RT情報をビットストリームに付加しないことによりオーバーヘッドを抑制してもよい。
 また、インター予測部1311は、ICPエラー値が、予め定められた第2閾値より大きい場合には、スペース間の形状変化が大きいと判断し、符号化対象スペースの全てのボリュームにイントラ予測を適用してもよい。以下、イントラ予測を適用するスペースをイントラスペースと呼ぶ。また、第2閾値は上記第1閾値より大きい値である。また、ICPに限定せず、2つのボクセル集合、又は、2つのポイントクラウド集合からRT情報を求める方法であれば、どのような手法を適用してもよい。
 また、三次元データに形状又は色等の属性情報が含まれる場合には、インター予測部1311は、符号化対象スペース内の符号化対象ボリュームの予測ボリュームとして、例えば参照スペース内で符号化対象ボリュームと最も形状又は色等の属性情報が近いボリュームを探索する。また、この参照スペースは、例えば、上述した回転及び並進処理が行われた後の参照スペースである。インター予測部1311は、探索により得られたボリューム(参照ボリューム)から予測ボリュームを生成する。図47は、予測ボリュームの生成動作を説明するための図である。インター予測部1311は、図47に示す符号化対象ボリューム(ボリュームidx=0)を、インター予測を用いて符号化する場合、参照スペース内の参照ボリュームを順にスキャンしながら、符号化対象ボリュームと参照ボリュームとの差分である予測残差が一番小さいボリュームを探索する。インター予測部1311は、予測残差が一番小さいボリュームを予測ボリュームとして選択する。符号化対象ボリュームと予測ボリュームとの予測残差が変換部1303以降の処理により符号化される。ここで、予測残差とは、符号化対象ボリュームの属性情報と予測ボリュームの属性情報との差分である。また、三次元データ符号化装置1300は、予測ボリュームとして参照した参照スペース内の参照ボリュームのボリュームidxをビットストリームのヘッダ等に付加する。
 図47に示す例では、参照スペースL0R0のボリュームidx=4の参照ボリュームが符号化対象ボリュームの予測ボリュームとして選択される。そして、符号化対象ボリュームと参照ボリュームとの予測残差と、参照ボリュームidx=4とが符号化されてビットストリームに付加される。
 なお、ここでは属性情報の予測ボリュームを生成する例を説明したが、位置情報の予測ボリュームについても同様の処理が行われてもよい。
 予測制御部1312は、符号化対象ボリュームをイントラ予測、及びインター予測のいずれを用いて符号化するかを制御する。ここで、イントラ予測、及びインター予測を含むモードを予測モードと呼ぶ。例えば、予測制御部1312は、符号化対象ボリュームをイントラ予測で予測した場合の予測残差と、インター予測で予測した場合の予測残差とを評価値として算出し、評価値が小さい方の予測モードを選択する。なお、予測制御部1312は、イントラ予測の予測残差とインター予測の予測残差とに、それぞれ直交変換、量子化、及び、エントロピー符号化を適用することで実際の符号量を算出し、算出した符号量を評価値として予測モードを選択してもよい。また、評価値に予測残差以外のオーバーヘッド情報(参照ボリュームidx情報など)を加えるようにしてもよい。また、予測制御部1312は、符号化対象スペースをイントラスペースで符号化すると予め決定されている場合には、常にイントラ予測を選択してもよい。
 エントロピー符号化部1313は、量子化部1304からの入力である量子化係数を可変長符号化することにより符号化信号(符号化ビットストリーム)を生成する。具体的には、エントロピー符号化部1313は、例えば、量子化係数を二値化し、得られた二値信号を算術符号化する。
 次に、三次元データ符号化装置1300により生成された符号化信号を復号する三次元データ復号装置について説明する。図48は、本実施の形態に係る三次元データ復号装置1400のブロック図である。この三次元データ復号装置1400は、エントロピー復号部1401と、逆量子化部1402と、逆変換部1403と、加算部1404と、参照ボリュームメモリ1405と、イントラ予測部1406と、参照スペースメモリ1407と、インター予測部1408と、予測制御部1409とを備える。
 エントロピー復号部1401は、符号化信号(符号化ビットストリーム)を可変長復号する。例えば、エントロピー復号部1401は、符号化信号を算術復号して二値信号を生成し、生成した二値信号から量子化係数を生成する。
 逆量子化部1402は、エントロピー復号部1401から入力された量子化係数を、ビットストリーム等に付加された量子化パラメータを用いて逆量子化することで逆量子化係数を生成する。
 逆変換部1403は、逆量子化部1402から入力された逆量子化係数を逆変換することで予測残差を生成する。例えば、逆変換部1403は、逆量子化係数を、ビットストリームに付加された情報に基づいて逆直交変換することで予測残差を生成する。
 加算部1404は、逆変換部1403で生成された予測残差と、イントラ予測又はインター予測により生成された予測ボリュームとを加算して再構成ボリュームを生成する。この再構成ボリュームは、復号三次元データとして出力されるとともに、参照ボリュームメモリ1405、又は、参照スペースメモリ1407に格納される。
 イントラ予測部1406は、参照ボリュームメモリ1405内の参照ボリュームとビットストリームに付加された情報とを用いてイントラ予測により予測ボリュームを生成する。具体的には、イントラ予測部1406は、ビットストリームに付加された隣接ボリューム情報(例えばボリュームidx)と、予測モード情報とを取得し、隣接ボリューム情報で示さる隣接ボリュームを用いて、予測モード情報で示されるモードにより予測ボリュームを生成する。なお、これらの処理の詳細は、ビットストリームに付与された情報が用いられる点を除き、上述したイントラ予測部1309による処理と同様である。
 インター予測部1408は、参照スペースメモリ1407内の参照スペースとビットストリームに付加された情報とを用いてインター予測により予測ボリュームを生成する。具体的には、インター予測部1408は、ビットストリームに付加された参照スペース毎のRT情報を用いて参照スペースに対して回転及び並進処理を適用し、適用後の参照スペースを用いて予測ボリュームを生成する。なお、参照スペース毎のRT適用フラグがビットストリーム内に存在する場合には、インター予測部1408は、RT適用フラグに応じて参照スペースに回転及び並進処理を適用する。なお、これらの処理の詳細は、ビットストリームに付与された情報が用いられる点を除き、上述したインター予測部1311による処理と同様である。
 予測制御部1409は、復号対象ボリュームをイントラ予測で復号するか、インター予測で復号するかを制御する。例えば、予測制御部1409は、ビットストリームに付加された、使用する予測モードを示す情報に応じてイントラ予測又はインター予測を選択する。なお、予測制御部1409は、復号対象スペースをイントラスペースで復号すると予め決定されている場合は、常にイントラ予測を選択してもよい。
 以下、本実施の形態の変形例について説明する。本実施の形態ではスペース単位で回転及び並進が適用される例を説明したが、より細かい単位で回転及び並進が適用されてもよい。例えば、三次元データ符号化装置1300は、スペースをサブスペースに分割し、サブスペース単位で回転及び並進を適用してもよい。この場合、三次元データ符号化装置1300は、サブスペース毎にRT情報を生成し、生成したRT情報をビットストリームのヘッダ等に付加する。また、三次元データ符号化装置1300は、符号化単位であるボリューム単位で回転及び並進を適用してもよい。この場合、三次元データ符号化装置1300は、符号化ボリューム単位でRT情報を生成し、生成したRT情報をビットストリームのヘッダ等に付加する。さらに、上記を組み合わせてもよい。つまり、三次元データ符号化装置1300は、大きい単位で回転及び並進を適用し、その後、細かい単位で回転及び並進を適用してもよい。例えば、三次元データ符号化装置1300は、スペース単位で回転及び並進を適用し、得られたスペースに含まれる複数のボリュームの各々に対して、互いに異なる回転及び並進を適用してもよい。
 また、本実施の形態では参照スペースに回転及び並進を適用する例を説明したが、必ずしもこれに限らない。例えば、三次元データ符号化装置1300は、例えば、スケール処理を適用して三次元データの大きさを変化させてもよい。また、三次元データ符号化装置1300は、回転、並進及びスケールのうち、いずれか1つ又は2つを適用してもよい。また、上記のように多段階で異なる単位で処理を適用する場合には、各単位に適用される処理の種類が異なってもよい。例えば、スペース単位では回転及び並進が適用され、ボリューム単位では並進が適用されてもよい。
 なお、これらの変形例については、三次元データ復号装置1400に対しても同様に適用できる。
 以上のように、本実施の形態に係る三次元データ符号化装置1300は、以下の処理を行う。図48は、三次元データ符号化装置1300によるインター予測処理のフローチャートである。
 まず、三次元データ符号化装置1300は、対象三次元データ(例えば符号化対象スペース)と異なる時刻の参照三次元データ(例えば参照スペース)に含まれる三次元点の位置情報を用いて予測位置情報(例えば予測ボリューム)を生成する(S1301)。具体的には、三次元データ符号化装置1300は、参照三次元データに含まれる三次元点の位置情報に回転及び並進処理を適用することで予測位置情報を生成する。
 なお、三次元データ符号化装置1300は、回転及び並進処理を第1の単位(例えばスペース)で行い、予測位置情報の生成を第1の単位より細かい第2の単位(例えばボリューム)で行ってもよい。例えば、三次元データ符号化装置1300は、回転及び並進処理後の参照スペースに含まれる複数のボリュームのうち、符号化対象スペースに含まれる符号化対象ボリュームと位置情報の差が最小となるボリュームを探索し、得られたボリュームを予測ボリュームとして用いる。なお、三次元データ符号化装置1300は、回転及び並進処理と、予測位置情報の生成とを同一の単位で行ってもよい。
 また、三次元データ符号化装置1300は、参照三次元データに含まれる三次元点の位置情報に第1の単位(例えばスペース)で第1回転及び並進処理を適用し、第1回転及び並進処理により得られた三次元点の位置情報に、第1の単位より細かい第2の単位(例えばボリューム)で第2回転及び並進処理を適用することで予測位置情報を生成してもよい。
 ここで、三次元点の位置情報及び予測位置情報は、例えば図41に示すように、8分木構造で表現される。例えば、三次元点の位置情報及び予測位置情報は、8分木構造における深度と幅とのうち、幅を優先したスキャン順で表される。または、三次元点の位置情報及び予測位置情報は、8分木構造における深度と幅とのうち、深度を優先したスキャン順で表される。
 また、図46に示すように、三次元データ符号化装置1300は、参照三次元データに含まれる三次元点の位置情報に回転及び並進処理を適用するか否かを示すRT適用フラグを符号化する。つまり、三次元データ符号化装置1300は、RT適用フラグを含む符号化信号(符号化ビットストリーム)を生成する。また、三次元データ符号化装置1300は、回転及び並進処理の内容を示すRT情報を符号化する。つまり、三次元データ符号化装置1300は、RT情報を含む符号化信号(符号化ビットストリーム)を生成する。なお、三次元データ符号化装置1300は、RT適用フラグにより回転及び並進処理を適用することが示される場合にRT情報を符号化し、RT適用フラグにより回転及び並進処理を適用しないことが示される場合にRT情報を符号化しなくてもよい。
 また、三次元データは、例えば、三次元点の位置情報と、各三次元点の属性情報(色情報等)とを含む。三次元データ符号化装置1300は、参照三次元データに含まれる三次元点の属性情報を用いて予測属性情報を生成する(S1302)。
 次に、三次元データ符号化装置1300は、対象三次元データに含まれる三次元点の位置情報を、予測位置情報を用いて符号化する。例えば、三次元データ符号化装置1300は、図38に示すように対象三次元データに含まれる三次元点の位置情報と予測位置情報との差分である差分位置情報を算出する(S1303)。
 また、三次元データ符号化装置1300は、対象三次元データに含まれる三次元点の属性情報を、予測属性情報を用いて符号化する。例えば、三次元データ符号化装置1300は、対象三次元データに含まれる三次元点の属性情報と予測属性情報との差分である差分属性情報を算出する(S1304)。次に、三次元データ符号化装置1300は、算出された差分属性情報に変換及び量子化を行う(S1305)。
 最後に、三次元データ符号化装置1300は、差分位置情報と、量子化後の差分属性情報とを符号化(例えばエントロピー符号化)する(S1306)。つまり、三次元データ符号化装置1300は、差分位置情報と差分属性情報とを含む符号化信号(符号化ビットストリーム)を生成する。
 なお、三次元データに属性情報が含まれない場合には、三次元データ符号化装置1300は、ステップS1302、S1304及びS1305を行わなくてもよい。また、三次元データ符号化装置1300は、三次元点の位置情報の符号化と、三次元点の属性情報の符号化とのうち、一方のみを行ってもよい。
 また、図49に示す処理の順序は一例であり、これに限定されない。例えば、位置情報に対する処理(S1301、S1303)と、属性情報に対する処理(S1302、S1304、S1305)とは互いに独立しているため、任意の順序で行われてもよいし、一部が並列処理されてもよい。
 以上により、本実施の形態に三次元データ符号化装置1300は、対象三次元データと異なる時刻の参照三次元データに含まれる三次元点の位置情報を用いて予測位置情報を生成し、対象三次元データに含まれる三次元点の位置情報と予測位置情報との差分である差分位置情報を符号化する。これにより、符号化信号のデータ量を削減できるので符号化効率を向上できる。
 また、本実施の形態に三次元データ符号化装置1300は、参照三次元データに含まれる三次元点の属性情報を用いて予測属性情報を生成し、対象三次元データに含まれる三次元点の属性情報と予測属性情報との差分である差分属性情報を符号化する。これにより、符号化信号のデータ量を削減できるので符号化効率を向上できる。
 例えば、三次元データ符号化装置1300は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 図48は、三次元データ復号装置1400によるインター予測処理のフローチャートである。
 まず、三次元データ復号装置1400は、符号化信号(符号化ビットストリーム)から、差分位置情報と差分属性情報とを復号(例えばエントロピー復号)する(S1401)。
 また、三次元データ復号装置1400は、符号化信号から、参照三次元データに含まれる三次元点の位置情報に回転及び並進処理を適用するか否かを示すRT適用フラグを復号する。また、三次元データ復号装置1400は、回転及び並進処理の内容を示すRT情報を復号する。なお、三次元データ復号装置1400は、RT適用フラグにより回転及び並進処理を適用することが示される場合にRT情報を復号し、RT適用フラグにより回転及び並進処理を適用しないことが示される場合にRT情報を復号しなくてもよい。
 次に、三次元データ復号装置1400は、復号された差分属性情報に逆量子化及び逆変換を行う(S1402)。
 次に、三次元データ復号装置1400は、対象三次元データ(例えば復号対象スペース)と異なる時刻の参照三次元データ(例えば参照スペース)に含まれる三次元点の位置情報を用いて予測位置情報(例えば予測ボリューム)を生成する(S1403)。具体的には、三次元データ復号装置1400は、参照三次元データに含まれる三次元点の位置情報に回転及び並進処理を適用することで予測位置情報を生成する。
 より具体的には、三次元データ復号装置1400は、RT適用フラグにより回転及び並進処理を適用することが示される場合に、RT情報で示される参照三次元データに含まれる三次元点の位置情報に回転及び並進処理を適用する。一方、RT適用フラグにより回転及び並進処理を適用しないことが示される場合には、三次元データ復号装置1400は、参照三次元データに含まれる三次元点の位置情報に回転及び並進処理を適用しない。
 なお、三次元データ復号装置1400は、回転及び並進処理を第1の単位(例えばスペース)で行い、予測位置情報の生成を第1の単位より細かい第2の単位(例えばボリューム)で行ってもよい。なお、三次元データ復号装置1400は、回転及び並進処理と、予測位置情報の生成とを同一の単位で行ってもよい。
 また、三次元データ復号装置1400は、参照三次元データに含まれる三次元点の位置情報に第1の単位(例えばスペース)で第1回転及び並進処理を適用し、第1回転及び並進処理により得られた三次元点の位置情報に、第1の単位より細かい第2の単位(例えばボリューム)で第2回転及び並進処理を適用することで予測位置情報を生成してもよい。
 ここで、三次元点の位置情報及び予測位置情報は、例えば図41に示すように、8分木構造で表現される。例えば、三次元点の位置情報及び予測位置情報は、8分木構造における深度と幅とのうち、幅を優先したスキャン順で表される。または、三次元点の位置情報及び予測位置情報は、8分木構造における深度と幅とのうち、深度を優先したスキャン順で表される。
 三次元データ復号装置1400は、参照三次元データに含まれる三次元点の属性情報を用いて予測属性情報を生成する(S1404)。
 次に、三次元データ復号装置1400は、符号化信号に含まれる符号化位置情報を予測位置情報を用いて復号することで対象三次元データに含まれる三次元点の位置情報を復元する。ここで、符号化位置情報とは、例えば、差分位置情報であり、三次元データ復号装置1400は、差分位置情報と予測位置情報とを加算することで対象三次元データに含まれる三次元点の位置情報を復元する(S1405)。
 また、三次元データ復号装置1400は、符号化信号に含まれる符号化属性情報を予測属性情報を用いて復号することで対象三次元データに含まれる三次元点の属性情報を復元する。ここで、符号化属性情報とは、例えば、差分属性情報であり、三次元データ復号装置1400は、差分属性情報と予測属性情報とを加算することで対象三次元データに含まれる三次元点の属性情報を復元する(S1406)。
 なお、三次元データに属性情報が含まれない場合には、三次元データ復号装置1400は、ステップS1402、S1404及びS1406を行わなくてもよい。また、三次元データ復号装置1400は、三次元点の位置情報の復号と、三次元点の属性情報の復号とのうち、一方のみを行ってもよい。
 また、図50に示す処理の順序は一例であり、これに限定されない。例えば、位置情報に対する処理(S1403、S1405)と、属性情報に対する処理(S1402、S1404、S1406)とは互いに独立しているため、任意の順序で行われてもよいし、一部が並列処理されてもよい。
 (実施の形態8)
 本実施の形態では、オキュパンシー符号の符号化時における参照の制御方法について説明する。なお、以下では、主に三次元データ符号化装置の動作を説明するが、三次元データ復号装置においても同様の処理が行われてもよい。
 図51及び図52は、本実施の形態に係る参照関係を示す図である。図51は、参照関係を8分木構造上で示す図であり、図52は、参照関係を空間領域上で示す図である。
 本実施の形態では、三次元データ符号化装置は、符号化対象のノード(以下、対象ノードと呼ぶ)の符号化情報を符号化する際に、対象ノードが属する親ノード(parent node)内の各ノードの符号化情報を参照する。ただし、親ノードと同一層の他のノード(以下、親隣接ノード)内の各ノードの符号化情報は参照しない。つまり、三次元データ符号化装置は、親隣接ノードの参照を不可に設定する、又は参照を禁止にする。
 なお、三次元データ符号化装置は、親ノードが属する親ノード(以下、祖父ノード(grandparent node)と呼ぶ)内の符号化情報の参照を許可してもよい。つまり、三次元データ符号化装置は、対象ノードが属する親ノード及び祖父ノードの符号化情報を参照して対象ノードの符号化情報を符号化してもよい。
 ここで符号化情報とは、例えばオキュパンシー符号である。三次元データ符号化装置は、対象ノードのオキュパンシー符号を符号化する際に、対象ノードが属する親ノード内の各ノードに点群が含まれるか否かを示す情報(以下、占有情報)を参照する。言い換えると、三次元データ符号化装置は、対象ノードのオキュパンシー符号を符号化する際に、親ノードのオキュパンシー符号を参照する。一方で、三次元データ符号化装置は、親隣接ノード内の各ノードの占有情報は参照しない。つまり、三次元データ符号化装置は、親隣接ノードのオキュパンシー符号を参照しない。また、三次元データ符号化装置は、祖父ノード内の各ノードの占有情報を参照してもよい。つまり、三次元データ符号化装置は、親ノード及び親隣接ノードの占有情報を参照してもよい。
 例えば、三次元データ符号化装置は、対象ノードのオキュパンシー符号を符号化する際に、対象ノードが属する親ノード又は祖父ノードのオキュパンシー符号を用いて対象ノードのオキュパンシー符号をエントロピー符号化する際に用いる符号化テーブルを切替える。なお、この詳細は後述する。この際、三次元データ符号化装置は、親隣接ノードのオキュパンシー符号を参照しなくてもよい。これにより、三次元データ符号化装置は、対象ノードのオキュパンシー符号を符号化する際に、親ノード又は祖父ノードのオキュパンシー符号の情報に応じて適切に符号化テーブルを切替えることができるので、符号化効率を向上できる。また、三次元データ符号化装置は、親隣接ノードを参照しないことで、親隣接ノードの情報の確認処理、及びそれらを記憶するためのメモリ容量を抑制することができる。また、8分木の各ノードのオキュパンシー符号を深さ優先順にスキャンして符号化することが容易となる。
 以下、親ノードのオキュパンシー符号を用いた符号化テーブル切替例について説明する。図53は、対象ノードと隣接参照ノードの例を示す図である。図54は、親ノードとノードとの関係を示す図である。図55は、親ノードのオキュパンシー符号の例を示す図である。ここで、隣接参照ノードとは、対象ノードに空間的に隣接するノードのうち、対象ノードの符号化の際に参照されるノードである。図53に示す例では、隣接ノードは、対象ノードと同一層に属するノードである。また、参照隣接ノードとして対象ブロックのx方向に隣接するノードXと、y方向に隣接するノードYと、z方向に隣接するノードZとが用いられる。つまり、x、y、zの各方向においてそれぞれ1つの隣接ブロックが参照隣接ブロックに設定される。
 なお、図54に示すノード番号は一例であり、ノード番号とノードの位置との関係はこれに限らない。また、図55では、下位ビットにノード0が割り当てられ、上位ビットにノード7が割り当てられているが、逆の順序で割り当てが行われてもよい。また、各ノードは任意のビットに割り当てられてもよい。
 三次元データ符号化装置は、対象ノードのオキュパンシー符号をエントロピー符号化する際の符号化テーブルを、例えば下記式により決定する。
 CodingTable=(FlagX<<2)+(FlagY<<1)+(FlagZ)
 ここで、CodingTableは、対象ノードのオキュパンシー符号用の符号化テーブルを示し、値0~7のいずれかを示す。FlagXは、隣接ノードXの占有情報であり、隣接ノードXが点群を含む(占有)なら1を示し、そうでないなら0を示す。FlagYは、隣接ノードYの占有情報であり、隣接ノードYが点群を含む(占有)なら1を示し、そうでないなら0を示す。FlagZは、隣接ノードZの占有情報であり、隣接ノードZが点群を含む(占有)なら1を示し、そうでないなら0を示す。
 なお、隣接ノードが占有であるか否かを示す情報は、親ノードのオキュパンシー符号にに含まれているため、三次元データ符号化装置は、親ノードのオキュパンシー符号に示される値を用いて符号化テーブルを選択してもよい。
 以上により、三次元データ符号化装置は、対象ノードの隣接ノードに点群が含まれるか否かを示す情報を用いて符号化テーブルを切替えることで符号化効率を向上できる。
 また、三次元データ符号化装置は、図53に示すように、親ノード内の対象ノードの空間位置に応じて隣接参照ノードを切替えてもよい。つまり、三次元データ符号化装置は、対象ノードの親ノード内の空間位置に応じて、複数の隣接ノードのうち、参照する隣接ノードを切り替えてもよい。
 次に、三次元データ符号化装置及び三次元データ復号装置の構成例を説明する。図56は、本実施の形態に係る三次元データ符号化装置2100のブロック図である。図56に示す三次元データ符号化装置2100は、8分木生成部2101と、幾何情報算出部2102と、符号化テーブル選択部2103と、エントロピー符号化部2104とを備える。
 8分木生成部2101は、入力された三次元点(ポイントクラウド)から、例えば8分木を生成し、8分木に含まれる各ノードのオキュパンシー符号を生成する。幾何情報算出部2102は、対象ノードの隣接参照ノードが占有であるか否かを示す占有情報を取得する。例えば、幾何情報算出部2102は、対象ノードが所属する親ノードのオキュパンシー符号から隣接参照ノードの占有情報を取得する。なお、幾何情報算出部2102は、図53に示すように、対象ノードの親ノード内の位置に応じて隣接参照ノードを切替えてもよい。また、幾何情報算出部2102は、親隣接ノード内の各ノードの占有情報は参照しない。
 符号化テーブル選択部2103は、幾何情報算出部2102で算出された隣接参照ノードの占有情報を用いて対象ノードのオキュパンシー符号のエントロピー符号化に用いる符号化テーブルを選択する。エントロピー符号化部2104は、選択された符号化テーブルを用いてオキュパンシー符号をエントロピー符号化することでビットストリームを生成する。なお、エントロピー符号化部2104は、選択された符号化テーブルを示す情報をビットストリームに付加してもよい。
 図57は、本実施の形態に係る三次元データ復号装置2110のブロック図である。図57に示す三次元データ復号装置2110は、8分木生成部2111と、幾何情報算出部2112と、符号化テーブル選択部2113と、エントロピー復号部2114とを備える。
 8分木生成部2111は、ビットストリームのヘッダ情報等を用いて、ある空間(ノード)の8分木を生成する。8分木生成部2111は、例えば、ヘッダ情報に付加されたある空間のx軸、y軸、z軸方向の大きさを用いて大空間(ルートノード)を生成し、その空間をx軸、y軸、z軸方向にそれぞれ2分割することで8個の小空間A(ノードA0~A7)を生成して8分木を生成する。また、対象ノードとしてノードA0~A7が順に設定される。
 幾何情報算出部2112は、対象ノードの隣接参照ノードが占有であるか否かを示す占有情報を取得する。例えば、幾何情報算出部2112は、対象ノードが所属する親ノードのオキュパンシー符号から隣接参照ノードの占有情報を取得する。なお、幾何情報算出部2112は、図53に示すように、対象ノードの親ノード内の位置に応じて隣接参照ノードを切替えてもよい。また、幾何情報算出部2112は、親隣接ノード内の各ノードの占有情報は参照しない。
 符号化テーブル選択部2113は、幾何情報算出部2112で算出された隣接参照ノードの占有情報を用いて対象ノードのオキュパンシー符号のエントロピー復号に用いる符号化テーブル(復号テーブル)を選択する。エントロピー復号部2114は、選択された符号化テーブルを用いてオキュパンシー符号をエントロピー復号することで、三次元点を生成する。なお、符号化テーブル選択部2113は、ビットストリームに付加された、選択された符号化テーブルの情報を復号して取得し、エントロピー復号部2114は、取得された情報で示される符号化テーブルを用いてもよい。
 ビットストリームに含まれるオキュパンシー符号(8ビット)の各ビットは、8個の小空間A(ノードA0~ノードA7)にそれぞれ点群が含まれるか否かを示す。また更に、三次元データ復号装置は、小空間ノードA0を8個の小空間B(ノードB0~ノードB7)に分割して8分木を生成し、小空間Bの各ノードに点群が含まれるか否かを示す情報をオキュパンシー符号を復号して取得する。このように、三次元データ復号装置は、大空間から小空間へと8分木を生成しながら各ノードのオキュパンシー符号を復号する。
 以下、三次元データ符号化装置及び三次元データ復号装置による処理の流れを説明する。図58は、三次元データ符号化装置における三次元データ符号化処理のフローチャートである。まず、三次元データ符号化装置は、入力された三次元点群の一部又は全てが含まれる空間(対象ノード)を決定(定義)する(S2101)。次に、三次元データ符号化装置は、対象ノードを8分割して8個の小空間(ノード)を生成する(S2102)。次に、三次元データ符号化装置は、各ノードに点群が含まれるか否かに応じて対象ノードのオキュパンシー符号を生成する(S2103)。
 次に、三次元データ符号化装置は、対象ノードの隣接参照ノードの占有情報を、対象ノードの親ノードのオキュパンシー符号から算出(取得)する(S2104)。次に、三次元データ符号化装置は、決定した対象ノードの隣接参照ノードの占有情報に基づき、エントロピー符号化に用いる符号化テーブルを選択する(S2105)。次に、三次元データ符号化装置は、選択した符号化テーブルを用いて対象ノードのオキュパンシー符号をエントロピー符号化する(S2106)。
 さらに、三次元データ符号化装置は、各ノードをそれぞれ8分割し、各ノードのオキュパンシー符号を符号化するという処理を、ノードが分割できなくなるまで繰り返す(S2107)。つまり、ステップS2102~S2106までの処理が再帰的に繰り返される。
 図59は、三次元データ復号装置における三次元データ復号方法のフローチャートである。まず、三次元データ復号装置は、ビットストリームのヘッダ情報を用いて復号する空間(対象ノード)を決定(定義)する(S2111)。次に、三次元データ復号装置は、対象ノードを8分割して8個の小空間(ノード)を生成する(S2112)。次に、三次元データ復号装置は、対象ノードの隣接参照ノードの占有情報を、対象ノードの親ノードのオキュパンシー符号から算出(取得)する(S2113)。
 次に、三次元データ復号装置は、隣接参照ノードの占有情報に基づきエントロピー復号に用いる符号化テーブルを選択する(S2114)。次に、三次元データ復号装置は、選択した符号化テーブルを用いて対象ノードのオキュパンシー符号をエントロピー復号する(S2115)。
 さらに、三次元データ復号装置は、各ノードをそれぞれ8分割し、各ノードのオキュパンシー符号を復号するという処理を、ノードが分割できなくなるまで繰り返す(S2116)。つまり、ステップS2112~S2115までの処理が再帰的に繰り返される。
 次に、符号化テーブルの切替えの例を説明する。図60は、符号化テーブルの切替え例を示す図である。例えば、図60に示す符号化テーブル0のように、複数のオキュパンシー符号に同一のコンテキストモデルが適用されてもよい。また、各オキュパンシー符号に別々のコンテキストモデルが割り当てられてもよい。これにより、オキュパンシー符号の出現確率に応じてコンテキストモデルを割り当てることができるので、符号化効率を向上できる。また、オキュパンシー符号の出現頻度に応じて確率テーブルを更新するコンテキストモデルが用いられてもよい。または、確率テーブルを固定したコンテキストモデルが用いられてもよい。
 以下、本実施の形態の変形例1について説明する。図61は、本変形例における参照関係を示す図である。上記実施の形態では、三次元データ符号化装置は、親隣接ノードのオキュパンシー符号を参照しないとしたが、親隣接ノードのオキュパンシー符号化を参照するか否かを、特定の条件に応じて切り替えてもよい。
 例えば、三次元データ符号化装置は、8分木を幅優先でスキャンしながら符号化を行うときは、親隣接ノード内のノードの占有情報を参照して、対象ノードのオキュパンシー符号を符号化する。一方、三次元データ符号化装置は、8分木を深さ優先でスキャンしながら符号化するときは、親隣接ノード内のノードの占有情報の参照を禁止する。このように8分木のノードのスキャン順(符号化順)に応じて、適切に参照可能なノードを切替えることにより、符号化効率の向上と処理負荷の抑制を実現できる。
 なお、三次元データ符号化装置は、8分木を幅優先で符号化したか、深さ優先で符号化したか等の情報をビットストリームのヘッダに付加してもよい。図62は、この場合のヘッダ情報のシンタックス例を示す図である。図62に示すoctree_scan_orderは、8分木の符号化順を示す符号化順情報(符号化順フラグ)である。例えば、octree_scan_orderが0の場合、幅優先を示し、1の場合は深さ優先を示す。これにより、三次元データ復号装置は、octree_scan_orderを参照することで、ビットストリームが幅優先及び深さ優先のどちらで符号化されたかを知ることができるので、ビットストリームを適切に復号できる。
 また、三次元データ符号化装置は、親隣接ノードの参照を禁止するか否かを示す情報をビットストリームのヘッダ情報に付加してもよい。図63は、この場合のヘッダ情報のシンタックス例を示す図である。limit_refer_flagは、親隣接ノードの参照を禁止するか否かを示す禁止切替情報(禁止切替フラグ)である。例えば、limit_refer_flagが1の場合は親隣接ノードの参照を禁止することを示し、0の場合は参照制限なし(親隣接ノードの参照を許可する)を示す。
 つまり、三次元データ符号化装置は、親隣接ノードの参照を禁止するか否かを決定し、上記決定の結果に基づき、親隣接ノードの参照を禁止するか、許可するかを切り替える。また、三次元データ符号化装置は、上記決定の結果であって、親隣接ノードの参照を禁止するか否かを示す禁止切替情報を含むビットストリームを生成する。
 また、三次元データ復号装置は、親隣接ノードの参照を禁止するか否かを示す禁止切替情報をビットストリームから取得し、禁止切替情報に基づき、親隣接ノードの参照を禁止するか、許可するかを切り替える。
 これにより三次元データ符号化装置は、親隣接ノードの参照を制御してビットストリームを生成できる。また、三次元データ復号装置は、親隣接ノードの参照が禁止されているか否かを示す情報をビットストリームのヘッダから取得できる。
 また、本実施の形態では、親隣接ノードの参照を禁止する符号化処理の例としてオキュパンシー符号の符号化処理を例として記載したが、必ずしもこれに限らない。例えば、8分木のノードの他の情報を符号化する際にも同様の手法を適用可能である。例えば、ノードに付加された色、法線ベクトル、又は反射率等のその他の属性情報を符号化する際に、本実施の形態の手法を適用してもよい。また、符号化テーブル又は予測値を符号化する際にも同様の手法を適用できる。
 次に、本実施の形態の変形例2について説明する。上記説明では、図53に示すように、3つの参照隣接ノードが用いられる例を示したが4つ以上の参照隣接ノードが用いられてもよい。図64は、対象ノード及び参照隣接ノードの例を示す図である。
 例えば、三次元データ符号化装置は、図64に示す対象ノードのオキュパンシー符号をエントロピー符号化する際の符号化テーブルを、例えば下記式により算出する。
 CodingTable=(FlagX0<<3)+(FlagX1<<2)+(FlagY<<1)+(FlagZ)
 ここで、CodingTableは、対象ノードのオキュパンシー符号用の符号化テーブルを示し、値0~15のいずれかを示す。FlagXNは、隣接ノードXN(N=0..1)の占有情報であり、隣接ノードXNが点群を含む(占有)なら1を示し、そうでないなら0を示す。FlagYは、隣接ノードYの占有情報であり、隣接ノードYが点群を含む(占有)なら1を示し、そうでないなら0を示す。FlagZは、隣接ノードZの占有情報であり、隣接ノードZが点群を含む(占有)なら1を示し、そうでないなら0を示す。
 この際、もし隣接ノード、例えば図64の隣接ノードX0が参照不可(参照禁止)の場合は、三次元データ符号化装置は、代替値として1(占有)、又は、0(非占有)のような固定値を用いてもよい。
 図65は、対象ノード及び隣接ノードの例を示す図である。図65に示すように、隣接ノードが参照不可(参照禁止)の場合は、対象ノードの祖父ノードのオキュパンシー符号を参照して、隣接ノードの占有情報を算出してもよい。例えば、三次元データ符号化装置は、図65に示す隣接ノードX0の代わりに、隣接ノードG0の占有情報を用いて上式のFlagX0を算出し、算出したFlagX0を用いて符号化テーブルの値を決定してもよい。なお、図65に示す隣接ノードG0は、祖父ノードのオキュパンシー符号で占有か否かが判別できる隣接ノードである。隣接ノードX1は、親ノードのオキュパンシー符号で占有か否かが判別できる隣接ノードである。
 以下、本実施の形態の変形例3について説明する。図66及び図67は、本変形例に係る参照関係を示す図である。図66は、参照関係を8分木構造上で示す図であり、図67は、参照関係を空間領域上で示す図である。
 本変形例では、三次元データ符号化装置は、符号化対象のノード(以下、対象ノード2と呼ぶ)の符号化情報を符号化する際に、対象ノード2が属する親ノード内の各ノードの符号化情報を参照する。つまり、三次元データ符号化装置は、複数の隣接ノードのうち、対象ノードと親ノードが同一である第1ノードの子ノードの情報(例えば占有情報)の参照を許可する。例えば、三次元データ符号化装置は、図66に示す対象ノード2のオキュパンシー符号を符号化する際に、対象ノード2が属する親ノード内に存在するノード、例えば、図66に示す対象ノードのオキュパンシー符号を参照する。図66に示す対象ノードのオキュパンシー符号は、図67に示すように、例えば、対象ノード2に隣接する対象ノード内の各ノードが占有であるか否かを表している。よって、三次元データ符号化装置は、対象ノードのより細かい形状に応じて対象ノード2のオキュパンシー符号の符号化テーブルを切替えることができるので符号化効率を向上できる。
 三次元データ符号化装置は、対象ノード2のオキュパンシー符号をエントロピー符号化する際の符号化テーブルを、例えば下記式により算出してもよい。
 CodingTable=(FlagX1<<5)+(FlagX2<<4)+(FlagX3<<3)+(FlagX4<<2)+(FlagY<<1)+(FlagZ)
 ここで、CodingTableは、対象ノード2のオキュパンシー符号用の符号化テーブルを示し、値0~63のいずれかを示す。FlagXNは、隣接ノードXN(N=1..4)の占有情報であり、隣接ノードXNが点群を含む(占有)なら1を示し、そうでないなら0を示す。FlagYは、隣接ノードYの占有情報であり、隣接ノードYが点群を含む(占有)なら1を示し、そうでないなら0を示す。FlagZは、隣接ノードYの占有情報であり、隣接ノードZが点群を含む(占有)なら1を示し、そうでないなら0を示す。
 なお、三次元データ符号化装置は、符号化テーブルの算出方法を親ノード内における対象ノード2のノード位置に応じて変更してもよい。
 また、三次元データ符号化装置は、親隣接ノードの参照が禁止されていない場合、親隣接ノード内の各ノードの符号化情報を参照してよい。例えば、親隣接ノードの参照が禁止されていない場合、対象ノードと親ノードが異なる第3ノードの子ノードの情報(例えば占有情報)の参照が許可される。例えば、図65に示す例では、三次元データ符号化装置は、対象ノードと親ノードが異なる隣接ノードX0のオキュパンシー符号を参照して、隣接ノードX0の子ノードの占有情報を取得する。三次元データ符号化装置は、取得した隣接ノードX0の子ノードの占有情報に基づき、対象ノードのオキュパンシー符号のエントロピー符号化に用いる符号化テーブルを切替える。
 以上のように、本実施の形態に係る三次元データ符号化装置は、三次元データに含まれる複数の三次元点のN(Nは2以上の整数)分木構造に含まれる対象ノードの情報(例えばオキュパンシー符号)を符号化する。図51及び図52に示すように、三次元データ符号化装置は、上記符号化では、対象ノードと空間的に隣接する複数の隣接ノードのうち、対象ノードと親ノードが同一である第1ノードの情報(例えば占有情報)の参照を許可し、対象ノードと親ノードが異なる第2ノードの情報(例えば占有情報)の参照を禁止する。言い換えると、三次元データ符号化装置は、上記符号化では、親ノードの情報(例えばオキュパンシー符号)の参照を許可し、親ノードと同一層の他のノード(親隣接ノード)の情報(例えばオキュパンシー符号)の参照を禁止する。
 これによれば、当該三次元データ符号化装置は、対象ノードと空間的に隣接する複数の隣接ノードのうち、対象ノードと親ノードが同一である第1ノードの情報の参照することで符号化効率を向上できる。また、当該三次元データ符号化装置は、複数の隣接ノードのうち、対象ノードと親ノードが異なる第2ノードの情報の参照をしないことにより、処理量を低減できる。このように、当該三次元データ符号化装置は、符号化効率を向上できるとともに、処理量を低減できる。
 例えば、三次元データ符号化装置は、さらに、第2ノードの情報の参照を禁止するか否かを決定し、上記符号化では、上記決定の結果に基づき、第2ノードの情報の参照を禁止するか、許可するかを切り替える。三次元データ符号化装置は、さらに、上記決定の結果であって、第2ノードの情報の参照を禁止するか否かを示す禁止切替情報(例えば、図63に示すlimit_refer_flag)を含むビットストリームを生成する。
 これによれば、当該三次元データ符号化装置は、第2ノードの情報の参照を禁止するか否かを切り替えることができる。また、三次元データ復号装置は、禁止切替情報を用いて適切に復号処理を行うことができる。
 例えば、対象ノードの情報は、対象ノードに属する子ノードの各々に三次元点が存在するか否かを示す情報(例えオキュパンシー符号)であり、第1ノードの情報は、第1ノードに三次元点が存在するか否かを示す情報(第1ノードの占有情報)であり、第2ノードの情報は、第2ノードに三次元点が存在するか否かを示す情報(第2ノードの占有情報)である。
 例えば、三次元データ符号化装置は、上記符号化では、第1ノードに三次元点が存在するか否かに基づき、符号化テーブルを選択し、選択された符号化テーブルを用いて、対象ノードの情報(例えばオキュパンシー符号)をエントロピー符号化する。
 例えば、三次元データ符号化装置は、上記符号化では、図66及び図67に示すように、複数の隣接ノードのうち、第1ノードの子ノードの情報(例えば占有情報)の参照を許可する。
 これによれば、当該三次元データ符号化装置は、隣接ノードのより詳細な情報を参照することができるので符号化効率を向上できる。
 例えば、三次元データ符号化装置は、図53に示すように、上記符号化では、対象ノードの親ノード内の空間位置に応じて、複数の隣接ノードのうち、参照する隣接ノードを切り替える。
 これによれば、当該三次元データ符号化装置は、対象ノードの親ノード内の空間位置に応じて、適切な隣接ノードを参照できる。
 例えば、三次元データ符号化装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 また、本実施の形態に係る三次元データ復号装置は、三次元データに含まれる複数の三次元点のN(Nは2以上の整数)分木構造に含まれる対象ノードの情報(例えばオキュパンシー符号)を復号する。図51及び図52に示すように、三次元データ復号装置は、上記復号では、対象ノードと空間的に隣接する複数の隣接ノードのうち、対象ノードと親ノードが同一である第1ノードの情報(例えば占有情報)の参照を許可し、対象ノードと親ノードが異なる第2ノードの情報(例えば占有情報)の参照を禁止する。言い換えると、三次元データ復号装置は、上記復号では、親ノードの情報(例えばオキュパンシー符号)の参照を許可し、親ノードと同一層の他のノード(親隣接ノード)の情報(例えばオキュパンシー符号)の参照を禁止する。
 これによれば、当該三次元データ復号装置は、対象ノードと空間的に隣接する複数の隣接ノードのうち、対象ノードと親ノードが同一である第1ノードの情報の参照することで符号化効率を向上できる。また、当該三次元データ復号装置は、複数の隣接ノードのうち、対象ノードと親ノードが異なる第2ノードの情報の参照をしないことにより、処理量を低減できる。このように、当該三次元データ復号装置は、符号化効率を向上できるとともに、処理量を低減できる。
 例えば、三次元データ復号装置は、さらに、第2ノードの情報の参照を禁止するか否かを示す禁止切替情報(例えば、図63に示すlimit_refer_flag)をビットストリームから取得し、上記復号では、禁止切替情報に基づき、第2ノードの情報の参照を禁止するか、許可するかを切り替える。
 これによれば、当該三次元データ復号装置は、禁止切替情報を用いて適切に復号処理を行うことができる。
 例えば、対象ノードの情報は、対象ノードに属する子ノードの各々に三次元点が存在するか否かを示す情報(例えオキュパンシー符号)であり、第1ノードの情報は、第1ノードに三次元点が存在するか否かを示す情報(第1ノードの占有情報)であり、第2ノードの情報は、第2ノードに三次元点が存在するか否かを示す情報(第2ノードの占有情報)である。
 例えば、三次元データ復号装置は、上記復号では、第1ノードに三次元点が存在するか否かに基づき、符号化テーブルを選択し、選択された符号化テーブルを用いて、対象ノードの情報(例えばオキュパンシー符号)をエントロピー復号する。
 例えば、三次元データ復号装置は、上記復号では、図66及び図67に示すように、複数の隣接ノードのうち、第1ノードの子ノードの情報(例えば占有情報)の参照を許可する。
 これによれば、当該三次元データ復号装置は、隣接ノードのより詳細な情報を参照することができるので符号化効率を向上できる。
 例えば、三次元データ復号装置は、図53に示すように、上記復号では、対象ノードの親ノード内の空間位置に応じて、複数の隣接ノードのうち、参照する隣接ノードを切り替える。
 これによれば、当該三次元データ復号装置は、対象ノードの親ノード内の空間位置に応じて、適切な隣接ノードを参照できる。
 例えば、三次元データ復号装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 (実施の形態9)
 三次元点群の情報は、位置情報(geometry)と属性情報(attribute)とを含む。位置情報は、ある点を基準とした座標(x座標、y座標、z座標)を含む。位置情報を符号化する場合は、各三次元点の座標を直接符号化する代わりに、各三次元点の位置を8分木表現で表現し、8分木の情報を符号化することで符号量を削減する方法が用いられる。
 一方、属性情報は、各三次元点の色情報(RGB、YUVなど)、反射率、及び法線ベクトルなどを示す情報を含む。例えば、三次元データ符号化装置は、属性情報を、位置情報とは別の符号化方法を用いて符号化することができる。
 本実施の形態では属性情報の符号化方法について説明する。なお、本実施の形態では属性情報の値として整数値を用いて説明する。例えば色情報RGB又はYUVの各色成分が8bit精度である場合、各色成分は0~255の整数値をとる。反射率の値が10bit精度である場合、反射率の値は0~1023の整数値をとる。なお、三次元データ符号化装置は、属性情報のビット精度が小数精度である場合、属性情報の値が整数値になるように、当該値にスケール値を乗じてから整数値に丸めてもよい。なお、三次元データ符号化装置は、このスケール値をビットストリームのヘッダ等に付加してもよい。
 三次元点の属性情報の符号化方法として、三次元点の属性情報の予測値を算出し、元の属性情報の値と予測値との差分(予測残差)を符号化することが考えられる。例えば、三次元点pの属性情報の値がApであり、予測値がPpである場合、三次元データ符号化装置は、その差分絶対値Diffp=|Ap-Pp|を符号化する。この場合、予測値Ppを高精度に生成することができれば、差分絶対値Diffpの値が小さくなる。よって、例えば、値が小さい程発生ビット数が小さくなる符号化テーブルを用いて差分絶対値Diffpをエントロピー符号化することで符号量を削減することができる。
 属性情報の予測値を生成する方法として、符号化対象の対象三次元点の周囲にある別の三次元点である参照三次元点の属性情報を用いることが考えられる。ここで参照三次元点とは、対象三次元点から予め定められた距離範囲内にある三次元点である。例えば、対象三次元点p=(x1,y1,z1)と三次元点q=(x2,y2,z2)とが存在する場合、三次元データ符号化装置は、(式A1)に示す三次元点pと三次元点qとのユークリッド距離d(p、q)を算出する。
Figure JPOXMLDOC01-appb-M000001
 三次元データ符号化装置は、ユークリッド距離d(p、q)が予め定められた閾値THdより小さい場合、三次元点qの位置が対象三次元点pの位置に近いと判定し、対象三次元点pの属性情報の予測値の生成に三次元点qの属性情報の値を利用すると判定する。なお、距離算出方法は別の方法でもよく、例えばマハラノビス距離等が用いられてもよい。また、三次元データ符号化装置は、対象三次元点から予め定められた距離範囲外の三次元点を予測処理に用いないと判定してもよい。例えば、三次元点rが存在し、対象三次元pと三次元点rとの距離d(p、r)が閾値THd以上である場合、三次元データ符号化装置は、三次元点rを予測に用いないと判定してもよい。なお、三次元データ符号化装置は、閾値THdを示す情報を、ビットストリームのヘッダ等に付加してもよい。
 図68は、三次元点の例を示す図である。この例では、対象三次元点pと三次元点qとの距離d(p、q)が閾値THdより小さい。よって、三次元データ符号化装置は、三次元点qを対象三次元点pの参照三次元点と判定し、対象三次元pの属性情報Apの予測値Ppの生成に三次元点qの属性情報Aqの値を利用すると判定する。
 一方、対象三次元点pと三次元点rとの距離d(p、r)は、閾値THd以上である。よって、三次元データ符号化装置は、三次元点rを対象三次元点pの参照三次元点でないと判定し、対象三次元点pの属性情報Apの予測値Ppの生成に三次元点rの属性情報Arの値を利用しないと判定する。
 また、三次元データ符号化装置は、対象三次元点の属性情報を予測値を用いて符号化する場合、既に属性情報を符号化及び復号済みの三次元点を参照三次元点として利用する。同様に、三次元データ復号装置は、復号対象の対象三次元点の属性情報を予測値を用いて復号する場合、既に属性情報を復号済みの三次元点を参照三次元点として利用する。これにより、符号化時と復号時とで同一の予測値を生成することができるので、符号化で生成した三次元点のビットストリームを復号側で正しく復号することができる。
 また、三次元点の属性情報を符号化する場合に、三次元点の位置情報を用いて各三次元点を複数階層に分類してから符号化することが考えられる。ここで、分類した各階層をLoD(Level of Detail)と呼ぶ。LoDの生成方法について図69を用いて説明する。
 まず、三次元データ符号化装置は、初期点a0を選択し、LoD0に割当てる。次に、三次元データ符号化装置は、点a0からの距離がLoD0の閾値Thres_LoD[0]より大きい点a1を抽出しLoD0に割当てる。次に、三次元データ符号化装置は、点a1からの距離がLoD0の閾値Thres_LoD[0]より大きい点a2を抽出しLoD0に割当てる。このように、三次元データ符号化装置は、LoD0内の各点の間の距離が閾値Thres_LoD[0]より大きくなるようにLoD0を構成する。
 次に、三次元データ符号化装置は、まだLoDが未割当ての点b0を選択し、LoD1に割当てる。次に、三次元データ符号化装置は、点b0からの距離がLoD1の閾値Thres_LoD[1]より大きく、LoDが未割当ての点b1を抽出しLoD1に割当てる。次に、三次元データ符号化装置は、点b1からの距離がLoD1の閾値Thres_LoD[1]より大きく、LoDが未割当ての点b2を抽出しLoD1に割当てる。このように、三次元データ符号化装置は、LoD1内の各点の間の距離が閾値Thres_LoD[1]より大きくなるようにLoD1を構成する。
 次に、三次元データ符号化装置は、まだLoDが未割当ての点c0を選択し、LoD2に割当てる。次に、三次元データ符号化装置は、点c0からの距離がLoD2の閾値Thres_LoD[2]より大きく、LoDが未割当ての点c1を抽出しLoD2に割当てる。次に、三次元データ符号化装置は、点c1からの距離がLoD2の閾値Thres_LoD[2]より大きく、LoDが未割当ての点c2を抽出しLoD2に割当てる。このように、三次元データ符号化装置は、LoD2内の各点の間の距離が閾値Thres_LoD[2]より大きくなるようにLoD2を構成する。例えば、図70に示すように、各LoDの閾値Thres_LoD[0]、Thres_LoD[1]、及びThres_LoD[2]が設定される。
 また、三次元データ符号化装置は、各LoDの閾値を示す情報を、ビットストリームのヘッダ等に付加してもよい。例えば、図70に示す例の場合、三次元データ符号化装置は、閾値Thres_LoD[0]、Thres_LoD[1]、及びThres_LoD[2]をヘッダに付加してもよい。
 また、三次元データ符号化装置は、LoDの最下層にLoDが未割当ての三次元点全てを割当ててもよい。この場合、三次元データ符号化装置は、LoDの最下層の閾値をヘッダに付加しないことでヘッダの符号量を削減できる。例えば、図70に示す例の場合、三次元データ符号化装置は、閾値Thres_LoD[0]とThres_LoD[1]をヘッダに付加し、Thres_LoD[2]をヘッダに付加しない。この場合、三次元データ復号装置は、Thres_LoD[2]の値0と推定してもよい。また、三次元データ符号化装置は、LoDの階層数をヘッダに付加してもよい。これにより、三次元データ復号装置は、LoDの階層数を用いて最下層のLoDを判定できる。
 また、LoDの各層の閾値の値を図70に示すように上位層ほど大きく設定することで、上位層(LoD0に近い層)ほど三次元点間の距離が離れた疎点群(sparse)となり、下位層ほど三次元点間の距離が近い密点群(dense)となる。なお、図70に示す例では、LoD0が最上位層である。
 また、各LoDを設定する際の初期三次元点の選択方法は、位置情報符号化時の符号化順に依存してもよい。例えば、三次元データ符号化装置は、LoD0の初期点a0として、位置情報符号化時に最初に符号化された三次元点を選択し、初期点a0を基点に、点a1、点a2を選択してLoD0を構成する。そして、三次元データ符号化装置は、LoD1の初期点b0として、LoD0に属していない三次元点の中で、最も早く位置情報が符号化された三次元点を選択してもよい。つまり、三次元データ符号化装置は、LoDnの初期点n0として、LoDnの上層(LoD0~LoDn-1)に属していない三次元点の中で、最も早く位置情報が符号化された三次元点を選択してもよい。これにより、三次元データ復号装置は、復号時に同様の初期点選択方法を用いることで、符号化時と同一のLoDを構成できるので、ビットストリームを適切に復号できる。具体的には、三次元データ復号装置は、LoDnの初期点n0として、LoDnの上層に属していない三次元点の中で、最も早く位置情報が復号された三次元点を選択する。
 以下、三次元点の属性情報の予測値を、LoDの情報を用いて生成する手法について説明する。例えば、三次元データ符号化装置は、LoD0に含まれる三次元点から順に符号化する場合、LoD1に含まれる対象三次元点を、LoD0及びLoD1に含まれる符号化かつ復号済み(以下、単に「符号化済み」とも記す)の属性情報を用いて生成する。このように、三次元データ符号化装置は、LoDnに含まれる三次元点の属性情報の予測値を、LoDn’(n’<=n)に含まれる符号化済みの属性情報を用いて生成する。つまり、三次元データ符号化装置は、LoDnに含まれる三次元点の属性情報の予測値の算出に、LoDnの下層に含まれる三次元点の属性情報を用いない。
 例えば、三次元データ符号化装置は、三次元点の属性情報の予測値を、符号化対象の対象三次元点の周辺の符号化済みの三次元点のうち、N個以下の三次元点の属性値の平均を算出することで生成する。また、三次元データ符号化装置は、Nの値を、ビットストリームのヘッダ等に付加してもよい。なお、三次元データ符号化装置は、Nの値を三次元点毎に変更し、三次元点毎にNの値を付加してもよい。これにより、三次元点毎に適切なNを選択することができるので、予測値の精度を向上できる。よって、予測残差を小さくできる。また、三次元データ符号化装置は、Nの値をビットストリームのヘッダに付加し、ビットストリーム内でNの値を固定してもよい。これにより、三次元点毎にNの値を符号化、又は復号する必要がなくなるので、処理量を削減できる。また、三次元データ符号化装置は、LoD毎にNの値を別々に符号化してもよい。これによりLoD毎に適切なNを選択することで符号化効率を向上できる。
 または、三次元データ符号化装置は、三次元点の属性情報の予測値を、周囲の符号化済みのN個の三次元点の属性情報の重み付け平均値により算出してもよい。例えば、三次元データ符号化装置は、対象三次元点と周囲のN個の三次元点とのそれぞれの距離情報を用いて重みを算出する。
 三次元データ符号化装置は、LoD毎にNの値を別々に符号化する場合、例えばLoDの上位層ほどNの値を大きく設定し、下位層ほどNの値を小さく設定する。LoDの上位層では属する三次元点間の距離が離れるため、Nの値を大きく設定して複数の周囲の三次元点を選択して平均化することで予測精度を向上できる可能性がある。また、LoDの下位層では属する三次元点間の距離が近いため、Nの値を小さく設定して平均化の処理量を抑えつつ、効率的な予測を行うことが可能となる。
 図71は、予測値に用いる属性情報の例を示す図である。上述したように、LoDNに含まれる点Pの予測値は、LoDN’(N’<=N)に含まれる符号化済みの周囲点P’を用いて生成される。ここで、周囲点P’は、点Pとの距離に基づき選択される。例えば、図71に示す点b2の属性情報の予測値は、点a0、a1、a2、b0、b1の属性情報を用いて生成される。
 上述したNの値に応じて、選択される周囲点は変化する。例えばN=5の場合は点b2の周囲点としてa0、a1、a2、b0、b1が選択される。N=4の場合は距離情報を元に点a0、a1、a2、b1を選択される。
 予測値は、距離依存の重み付け平均により算出される。例えば、図71に示す例では、点a2の予測値a2pは、(式A2)及び(式A3)に示すように、点a0及び点a1の属性情報の重み付け平均により算出される。なお、Aは点aiの属性情報の値である。
Figure JPOXMLDOC01-appb-M000002
 また、点b2の予測値b2pは、(式A4)~(式A6)に示すように、点a0、a1、a2、b0、b1の属性情報の重み付け平均により算出される。なお、Bは点biの属性情報の値である。
Figure JPOXMLDOC01-appb-M000003
 また、三次元データ符号化装置は、三次元点の属性情報の値と、周囲点から生成した予測値との差分値(予測残差)を算出し、算出した予測残差を量子化してもよい。例えば、三次元データ符号化装置は、予測残差を量子化スケール(量子化ステップとも呼ぶ)で除算することで量子化を行う。この場合、量子化スケールが小さいほど量子化によって発生しうる誤差(量子化誤差)が小さくなる。逆に量子化スケールが大きいほど量子化誤差は大きくなる。
 なお、三次元データ符号化装置は、使用する量子化スケールをLoD毎に変えてもよい。例えば、三次元データ符号化装置は、上位層ほど量子化スケールを小さくし、下位層ほど量子化スケールを大きくする。上位層に属する三次元点の属性情報の値は、下位層に属する三次元点の属性情報の予測値として使用される可能性があるため、上位層の量子化スケールを小さくして上位層で発生しうる量子化誤差を抑え、予測値の精度を高めることで符号化効率を向上できる。なお、三次元データ符号化装置は、LoD毎に使用する量子化スケールをヘッダ等に付加してもよい。これにより、三次元データ復号装置は、正しく量子化スケールを復号できるので、ビットストリームを適切に復号できる。
 また、三次元データ符号化装置は、量子化後の予測残差である符号付整数値(符号付量子化値)を符号なし整数値(符号なし量子化値)に変換してもよい。これにより予測残差をエントロピー符号化する場合に、負の整数の発生を考慮する必要がなくなる。なお、三次元データ符号化装置は、必ずしも符号付整数値を符号なし整数値に変換する必要はなく、例えば符号ビットを別途エントロピー符号化してもよい。
 予測残差は、元の値から予測値を減算することにより算出される。例えば、点a2の予測残差a2rは、(式A7)に示すように、点a2の属性情報の値Aから、点a2の予測値a2pを減算することで算出される。点b2の予測残差b2rは、(式A8)に示すように、点b2の属性情報の値Bから、点b2の予測値b2pを減算することで算出される。
 a2r=A-a2p ・・・(式A7)
 b2r=B-b2p ・・・(式A8)
 また、予測残差は、QS(量子化ステップ(Quantization Step))で除算されることで量子化される。例えば、点a2の量子化値a2qは、(式A9)により算出される。点b2の量子化値b2qは、(式A10)により算出される。ここで、QS_LoD0は、LoD0用のQSであり、QS_LoD1は、LoD1用のQSである。つまり、LoDに応じてQSが変更されてもよい。
 a2q=a2r/QS_LoD0 ・・・(式A9)
 b2q=b2r/QS_LoD1 ・・・(式A10)
 また、三次元データ符号化装置は、以下のように、上記量子化値である符号付整数値を符号なし整数値に変換する。三次元データ符号化装置は、符号付整数値a2qが0より小さい場合、符号なし整数値a2uを-1-(2×a2q)に設定する。三次元データ符号化装置は、符号付整数値a2qが0以上の場合、符号なし整数値a2uを2×a2qに設定する。
 同様に、三次元データ符号化装置は、符号付整数値b2qが0より小さい場合、符号なし整数値b2uを-1-(2×b2q)に設定する。三次元データ符号化装置は、符号付整数値b2qが0以上の場合、符号なし整数値b2uを2×b2qに設定する。
 また、三次元データ符号化装置は、量子化後の予測残差(符号なし整数値)を、エントロピー符号化によって符号化してもよい。例えば符号なし整数値を二値化したうえで、二値の算術符号化を適用してもよい。
 なお、この場合、三次元データ符号化装置は、予測残差の値に応じて二値化方法を切替えてもよい。例えば、三次元データ符号化装置は、予測残差puが閾値R_THより小さい場合は、閾値R_THを表現するために必要な固定ビット数で予測残差puを二値化する。また、三次元データ符号化装置は、予測残差puが閾値R_TH以上の場合は、閾値R_THの二値化データと(pu-R_TH)の値を指数ゴロム(Exponential-Golomb)等を用いて二値化する。
 例えば、三次元データ符号化装置は、閾値R_THが63であり、予測残差puが63より小さい場合は、予測残差puを6bitで二値化する。また、三次元データ符号化装置は、予測残差puが63以上である場合は、閾値R_THの二値データ(111111)と(pu-63)とを指数ゴロムを用いて二値化することで算術符号化を行う。
 より具体的な例では、三次元データ符号化装置は、予測残差puが32である場合、6bitの二値データ(100000)を生成し、このビット列を算術符号化する。また、三次元データ符号化装置は、予測残差puが66の場合、閾値R_THの二値データ(111111)と値3(66-63)を指数ゴロムで表したビット列(00100)とを生成し、このビット列(111111+00100)を算術符号化する。
 このように、三次元データ符号化装置は、予測残差の大きさに応じて二値化の方法を切替えることで、予測残差が大きくなった場合の二値化ビット数の急激な増加を抑えながら符号化することが可能となる。なお、三次元データ符号化装置は、閾値R_THをビットストリームのヘッダ等に付加してもよい。
 例えば、高ビットレートで符号化が行われる場合、つまり、量子化スケールが小さい場合、量子化誤差が小さく予測精度が高くなり、結果として予測残差が大きくならない可能性がある。よって、この場合には、三次元データ符号化装置は、閾値R_THを大きく設定する。これにより、閾値R_THの二値化データを符号化する可能性が低くなり、符号化効率が向上する。逆に、低ビットレートで符号化が行われる場合、つまり、量子化スケールが大きい場合、量子化誤差が大きく予測精度が悪くなり、結果として予測残差が大きくなる可能性がある。よって、この場合には、三次元データ符号化装置は、閾値R_THを小さく設定する。これにより、二値化データの急激なビット長増加を防ぐことができる。
 また、三次元データ符号化装置は、LoD毎に閾値R_THを切り替え、LoD毎の閾値R_THをヘッダ等に付加してもよい。つまり、三次元データ符号化装置は、LoD毎に二値化の方法を切替えてもよい。例えば、上位層では三次元点間の距離が遠いため、予測精度が悪く結果として予測残差が大きくなる可能性がある。よって、三次元データ符号化装置は、上位層に対しては閾値R_THを小さく設定することで二値化データの急激なビット長増加を防ぐ。また、下位層では三次元点間の距離が近いため、予測精度が高く結果として予測残差が小さくなる可能性がある。よって、三次元データ符号化装置は、階層に対しては閾値R_THを大きく設定することで符号化効率を向上する。
 図72は、指数ゴロム符号の一例を示す図であって、二値化前の値(多値)と、二値化後のビット(符号)との関係を示す図である。なお、図72に示す0と1とを反転させてもよい。
 また、三次元データ符号化装置は、予測残差の二値化データに算術符号化を適用する。これにより、符号化効率を向上できる。なお、算術符号化の適用時に、二値化データのうち、nビットで二値化した部分であるnビット符号(n-bit code)と、指数ゴロムを用いて二値化した部分である残り符号(remaining code)とで、各ビットの0と1の出現確率の傾向は異なる可能性がある。よって、三次元データ符号化装置は、nビット符号と残り符号とで、算術符号化の適用方法を切替えてもよい。
 例えば、三次元データ符号化装置は、nビット符号に対しては、ビット毎に異なる符号化テーブル(確率テーブル)を用いて算術符号化を行う。この際、三次元データ符号化装置は、ビット毎に使用する符号化テーブルの数を変えてもよい。例えば、三次元データ符号化装置は、nビット符号の先頭ビットb0には1個の符号化テーブルを用いて算術符号化を行う。また、三次元データ符号化装置は、次のビットb1に対しては2個の符号化テーブルを用いる。また、三次元データ符号化装置は、b0の値(0又は1)に応じてビットb1の算術符号化に用いる符号化テーブルを切替える。同様に、三次元データ符号化装置は、更に次のビットb2に対しては4個の符号化テーブルを用いる。また、三次元データ符号化装置は、b0及びb1の値(0~3)に応じて、ビットb2の算術符号化に用いる符号化テーブルを切替える。
 このように、三次元データ符号化装置は、nビット符号の各ビットbn-1を算術符号化する際に、2n-1個の符号化テーブルを用いる。また、三次元データ符号化装置は、bn-1より前のビットの値(発生パターン)に応じて、使用する符号化テーブルを切替える。これにより、三次元データ符号化装置は、ビット毎に適切な符号化テーブルを使用できるので、符号化効率を向上できる。
 なお、三次元データ符号化装置は、各ビットで使用する符号化テーブルの数を削減してもよい。例えば、三次元データ符号化装置は、各ビットbn-1を算術符号化する際に、bn-1より前のmビット(m<n-1)の値(発生パターン)に応じて2個の符号化テーブルを切替えてもよい。これにより各ビットで使用する符号化テーブルの数を抑えつつ、符号化効率を向上できる。なお、三次元データ符号化装置は、各符号化テーブルにおける0と1の発生確率を、実際に発生した二値化データの値に応じて更新してもよい。また、三次元データ符号化装置は、一部のビットの符号化テーブルにおける0と1の発生確率を固定化してもよい。これにより、発生確率の更新回数を抑制できるので処理量を削減できる。
 例えば、nビット符号がb0b1b2…bn-1である場合、b0用の符号化テーブルは1個(CTb0)である。b1用の符号化テーブルは2個(CTb10、CTb11)である。また、b0の値(0~1)に応じて使用する符号化テーブルが切替えられる。b2用の符号化テーブルは、4個(CTb20、CTb21、CTb22、CTb23)である。また、b0及びb1の値(0~3)に応じて使用する符号化テーブルが切替えられる。bn-1用の符号化テーブルは2n-1個(CTbn0、CTbn1、…、CTbn(2n-1-1))である。また、b0b1…bn-2の値(0~2n-1-1)に応じて使用する符号化テーブルを切替えられる。
 なお、三次元データ符号化装置は、nビット符号に対しては、二値化せずに0~2-1の値を設定するm-aryによる算術符号化(m=2)を適用してもよい。また、三次元データ符号化装置が、nビット符号をm-aryで算術符号化する場合は、三次元データ復号装置もm-aryの算術復号によりnビット符号を復元してもよい。
 図73は、例えば、残り符号が指数ゴロム符号の場合の処理を説明するための図である。指数ゴロムを用いて二値化した部分である残り符号は、図73に示すようにprefix部とsuffix部とを含む。例えば、三次元データ符号化装置は、prefix部とsuffix部とで符号化テーブルを切替える。つまり、三次元データ符号化装置は、prefix部に含まれる各ビットを、prefix用の符号化テーブルを用いて算術符号化し、suffix部に含まれる各ビットを、suffix用の符号化テーブルを用いて算術符号化する。
 なお、三次元データ符号化装置は、各符号化テーブルにおける0と1の発生確率を、実際に発生した二値化データの値に応じて更新してもよい。または、三次元データ符号化装置は、どちらかの符号化テーブルにおける0と1の発生確率を固定化してもよい。これにより、発生確率の更新回数を抑制できるので処理量を削減できる。例えば、三次元データ符号化装置は、prefix部に対して発生確率を更新し、suffix部に対して発生確率を固定化してもよい。
 また、三次元データ符号化装置は、量子化後の予測残差を、逆量子化及び再構成するこで復号し、復号した予測残差である復号値を符号化対象の三次元点以降の予測に利用する。具体的には、三次元データ符号化装置は、量子化後の予測残差(量子化値)に量子化スケールを乗算することで逆量子化値を算出し、逆量子化値と予測値とを加算して復号値(再構成値)を得る。
 例えば、点a2の逆量子化値a2iqは、点a2の量子化値a2qを用いて(式A11)により算出される。点b2の逆量子化値b2iqは、点b2の量子化値b2qを用いて(式A12)により算出される。ここで、QS_LoD0は、LoD0用のQSであり、QS_LoD1は、LoD1用のQSである。つまり、LoDに応じてQSが変更されてもよい。
 a2iq=a2q×QS_LoD0 ・・・(式A11)
 b2iq=b2q×QS_LoD1 ・・・(式A12)
 例えば、点a2の復号値a2recは、(式A13)に示すように、点a2の逆量子化値a2iqに、点a2の予測値a2pを加算することで算出される。点b2の復号値b2recは、(式A14)に示すように、点b2の逆量子化値b2iqに、点b2の予測値b2pを加算することで算出される。
 a2rec=a2iq+a2p ・・・(式A13)
 b2rec=b2iq+b2p ・・・(式A14)
 以下、本実施の形態に係るビットストリームのシンタックス例を説明する。図74は、本実施の形態に係る属性ヘッダ(attribute_header)のシンタックス例を示す図である。属性ヘッダは、属性情報のヘッダ情報である。図74に示すように、属性ヘッダは、階層数情報(NumLoD)と、三次元点数情報(NumOfPoint[i])と、階層閾値(Thres_Lod[i])と、周囲点数情報(NumNeighorPoint[i])と、予測閾値(THd[i])と、量子化スケール(QS[i])と、二値化閾値(R_TH[i])とを含む。
 階層数情報(NumLoD)は、用いられるLoDの階層数を示す。
 三次元点数情報(NumOfPoint[i])は、階層iに属する三次元点の数を示す。なお、三次元データ符号化装置は、三次元点の総数を示す三次元点総数情報(AllNumOfPoint)を別のヘッダに付加してもよい。この場合、三次元データ符号化装置は、最下層に属する三次元点の数を示すNumOfPoint[NumLoD-1]をヘッダに付加しなくてもよい。この場合、三次元データ復号装置は、(式A15)によりNumOfPoint[NumLoD-1]を算出できる。これにより、ヘッダの符号量を削減できる。
Figure JPOXMLDOC01-appb-M000004
 階層閾値(Thres_Lod[i])は、階層iの設定に用いられる閾値である。三次元データ符号化装置及び三次元データ復号装置は、LoDi内の各点の間の距離が閾値Thres_LoD[i]より大きくなるようにLoDiを構成する。また、三次元データ符号化装置は、Thres_Lod[NumLoD-1](最下層)の値をヘッダに付加しなくてもよい。この場合、三次元データ復号装置は、Thres_Lod[NumLoD-1]の値を0と推定する。これによりヘッダの符号量を削減できる。
 周囲点数情報(NumNeighorPoint[i])は、階層iに属する三次元点の予測値の生成に用いる周囲の点数の上限値を示す。三次元データ符号化装置は、周囲の点数MがNumNeighorPoint[i]に満たない場合(M<NumNeighorPoint[i])は、M個の周囲の点数を用いて予測値を算出してもよい。また、三次元データ符号化装置は、各LoDでNumNeighorPoint[i]の値を分ける必要がない場合は、全てのLoDで使用される1個の周囲点数情報(NumNeighorPoint)をヘッダに付加してもよい。
 予測閾値(THd[i])は、階層iにて符号化又は復号対象の対象三次元点の予測に用いる周囲の三次元点と対象三次元点との距離の上限値を示す。三次元データ符号化装置及び三次元データ復号装置は、対象三次元点からの距離がTHd[i]より離れている三次元点を予測に用いない。なお、三次元データ符号化装置は、各LoDでTHd[i]の値を分ける必要がない場合は、全てのLoDで使用される1個の予測閾値(THd)をヘッダに付加してもよい。
 量子化スケール(QS[i])は、階層iの量子化及び逆量子化で用いられる量子化スケールを示す。
 二値化閾値(R_TH[i])は、階層iに属する三次元点の予測残差の二値化方法を切替えるための閾値である。例えば、三次元データ符号化装置は、予測残差が閾値R_THより小さい場合は、固定ビット数で予測残差puを二値化し、予測残差が閾値R_TH以上の場合は、閾値R_THの二値化データと(pu-R_TH)の値を指数ゴロムを用いて二値化する。なお、各LoDでR_TH[i]の値を切替える必要がない場合は、三次元データ符号化装置は、全てのLoDで使用される1個の二値化閾値(R_TH)をヘッダに付加してもよい。
 なお、R_TH[i]はnbitで表せる最大値であってもよい。例えば6bitではR_THは63であり、8bitではR_THは255である。また、三次元データ符号化装置は、二値化閾値としてnbitで表せる最大値を符号化する代わりに、ビット数を符号化してもよい。例えば、三次元データ符号化装置は、R_TH[i]=63の場合は値6を、R_TH[i]=255の場合は値8をヘッダに付加してもよい。また、三次元データ符号化装置は、R_TH[i]を表すビット数の最小値(最小ビット数)を定義し、最小値からの相対ビット数をヘッダに付加してもよい。例えば、三次元データ符号化装置は、R_TH[i]=63で最小ビット数が6の場合は値0をヘッダに付加し、R_TH[i]=255で最小ビット数が6の場合は値2をヘッダに付加してもよい。
 また、三次元データ符号化装置は、NumLoD、Thres_Lod[i]、NumNeighborPoint[i]、THd[i]、QS[i]及びR_TH[i]の少なくとも一つをエントロピー符号化してヘッダに付加してもよい。例えば、三次元データ符号化装置は、各値を二値化して算術符号化してもよい。また、三次元データ符号化装置は、処理量を抑えるために各値を固定長で符号化してもよい。
 また、三次元データ符号化装置は、NumLoD、Thres_Lod[i]、NumNeighborPoint[i]、THd[i]、QS[i]、及びR_TH[i]の少なくとも一つをヘッダに付加しなくてもよい。例えば、これらのうちの少なくとも一つの値が、規格等のprofile又はlevel等で規定されてもよい。これによりヘッダのビット量を削減することができる。
 図75は、本実施の形態に係る属性データ(attribute_data)のシンタックス例を示す図である。この属性データは、複数の三次元点の属性情報の符号化データを含む。図75に示すように属性データは、nビット符号(n-bit code)と、残り符号(remaining code)とを含む。
 nビット符号は(n-bit code)は、属性情報の値の予測残差の符号化データ又はその一部である。nビット符号のビット長はR_TH[i]の値に依存する。例えばR_TH[i]の示す値が63の場合、nビット符号は6bitであり、R_TH[i]の示す値が255の場合、nビット符号は8bitである。
 残り符号(remaining code)は、属性情報の値の予測残差の符号化データのうち、指数ゴロムで符号化された符号化データである。この残り符号は、nビット符号がR_TH[i]と同じ場合に符号化又は復号される。また、三次元データ復号装置は、nビット符号の値と残り符号の値を加算して予測残差を復号する。なお、nビット符号がR_TH[i]と同じ値でない場合は、残り符号は符号化又は復号されなくてもよい。
 以下、三次元データ符号化装置における処理の流れを説明する。図76は、三次元データ符号化装置による三次元データ符号化処理のフローチャートである。
 まず、三次元データ符号化装置は、位置情報(geometry)を符号化する(S3001)。例えば、三次元データ符号化は、8分木表現を用いて符号化を行う。
 三次元データ符号化装置は、位置情報の符号化後に、量子化等によって三次元点の位置が変化した場合に、変化後の三次元点に元の三次元点の属性情報を再割り当てする(S3002)。例えば、三次元データ符号化装置は、位置の変化量に応じて属性情報の値を補間することで再割り当てを行う。例えば、三次元データ符号化装置は、変化後の三次元位置に近い変化前の三次元点をN個検出し、N個の三次元点の属性情報の値を重み付け平均する。例えば、三次元データ符号化装置は、重み付け平均において、変化後の三次元位置から各N個の三次元までの距離に基づいて重みを決定する。そして、三次元データ符号化装置は、重み付け平均により得られた値を変化後の三次元点の属性情報の値に決定する。また、三次元データ符号化装置は、量子化等によって2個以上の三次元点が同一の三次元位置に変化した場合は、その変化後の三次元点の属性情報の値として、変化前の2個以上の三次元点の属性情報の平均値を割当ててもよい。
 次に、三次元データ符号化装置は、再割り当て後の属性情報(Attribute)を符号化する(S3003)。例えば、三次元データ符号化装置は、複数種類の属性情報を符号化する場合は、複数種類の属性情報を順に符号化してもよい。例えば、三次元データ符号化装置は、属性情報として、色と反射率とを符号化する場合は、色の符号化結果の後に反射率の符号化結果を付加したビットストリームを生成してもよい。なお、ビットストリームに付加される属性情報の複数の符号化結果の順番は、この順に限らず、どのような順番でもよい。
 また、三次元データ符号化装置は、ビットストリーム内の各属性情報の符号化データ開始場所を示す情報をヘッダ等に付加してもよい。これにより、三次元データ復号装置は、復号が必要な属性情報を選択的に復号できるので、復号が不必要な属性情報の復号処理を省略できる。よって、三次元データ復号装置の処理量を削減できる。また、三次元データ符号化装置は、複数種類の属性情報を並列に符号化し、符号化結果を1つのビットストリームに統合してもよい。これにより、三次元データ符号化装置は、高速に複数種類の属性情報を符号化できる。
 図77は、属性情報符号化処理(S3003)のフローチャートである。まず、三次元データ符号化装置は、LoDを設定する(S3011)。つまり、三次元データ符号化装置は、各三次元点を複数のLoDのいずれかに割り当てる。
 次に、三次元データ符号化装置は、LoD単位のループを開始する(S3012)。つまり、三次元データ符号化装置は、LoD毎にステップS3013~S3021の処理を繰り返し行う。
 次に、三次元データ符号化装置は、三次元点単位のループを開始する(S3013)。つまり、三次元データ符号化装置は、三次元点毎にステップS3014~S3020の処理を繰り返し行う。
 まず、三次元データ符号化装置は、処理対象の対象三次元点の予測値の算出に用いる、対象三次元点の周囲に存在する三次元点である複数の周囲点を探索する(S3014)。次に、三次元データ符号化装置は、複数の周囲点の属性情報の値の重み付け平均を算出し、得られた値を予測値Pに設定する(S3015)。次に、三次元データ符号化装置は、対象三次元点の属性情報と予測値との差分である予測残差を算出する(S3016)。次に、三次元データ符号化装置は、予測残差を量子化することで量子化値を算出する(S3017)。次に、三次元データ符号化装置は、量子化値を算術符号化する(S3018)。
 また、三次元データ符号化装置は、量子化値を逆量子化することで逆量子化値を算出する(S3019)。次に、三次元データ符号化装置は、逆量子化値に予測値を加算することで復号値を生成する(S3020)。次に、三次元データ符号化装置は、三次元点単位のループを終了する(S3021)。また、三次元データ符号化装置は、LoD単位のループを終了する(S3022)。
 以下、上記の三次元データ符号化装置により生成されたビットストリームを復号する三次元データ復号装置における三次元データ復号処理について説明する。
 三次元データ復号装置は、三次元データ符号化装置によって生成されたビットストリーム内の属性情報の二値化データを、三次元データ符号化装置と同様の方法で算術復号することで、復号された二値化データを生成する。なお、三次元データ符号化装置において、nビットで二値化した部分(nビット符号)と、指数ゴロムを用いて二値化した部分(残り符号)とで算術符号化の適用方法を切替えた場合は、三次元データ復号装置は、算術復号適用時に、それに合わせて復号を行う。
 例えば、三次元データ復号装置は、nビット符号の算術復号方法において、ビット毎に異なる符号化テーブル(復号テーブル)を用いて算術復号を行う。この際、三次元データ復号装置は、ビット毎に使用する符号化テーブルの数を変えてもよい。例えば、nビット符号の先頭ビットb0には1個の符号化テーブルを用いて算術復号を行う。また、三次元データ復号装置は、次のビットb1に対しては2個の符号化テーブルを用いる。また、三次元データ復号装置は、b0の値(0又は1)に応じてビットb1の算術復号に用いる符号化テーブルを切替える。同様に、三次元データ復号装置は、更に次のビットb2に対しては4個の符号化テーブルを用いる。また、三次元データ復号装置は、b0及びb1の値(0~3)に応じて、ビットb2の算術復号に用いる符号化テーブルを切替える。
 このように、三次元データ復号装置は、nビット符号の各ビットbn-1を算術復号する際に、2n-1個の符号化テーブルを用いる。また、三次元データ復号装置は、bn-1より前のビットの値(発生パターン)に応じて、使用する符号化テーブルを切替える。これにより、三次元データ復号装置は、ビット毎に適切な符号化テーブルを使用して符号化効率を向上したビットストリームを適切に復号できる。
 なお、三次元データ復号装置は、各ビットで使用する符号化テーブルの数を削減してもよい。例えば、三次元データ復号装置は、各ビットbn-1を算術復号する際に、bn-1より前のmビット(m<n-1)の値(発生パターン)に応じて2個の符号化テーブルを切替えてもよい。これにより、三次元データ復号装置は、各ビットで使用する符号化テーブルの数を抑えつつ、符号化効率を向上したビットストリームを適切に復号できる。なお、三次元データ復号装置は、各符号化テーブルにおける0と1の発生確率を、実際に発生した二値化データの値に応じて更新してもよい。また、三次元データ復号装置は、一部のビットの符号化テーブルにおける0と1の発生確率を固定化してもよい。これにより、発生確率の更新回数を抑制できるので処理量を削減できる。
 例えば、nビット符号がb0b1b2…bn-1である場合、b0用の符号化テーブルは1個(CTb0)である。b1用の符号化テーブルは2個(CTb10、CTb11)である。また、b0の値(0~1)に応じて符号化テーブルが切替えられる。b2用の符号化テーブルは4個(CTb20、CTb21、CTb22、CTb23)である。また、b0及びb1の値(0~3)に応じて符号化テーブルが切替えられる。bn-1用の符号化テーブルは、2n-1個(CTbn0、CTbn1、…、CTbn(2n-1-1))である。また、b0b1…bn-2の値(0~2n-1-1)に応じて符号化テーブルが切替えられる。
 図78は、例えば、残り符号が指数ゴロム符号である場合の処理を説明するための図である。三次元データ符号化装置が指数ゴロムを用いて二値化して符号化した部分(残り符号)は、図78に示すようにprefix部とsuffix部とを含む。例えば、三次元データ復号装置は、prefix部とsuffix部とで符号化テーブルを切替える。つまり、三次元データ復号装置は、prefix部に含まれる各ビットを、prefix用の符号化テーブルを用いて算術復号し、suffix部に含まれる各ビットを、suffix用の符号化テーブルを用いて算術復号する。
 なお、三次元データ復号装置は、各符号化テーブルにおける0と1の発生確率を、復号時に発生した二値化データの値に応じて更新してもよい。または、三次元データ復号装置は、どちらかの符号化テーブルにおける0と1の発生確率を固定化してもよい。これにより、発生確率の更新回数を抑制できるので処理量を削減できる。例えば、三次元データ復号装置は、prefix部に対して発生確率を更新し、suffix部に対して発生確率を固定化してもよい。
 また、三次元データ復号装置は、算術復号した予測残差の二値化データを、三次元データ符号化装置で用いられた符号化方法に合わせて多値化することで量子化後の予測残差(符号なし整数値)を復号する。三次元データ復号装置は、まずnビット符号の二値化データを算術復号することで復号したnビット符号の値を算出する。次に、三次元データ復号装置は、nビット符号の値とR_THの値とを比較する。
 三次元データ復号装置は、nビット符号の値とR_THの値とが一致した場合、指数ゴロムで符号化されたビットが次に存在すると判定し、指数ゴロムで符号化された二値化データである残り符号を算術復号する。そして、三次元データ復号装置は、復号した残り符号から、残り符号とその値との関係を示す逆引きテーブルを用いて残り符号の値を算出する。図79は、残り符号とその値との関係を示す逆引きテーブルの例を示す図である。次に、三次元データ復号装置は、得られた残り符号の値をR_THに加算することで多値化された量子化後の予測残差を得る。
 一方、三次元データ復号装置は、nビット符号の値とR_THの値とが一致しない(R_THより値が小さい)場合、nビット符号の値をそのまま、多値化された量子化後の予測残差に決定する。これにより、三次元データ復号装置は、三次元データ符号化装置で予測残差の値に応じて二値化方法を切替えて生成したビットストリームを適切に復号できる。
 なお、三次元データ復号装置は、閾値R_THがビットストリームのヘッダ等に付加されている場合は、閾値R_THの値をヘッダから復号し、復号した閾値R_THの値を用いて復号方法を切替えてもよい。また、三次元データ復号装置は、LoD毎に閾値R_THがヘッダ等に付加されている場合、LoD毎に復号した閾値R_THを用いて復号方法を切替える。
 例えば、閾値R_THが63であり、復号したnビット符号の値が63である場合、三次元データ復号装置は、残り符号を指数ゴロムにより復号することで残り符号の値を得る。例えば、図79に示す例では、残り符号が00100であり、残り符号の値として3が得られる。次に、三次元データ復号装置は、閾値R_THの値63と、残り符号の値3とを加算することで予測残差の値66を得る。
 また、復号したnビット符号の値が32である場合、三次元データ復号装置は、nビット符号の値32を予測残差の値に設定する。
 また、三次元データ復号装置は、復号した量子化後の予測残差を、例えば、三次元データ符号化装置における処理と逆の処理により、符号なし整数値から符号付整数値に変換する。これにより、三次元データ復号装置は、予測残差をエントロピー符号化する場合に、負の整数の発生を考慮せずに生成したビットストリームを適切に復号できる。なお、三次元データ復号装置は、必ずしも符号なし整数値を符号付整数値に変換する必要はなく、例えば符号ビットを別途エントロピー符号化して生成されたビットストリームを復号する場合は、符号ビットを復号してもよい。
 三次元データ復号装置は、符号付整数値に変換した量子化後の予測残差を、逆量子化及び再構成によって復号することで復号値を生成する。また、三次元データ復号装置は、生成した復号値を、復号対象の三次元点以降の予測に利用する。具体的には、三次元データ復号装置は、量子化後の予測残差に、復号した量子化スケールを乗算することで逆量子化値を算出し、逆量子化値と予測値とを加算して復号値を得る。
 復号された符号なし整数値(符号なし量子化値)は、以下の処理により符号付整数値に変換される。三次元データ復号装置は、復号された符号なし整数値a2uのLSB(least significant bit)が1である場合、符号付整数値a2qを-((a2u+1)>>1)に設定する。三次元データ復号装置は、符号なし整数値a2uのLSBが1でない場合、符号付整数値a2qを(a2u>>1)に設定する。
 同様に、三次元データ復号装置は、復号された符号なし整数値b2uのLSBが1である場合、符号付整数値b2qを-((b2u+1)>>1)に設定する。三次元データ復号装置は、符号なし整数値n2uのLSBが1でない場合、符号付整数値b2qを(b2u>>1)に設定する。
 また、三次元データ復号装置による逆量子化及び再構成処理の詳細は、三次元データ符号化装置における逆量子化及び再構成処理と同様である。
 以下、三次元データ復号装置における処理の流れを説明する。図80は、三次元データ復号装置による三次元データ復号処理のフローチャートである。まず、三次元データ復号装置は、ビットストリームから位置情報(geometry)を復号する(S3031)。例えば、三次元データ復号装置は、8分木表現を用いて復号を行う。
 次に、三次元データ復号装置は、ビットストリームから属性情報(Attribute)を復号する(S3032)。例えば、三次元データ復号装置は、複数種類の属性情報を復号する場合は、複数種類の属性情報を順に復号してもよい。例えば、三次元データ復号装置は、属性情報として色と反射率とを復号する場合は、ビットストリームに付加されている順に従い、色の符号化結果と反射率の符号化結果とを復号する。例えば、ビットストリームにおいて、色の符号化結果の後に反射率の符号化結果が付加されている場合、三次元データ復号装置は、色の符号化結果を復号し、その後に反射率の符号化結果を復号する。なお、三次元データ復号装置は、ビットストリームに付加される属性情報の符号化結果をどのような順番で復号してもよい。
 また、三次元データ復号装置は、ビットストリーム内の各属性情報の符号化データ開始場所を示す情報を、ヘッダ等を復号することで取得してもよい。これにより、三次元データ復号装置は、復号が必要な属性情報を選択的に復号できるので、復号が不必要な属性情報の復号処理を省略できる。よって、三次元データ復号装置の処理量を削減できる。また、三次元データ復号装置は、複数種類の属性情報を並列に復号し、復号結果を1つの三次元点群に統合してもよい。これにより、三次元データ復号装置は、高速に複数種類の属性情報を復号できる。
 図81は、属性情報復号処理(S3032)のフローチャートである。まず、三次元データ復号装置は、LoDを設定する(S3041)。つまり、三次元データ復号装置は、復号された位置情報を有する複数の三次元点の各々を複数のLoDのいずれかに割り当てる。例えば、この割り当て方法は、三次元データ符号化装置で用いられた割り当て方法と同じ方法である。
 次に、三次元データ復号装置は、LoD単位のループを開始する(S3042)。つまり、三次元データ復号装置は、LoD毎にステップS3043~S3049の処理を繰り返し行う。
 次に、三次元データ復号装置は、三次元点単位のループを開始する(S3043)。つまり、三次元データ復号装置は、三次元点毎にステップS3044~S3048の処理を繰り返し行う。
 まず、三次元データ復号装置は、処理対象の対象三次元点の予測値の算出に用いる、対象三次元点の周囲に存在する三次元点である複数の周囲点を探索する(S3044)。次に、三次元データ復号装置は、複数の周囲点の属性情報の値の重み付け平均を算出し、得られた値を予測値Pに設定する(S3045)。なお、これらの処理は三次元データ符号化装置における処理と同様である。
 次に、三次元データ復号装置は、ビットストリームから量子化値を算術復号する(S3046)。また、三次元データ復号装置は、復号した量子化値を逆量子化することで逆量子化値を算出する(S3047)。次に、三次元データ復号装置は、逆量子化値に予測値を加算することで復号値を生成する(S3048)。次に、三次元データ復号装置は、三次元点単位のループを終了する(S3049)。また、三次元データ復号装置は、LoD単位のループを終了する(S3050)。
 次に、本実施の形態に係る三次元データ符号化装置及び三次元データ復号装置の構成を説明する。図82は、本実施の形態に係る三次元データ符号化装置3000の構成を示すブロック図である。この三次元データ符号化装置3000は、位置情報符号化部3001と、属性情報再割り当て部3002と、属性情報符号化部3003とを備える。
 属性情報符号化部3003は、入力点群に含まれる複数の三次元点の位置情報(geometry)を符号化する。属性情報再割り当て部3002は、入力点群に含まれる複数の三次元点の属性情報の値を、位置情報の符号化及び復号結果を用いて再割り当てする。属性情報符号化部3003は、再割り当てされた属性情報(attribute)を符号化する。また、三次元データ符号化装置3000は、符号化された位置情報及び符号化された属性情報を含むビットストリームを生成する。
 図83は、本実施の形態に係る三次元データ復号装置3010の構成を示すブロック図である。この三次元データ復号装置3010は、位置情報復号部3011と、属性情報復号部3012とを含む。
 位置情報復号部3011は、ビットストリームから複数の三次元点の位置情報(geometry)を復号する。属性情報復号部3012は、ビットストリームから複数の三次元点の属性情報(attribute)を復号する。また、三次元データ復号装置3010は、復号した位置情報と復号した属性情報とを結合することで出力点群を生成する。
 以上のように、本実施の形態に係る三次元データ符号化装置は、図84に示す処理を行う。三次元データ符号化装置は、属性情報を有する三次元点を符号化する。まず、三次元データ符号化装置は、三次元点の属性情報の予測値を算出する(S3061)。次に、三次元データ符号化装置は、三次元点の属性情報と、予測値との差分である予測残差を算出する(S3062)。次に、三次元データ符号化装置は、予測残差を二値化することで二値データを生成する(S3063)。次に、三次元データ符号化装置は、二値データを算術符号化する(S3064)。
 これによれば、三次元データ符号化装置は、属性情報の予測残差を算出し、さらに、当該予測残差を二値化及び算術符号化することで、属性情報の符号化データの符号量を削減できる。
 例えば、算術符号化(S3064)では、三次元データ符号化装置は、二値データのビット毎に異なる符号化テーブルを用いる。これによれば、三次元データ符号化装置は、符号化効率を向上できる。
 例えば、算術符号化(S3064)では、二値データの下位ビットほど、使用する符号化テーブルの数が多い。
 例えば、算術符号化(S3064)では、三次元データ符号化装置は、二値データに含まれる対象ビットの上位ビットの値に応じて、対象ビットの算術符号化に使用する符号化テーブルを選択する。これによれば、三次元データ符号化装置は、上位ビットの値に応じて符号化テーブルを選択できるので符号化効率を向上できる。
 例えば、三次元データ符号化装置は、二値化(S3063)では、予測残差が閾値(R_TH)より小さい場合、固定ビット数で予測残差を二値化することで二値データを生成し、予測残差が閾値(R_TH)以上である場合、閾値(R_TH)を示す固定ビット数の第1符号(nビット符号)と、予測残差から閾値(R_TH)を減算した値を指数ゴロムで二値化した第2符号(残り符号)とを含む二値データを生成する。三次元データ符号化装置は、算術符号化(S3064)では、第1符号と第2符号とに異なる算術符号化方法を用いる。
 これによれば、三次元データ符号化装置は、例えば、第1符号と第2符号との各々に適した算術符号化方法により第1符号と第2符号を算術符号化できるので符号化効率を向上できる。
 例えば、三次元データ符号化装置は、予測残差を量子化し、二値化(S3063)では、量子化された予測残差を二値化する。閾値(R_TH)は、量子化における量子化スケールに応じて変更される。これによれば、三次元データ符号化装置は、量子化スケールに応じた適切な閾値を用いることができるので符号化効率を向上できる。
 例えば、第2符号は、prefix部と、suffix部とを含む。三次元データ符号化装置は、算術符号化(S3064)では、prefix部とsuffix部とに異なる符号化テーブルを用いる。これによれば、三次元データ符号化装置は、符号化効率を向上できる。
 例えば、三次元データ符号化装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 また、本実施の形態に係る三次元データ復号装置は、図85に示す処理を行う。三次元データ復号装置は、属性情報を有する三次元点を復号する。まず、三次元データ復号装置は、三次元点の属性情報の予測値を算出する(S3071)。次に、三次元データ復号装置は、ビットストリームに含まれる符号化データを算術復号することで二値データを生成する(S3072)。次に、三次元データ復号装置は、二値データを多値化することで予測残差を生成する(S3073)。次に、三次元データ復号装置は、予測値と予測残差とを加算することで、三次元点の属性情報の復号値を算出する(S3074)。
 これによれば、三次元データ復号装置は、属性情報の予測残差を算出し、さらに、当該予測残差を二値化及び算術符号化することで生成された属性情報のビットストリームを適切に復号できる。
 例えば、算術復号(S3072)では、三次元データ復号装置は、二値データのビット毎に異なる符号化テーブルを用いる。これによれば、三次元データ復号装置は、符号化効率が向上されたビットストリームを適切に復号できる。
 例えば、算術復号(S3072)では、二値データの下位ビットほど、使用する符号化テーブルの数が多い。
 例えば、算術復号(S3072)では、三次元データ復号装置は、二値データに含まれる対象ビットの上位ビットの値に応じて、対象ビットの算術復号に使用する符号化テーブルを選択する。これによれば、三次元データ復号装置は、符号化効率が向上されたビットストリームを適切に復号できる。
 例えば、三次元データ復号装置は、多値化(S3073)では、二値データに含まれる固定ビット数の第1符号(nビット符号)を多値化することで第1の値を生成する。三次元データ復号装置は、第1の値が閾値(R_TH)より小さい場合、第1の値を予測残差に決定し、第1の値が閾値(R_TH)以上の場合、二値データに含まれる指数ゴロム符号である第2符号(残り符号)を多値化することで第2の値を生成し、第1の値と第2の値とを加算することで予測残差を生成する。三次元データ復号装置は、算術復号(S3072)では、第1符号と第2符号とに異なる算術復号方法を用いる。
 これによれば、三次元データ復号装置は、符号化効率が向上されたビットストリームを適切に復号できる。
 例えば、三次元データ復号装置は、予測残差を逆量子化し、加算(S3074)では、予測値と、逆量子化された予測残差とを加算する。閾値(R_TH)は、逆量子化における量子化スケールに応じて変更される。これによれば、三次元データ復号装置は、符号化効率が向上されたビットストリームを適切に復号できる。
 例えば、第2符号は、prefix部と、suffix部とを含む。三次元データ復号装置は、算術復号(S3072)では、prefix部とsuffix部とに異なる符号化テーブルを用いる。これによれば、三次元データ復号装置は、符号化効率が向上されたビットストリームを適切に復号できる。
 例えば、三次元データ復号装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 (実施の形態10)
 実施の形態9とは別の手法で予測値を生成してもよい。以下では、符号化対象の三次元点を第1三次元点と称し、その周囲の三次元点を第2三次元点と称する場合がある。
 例えば、三次元点の属性情報の予測値の生成において、符号化対象の三次元点の符号化済みかつ復号済みの周囲の三次元点のうち、最も距離が近い三次元点の属性値をそのまま予測値として生成しても構わない。また、予測値の生成では、予測モード情報(PredMode)を三次元点毎に付加し、複数の予測値から1つの予測値を選択することで予測値を生成できるようにしても構わない。つまり、例えば、総数Mの予測モードにおいて、予測モード0に平均値、予測モード1に三次元点Aの属性値、・・・、予測モードM-1に三次元点Zの属性値を割り当て、予測に使用した予測モードを三次元点毎にビットストリームに付加することが考えられる。このように、周囲の三次元点の属性情報の平均が予測値として算出される第1予測モードを示す第1予測モード値は、周囲の三次元点の属性情報そのものが予測値として算出される第2予測モードを示す第2予測モード値よりも小さくてもよい。ここで、予測モード0において算出される予測値である「平均値」は、符号化対象の三次元点の周囲の三次元点の属性値の平均値である。
 図86は、実施の形態10に係る各予測モードにおいて算出される予測値を示すテーブルの第1の例を示す図である。図87は、実施の形態10に係る予測値に用いる属性情報の例を示す図である。図88は、実施の形態10に係る各予測モードにおいて算出される予測値を示すテーブルの第2の例を示す図である。
 予測モード数Mは、ビットストリームに付加されても構わない。また、予測モード数Mは、ビットストリームに付加されずに規格のprofile、level等で値が規定されても構わない。また、予測モード数Mは、予測に用いる三次元点数Nから算出された値が用いられても構わない。例えば予測モード数Mは、M=N+1により算出されても構わない。
 なお、図86に示されるテーブルは、予測に用いる三次元点数N=4、かつ、予測モード数M=5の場合の例である。点b2の属性情報の予測値は、点a0、a1、a2、b1の属性情報を用いて生成され得る。複数の予測モードから1つの予測モードを選択する場合、点b2からの各点a0、a1、a2、b1までの距離情報を元に、各点a0、a1、a2、b1の属性値を予測値として生成する予測モードを選択してもよい。予測モードは、符号化対象の三次元点毎に付加される。予測値は、付加された予測モードに応じた値に応じて算出される。
 図88に示されるテーブルは、図86と同様に、予測に用いる三次元点数N=4、かつ、予測モード数M=5の場合の例である。点a2の属性情報の予測値は、点a0、a1の属性情報を用いて生成され得る。複数の予測モードから1つの予測モードを選択する場合、点a2のからの各店a0、a1までの距離情報を元に、各点a0、a1の属性値を予測値として生成する予測モードを選択してもよい。予測モードは、符号化対象の三次元点毎に付加される。予測値は、付加された予測モードに応じた値に応じて算出される。
 なお、上記の点a2のように隣接点数、つまり、周囲の三次元点数Nが4個に満たない場合、テーブルにおいて予測値が未割当てである予測モードをnot availableとしてもよい。
 なお、予測モードの値の割当ては、符号化対象の三次元点からの距離順で決定しても構わない。例えば、複数の予測モードを示す予測モード値は、予測値として用いる属性情報を有する周囲の三次元点までの符号化対象の三次元点からの距離が近いほど小さい。図86の例では、点b1、a2、a1、a0の順に符号化対象の三次元点である点b2への距離が近いことが示される。例えば、予測値の算出では、2以上の予測モードのうちの予測モード値が「1」で示される予測モードにおいて点b1の属性情報を予測値として算出し、予測モード値が「2」で示される予測モードにおいて点a2の属性情報を予測値として算出する。このように、点b1の属性情報を予測値として算出する予測モードを示す予測モード値は、点b2からの距離が点b1よりも遠い位置にある点a2の属性情報を予測値として算出する予測モードを示す予測モード値よりも小さい。
 これにより、距離が近いため予測が当たりやすく選ばれやすい可能性のある点に小さい予測モード値を割り振ることができ、予測モード値を符号化するためのビット数を削減することができる。また、符号化対象の三次元点と同一のLoDに属する三次元点に優先的に小さい予測モード値を割当ててもよい。
 図89は、実施の形態10に係る各予測モードにおいて算出される予測値を示すテーブルの第3の例を示す図である。具体的には、第3の例は、予測値に用いられる属性情報が周囲の三次元点の色情報(YUV)による値である場合の例である。このように、予測値に用いられる属性情報は、三次元点の色を示す色情報であってもよい。
 図89に示されるように、予測モード値が「0」で示される予測モードにおいて算出される予測値は、YUV色空間を定義するYUVそれぞれの成分の平均である。具体的には、当該予測値は、点b1、a2、a1、a0にそれぞれ対応するY成分の値であるYb1、Ya2、Ya1、Ya0の重み付き平均Yaveと、点b1、a2、a1、a0にそれぞれ対応するU成分の値であるUb1、Ua2、Ua1、Ua0の重み付き平均Uaveと、点b1、a2、a1、a0にそれぞれ対応するV成分の値であるVb1、Va2、Va1、Va0の重み付き平均Vaveと、を含む。また、予測モード値が「1」~「4」で示される予測モードにおいて算出される予測値は、それぞれ、周囲の三次元点b1、a2、a1、a0の色情報を含む。色情報は、Y成分、U成分およびV成分の値の組み合わせで示される。
 なお、図89では、色情報は、YUV色空間で定義される値で示されているが、YUV色空間に限らずに、RGB色空間で定義される値で示されてもよいし、他の色空間で定義される値で示されてもよい。
 このように、予測値の算出では、予測モードの予測値として、2以上の平均または属性情報を算出してもよい。また、2以上の平均または属性情報は、それぞれ、色空間を定義する2以上の成分の値を示していてもよい。
 なお、例えば、図89のテーブルにおいて予測モード値が「2」で示される予測モードが選択された場合、符号化対象の三次元点の属性値のY成分、U成分およびV成分をそれぞれ予測値Ya2,Ua2,Va2として用いて符号化してもよい。この場合、予測モード値としての「2」がビットストリームに付加される。
 図90は、実施の形態10に係る各予測モードにおいて算出される予測値を示すテーブルの第4の例を示す図である。具体的には、第4の例は、予測値に用いられる属性情報が周囲の三次元点の反射率情報による値である場合の例である。反射率情報は、例えば、反射率Rを示す情報である。
 図90に示されるように、予測モード値が「0」で示される予測モードにおいて算出される予測値は、点b1、a2、a1、a0にそれぞれ対応する反射率Rb1、Ra2、Ra1、Ra0の重み付き平均Raveである。また、予測モード値が「1」~「4」で示される予測モードにおいて算出される予測値は、それぞれ、周囲の三次元点b1、a2、a1、a0の反射率Rb1、Ra2、Ra1、Ra0である。
 なお、例えば、図90のテーブルにおいて予測モード値が「3」で示される予測モードが選択された場合、符号化対象の三次元点の属性値の反射率を予測値Ra1として用いて符号化してもよい。この場合、予測モード値としての「3」がビットストリームに付加される。
 図89および図90で示されるように、属性情報は、第1属性情報と、第1属性情報とは異なる種類の第2属性情報とを含んでいてもよい。第1属性情報は、例えば、色情報である。第2属性情報は、例えば、反射率情報である。予測値の算出では、第1属性情報を用いて第1予測値を算出し、かつ、第2属性情報を用いて第2予測値を算出してもよい。
 (実施の形態11)
 三次元点の属性情報をLoDの情報を用いて符号化する別の例として、LoDの最下層に含まれる三次元点から順に複数の三次元点を符号化する方法を説明する。例えば、三次元データ符号化装置は、LoDの最下層LoDnに含まれる三次元点から順に複数の三次元点を符号化する場合、LoDnに含まれる三次元点の予測値を、LoDnより上位層のLoDに含まれる三次元点の属性情報を用いて算出してもよい。
 図91は、参照関係の例を示す図である。例えば、図91に示す例の場合、三次元データ符号化装置は、LoD2に含まれる三次元点の予測値を、LoD0又はLoD1に含まれる三次元点の属性情報を用いて算出する。また、三次元データ符号化装置は、LoD1に含まれる三次元点の予測値を、LoD0に含まれる三次元点の属性情報を用いて算出する。この場合、LoD0又はLoD1は必ずしも符号化かつ復号済みの属性情報でなくてもよい。この場合、三次元データ符号化装置は、例えば符号化前の値を用いてもよい。
 このように、三次元データ符号化装置は、LoDnに含まれる三次元点の属性情報の予測値を、LoDn’(n’<n)に含まれる属性情報を用いて生成してもよい。これにより、LoDnに含まれる複数の三次元点はお互いを参照しないため、三次元データ符号化装置は、LoDnに含まれる複数の三次元点の予測値を並列に算出できる。
 例えば、三次元データ符号化装置は、三次元点の属性情報の予測値を、符号化対象の対象三次元点の周囲の三次元点のうち、N個以下の三次元点の属性値の平均を算出することで生成する。また、三次元データ符号化装置は、Nの値を、ビットストリームのヘッダ等に付加してもよい。なお、三次元データ符号化装置は、Nの値を三次元点毎に変更し、三次元点毎にNの値を付加してもよい。これにより、三次元点毎に適切なNを選択できるので、予測値の精度を向上できる。よって、予測残差を小さくできる。また、三次元データ符号化装置は、Nの値をビットストリームのヘッダに付加し、ビットストリーム内でNの値を固定してもよい。これにより、三次元点毎にNの値を符号化、又は復号する必要がなくなるので、処理量を削減できる。また、三次元データ符号化装置は、LoD毎にNの値を別々に符号化してもよい。これによりLoD毎に適切なNを選択することで符号化効率を向上できる。
 または、三次元データ符号化装置は、三次元点の属性情報の予測値を、周囲のN個の三次元点の属性情報の重み付け平均値により算出してもよい。例えば、三次元データ符号化装置は、対象三次元点と周囲のN個の三次元点とのそれぞれの距離情報を用いて重みを算出する。
 三次元データ符号化装置は、LoD毎にNの値を別々に符号化する場合、例えばLoDの上位層ほどNの値を大きく設定し、下位層ほどNの値を小さく設定する。LoDの上位層に属する三次元点間の距離は、LoDの上位層に属する三次元点間の距離より離れる。よって、上位層では、Nの値を大きく設定することで、周囲の多くの三次元点を平均化することで予測精度を向上できる可能性がある。また、LoDの下位層に属する三次元点間の距離は近い。よって、下位層では、Nの値を小さく設定することで、平均化の処理量を抑えつつ、効率的な予測を行うことが可能となる。
 上述したように、LoDNに含まれる点Pの予測値は、LoDN’(N’<=N)に含まれる符号化済みの周囲点P’を用いて生成される。ここで、周囲点P’は、点Pとの距離に基づき選択される。例えば、図91に示す点b2の属性情報の予測値は、点a0、a1、a2の属性情報を用いて生成される。
 上述したNの値に応じて、選択される周囲の点は変化する。例えばN=3の場合は点b2の周囲点として点a0、a1、a2が選択される。N=2の場合は距離情報を元に点a1、a2が選択される。
 予測値は、距離依存の重み付け平均により算出される。例えば、図91に示す例では、点b2の予測値b2pは、(式J1)及び(式J2)に示すように、点a0及び点a1の属性情報の重み付け平均により算出される。なお、Aは点aiの属性情報の値である。また、d(p,q)は、例えば、三次元点pと三次元点qとのユークリッド距離である。
Figure JPOXMLDOC01-appb-M000005
 また、点aNの予測値aNpは、(式J3)及び(式J4)に示すように、点aN-4、aN-3、aN-2、aN-1の属性情報の重み付け平均により算出される。
Figure JPOXMLDOC01-appb-M000006
 また、三次元データ符号化装置は、三次元点の属性情報の値と、周囲点から生成した予測値との差分値(予測残差)を算出し、算出した予測残差を量子化してもよい。例えば、三次元データ符号化装置は、予測残差を量子化スケール(量子化ステップとも呼ぶ)で除算することで量子化を行う。この場合、量子化スケールが小さいほど量子化によって発生しうる誤差(量子化誤差)が小さくなる。逆に量子化スケールが大きいほど量子化誤差は大きくなる。
 なお、三次元データ符号化装置は、使用する量子化スケールをLoD毎に変えてもよい。例えば、三次元データ符号化装置は、上位層ほど量子化スケールを小さくし、下位層ほど量子化スケールを大きくする。上位層に属する三次元点の属性情報の値は、下位層に属する三次元点の属性情報の予測値として使用される可能性があるため、上位層の量子化スケールを小さくして上位層で発生しうる量子化誤差を抑え、予測値の精度を高めることで符号化効率を向上できる。なお、三次元データ符号化装置は、LoD毎に使用する量子化スケールをヘッダ等に付加してもよい。これにより、三次元データ復号装置は、正しく量子化スケールを復号できるので、ビットストリームを適切に復号できる。
 また、三次元データ符号化装置は、使用する量子化スケールを、対象三次元点の重要度に応じて適応的に切替えてもよい。例えば、三次元データ符号化装置は、重要度が高い三次元点には小さい量子化スケールを用い、重要度が低い三次元点には大きい量子化スケールを用いる。ここで重要度は、例えば、対象三次元点が他の三次元点から予測値の算出時に参照された回数、又はその際の重み等から算出されてもよい。例えば、重要度として、下記QW(Quantization Weight)の値を用いられる。三次元データ符号化装置は、重要度が高い三次元点のQWの値を大きく設定し、量子化スケールを小さくする。これにより、重要度が高い三次元点の量子化誤差が小さくなるので、符号化効率を改善できる。
 図92は、QWの算出例を示す図である。QS(量子化ステップ)は、LoDに応じて変更されてもよい。QS_LoD0は、LoD0用のQSであり、QS_LoD1は、LoD1用のQSである。
 QWは、対象三次元点の重要度を表す値である。例えば、点b2が点c0の予測値の算出に用いられた場合、点c0のQWの値に、点c0の予測値の生成時に算出した点b2に対する重みWb2_c0を乗じ、得られた値を点b2のQWの値に加算してもよい。これにより、予測値の生成に多く用いられた三次元点のQWの値が大きくなり、その三次元点の量子化誤差を抑えることで予測効率を改善できる。
 例えば、三次元データ符号化装置は、最初に全ての三次元点のQWの値を1で初期化し、予測構造に従って各三次元点のQWを更新してもよい。または、三次元データ符号化装置は、全ての三次元点のQWを値1で初期化せずに、LoDの階層に応じて初期値を変更してもよい。例えば、三次元データ符号化装置は、上位層ほどQWの初期値を大きく設定することで上位層の量子化スケールを小さくしてもよい。これにより、上位層の予測誤差を抑えることができるので下位層の予測精度を高め、符号化効率を改善できる。
 また、三次元データ符号化装置は、量子化後の予測残差である符号付整数値(符号付量子化値)を符号なし整数値(符号なし量子化値)に変換してもよい。これにより予測残差をエントロピー符号化する場合に、負の整数の発生を考慮する必要がなくなる。なお、三次元データ符号化装置は、必ずしも符号付整数値を符号なし整数値に変換する必要はなく、例えば符号ビットを別途エントロピー符号化してもよい。
 図93は、予測残差の算出例を示す図である。予測残差は、元の値から予測値を減算することにより算出される。例えば、点b2の予測残差b2rは、(式J5)に示すように、点b2の属性情報の値Bから、点b2の予測値b2pを減算することで算出される。
 b2r=B-b2p ・・・(式J5)
 また、予測残差は、QS(量子化ステップ(Quantization Step))で除算されることで量子化される。例えば、点b2の量子化値b2qは、(式J6)により算出される。ここで、QS_LoD1は、LoD1用のQSである。つまり、LoDに応じてQSが変更されてもよい。
 b2q=b2r/QS_LoD1 ・・・(式J6)
 また、上述したようにQWを用いる場合、点b2の量子化値b2qは、(式J7)及び(式J8)により算出される。
Figure JPOXMLDOC01-appb-M000007
 また、三次元データ符号化装置は、以下のように、上記量子化値である符号付整数値を符号なし整数値に変換する。三次元データ符号化装置は、符号付整数値b2qが0より小さい場合、符号なし整数値b2uを-1-(2×b2q)に設定する。三次元データ符号化装置は、符号付整数値b2qが0以上の場合、符号なし整数値b2uを2×b2qに設定する。
 また、三次元データ符号化装置は、量子化後の予測残差(符号なし整数値)を、ある順番に応じてスキャンし、符号化する。例えば、三次元データ符号化装置は、LoDの上位層に含まれる三次元点から順に下位層に向かって複数の三次元点を符号化する。
 図94は、この符号化の例を示す図である。図94に示す例の場合、三次元データ符号化装置は、上位層LoD0に含まれる点a0からa1、a2、b0、b1、b2、c0、c1、c2、…、cNの順で複数の三次元点を符号化する。ここで、下位層のLoDほど、量子化後の予測残差が0になりやすい傾向がある。この要因として、以下のことなどが上げられる。
 下位層のLoDに属する三次元点の予測値は、上位層の三次元点の予測値より多くの三次元点を参照して生成されるため、予測精度が高く、予測残差が0になりやすい。また、上述した重要度等に応じた量子化スケールの切り替えにより、下位層ほど量子化スケールが大きくなり、量子化後の予測残差が0になりやすい。このように、下位層の三次元点ほど、量子化後の予測残差が0になりやすい。よって、下位層の第1符号列ほど、値0が連続して発生しやすい。ここで、第1符号列とは、図94に示すように、上記符号化順に従い複数の点の量子化後の予測残差を配列した符号列である。
 これに対して、三次元データ符号化装置は、第1符号列で値0が発生した回数をカウントし、連続した値0の代わりに、値0が連続して発生した回数を符号化する。つまり、三次元データ符号化装置は、第1符号列において連続する値0の予測残差を0の連続回数(ZeroCnt)に置き換えることで第2符号列を生成する。これにより、量子化後の予測残差の値0が連続した場合に、多数の0を符号化するよりも0の連続回数を符号化することで符号化効率を向上できる。
 また、三次元データ符号化装置は、ZeroCntの値をエントロピー符号化してもよい。例えば、三次元データ符号化装置は、符号化三次元点の総数Tのトランケットユーナリ符号(truncated unary code)でZeroCntの値を二値化し、二値化後の各ビットを算術符号化する。図95は、符号化三次元点の総数がTの場合のトランケットユーナリ符号の例を示す図である。この際、三次元データ符号化装置は、ビット毎に異なる符号化テーブルを用いることで符号化効率を向上してもよい。例えば、三次元データ符号化装置は、1ビット目には符号化テーブル1を用い、2ビット目には符号化テーブル2を用い、それ以降のビットには符号化テーブル3を用いる。このように、三次元データ符号化装置は、ビット毎に符号化テーブルを切り替えることで符号化効率を向上できる。
 また、三次元データ符号化装置は、ZeroCntを指数ゴロム(Exponential-Golomb)で二値化したうえで算術符号化してもよい。これにより、ZeroCntの値が大きくなりやすい場合に、トランケットユーナリ符号による二値化算術符号化よりも効率を向上できる。なお、三次元データ符号化装置は、トランケットユーナリ符号を用いるか指数ゴロムを用いるかを切り替えるためのフラグをヘッダに付加してもよい。これにより、三次元データ符号化装置は、最適な二値化方法を選択することで符号化効率を向上できる。また、三次元データ復号装置はヘッダに含まれるフラグを参照して二値化方法を切り替えて、ビットストリームを正しく復号できる。
 図96は、属性情報(attribute_data)のシンタックス例を示す図である。属性情報(attribute_data)は、ゼロ連続数(ZeroCnt)と、属性次元数(attribute_dimension)と、予測残差(value[j][i])とを含む。
 ゼロ連続数(ZeroCnt)は、量子化後の予測残差において値0が連続する回数を示す。なお、三次元データ符号化装置は、ZeroCntを二値化したうえで算術符号化してもよい。
 属性次元数(attribute_dimension)は、属性情報の次元数を示す。例えば、属性情報が三次元点の色情報(RGB又はYUVなど)である場合、色情報は三次元であるため属性次元数は値3に設定される。属性情報が反射率である場合、反射率は一次元であるため属性次元数は値1に設定される。なお、属性次元数はビットストリームの属性情報のヘッダ等に付加されてもよい。
 予測残差(value[j][i])は、i番目の三次元点のj次元番目の属性情報の量子化後の予測残差を示す。例えば属性情報が色情報の場合、value[99][1]は100番目の三次元点の二次元番目(例えばG値)の予測残差を示す。また、属性情報が反射率情報の場合、value[119][0]は120番目の三次元点の一次元番目(例えば反射率)の予測残差を示す。
 なお、以下の条件を満たす場合、三次元データ符号化装置は、value[j][i]から値1を減算し、得られた値をエントロピー符号化してもよい。この場合、三次元データ復号装置は、エントロピー復号後のvalue[j][i]に値1を加算することで予測残差を復元する。
 上記の条件は、(1)attribute_dimension=1の場合、又は、(2)attribute_dimensionが1以上で、かつ全ての次元の値が等しい場合である。例えば、属性情報が反射率の場合はattribute_dimension=1であるため、三次元データ符号化装置は予測残差から値1を減算してvalueを算出し、算出したvalueを符号化する。三次元データ復号装置は復号後のvalueに値1を加算して予測残差を算出する。
 より具体的には、例えば、反射率の予測残差が10の場合、三次元データ符号化装置は、予測残差の値10から値1を減算した値9を符号化する。三次元データ復号装置は、復号した値9に値1を加算して予測残差の値10を算出する。
 また、属性情報が色の場合はattribute_dimension=3であるため、三次元データ符号化装置は、例えば、R、G、Bの各成分の量子化後の予測残差が同じ場合は、各予測残差から値1を減算し、得られた値を符号化する。三次元データ復号装置は、復号後の値に値1を加算する。より具体的には、例えば、R、G、Bの予測残差=(1、1、1)の場合は、三次元データ符号化装置は、(0、0、0)を符号化する。三次元データ復号装置は、(0、0、0)の各成分に1を加算して(1、1、1)を算出する。また、R、G、Bの予測残差=(2、1、2)の場合は、三次元データ符号化装置は、(2、1、2)をそのまま符号化する。三次元データ復号装置は、復号した(2、1、2)をそのまま予測残差として用いる。
 このように、ZeroCntを設けることで、valueとして全ての次元が0であるパターンは生成されないので、valueの値から1を減じた値を符号化できる。よって符号化効率を向上できる。
 三次元データ符号化装置は、attribute_dimensionの値によってZeroCntの値の算出方法を切替えてもよい。例えば、三次元データ符号化装置は、attribute_dimension=3の場合は、全ての成分(次元)の予測残差の値が0となる回数をカウントしてもよい。図97は、この場合の予測残差とZeroCntの例を示す図である。例えば、図97に示す色情報の場合、三次元データ符号化装置は、R、G、B成分が全て0である予測残差が連続する数をカウントし、カウントした数をZeroCntとしてビットストリームに付加する。これにより、成分毎にZeroCntを符号化する必要がなくなり、オーバヘッドを削減できる。よって、符号化効率を改善できる。なお、三次元データ符号化装置は、attribute_dimensionが2以上の場合でも次元毎にZeroCntを算出し、算出したZeroCntをビットストリームに付加してもよい。
 図98は、属性情報(attribute_data)の別のシンタックス例を示す図である。図98に示す属性情報は、図96に示す属性情報に対して、さらに、予測モード情報(PredMode)を含む。
 予測モード情報(PredMode)は、j番目の三次元点の属性値を符号化又は復号するための予測モードを示す。PredModeは、値0からM-1(Mは予測モードの総数)の値をとる。PredModeがビットストリームに含まれない場合(条件であるmaxdiff>=Thfix&&NumPredMode[i]>1を満たさない場合)、三次元データ復号装置は、PredModeは値0であると推定してもよい。
 ここで、maxdiffは、参照可能な複数の三次元点の属性情報の最大絶対差分値である。Thfix[i]は、予め定められた閾値である。また、予測モード情報の値0は、例えば、参照可能な複数の三次元点の属性情報の平均値を予測値として用いる予測モードである。つまり、参照可能な複数の属性情報の差が予め定められた値より少ない場合には、予め定められた予測モードが用いられる。また、NumPredMode[i]は、使用可能な予測モードの数を示す。つまり、使用可能な予測モードの数が1である場合には、予め定められた予測モードが用いられる。
 なお、三次元データ復号装置は、値0に限らず0からM-1のいずれかの予め定められた値を推定値として用いてもよい。また、PredModeがビットストリームに含まれない場合の推定値が別途ヘッダ等に付加されてもよい。
 三次元データ符号化装置は、PredModeを、予測値が割当たった予測モード数を用いてトランケットユーナリ符号で二値化して算術符号化してもよい。
 図99は、本実施の形態に係る三次元データ符号化処理のフローチャートである。まず、三次元データ符号化装置は、位置情報(geometry)を符号化する(S6501)。例えば、三次元データ符号化装置は、8分木表現を用いて符号化を行う。
 次に、三次元データ符号化装置は、属性情報を変換する(S6502)。例えば、三次元データ符号化装置は、位置情報の符号化後に、量子化等によって三次元点の位置が変化した場合に、変化後の三次元点に元の三次元点の属性情報を再割当てする。なお、三次元データ符号化装置は、位置の変化量に応じて属性情報の値を補間して再割当てを行ってもよい。例えば、三次元データ符号化装置は、変化後の三次元位置に近い変化前の三次元点をN個検出し、N個の三次元点の属性情報の値を、変化後の三次元位置から各N個の三次元までの距離に基づいて重み付け平均し、得られた値を変化後の三次元点の属性情報の値に決定する。また、三次元データ符号化装置は、量子化等によって2個以上の三次元点が同一の三次元位置に変化した場合は、その変化後の属性情報の値として、変化前の2個以上の三次元点における属性情報の平均値を割当ててもよい。
 次に、三次元データ符号化装置は、属性情報を符号化する(S6503)。例えば、三次元データ符号化装置は、複数の属性情報を符号化する場合は、複数の属性情報を順に符号化してもよい。例えば、三次元データ符号化装置は、属性情報として、色と反射率を符号化する場合は、色の符号化結果の後に反射率の符号化結果を付加したビットストリームを生成する。なお、ビットストリームに付加される属性情報の複数の符号化結果はどのような順番でもよい。
 また、三次元データ符号化装置は、ビットストリーム内の各属性情報の符号化データの開始場所を示す情報をヘッダ等に付加してもよい。これにより、三次元データ復号装置は、復号が必要な属性情報を選択的に復号できるので、復号が不必要な属性情報の復号処理を省略できる。よって、三次元データ復号装置の処理量を削減できる。また、三次元データ符号化装置は、複数の属性情報を並列に符号化し、符号化結果を1つのビットストリームに統合してもよい。これにより、三次元データ符号化装置は、高速に複数の属性情報を符号化できる。
 図100は、属性情報符号化処理(S6503)のフローチャートである。まず、三次元データ符号化装置は、LoDを設定する(S6511)。つまり、三次元データ符号化装置は、各三次元点を複数のLoDのいずれかに割り当てる。
 次に、三次元データ符号化装置は、LoD単位のループを開始する(S6512)。つまり、三次元データ符号化装置は、LoD毎にステップS6513~S6521の処理を繰り返し行う。
 次に、三次元データ符号化装置は、三次元点単位のループを開始する(S6513)。つまり、三次元データ符号化装置は、三次元点毎にステップS6514~S6520の処理を繰り返し行う。
 まず、三次元データ符号化装置は、処理対象の対象三次元点の予測値の算出に用いる、対象三次元点の周囲に存在する三次元点である複数の周囲点を探索する(S6514)。次に、三次元データ符号化装置は、複数の周囲点の属性情報の値の重み付け平均を算出し、得られた値を予測値Pに設定する(S6515)。次に、三次元データ符号化装置は、対象三次元点の属性情報と予測値との差分である予測残差を算出する(S6516)。次に、三次元データ符号化装置は、予測残差を量子化することで量子化値を算出する(S6517)。次に、三次元データ符号化装置は、量子化値を算術符号化する(S6518)。
 また、三次元データ符号化装置は、量子化値を逆量子化することで逆量子化値を算出する(S6519)。次に、三次元データ符号化装置は、逆量子化値に予測値を加算することで復号値を生成する(S6520)。次に、三次元データ符号化装置は、三次元点単位のループを終了する(S6521)。また、三次元データ符号化装置は、LoD単位のループを終了する(S6522)。
 図101は、予測残差符号化処理(S6518)のフローチャートである。まず、三次元データ符号化装置は、予測残差を符号付き整数値から符号なし整数値に変換する(S6531)。
 全ての予測残差を処理済みでない場合(S6532でNo)、三次元データ符号化装置は、処理対象の予測残差の値がゼロであるかを判定する(S6533)。処理対象の予測残差の値がゼロである場合(S6533でYes)、三次元データ符号化装置は、ZeroCntを1インクリメントし(S6534)、ステップS6532に戻る。
 処理対象の予測残差の値がゼロでない場合(S6533でNo)、三次元データ符号化装置は、ZeroCntを符号化し、ZeroCntを0にリセットする(S6535)。また、三次元データ符号化装置は、処理対象の予測残差を符号化し(S6536)、ステップS6532に戻る。例えば、三次元データ符号化装置は、二値算術符号化を行う。また、三次元データ符号化装置は、予測残差から値1を減算し、得られた値を符号化してもよい。
 また、ステップS6533~S6536の処理が予測残差毎に繰り返し行われる。また、全ての予測残差を処理済みである場合(S6532でYes)、三次元データ符号化装置は、処理を終了する。
 図102は、本実施の形態に係る三次元データ復号処理のフローチャートである。まず、三次元データ復号装置は、ビットストリームから位置情報(geometry)を復号する(S6541)。例えば、三次元データ復号装置は、8分木表現を用いて復号を行う。
 次に、三次元データ復号装置は、ビットストリームから属性情報を復号する(S6542)。例えば、三次元データ復号装置は、複数の属性情報を復号する場合は、複数の属性情報を順に復号してもよい。例えば、三次元データ復号装置は、属性情報として、色と反射率を復号する場合は、ビットストリームに付加されている順に従い、色の符号化結果、及び反射率の符号化結果を復号する。例えば、ビットストリームにおいて、色の符号化結果の後に、反射率の符号化結果が付加されている場合、三次元データ復号装置は、色の符号化結果を復号し、その後に反射率の符号化結果を復号する。なお、三次元データ復号装置は、ビットストリームに付加される属性情報の符号化結果をどのような順番で復号してもよい。
 また、三次元データ復号装置は、ビットストリーム内の各属性情報の符号化データの開始場所を示す情報をヘッダ等を復号することで取得してもよい。これにより、三次元データ復号装置は、復号が必要な属性情報を選択的に復号できるので、復号が不必要な属性情報の復号処理を省略できる。よって、三次元データ復号装置の処理量を削減できる。また、三次元データ復号装置は、複数の属性情報を並列に復号し、復号結果を1つの三次元点群に統合してもよい。これにより、三次元データ復号装置は、高速に複数の属性情報を復号できる。
 図103は、属性情報復号処理(S6542)のフローチャートである。まず、三次元データ復号装置は、LoDを設定する(S6551)。つまり、三次元データ復号装置は、復号された位置情報を有する複数の三次元点の各々を複数のLoDのいずれかに割り当てる。例えば、この割り当て方法は、三次元データ符号化装置で用いられた割り当て方法と同じ方法である。
 次に、三次元データ復号装置は、LoD単位のループを開始する(S6552)。つまり、三次元データ復号装置は、LoD毎にステップS6553~S6559の処理を繰り返し行う。
 次に、三次元データ復号装置は、三次元点単位のループを開始する(S6553)。つまり、三次元データ復号装置は、三次元点毎にステップS6554~S6558の処理を繰り返し行う。
 まず、三次元データ復号装置は、処理対象の対象三次元点の予測値の算出に用いる、対象三次元点の周囲に存在する三次元点である複数の周囲点を探索する(S6554)。次に、三次元データ復号装置は、複数の周囲点の属性情報の値の重み付け平均を算出し、得られた値を予測値Pに設定する(S6555)。なお、これらの処理は三次元データ符号化装置における処理と同様である。
 次に、三次元データ復号装置は、ビットストリームから量子化値を算術復号する(S6556)。また、三次元データ復号装置は、復号した量子化値を逆量子化することで逆量子化値を算出する(S6557)。次に、三次元データ復号装置は、逆量子化値に予測値を加算することで復号値を生成する(S6558)。次に、三次元データ復号装置は、三次元点単位のループを終了する(S6559)。また、三次元データ復号装置は、LoD単位のループを終了する(S6560)。
 図104は、予測残差復号処理(S6556)のフローチャートである。まず、三次元データ復号装置は、ビットストリームからZeroCntを復号する(S6561)。全ての予測残差を処理済みでない場合(S6562でNo)、三次元データ復号装置は、ZeroCntが0より大きいかを判定する(S6563)。
 ZeroCntがゼロより大きい場合(S6563でYes)、三次元データ復号装置は、処理対象の予測残差を0に設定する(S6564)。次に、三次元データ復号装置は、ZeroCntを1減算し(S6565)、ステップS6562に戻る。
 ZeroCntがゼロである場合(S6563でNo)、三次元データ復号装置は、処理対象の予測残差を復号する(S6566)。例えば、三次元データ復号装置は、二値算術復号を用いる。また、三次元データ復号装置は、復号した予測残差に値1を加算してもよい。
 次に、三次元データ復号装置は、ZeroCntを復号し、得られた値をZeroCntに設定し(S6567)、ステップS6562に戻る。
 また、ステップS6563~S6567の処理が予測残差毎に繰り返し行われる。また、全ての予測残差を処理済みである場合(S6562でYes)、三次元データ符号化装置は、復号した複数の予測残差を符号なし整数値から符号付き整数値に変換する(S6568)。
 図105は、三次元データ符号化装置に含まれる属性情報符号化部6500のブロック図である。属性情報符号化部6500は、LoD設定部6501と、探索部6502と、予測部6503と、減算部6504と、量子化部6505と、逆量子化部6506と、再構成部6507と、メモリ6508とを備える。
 LoD設定部6501は、三次元点の位置情報を用いてLoDを生成する。探索部6502は、LoD生成結果と三次元点間の距離情報とを用いて各三次元点の近隣三次元点を探索する。予測部6503は、対象三次元点の属性情報の予測値を生成する。また、予測部6503は、0~M-1の複数の予測モードに予測値を割り当て、複数の予測モードから使用する予測モードを選択する。
 減算部6504は、属性情報から予測値を減算することで予測残差を生成する。量子化部6505は、属性情報の予測残差を量子化する。逆量子化部6506は、量子化後の予測残差を逆量子化する。再構成部6507は、予測値と逆量子化後の予測残差とを加算することで復号値を生成する。メモリ6508は、復号済みの各三次元点の属性情報の値(復号値)を記憶する。メモリ6508に記憶される復号済みの三次元点の属性情報は、予測部6503による、符号化されていない三次元点の予測に利用される。
 算術符号化部6509は、量子化後の予測残差からZeroCntを算出し、ZeroCntを算術符号化する。また、算術符号化部6509は、量子化後の非ゼロの予測残差を算術符号化する。算術符号化部6509は、予測残差を算術符号化前に二値化してもよい。また、算術符号化部6509は、各種ヘッダ情報を生成及び符号化してもよい。また、算術符号化部6509は、予測部6503が符号化に使用した予測モードを示す予測モード情報(PredMode)を算術符号化してビットストリームに付加してもよい。
 図106は、三次元データ復号装置に含まれる属性情報復号部6510のブロック図である。属性情報復号部6510は、算術復号部6511と、LoD設定部6512と、探索部6513と、予測部6514と、逆量子化部6515と、再構成部6516と、メモリ6517とを備える。
 算術復号部6511は、ビットストリームに含まれるZeroCntと予測残差とを算術復号する。また、算術復号部6511は、各種ヘッダ情報を復号する。また、算術復号部6511は、ビットストリームから予測モード情報(PredMode)を算術復号し、得られた予測モード情報を予測部6514に出力する。
 LoD設定部6512は、復号された三次元点の位置情報を用いてLoDを生成する。探索部6513は、LoD生成結果と三次元点間の距離情報を用いて各三次元点の近隣三次元点を探索する。
 予測部6514は、復号対象の対象三次元点の属性情報の予測値を生成する。逆量子化部6515は、算術復号された予測残差を逆量子化する。再構成部6516は、予測値と逆量子化後の予測残差とを加算することで復号値を生成する。メモリ6517は、復号済みの各三次元点の属性情報の値(復号値)を記憶する。メモリ6517に記憶される復号済みの三次元点の属性情報は、予測部6514による、復号されていない三次元点の予測に利用される。
 以下、本実施の形態の変形例について説明する。本実施の形態では、符号化順としてLoDの上位層から下位層の順に三次元点を符号化する例を示したが、必ずしもこれに限らない。例えば、LoDの下位層から上位層の順にスキャンする方法が用いられてもよい。なお、この場合も、三次元データ符号化装置は、値0の連続回数をZeroCntとして符号化してもよい。
 また、本実施の形態では、三次元点からLoDを構築し、LoDの情報を元に符号化を行う例を示したが、必ずしもこれに限らない。例えば、三次元データ符号化装置又は三次元データ復号装置は、三次元点の位置情報を用いてモートン符号(Morton code)を生成し、モートン符号の順に符号化又は復号を行ってもよい。これにより、LoDを生成する処理時間を削減できるので、高速化を実現できる。
 また、本実施の形態では、LoDの各層の予測残差を算出し、算出した予測残差を量子化し、量子化後の予測残差を符号化する例を示したが、必ずしもこれに限らない。例えば、三次元データ符号化装置は、下位層の予測残差を生成後、下位層の予測残差を上位層にフィードバックして符号化を行う方式を用いてもよい。例えば、三次元データ符号化装置は、下位層の予測残差を、予測に用いた上位層の属性値(属性情報)に重みを付けて加算し、加算後の属性値を上位層の三次元点の属性値として符号化する方式において、その予測残差を符号化する際に、本方式を適用してもよい。これにより、予測残差を効率良く符号化でき、符号化効率を向上できる。
 また、三次元データ符号化装置は、本実施の形態で述べたZeroCntを用いた符号化方法を用いるか否かを、WLD、SPC又はボリューム単位で切替えてもよい。この場合、三次元データ符号化装置は、ZeroCntを用いた符号化方法を適用したか否かを示す情報をヘッダ情報に付加してもよい。これにより、三次元データ復号装置は、適切に復号を行える。切替え方法の例として、例えば、三次元データ符号化装置は、1個のボリュームに対して値0の予測残差の発生回数をカウントする。三次元データ符号化装置は、カウント値が予め定められた閾値を越えた場合は、次のボリュームにZeroCntを用いた方法を適用し、カウント値が閾値以下の場合、次のボリュームにZeroCntを用いた方法を適用しない。これにより、三次元データ符号化装置は、符号化対象の三次元点の特徴に応じて適切にZeroCntを用いた符号化方法を適用するか否かを切り替えることができるので、符号化効率を向上できる。
 以下、本実施の形態の別の手法(変形例)について説明する。三次元データ符号化装置は、量子化後の予測残差(符号なし整数値)を、ある順番に応じてスキャンし、符号化する。例えば、三次元データ符号化装置は、LoDの下位層に含まれる三次元点から順に上位層に向かって複数の三次元点を符号化する。
 図107は、この符号化の例を示す図である。図107に示す例の場合、三次元データ符号化装置は、下位層LoD2に含まれる点cNからc2、c1、c0、b2、b1、b0、a2、a1、a0の順で複数の三次元点を符号化する。ここで、下位層のLoDほど、量子化後の予測残差が0になりやすい傾向がある。この要因として、以下のことなどが上げられる。
 下位層のLoDに属する三次元点の予測値は、上位層の三次元点の予測値より多くの三次元点を参照して生成されるため、予測精度が高く、予測残差自体が0になりやすい。また、上述した適用的な量子化スケールの切り替えにより、下位層ほど量子化スケールが大きくなり、量子化後の予測残差が0になりやすい。このように、下位層の三次元点ほど、量子化後の予測残差が0になりやすい。よって、下位層の第1符号列ほど、値0が連続して発生しやすい。
 これに対して、三次元データ符号化装置は、第1符号列で値0が発生した回数をカウントし、連続した値0の代わりに、値0が連続して発生した回数を符号化する。これにより、量子化後の予測残差の値0が連続した場合に、多数の0を符号化するよりも0の連続回数(ZeroCnt)を符号化することで符号化効率を向上できる。
 また、三次元データ符号化装置は、値0の発生回数の総数を示す情報を符号化してもよい。これにより、ZeroCntを符号化するオーバヘッドを削減でき、符号化効率を向上できる。
 例えば、三次元データ符号化装置は、値0の予測残差の総数をTotalZeroCntとして符号化する。これにより、図107に示す例では、第2符号列に含まれる2個の目のZeroCnt(値1)を三次元データ復号装置が復号した時点で、復号済みのZeroCntの総数がN+1(=TotalZeroCnt)となる。よって、三次元データ復号装置は、これ以降は0が発生しないことを把握できる。そのため、三次元データ符号化装置は、以降、value毎にZeroCntを符号化する必要がなくなり、符号量を削減できる。
 また、三次元データ符号化装置は、TotalZeroCntをエントロピー符号化してもよい。例えば、三次元データ符号化装置は、符号化三次元点の総数Tのトランケットユーナリ符号でTotalZeroCntの値を二値化し、二値化後の各ビットを算術符号化する。この際、三次元データ符号化装置は、ビット毎に異なる符号化テーブルを用いることで符号化効率を向上してもよい。例えば、三次元データ符号化装置は、1ビット目には符号化テーブル1を用い、2ビット目には符号化テーブル2を用い、それ以降のビットには符号化テーブル3を用いる。このように、三次元データ符号化装置は、ビット毎に符号化テーブルを切り替えることで符号化効率を向上できる。
 また、三次元データ符号化装置は、TotalZeroCntを指数ゴロムで二値化したうえで算術符号化してもよい。これにより、TotalZeroCntの値が大きくなりやすい場合に、トランケットユーナリ符号による二値化算術符号化よりも効率を向上できる。なお、三次元データ符号化装置は、トランケットユーナリ符号を用いるか指数ゴロムを用いるかを切り替えるためのフラグをヘッダに付加してもよい。これにより、三次元データ符号化装置は、最適な二値化方法を選択することで符号化効率を向上できる。また、三次元データ復号装置はヘッダに含まれるフラグを参照して二値化方法を切り替えて、ビットストリームを正しく復号できる。
 図108は、本変形例における属性情報(attribute_data)のシンタックス例を示す図である。図108に示す属性情報(attribute_data)は、図96に示す属性情報に対して、さらに、ゼロ総数(TotalZeroCnt)を含む。なお、その他の情報については図96と同様である。ゼロ総数(TotalZeroCnt)は、量子化後の値0の予測残差の総数を示す。
 また、三次元データ符号化装置は、attribute_dimensionの値によってTotalZeroCnt及びZeroCntの値の算出方法を切替えてもよい。例えば、三次元データ符号化装置は、attribute_dimension=3の場合は、全ての成分(次元)の予測残差の値が0となる回数をカウントしてもよい。図109は、この場合の予測残差、ZeroCnt及びTotalZeroCntの例を示す図である。例えば、図109に示す色情報の場合、三次元データ符号化装置は、R、G、B成分が全て0である予測残差が連続する数をカウントし、カウントした数をTotalZeroCnt及びZeroCntとしてビットストリームに付加する。これにより、成分毎にTotalZeroCnt及びZeroCntを符号化する必要がなくなり、オーバヘッドを削減できる。よって、符号化効率を改善できる。なお、三次元データ符号化装置は、attribute_dimensionが2以上の場合でも次元毎にTotalZeoCnt及びZeroCntを算出し、算出したTotalZeoCnt及びZeroCntをビットストリームに付加してもよい。
 図110は、本変形例における予測残差符号化処理(S6518)のフローチャートである。まず、三次元データ符号化装置は、予測残差を符号付き整数値から符号なし整数値に変換する(S6571)。次に、三次元データ符号化装置は、TotalZeroCntを符号化する(S6572)。
 全ての予測残差を処理済みでない場合(S6573でNo)、三次元データ符号化装置は、処理対象の予測残差の値がゼロであるかを判定する(S6574)。処理対象の予測残差の値がゼロである場合(S6574でYes)、三次元データ符号化装置は、ZeroCntを1インクリメントし(S6575)、ステップS6573に戻る。
 処理対象の予測残差の値がゼロでない場合(S6574でNo)、三次元データ符号化装置は、TotalZeroCntが0より大きいかを判定する(S6576)。TotalZeroCntが0より大きい場合(S6576でYes)、三次元データ符号化装置は、ZeroCntを符号化し、TotalZeroCntをTotalZeroCnt-ZeroCntに設定する(S6577)。
 ステップS6577の後、又は、TotalZeroCntが0である場合(S6576でNo)、三次元データ符号化装置は、予測残差を符号化し、ZeroCntを0にリセットし(S6578)、ステップS6573に戻る。例えば、三次元データ符号化装置は、二値算術符号化を行う。また、三次元データ符号化装置は、予測残差から値1を減算し、得られた値を符号化してもよい。
 また、ステップS6574~S6578の処理が予測残差毎に繰り返し行われる。また、全ての予測残差を処理済みである場合(S6573でYes)、三次元データ符号化装置は、処理を終了する。
 図111は、本変形例における予測残差復号処理(S6556)のフローチャートである。まず、三次元データ復号装置は、ビットストリームからTotalZeroCntを復号する(S6581)。次に、三次元データ復号装置は、ビットストリームからZeroCntを復号し、TotalZeroCntをTotalZeroCnt-ZeroCntに設定する(S6582)。
 全ての予測残差を処理済みでない場合(S6583でNo)、三次元データ復号装置は、ZeroCntが0より大きいかを判定する(S6584)。
 ZeroCntがゼロより大きい場合(S6584でYes)、三次元データ復号装置は、処理対象の予測残差を0に設定する(S6585)。次に、三次元データ復号装置は、ZeroCntを1減算し(S6586)、ステップS6583に戻る。
 ZeroCntがゼロである場合(S6584でNo)、三次元データ復号装置は、処理対象の予測残差を復号する(S6587)。例えば、三次元データ復号装置は、二値算術復号を用いる。また、三次元データ復号装置は、復号した予測残差に値1を加算してもよい。
 次に、三次元データ復号装置は、TotalZeroCntが0より大きいかを判定する(S6588)。TotalZeroCntが0より大きい場合(S6588でYes)、三次元データ復号装置は、ZeroCntを復号し、得られた値をZeroCntに設定し、TotalZeroCntをTotalZeroCnt-ZeroCntに設定し(S6589)、ステップS6583に戻る。また、TotalZeroCntが0である場合(S6588でNo)、三次元データ復号装置は、ステップS6583に戻る。
 また、ステップS6584~S6589の処理が予測残差毎に繰り返し行われる。また、全ての予測残差を処理済みである場合(S6583でYes)、三次元データ符号化装置は、復号した予測残差を符号なし整数値から符号付き整数値に変換する(S6590)。
 以上のように、本実施の形態に係る三次元データ符号化装置は、図112に示す処理を行う。三次元データ符号化装置は、点群データに含まれる複数の三次元点の複数の属性情報の各々と、当該属性情報に対応する予測値との差分である複数の差分値(例えば予測残差)を算出する(S6591)。三次元データ符号化装置は、複数の差分値が配列された第1符号列において値ゼロの差分値であるゼロ差分値が連続する数を示す第1情報(例えば、ZeroCnt)と、非ゼロの差分値の値を示す第2情報(例えば、value)とを含む第2符号列を生成する(S6592)。三次元データ符号化装置は、第2符号列を含むビットストリームを生成する(S6593)。
 これによれば、三次元データ符号化装置は、第1情報を用いることで値ゼロの差分値が連続する場合における符号量を低減できるので、符号化効率を向上できる。
 例えば、図97に示すように、複数の属性情報の各々は、複数の成分を含み、複数の差分値の各々は、複数の成分に対応する複数の差分成分を含み、第1情報は、複数の差分成分が全てゼロであるゼロ差分値が連続する数を示し、第2情報は、複数の差分成分のうち少なくとも一つがゼロでない非ゼロの差分値に含まれる複数の差分成分の値を示す。
 これによれば、三次元データ符号化装置は、成分毎に第1情報を設ける場合に比べて符号量を低減できるので、符号化効率を向上できる。
 例えば、第2情報は、非ゼロの差分値に含まれる複数の成分の値の少なくとも2つが異なる場合、当該複数の成分の値を示し、非ゼロの差分値に含まれる複数の成分の値が全て同じ場合、当該複数の成分の値の各々から1を減算した値を示す。
 これによれば、三次元データ符号化装置は、符号量を低減できるので、符号化効率を向上できる。
 例えば、第2情報は、複数の属性情報の各々に2以上の成分が含まれる場合、当該2以上の成分の値を示し、複数の属性情報の各々に一つの成分が含まれる場合、当該一つの成分の値から1を減算した値を示す。
 これによれば、三次元データ符号化装置は、符号量を低減できるので、符号化効率を向上できる。
 例えば、複数の三次元点は、複数の三次元点の位置情報に基づき複数の階層(例えば、LoD)に分類され、第1符号列において複数の差分値は階層毎に配列される。
 例えば、三次元データ符号化装置は、さらに、複数の差分値の各々を量子化し、第1符号列には、量子化後の複数の差分値が配列される。
 例えば、三次元データ符号化装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 また、本実施の形態に係る三次元データ復号装置は、図113に示す処理を行う。三次元データ復号装置は、ビットストリームから、点群データに含まれる複数の三次元点の複数の属性情報の各々と、当該属性情報に対応する予測値との差分である複数の差分値(例えば、予測残差)が配列された第1符号列において値ゼロの差分値であるゼロ差分値が連続する数を示す第1情報(例えば、ZeroCnt)と、非ゼロの差分値の値を示す第2情報(例えば、value)とを含む第2符号列を取得する(S6595)。三次元データ復号装置は、第2符号列から第1符号列を復元することで複数の差分値を取得する(S6596)。三次元データ復号装置は、複数の差分値に、当該差分値に対応する予測値を加算することで複数の属性情報を算出する(S6597)。
 これによれば、三次元データ復号装置は、第1情報を用いることで値ゼロの差分値が連続する場合における符号量を低減できるので、符号化効率を向上できる。
 例えば、図97に示すように、複数の属性情報の各々は、複数の成分を含み、複数の差分値の各々は、複数の成分に対応する複数の差分成分を含み、第1情報は、複数の差分成分が全てゼロであるゼロ差分値が連続する数を示し、第2情報は、複数の差分成分のうち少なくとも一つがゼロでない非ゼロの差分値に含まれる複数の差分成分の値を示す。
 これによれば、三次元データ復号装置は、成分毎に第1情報を設ける場合に比べて符号量を低減できるので、符号化効率を向上できる。
 例えば、第2情報は、非ゼロの差分値に含まれる複数の成分の値の少なくとも2つが異なる場合、当該複数の成分の値を示し、非ゼロの差分値に含まれる複数の成分の値が全て同じ場合、当該複数の成分の値の各々から1を減算した値を示す。
 これによれば、三次元データ復号装置は、符号量を低減できるので、符号化効率を向上できる。
 例えば、三次元データ復号装置は、第2情報で示される複数の値が同じ場合、当該複数の値の各々に1を加算することで複数の成分の値を算出し、算出された複数の成分の値を用いて第1符号列を復元する。
 例えば、第2情報は、複数の属性情報の各々に2以上の成分が含まれる場合、当該2以上の成分の値を示し、複数の属性情報の各々に一つの成分が含まれる場合、当該一つの成分の値から1を減算した値を示す。
 これによれば、三次元データ復号装置は、符号量を低減できるので、符号化効率を向上できる。
 例えば、三次元データ復号装置は、第2情報に一つの成分に対応する値が示される場合、当該値に1を加算することで一つの成分の値を算出し、算出された一つの成分の値を用いて第1符号列を復元する。
 例えば、複数の三次元点は、複数の三次元点の位置情報に基づき複数の階層(例えば、LoD)に分類され、第1符号列において複数の差分値は階層毎に配列される。
 例えば、第1符号列には、量子化された複数の差分値が配列され、三次元データ復号装置は、第1符号列を復元することで量子化された複数の差分値を取得し、量子化された複数の差分値の各々を逆量子化することで複数の差分値を取得する。
 例えば、三次元データ復号装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 (実施の形態12)
 以下、三次元点の属性情報を符号化する別の方法として、RAHT(Region Adaptive Hierarchical Transform)を用いた方法を説明する。図114は、RAHTを用いた属性情報の符号化を説明するための図である。
 まず、三次元データ符号化装置は、三次元点の位置情報に基づきモートン符号(Morton code)を生成し、モートン符号順に三次元点の属性情報をソートする。例えば、三次元データ符号化装置は、モートン符号の昇順にソートを行ってもよい。なお、ソート順はモートン符号順に限らず、他の順序が用いられてもよい。
 次に、三次元データ符号化装置は、モートン符号順で隣り合う2つの三次元点の属性情報に対し、Haar変換を適用することで、階層Lの高周波成分と低周波成分を生成する。例えば、三次元データ符号化装置は、2×2行列のHaar変換を用いてもよい。生成された高周波成分は階層Lの高周波成分として符号化係数に含められ、生成された低周波成分は階層Lの上位階層L+1の入力値として用いられる。
 三次元データ符号化装置は、階層Lの属性情報を用いて階層Lの高周波成分を生成後、引き続き階層L+1の処理を行う。階層L+1の処理では、三次元データ符号化装置は、階層Lの属性情報のHaar変換によって得られた2つの低周波成分にHaar変換を適用することで階層L+1の高周波成分と低周波成分を生成する。生成された高周波成分は階層L+1の高周波成分として符号化係数に含められ、生成された低周波成分は階層L+1の上位階層L+2の入力値として用いられる。
 三次元データ符号化装置は、このような階層処理を繰返し、階層に入力される低周波成分が1個になった時点で、最上位階層Lmaxに到達したと判定する。三次元データ符号化装置は、階層Lmaxに入力された階層Lmax-1の低周波成分を符号化係数に含める。そして、符号化係数に含まれる低周波成分又は高周波成分の値を量子化し、エントロピー符号化等を用いて符号化する。
 なお、三次元データ符号化装置は、Haar変換適用時に隣り合う2つの三次元点として1つの三次元点のみが存在する場合は、存在する1つの三次元点の属性情報の値を上位階層の入力値として用いてもよい。
 このように、三次元データ符号化装置は、入力された属性情報に対して階層的にHaar変換を適用し、属性情報の高周波成分と低周波成分を生成し、後述する量子化等を適用して符号化を行う。これにより、符号化効率を向上できる。
 属性情報がN次元である場合、三次元データ符号化装置は、次元毎に独立にHaar変換を適用し、それぞれの符号化係数を算出してもよい。例えば、属性情報が色情報(RGB又はYUV等)である場合、三次元データ符号化装置は、成分毎にHaar変換を適用し、それぞれの符号化係数を算出する。
 三次元データ符号化装置は、階層L、L+1、…、階層Lmaxの順にHaar変換を適用してもよい。階層Lmaxに近づくほど入力された属性情報の低周波成分を多く含む符号化係数が生成される。
 図114に示すw0及びw1は、各三次元点に割当てられる重みである。例えば、三次元データ符号化装置は、Haar変換を適用する隣り合う2つの三次元点間の距離情報等に基づき重みを算出してもよい。例えば、三次元データ符号化装置は、距離が近いほど重みを大きくすることで符号化効率を向上してもよい。なお、三次元データ符号化装置は、この重みを別の手法により算出してもよいし、重みを用いなくてもよい。
 図114に示す例では、入力属性情報は、a0、a1、a2、a3、a4及びa5である。また、Haar変換後の符号化係数のうち、Ta1、Ta5、Tb1、Tb3、Tc1、d0が符号化される。他の符号化係数(b0、b2、c0等)は中間値であり、符号化されない。
 具体的には、図114に示す例では、a0とa1とにHaar変換が行われることで、高周波成分Ta1と、低周波成分b0とが生成される。ここで、重みw0とw1とが等しい場合には、低周波成分b0は、a0とa1との平均値であり、高周波成分Ta1は、a0とa1との差分である。
 a2には対となる属性情報が存在しないため、a2がそのままb1として用いられる。同様に、a3には対となる属性情報が存在しないため、a3がそのままb2として用いられる。また、a4とa5とにHaar変換が行われることで、高周波成分Ta5と、低周波成分b3とが生成される。
 階層L+1では、b0とb1とにHaar変換が行われることで、高周波成分Tb1と、低周波成分c0とが生成される。同様に、b2とb3とにHaar変換が行われることで、高周波成分Tb3と、低周波成分c1とが生成される。
 階層Lmax-1では、c0とc1とにHaar変換が行われることで、高周波成分Tc1と、低周波成分d0とが生成される。
 三次元データ符号化装置は、Haar変換適用後の符号化係数を量子化したうえで符号化してもよい。例えば、三次元データ符号化装置は、符号化係数を量子化スケール(量子化ステップ(QS(Quantization Step))とも呼ぶ)で除算することで量子化を行う。この場合、量子化スケールが小さいほど量子化によって発生しうる誤差(量子化誤差)が小さくなる。逆に量子化スケールが大きいほど量子化誤差は大きくなる。
 なお、三次元データ符号化装置は、量子化スケールの値を階層毎に変えてもよい。図115は、階層毎に量子化スケールを設定する例を示す図である。例えば、三次元データ符号化装置は、上位層ほど量子化スケールを小さくし、下位層ほど量子化スケールを大きくする。上位層に属する三次元点の符号化係数は、下位層よりも低周波成分を多く含むため、人間の視覚特性等で重要な成分である可能性が高い。そのため、上位層の量子化スケールを小さくして上位層で発生しうる量子化誤差を抑えることで視覚的な劣化を抑え、符号化効率を向上できる。
 なお、三次元データ符号化装置は、階層毎の量子化スケールをヘッダ等に付加してもよい。これにより、三次元データ復号装置は、正しく量子化スケールを復号でき、ビットストリームを適切に復号できる。
 また、三次元データ符号化装置は、量子化スケールの値を、符号化対象の対象三次元点の重要度に応じて適応的に切替えてもよい。例えば、三次元データ符号化装置は、重要度が高い三次元点には小さい量子化スケールを用い、重要度が低い三次元点には大きい量子化スケールを用いる。例えば、三次元データ符号化装置は、Haar変換時の重み等から重要度を算出してもよい。例えば、三次元データ符号化装置は、w0とw1の加算値を用いて量子化スケールを算出してもよい。このように重要度が高い三次元点の量子化スケールを小さくすることで量子化誤差が小さくなり、符号化効率を改善できる。
 また、上位層ほどQSの値を小さくしてもよい。これにより、上位層ほどQWの値が大きくなり、その三次元点の量子化誤差を抑えることで予測効率を改善できる。
 ここで、属性情報a1の符号化係数Ta1の量子化後の符号化係数Ta1qは、Ta1/QS_Lで表される。なお、QSは全ての階層、又は一部の階層で同じ値であってもよい。
 QW(Quantization Weight)は、符号化対象の三次元点の重要度を表す値である。例えば、QWとして、上述したw0とw1の加算値が用いられてもよい。これにより、上位層ほどQWの値が大きくなり、その三次元点の量子化誤差を抑えることで予測効率を改善できる。
 例えば、三次元データ符号化装置は、最初に全ての三次元点のQWの値を1で初期化し、Haar変換時のw0及びw1の値を用いて各三次元点のQWを更新してもよい。または、三次元データ符号化装置は、全ての三次元点のQWを値1で初期化せずに、階層に応じて初期値を変更してもよい。例えば、上位層ほどQWの初期値を大きく設定することで上位層の量子化スケールが小さくなる。これにより、上位層の予測誤差を抑えることができるので、下位層の予測精度を高め、符号化効率を改善できる。なお、三次元データ符号化装置は、QWを必ずしも用いなくてもよい。
 QWを用いる場合、Ta1の量子化値Ta1qは、(式K1)及び(式K2)により算出される。
Figure JPOXMLDOC01-appb-M000008
 また、三次元データ符号化装置は、量子化後の符号化係数(符号なし整数値)を、ある順番でスキャンし、符号化する。例えば、三次元データ符号化装置は、上位層に含まれる三次元点から順に下位層に向かって複数の三次元点を符号化する。
 例えば、図114に示す例の場合、三次元データ符号化装置は、上位層Lmaxに含まれるd0qからTc1q、Tb1q、Tb3q、Ta1q、Ta5qの順で複数の三次元点を符号化する。ここで、下位層Lになるほど、量子化後の符号化係数が0になりやすい傾向がある。この要因として、以下のことなどが上げられる。
 下位層Lの符号化係数は、上位層より高い周波数成分を示すため、対象三次元点によっては0になりやすい傾向がある。また、上述した重要度等に応じた量子化スケールの切り替えにより、下位層ほど量子化スケールが大きくなり、量子化後の符号化係数が0になりやすい。
 このように、下位層になるほど、量子化後の符号化係数が0になりやすく、値0が連続して第1符号列に発生しやすい。図116は、第1符号列及び第2符号列の例を示す図である。
 三次元データ符号化装置は、第1符号列で値0が発生した回数をカウントし、連続した値0の代わりに、値0が連続して発生した回数を符号化する。つまり、三次元データ符号化装置は、第1符号列において連続する値0の符号化係数を0の連続回数(ZeroCnt)に置き換えることで第2符号列を生成する。これにより、量子化後の符号化係数の値0が連続した場合に、多数の0を符号化するよりも0の連続回数を符号化することで符号化効率を向上できる。
 また、三次元データ符号化装置は、ZeroCntの値をエントロピー符号化してもよい。例えば、三次元データ符号化装置は、符号化三次元点の総数Tのトランケットユーナリ符号(truncated unary code)でZeroCntの値を二値化し、二値化後の各ビットを算術符号化する。図117は、符号化三次元点の総数がTの場合のトランケットユーナリ符号の例を示す図である。この際、三次元データ符号化装置は、ビット毎に異なる符号化テーブルを用いることで符号化効率を向上してもよい。例えば、三次元データ符号化装置は、1ビット目には符号化テーブル1を用い、2ビット目には符号化テーブル2を用い、それ以降のビットには符号化テーブル3を用いる。このように、三次元データ符号化装置は、ビット毎に符号化テーブルを切り替えることで符号化効率を向上できる。
 また、三次元データ符号化装置は、ZeroCntを指数ゴロム(Exponential-Golomb)で二値化したうえで算術符号化してもよい。これにより、ZeroCntの値が大きくなりやすい場合に、トランケットユーナリ符号による二値化算術符号化よりも効率を向上できる。なお、三次元データ符号化装置は、トランケットユーナリ符号を用いるか指数ゴロムを用いるかを切り替えるためのフラグをヘッダに付加してもよい。これにより、三次元データ符号化装置は、最適な二値化方法を選択することで符号化効率を向上できる。また、三次元データ復号装置はヘッダに含まれるフラグを参照して二値化方法を切り替えて、ビットストリームを正しく復号できる。
 三次元データ復号装置は、復号した量子化後の符号化係数を、三次元データ符号化装置で行われた方法と逆の方法で符号なし整数値から符号付き整数値に変換してもよい。これにより符号化係数がエントロピー符号化される場合に、三次元データ復号装置は、負の整数の発生を考慮せずに生成されたビットストリームを適切に復号できる。なお、三次元データ復号装置は、符号化係数を必ずしも符号なし整数値から符号付き整数値に変換する必要はない。例えば、三次元データ復号装置は、別途エントロピー符号化された符号化ビットを含むビットストリームを復号する場合は、当該符号ビットを復号してもよい。
 三次元データ復号装置は、符号付き整数値に変換した量子化後の符号化係数を、逆量子化、及び逆Haar変換によって復号する。また、三次元データ復号装置は、復号後の符号化係数を、復号対象の三次元点以降の予測に利用する。具体的には、三次元データ復号装置は、量子化後の符号化係数に復号した量子化スケールを乗算することで逆量子化値を算出する。次に三次元データ復号装置は、逆量子化値に後述する逆Haar変換を適用することで復号値を得る。
 例えば、三次元データ復号装置は、復号された符号なし整数値を以下の方法で符号付き整数値に変換する。復号された符号なし整数値a2uのLSB(least significant bit)が1である場合、符号付き整数値Ta1qは、-((a2u+1)>>1)に設定される。復号された符号なし整数値a2uのLSBが1でない場合(0である場合)、符号付き整数値Ta1qは、(a2u>>1)に設定される。
 また、Ta1の逆量子化値は、Ta1q×QS_Lで表される。ここで、Ta1qは、Ta1の量子化値である。また、QS_Lは階層Lの量子化ステップである。
 また、QSは全ての階層、又は一部の階層で同じ値であってもよい。また、三次元データ符号化装置は、QSを示す情報をヘッダ等に付加してもよい。これにより、三次元データ復号装置は、三次元データ符号化装置で用いられたQSと同じQSを用いて、正しく逆量子化を行える。
 次に、逆Haar変換について説明する。図118は、逆Haar変換を説明するための図である。三次元データ復号装置は、逆量子化後の符号化係数に、逆Haar変換を適用することで三次元点の属性値を復号する。
 まず、三次元データ復号装置は、三次元点の位置情報に基づきモートン符号を生成し、モートン符号順に三次元点をソートする。例えば、三次元データ復号装置は、モートン符号の昇順にソートを行ってよい。なお、ソート順はモートン符号順に限らず、他の順序が用いられてもよい。
 次に、三次元データ復号装置は、階層L+1の低周波成分を含む符号化係数と階層Lの高周波成分を含む符号化係数に逆Haar変換を適用することで、階層Lにおいてモートン符号順で隣り合う三次元点の属性情報を復元する。例えば、三次元データ復号装置は、2×2行列の逆Haar変換を用いてもよい。復元された階層Lの属性情報は下位階層L-1の入力値として用いられる。
 三次元データ復号装置は、このような階層処理を繰返し、最下層の属性情報が全て復号されたら処理を終了する。なお、逆Haar変換適用時に階層L-1にて隣り合う2つの三次元点として1つの三次元点のみが存在する場合は、三次元データ復号装置は、存在する1つの三次元点の属性値に階層Lの符号化成分の値を代入してもよい。これにより、三次元データ復号装置は、入力された属性情報の全ての値にHaar変換を適用し、符号化効率を向上したビットストリームを正しく復号できる。
 属性情報がN次元である場合、三次元データ復号装置は、次元毎に独立に逆Haar変換を適用し、それぞれの符号化係数を復号してもよい。例えば、属性情報が色情報(RGB又はYUV等)である場合、三次元データ復号装置は、成分毎の符号化係数に逆Haar変換を適用し、それぞれの属性値を復号する。
 三次元データ復号装置は、階層Lmax、L+1、…、階層Lの順に逆Haar変換を適用してもよい。また、図118に示すw0及びw1は、各三次元点に割当てられる重みである。例えば、三次元データ復号装置は、逆Haar変換を適用する隣り合う2つの三次元点間の距離情報等に基づき重みを算出してもよい。例えば、三次元データ符号化装置は、距離が近いほど重みを大きくすることで符号化効率を向上したビットストリームを復号してもよい。
 図118に示す例では、逆量子化後の符号化係数は、Ta1、Ta5、Tb1、Tb3、Tc1及びd0であり、復号値としてa0、a1、a2、a3、a4及びa5が得られる。
 図119は、属性情報(attribute_data)のシンタックス例を示す図である。属性情報(attribute_data)は、ゼロ連続数(ZeroCnt)と、属性次元数(attribute_dimension)と、符号化係数(value[j][i])とを含む。
 ゼロ連続数(ZeroCnt)は、量子化後の符号化係数において値0が連続する回数を示す。なお、三次元データ符号化装置は、ZeroCntを二値化したうえで算術符号化してもよい。
 また、図119に示すように、三次元データ符号化装置は、符号化係数が属する階層L(layerL)が,予め定められた閾値TH_layer以上かどうかを判定し、判定結果によってビットストリームに付加する情報を切り替えてもよい。例えば、三次元データ符号化装置は、判定結果が真であれば属性情報の全ての符号化係数をビットストリームに付加する。また、三次元データ符号化装置は、判定結果が偽であれば一部の符号化係数をビットストリームに付加してもよい。
 具体的には、三次元データ符号化装置は、判定結果が真であれば、色情報のRGB又はYUVの三次元情報の符号化結果をビットストリームに付加する。判定結果が偽であれば、三次元データ符号化装置は、色情報のうち、G又はYなどの一部の情報をビットストリームに付加し、それ以外の成分をビットストリームに付加しなくてもよい。このように、三次元データ符号化装置は、視覚的に劣化が目立ちにくい高周波成分を示す符号化係数を含む階層(TH_layerより小さい階層)の符号化係数の一部をビットストリームに付加しないことで、符号化効率を向上できる。
 属性次元数(attribute_dimension)は、属性情報の次元数を示す。例えば、属性情報が三次元点の色情報(RGB又はYUVなど)である場合、色情報は三次元であるため属性次元数は値3に設定される。属性情報が反射率である場合、反射率は一次元であるため属性次元数は値1に設定される。なお、属性次元数はビットストリームの属性情報のヘッダ等に付加されてもよい。
 符号化係数(value[j][i])は、i番目の三次元点のj次元番目の属性情報の量子化後の符号化係数を示す。例えば属性情報が色情報の場合、value[99][1]は100番目の三次元点の二次元番目(例えばG値)の符号化係数を示す。また、属性情報が反射率情報の場合、value[119][0]は120番目の三次元点の1次元番目(例えば反射率)の符号化係数を示す。
 なお、以下の条件を満たす場合、三次元データ符号化装置は、value[j][i]から値1を減算し、得られた値をエントロピー符号化してもよい。この場合、三次元データ復号装置は、エントロピー復号後のvalue[j][i]に値1を加算することで符号化係数を復元する。
 上記の条件は、(1)attribute_dimension=1の場合、又は、(2)attribute_dimensionが1以上で、かつ全ての次元の値が等しい場合である。例えば、属性情報が反射率の場合はattribute_dimension=1であるため、三次元データ符号化装置は符号化係数から値1を減算してvalueを算出し、算出したvalueを符号かする。三次元データ復号装置は復号後のvalueに値1を加算して符号化係数を算出する。
 より具体的には、例えば、反射率の符号化係数が10の場合、三次元データ符号化装置は、符号化係数の値10から値1を減算した値9を符号化する。三次元データ復号装置は、復号した値9に値1を加算して符号化係数の値10を算出する。
 また、属性情報が色の場合はattribute_dimension=3であるため、三次元データ符号化装置は、例えば、R、G、Bの各成分の量子化後の符号化係数が同じ場合は、各符号化係数から値1を減算し、得られた値を符号化する。三次元データ復号装置は、復号後の値に値1を加算する。より具体的には、例えば、R、G、Bの符号化係数=(1、1、1)の場合は、三次元データ符号化装置は、(0、0、0)を符号化する。三次元データ復号装置は、(0、0、0)の各成分に1を加算して(1、1、1)を算出する。また、R、G、Bの符号化係数=(2、1、2)の場合は、三次元データ符号化装置は、(2、1、2)をそのまま符号化する。三次元データ復号装置は、復号した(2、1、2)をそのまま符号化係数として用いる。
 このように、ZeroCntを設けることで、valueとして全ての次元が0であるパターンは生成されないので、valueの値から1を減じた値を符号化できる。よって、符号化効率を向上できる。
 また、図119に示すvalue[0][i]は、i番目の三次元点の一次元番目の属性情報の量子化後の符号化係数を示す。図119に示すように符号化係数の属する階層L(layerL)が閾値TH_layerより小さければ、一次元番目の属性情報をビットストリームに付加する(二次元番目以降の属性情報をビットストリーム付加しない)ことで符号量を削減してもよい。
 三次元データ符号化装置は、attribute_dimensionの値によってZeroCntの値の算出方法を切替えてもよい。例えば、三次元データ符号化装置は、attribute_dimension=3の場合は、全ての成分(次元)の符号化係数の値が0となる回数をカウントしてもよい。図120は、この場合の符号化係数とZeroCntの例を示す図である。例えば、図120に示す色情報の場合、三次元データ符号化装置は、R、G、B成分が全て0である符号化係数が連続する数をカウントし、カウントした数をZeroCntとしてビットストリームに付加する。これにより、成分毎にZeroCntを符号化する必要がなくなり、オーバヘッドを削減できる。よって、符号化効率を改善できる。なお、三次元データ符号化装置は、attribute_dimensionが2以上の場合でも次元毎にZeroCntを算出し、算出したZeroCntをビットストリームに付加してもよい。
 図121は、本実施の形態に係る三次元データ符号化処理のフローチャートである。まず、三次元データ符号化装置は、位置情報(geometry)を符号化する(S6601)。例えば、三次元データ符号化装置は、8分木表現を用いて符号化を行う。
 次に、三次元データ符号化装置は、属性情報を変換する(S6602)。例えば、三次元データ符号化装置は、位置情報の符号化後に、量子化等によって三次元点の位置が変化した場合に、変化後の三次元点に元の三次元点の属性情報を再割当てする。なお、三次元データ符号化装置は、位置の変化量に応じて属性情報の値を補間して再割当てを行ってもよい。例えば、三次元データ符号化装置は、変化後の三次元位置に近い変化前の三次元点をN個検出し、N個の三次元点の属性情報の値を、変化後の三次元位置から各N個の三次元までの距離に基づいて重み付け平均し、得られた値を変化後の三次元点の属性情報の値に設定する。また、三次元データ符号化装置は、量子化等によって2個以上の三次元点が同一の三次元位置に変化した場合は、その変化後の属性情報の値として、変化前の2個以上の三次元点における属性情報の平均値を割当ててもよい。
 次に。三次元データ符号化装置は、属性情報を符号化する(S6603)。例えば、三次元データ符号化装置は、複数の属性情報を符号化する場合は、複数の属性情報を順に符号化してもよい。例えば、三次元データ符号化装置は、属性情報として、色と反射率を符号化する場合は、色の符号化結果の後に反射率の符号化結果を付加したビットストリームを生成する。なお、ビットストリームに付加される属性情報の複数の符号化結果はどのような順番でもよい。
 また、三次元データ符号化装置は、ビットストリーム内の各属性情報の符号化データの開始場所を示す情報をヘッダ等に付加してもよい。これにより、三次元データ復号装置は、復号が必要な属性情報を選択的に復号できるので、復号が不必要な属性情報の復号処理を省略できる。よって、三次元データ復号装置の処理量を削減できる。また、三次元データ符号化装置は、複数の属性情報を並列に符号化し、符号化結果を1つのビットストリームに統合してもよい。これにより、三次元データ符号化装置は、高速に複数の属性情報を符号化できる。
 図122は、属性情報符号化処理(S6603)のフローチャートである。まず、三次元データ符号化装置は、Haar変換により属性情報から符号化係数を生成する(S6611)。次に、三次元データ符号化装置は、符号化係数に量子化を適用する(S6612)。次に、三次元データ符号化装置は、量子化後の符号化係数を符号化することで符号化属性情報(ビットストリーム)を生成する(S6613)。
 また、三次元データ符号化装置は、量子化後の符号化係数に逆量子化を適用する(S6614)。次に、三次元データ復号装置は、逆量子化後の符号化係数に逆Haar変換を適用することで属性情報を復号する(S6615)。例えば、復号された属性情報は、後続の符号化において参照される。
 図123は、符号化係数符号化処理(S6613)のフローチャートである。まず、三次元データ符号化装置は、符号化係数を符号付き整数値から符号なし整数値に変換する(S6621)。例えば、三次元データ符号化装置は、符号付き整数値を下記のように符号なし整数値に変換する。符号付き整数値Ta1qが0より小さい場合、符号なし整数値は、-1-(2×Ta1q)に設定される。符号付き整数値Ta1qが0以上である場合、符号なし整数値は、2×Ta1qに設定される。なお、符号化係数が負の値にならない場合には、三次元データ符号化装置は、符号化係数をそのまま符号なし整数値として符号化してもよい。
 全ての符号化係数を処理済みでない場合(S6622でNo)、三次元データ符号化装置は、処理対象の符号化係数の値がゼロであるかを判定する(S6623)。処理対象の符号化係数の値がゼロである場合(S6623でYes)、三次元データ符号化装置は、ZeroCntを1インクリメントし(S6624)、ステップS6622に戻る。
 処理対象の符号化係数の値がゼロでない場合(S6623でNo)、三次元データ符号化装置は、ZeroCntを符号化し、ZeroCntを0にリセットする(S6625)。また、三次元データ符号化装置は、処理対象の符号化係数を算術符号化し(S6626)、ステップS6622に戻る。例えば、三次元データ符号化装置は、二値算術符号化を行う。また、三次元データ符号化装置は、符号化係数から値1を減算し、得られた値を符号化してもよい。
 また、ステップS6623~S6626の処理が符号化係数毎に繰り返し行われる。また、全ての符号化係数を処理済みである場合(S6622でYes)、三次元データ符号化装置は、処理を終了する。
 図124は、本実施の形態に係る三次元データ復号処理のフローチャートである。まず、三次元データ復号装置は、ビットストリームから位置情報(geometry)を復号する(S6631)。例えば、三次元データ復号装置は、8分木表現を用いて復号を行う。
 次に、三次元データ復号装置は、ビットストリームから属性情報を復号する(S6632)。例えば、三次元データ復号装置は、複数の属性情報を復号する場合は、複数の属性情報を順に復号してもよい。例えば、三次元データ復号装置は、属性情報として、色と反射率を復号する場合は、ビットストリームに付加されている順に従い、色の符号化結果、及び反射率の符号化結果を復号する。例えば、ビットストリームにおいて、色の符号化結果の後に、反射率の符号化結果が付加されている場合、三次元データ復号装置は、色の符号化結果を復号し、その後に反射率の符号化結果を復号する。なお、三次元データ復号装置は、ビットストリームに付加される属性情報の符号化結果をどのような順番で復号してもよい。
 また、三次元データ復号装置は、ビットストリーム内の各属性情報の符号化データの開始場所を示す情報をヘッダ等を復号することで取得してもよい。これにより、三次元データ復号装置は、復号が必要な属性情報を選択的に復号できるので、復号が不必要な属性情報の復号処理を省略できる。よって、三次元データ復号装置の処理量を削減できる。また、三次元データ復号装置は、複数の属性情報を並列に復号し、復号結果を1つの三次元点群に統合してもよい。これにより、三次元データ復号装置は、高速に複数の属性情報を復号できる。
 図125は、属性情報復号処理(S6632)のフローチャートである。まず、三次元データ復号装置は、ビットストリームから符号化係数を復号する(S6641)。次に、三次元データ復号装置は、符号化係数に逆量子化を適用する(S6642)。次に、三次元データ復号装置は、逆量子化後の符号化係数に逆Haar変換を適用することで属性情報を復号する(S6643)。
 図126は、符号化係数復号処理(S6641)のフローチャートである。まず、三次元データ復号装置は、ビットストリームからZeroCntを復号する(S6651)。全ての符号化係数を処理済みでない場合(S6652でNo)、三次元データ復号装置は、ZeroCntが0より大きいかを判定する(S6653)。
 ZeroCntがゼロより大きい場合(S6653でYes)、三次元データ復号装置は、処理対象の符号化係数を0に設定する(S6654)。次に、三次元データ復号装置は、ZeroCntを1減算し(S6655)、ステップS6652に戻る。
 ZeroCntがゼロである場合(S6653でNo)、三次元データ復号装置は、処理対象の符号化係数を復号する(S6656)。例えば、三次元データ復号装置は、二値算術復号を用いる。また、三次元データ復号装置は、復号した符号化係数に値1を加算してもよい。
 次に、三次元データ復号装置は、ZeroCntを復号し、得られた値をZeroCntに設定し(S6657)、ステップS6652に戻る。
 また、ステップS6653~S6657の処理が符号化係数毎に繰り返し行われる。また、全ての符号化係数を処理済みである場合(S6652でYes)、三次元データ符号化装置は、復号した複数の符号化係数を符号なし整数値から符号付き整数値に変換する(S6658)。例えば、三次元データ復号装置は、復号した符号化係数は下記のように符号なし整数値から符号付き整数値に変換してもよい。復号された符号なし整数値Ta1uのLSB(least significant bit)が1である場合、符号付き整数値Ta1qは、-((Ta1u+1)>>1)に設定される。復号された符号なし整数値Ta1uのLSBが1でない場合(0である場合)、符号付き整数値Ta1qは、(Ta1u>>1)に設定される。なお、符号化係数が負の値にならない場合には、三次元データ復号装置は、復号した符号化係数をそのまま符号付き整数値として用いてもよい。
 図127は、三次元データ符号化装置に含まれる属性情報符号化部6600のブロック図である。属性情報符号化部6600は、ソート部6601と、Haar変換部6602と、量子化部6603と、逆量子化部6604と、逆Haar変換部6605と、メモリ6606と、算術符号化部6607とを備える。
 ソート部6601は、三次元点の位置情報を用いてモートン符号を生成し、複数の三次元点をモートン符号順にソートする。Haar変換部6602は、属性情報にHaar変換を適用することで符号化係数を生成する。量子化部6603は、属性情報の符号化係数を量子化する。
 逆量子化部6604は、量子化後の符号化係数を逆量子化する。逆Haar変換部6605は、符号化係数に逆Haar変換を適用する。メモリ6606は、復号済みの複数の三次元点の属性情報の値を記憶する。例えば、メモリ6606に記憶される復号済みの三次元点の属性情報は、符号化されていない三次元点の予測等に利用されてもよい。
 算術符号化部6607は、量子化後の符号化係数からZeroCntを算出し、ZeroCntを算術符号化する。また、算術符号化部6607は、量子化後の非ゼロの符号化係数を算術符号化する。算術符号化部6607は、符号化係数を算術符号化前に二値化してもよい。また、算術符号化部6607は、各種ヘッダ情報を生成及び符号化してもよい。
 図128は、三次元データ復号装置に含まれる属性情報復号部6610のブロック図である。属性情報復号部6610は、算術復号部6611と、逆量子化部6612と、逆Haar変換部6613と、メモリ6614とを備える。
 算術復号部6611は、ビットストリームに含まれるZeroCntと符号化係数を算術復号する。なお、算術復号部6611は、各種ヘッダ情報を復号してもよい。
 逆量子化部6612は、算術復号した符号化係数を逆量子化する。逆Haar変換部6613は、逆量子化後の符号化係数に逆Haar変換を適用する。メモリ6614は、復号済みの複数の三次元点の属性情報の値を記憶する。例えば、メモリ6614に記憶される復号済みの三次元点の属性情報は、復号されていない三次元点の予測に利用されてもよい。
 なお、上記実施の形態では、符号化順として下位層から上位層の順に三次元点を符号化する例を示したが、必ずしもこれに限らない。例えば、Haar変換後の符号化係数を上位層から下位層の順にスキャンする方法が用いられてもよい。なお、この場合も、三次元データ符号化装置は、値0の連続回数をZeroCntとして符号化してもよい。
 また、三次元データ符号化装置は、本実施の形態で述べたZeroCntを用いた符号化方法を用いるか否かを、WLD、SPC又はボリューム単位で切替えてもよい。この場合、三次元データ符号化装置は、ZeroCntを用いた符号化方法を適用したか否かを示す情報をヘッダ情報に付加してもよい。これにより、三次元データ復号装置は、適切に復号を行える。切替え方法の例として、例えば、三次元データ符号化装置は、1個のボリュームに対して値0の符号化係数の発生回数をカウントする。三次元データ符号化装置は、カウント値が予め定められた閾値を越えた場合は、次のボリュームにZeroCntを用いた方法を適用し、カウント値が閾値以下の場合、次のボリュームにZeroCntを用いた方法を適用しない。これにより、三次元データ符号化装置は、符号化対象の三次元点の特徴に応じて適切にZeroCntを用いた符号化方法を適用するか否かを切り替えることができるので、符号化効率を向上できる。
 以下、本実施の形態の別の手法(変形例)について説明する。三次元データ符号化装置は、量子化後の符号化係数(符号なし整数値)を、ある順番に応じてスキャンし、符号化する。例えば、三次元データ符号化装置は、下位層に含まれる三次元点から順に上位層に向かって複数の三次元点を符号化する。
 図129は、図114に示す属性情報に対して、この手法を用いた場合の第1符号列及び第2符号列の例を示す図である。この例の場合、三次元データ符号化装置は、下位層Lに含まれるTa1qからTa5q、Tb1q、Tb3q、Tc1q、d0qの順で複数の符号化係数を符号化する。ここで、下位層ほど、量子化後の符号化係数が0になりやすい傾向がある。この要因として、以下のことなどが上げられる。
 下位層Lの符号化係数は、上位層より高い周波数成分を示すため、符号化対象の三次元点によっては0になりやすい傾向がある。また、上述した重要度等に応じた量子化スケールの切り替えにより、下位層ほど量子化スケールが大きくなり、量子化後の符号化係数が0になりやすい。
 このように、下位層になるほど、量子化後の符号化係数が0になりやすく、値0が連続して第1符号列に発生しやすい。三次元データ符号化装置は、第1符号列で値0が発生した回数をカウントし、連続した値0の代わりに、値0が連続して発生した回数(ZeroCnt)を符号化する。これにより、量子化後の符号化係数の値0が連続した場合に、多数の0を符号化するよりも0の連続回数を符号化することで符号化効率を向上できる。
 また、三次元データ符号化装置は、値0の発生回数の総数を示す情報を符号化してもよい。これにより、ZeroCntを符号化するオーバヘッドを削減でき、符号化効率を向上できる。
 例えば、三次元データ符号化装置は、値0の符号化係数の総数をTotalZeroCntとして符号化する。これにより、図129に示す例では、第2符号列に含まれる2個目のZeroCnt(値1)を三次元データ復号装置が復号した時点で、復号済みのZeroCntの総数がN+1(=TotalZeroCnt)となる。よって、三次元データ復号装置は、これ以降は0が発生しないことを把握できる。そのため、三次元データ符号化装置は、以降、value毎にZeroCntを符号化する必要がなくなり、符号量を削減できる。
 また、三次元データ符号化装置は、TotalZeroCntをエントロピー符号化してもよい。例えば、三次元データ符号化装置は、符号化三次元点の総数Tのトランケットユーナリ符号でTotalZeroCntの値を二値化し、二値化後の各ビットを算術符号化する。この際、三次元データ符号化装置は、ビット毎に異なる符号化テーブルを用いることで符号化効率を向上してもよい。例えば、三次元データ符号化装置は、1ビット目には符号化テーブル1を用い、2ビット目には符号化テーブル2を用い、それ以降のビットには符号化テーブル3を用いる。このように、三次元データ符号化装置は、ビット毎に符号化テーブルを切り替えることで符号化効率を向上できる。
 また、三次元データ符号化装置は、TotalZeroCntを指数ゴロムで二値化したうえで算術符号化してもよい。これにより、TotalZeroCntの値が大きくなりやすい場合に、トランケットユーナリ符号による二値化算術符号化よりも効率を向上できる。なお、三次元データ符号化装置は、トランケットユーナリ符号を用いるか指数ゴロムを用いるかを切り替えるためのフラグをヘッダに付加してもよい。これにより、三次元データ符号化装置は、最適な二値化方法を選択することで符号化効率を向上できる。また、三次元データ復号装置はヘッダに含まれるフラグを参照して二値化方法を切り替えて、ビットストリームを正しく復号できる。
 図130は、本変形例における属性情報(attribute_data)のシンタックス例を示す図である。図130に示す属性情報(attribute_data)は、図119に示す属性情報に対して、さらに、ゼロ総数(TotalZeroCnt)を含む。なお、その他の情報については図119と同様である。ゼロ総数(TotalZeroCnt)は、量子化後の値0の符号化係数の総数を示す。
 また、三次元データ符号化装置は、attribute_dimensionの値によってTotalZereCnt及びZeroCntの値の算出方法を切替えてもよい。例えば、三次元データ符号化装置は、attribute_dimension=3の場合は、全ての成分(次元)の符号化係数の値が0となる回数をカウントしてもよい。図131は、この場合の符号化係数、ZeroCnt及びTotalZeroCntの例を示す図である。例えば、図131に示す色情報の場合、三次元データ符号化装置は、R、G、B成分が全て0である符号化係数が連続する数をカウントし、カウントした数をTotalZeroCnt及びZeroCntとしてビットストリームに付加する。これにより、成分毎にTotalZeroCnt及びZeroCntを符号化する必要がなくなり、オーバヘッドを削減できる。よって、符号化効率を改善できる。なお、三次元データ符号化装置は、attribute_dimensionが2以上の場合でも次元毎にTotalZeoCnt及びZeroCntを算出し、算出したTotalZeoCnt及びZeroCntをビットストリームに付加してもよい。
 図132は、本変形例における符号化係数符号化処理(S6613)のフローチャートである。まず、三次元データ符号化装置は、符号化係数を符号付き整数値から符号なし整数値に変換する(S6661)。次に、三次元データ符号化装置は、TotalZeroCntを符号化する(S6662)。
 全ての符号化係数を処理済みでない場合(S6663でNo)、三次元データ符号化装置は、処理対象の符号化係数の値がゼロであるかを判定する(S6664)。処理対象の符号化係数の値がゼロである場合(S6664でYes)、三次元データ符号化装置は、ZeroCntを1インクリメントし(S6665)、ステップS6663に戻る。
 処理対象の符号化係数の値がゼロでない場合(S6664でNo)、三次元データ符号化装置は、TotalZeroCntが0より大きいかを判定する(S6666)。TotalZeroCntが0より大きい場合(S6666でYes)、三次元データ符号化装置は、ZeroCntを符号化し、TotalZeroCntをTotalZeroCnt-ZeroCntに設定する(S6667)。
 ステップS6667の後、又は、TotalZeroCntが0である場合(S6666でNo)、三次元データ符号化装置は、符号化係数を符号化し、ZeroCntを0にリセットし(S6668)、ステップS6663に戻る。例えば、三次元データ符号化装置は、二値算術符号化を行う。また、三次元データ符号化装置は、符号化係数から値1を減算し、得られた値を符号化してもよい。
 また、ステップS6664~S6668の処理が符号化係数毎に繰り返し行われる。また、全ての符号化係数を処理済みである場合(S6663でYes)、三次元データ符号化装置は、処理を終了する。
 図133は、本変形例における符号化係数復号処理(S6641)のフローチャートである。まず、三次元データ復号装置は、ビットストリームからTotalZeroCntを復号する(S6671)。次に、三次元データ復号装置は、ビットストリームからZeroCntを復号し、TotalZeroCntをTotalZeroCnt-ZeroCntに設定する(S6672)。
 全ての符号化係数を処理済みでない場合(S6673でNo)、三次元データ符号化装置は、ZeroCntが0より大きいかを判定する(S6674)。
 ZeroCntがゼロより大きい場合(S6674でYes)、三次元データ復号装置は、処理対象の符号化係数を0に設定する(S6675)。次に、三次元データ復号装置は、ZeroCntを1減算し(S6676)、ステップS6673に戻る。
 ZeroCntがゼロである場合(S6674でNo)、三次元データ復号装置は、処理対象の符号化係数を復号する(S6677)。例えば、三次元データ復号装置は二値算術復号を用いる。また、三次元データ復号装置は、復号した符号化係数に値1を加算してもよい。
 次に、三次元データ復号装置は、TotalZeroCntが0より大きいかを判定する(S6678)。TotalZeroCntが0より大きい場合(S6678でYes)、三次元データ復号装置は、ZeroCntを復号し、得られた値をZeroCntに設定し、TotalZeroCntをTotalZeroCnt-ZeroCntに設定し(S6679)、ステップS6673に戻る。また、TotalZeroCntが0である場合(S6678でNo)、三次元データ復号装置は、ステップS6673に戻る。
 また、ステップS6674~S6679の処理が符号化係数毎に繰り返し行われる。また、全ての符号化係数を処理済みである場合(S6673でYes)、三次元データ符号化装置は、復号した符号化係数を符号なし整数値から符号付き整数値に変換する(S6680)。
 図134は、属性情報(attribute_data)の別のシンタックス例を示す図である。図134に示す属性情報(attribute_data)は、図119に示す符号化係数(value[j][i])の代わりに、value[j][i]_greater_zero_flagと、value[j][i]_greater_one_flagと、value[j][i]とを含む。なお、その他の情報については図119と同様である。
 value[j][i]_greater_zero_flagは、符号化係数(value[j][i])の値が0より大きいか(1以上であるか)否かを示す。言い換えると、value[j][i]_greater_zero_flagは、符号化係数(value[j][i])の値が0であるか否かを示す。
 例えば、符号化係数の値が0より大きい場合、value[j][i]_greater_zero_flagは値1に設定され、符号化係数の値が0の場合、value[j][i]_greater_zero_flagは値0に設定される。三次元データ符号化装置は、value[j][i]_greater_zero_flagの値が0の場合、value[j][i]をビットストリームに付加しなくてもよい。この場合、三次元データ復号装置は、value[j][i]の値が値0であるとして判断してもよい。これにより、符号量を削減できる。
 value[j][i]_greater_one_flagは、符号化係数(value[j][i])の値が1より大きいか(2以上であるか)否かを示す。言い換えると、value[j][i]_greater_one_flagは、符号化係数(value[j][i])の値が1であるか否かを示す。
 例えば、符号化係数の値が1より大きい場合、value[j][i]_greater_one_flagは値1に設定される。そうでない場合(符号化係数の値が1以下の場合)、value[j][i]_greater_one_flagは値0に設定される。三次元データ符号化装置は、value[j][i]_greater_one_flagの値が0の場合、value[j][i]をビットストリームに付加しなくてもよい。この場合、三次元データ復号装置は、三次元データ符号化装置は、value[j][i]の値が値1であると判断してもよい。
 value[j][i]は、i番目の三次元点のj次元番目の属性情報の量子化後の符号化係数を示す。例えば属性情報が色情報の場合、value[99][1]は100番目の三次元点の二次元番目(例えばG値)の符号化係数を示す。また、属性情報が反射率情報の場合、value[119][0]は120番目の三次元点の1次元番目(例えば反射率)の符号化係数を示す。
 三次元データ符号化装置は、value[j][i]_greater_zero_flag=1、value[j][i]_greater_one_flag=1の場合にvalue[j][i]をビットストリームに付加してもよい。また、三次元データ符号化装置は、value[j][i]から2を減算した値をビットストリームに付加してもよい。この場合、三次元データ復号装置は、復号したvalue[j][i]に値2を加算することで符号化係数を算出する。
 三次元データ符号化装置は、value[j][i]_greater_zero_flag、及びvalue[j][i]_greater_one_flagをエントロピー符号化してもよい。例えば二値算術符号化及び二値算術復号が用いられてもよい。これにより符号化効率を向上できる。
 以上のように、本実施の形態に係る三次元データ符号化装置は、図135に示す処理を行う。三次元データ符号化装置は、点群データに含まれる複数の三次元点の複数の属性情報から複数の係数値(例えば符号化係数)を算出する(S6691)。次に、三次元データ符号化装置は、複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報(例えばZeroCnt)と、係数値がゼロであるか否かを示す第2情報(例えばvalue[j][i]_greater_zero_flag)とを含む第2符号列を生成する(S6692)。三次元データ符号化装置は、第2符号列を含むビットストリームを生成する(S6693)。なお、上記係数値は、符号化係数に限らず、属性情報と予測値との差分値である予測残差であってもよい。
 これによれば、三次元データ符号化装置は、第1情報を用いることで値ゼロの係数値が連続する場合における符号量を低減できるので、符号化効率を向上できる。さらに、三次元データ符号化装置は、第2情報、第3情報及び第4情報を用いることで、値ゼロの係数値が多く発生する場合において符号化効率を向上できる。
 例えば、複数の属性情報の各々は、複数の成分を含み、複数の係数値の各々は、複数の成分に対応する複数の係数成分を含み、第1情報は、複数の係数成分が全てゼロであるゼロ係数値が連続する数を示し、第2情報は、複数の係数成分の各々がゼロであるか否かを示す。
 これによれば、三次元データ符号化装置は、成分毎に第1情報を設ける場合に比べて符号量を低減できるので、符号化効率を向上できる。
 例えば、第2符号列は、さらに、複数の係数成分の各々が1であるか否かを示す第3情報(例えばvalue[j][i]_greater_one_flag)と、複数の係数成分の各々から2を減算した値を示す第4情報(例えばvalue[j][i])とを含む。
 これによれば、三次元データ符号化装置は、第2情報、第3情報及び第4情報を用いることで、値ゼロ又は値1の係数値が多く発生する場合において符号化効率を向上できる。
 例えば、複数の係数値(例えば符号化係数)は、複数の属性情報の各々を高周波成分と低周波成分とに分けて階層化することにより生成される。
 例えば、三次元データ符号化装置は、さらに、複数の係数値の各々を量子化し、第1符号列には、量子化後の複数の係数値が配列される。
 例えば、三次元データ符号化装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 また、本実施の形態に係る三次元データ復号装置は、図136に示す処理を行う。三次元データ復号装置は、ビットストリームから、点群データに含まれる複数の三次元点の複数の属性情報から生成された複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報(例えばZeroCnt)と、係数値がゼロであるか否かを示す第2情報(例えばvalue[j][i]_greater_zero_flag)とを含む第2符号列を取得する(S6695)。次に、三次元データ復号装置は、第2符号列から第1符号列を復元することで複数の係数値を取得する(S6696)。次に、三次元データ復号装置は、複数の係数値から複数の属性情報を算出する(S6697)。なお、上記係数値は、符号化係数に限らず、属性情報と予測値との差分値である予測残差であってもよい。
 これによれば、三次元データ復号装置は、第1情報を用いることで値ゼロの係数値が連続する場合における符号量を低減できるので、符号化効率を向上できる。さらに、三次元データ復号装置は、第2情報を用いることで、値ゼロの係数値が多く発生する場合において符号化効率を向上できる。
 例えば、複数の属性情報の各々は、複数の成分を含み、複数の係数値の各々は、複数の成分に対応する複数の係数成分を含み、第1情報は、複数の係数成分が全てゼロであるゼロ係数値が連続する数を示し、第2情報は、複数の係数成分の各々がゼロであるか否かを示す。
 これによれば、三次元データ復号装置は、成分毎に第1情報を設ける場合に比べて符号量を低減できるので、符号化効率を向上できる。
 例えば、第2符号列は、さらに、複数の係数成分の各々が1であるか否かを示す第3情報(例えばvalue[j][i]_greater_one_flag)と、複数の係数成分の各々から2を減算した値を示す第4情報(例えばvalue[j][i])とを含む。
 これによれば、三次元データ復号装置は、第2情報、第3情報及び第4情報を用いることで、値ゼロ又は値1の係数値が多く発生する場合において符号化効率を向上できる。
 例えば、複数の係数値は、複数の属性情報の各々を高周波成分と低周波成分とに分けて階層化することにより生成される。
 例えば、第1符号列には、量子化された複数の係数値が配列される。三次元データ復号装置は、第1符号列を復元することで量子化された複数の係数値を取得し、量子化された複数の係数値の各々を逆量子化することで複数の係数値を取得する。
 例えば、三次元データ復号装置は、プロセッサと、メモリとを備え、プロセッサは、メモリを用いて、上記の処理を行う。
 以上、本開示の実施の形態に係る三次元データ符号化装置及び三次元データ復号装置等について説明したが、本開示は、この実施の形態に限定されるものではない。
 また、上記実施の形態に係る三次元データ符号化装置及び三次元データ復号装置等に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
 また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 また、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 また、本開示は、三次元データ符号化装置及び三次元データ復号装置等により実行される三次元データ符号化方法又は三次元データ復号方法等として実現されてもよい。
 また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
 また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
 以上、一つまたは複数の態様に係る三次元データ符号化装置及び三次元データ復号装置等について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
 本開示は、三次元データ符号化装置及び三次元データ復号装置に適用できる。
 100、400 三次元データ符号化装置
 101、201、401、501 取得部
 102、402 符号化領域決定部
 103 分割部
 104、644 符号化部
 111 三次元データ
 112、211、413、414、511、634 符号化三次元データ
 200、500 三次元データ復号装置
 202 復号開始GOS決定部
 203 復号SPC決定部
 204、625 復号部
 212、512、513 復号三次元データ
 403 SWLD抽出部
 404 WLD符号化部
 405 SWLD符号化部
 411 入力三次元データ
 412 抽出三次元データ
 502 ヘッダ解析部
 503 WLD復号部
 504 SWLD復号部
 620、620A 三次元データ作成装置
 621、641 三次元データ作成部
 622 要求範囲決定部
 623 探索部
 624、642 受信部
 626 合成部
 631、651 センサ情報
 632 第1三次元データ
 633 要求範囲情報
 635 第2三次元データ
 636 第3三次元データ
 640 三次元データ送信装置
 643 抽出部
 645 送信部
 652 第5三次元データ
 654 第6三次元データ
 700 三次元情報処理装置
 701 三次元マップ取得部
 702 自車検知データ取得部
 703 異常ケース判定部
 704 対処動作決定部
 705 動作制御部
 711 三次元マップ
 712 自車検知三次元データ
 810 三次元データ作成装置
 811 データ受信部
 812、819 通信部
 813 受信制御部
 814、821 フォーマット変換部
 815 センサ
 816 三次元データ作成部
 817 三次元データ合成部
 818 三次元データ蓄積部
 820 送信制御部
 822 データ送信部
 831、832、834、835、836、837 三次元データ
 833 センサ情報
 901 サーバ
 902、902A、902B、902C クライアント装置
 1011、1111 データ受信部
 1012、1020、1112、1120 通信部
 1013、1113 受信制御部
 1014、1019、1114、1119 フォーマット変換部
 1015 センサ
 1016、1116 三次元データ作成部
 1017 三次元画像処理部
 1018、1118 三次元データ蓄積部
 1021、1121 送信制御部
 1022、1122 データ送信部
 1031、1032、1135 三次元マップ
 1033、1037、1132 センサ情報
 1034、1035、1134 三次元データ
 1117 三次元データ合成部
 1201 三次元マップ圧縮/復号処理部
 1202 センサ情報圧縮/復号処理部
 1211 三次元マップ復号処理部
 1212 センサ情報圧縮処理部
 1300 三次元データ符号化装置
 1301 分割部
 1302 減算部
 1303 変換部
 1304 量子化部
 1305、1402 逆量子化部
 1306、1403 逆変換部
 1307、1404 加算部
 1308、1405 参照ボリュームメモリ
 1309、1406 イントラ予測部
 1310、1407 参照スペースメモリ
 1311、1408 インター予測部
 1312、1409 予測制御部
 1313 エントロピー符号化部
 1400 三次元データ復号装置
 1401 エントロピー復号部
 2100 三次元データ符号化装置
 2101、2111 8分木生成部
 2102、2112 幾何情報算出部
 2103、2113 符号化テーブル選択部
 2104 エントロピー符号化部
 2110 三次元データ復号装置
 2114 エントロピー復号部
 3000 三次元データ符号化装置
 3001 位置情報符号化部
 3002 属性情報再割り当て部
 3003 属性情報符号化部
 3010 三次元データ復号装置
 3011 位置情報復号部
 3012 属性情報復号部
 6500 属性情報符号化部
 6501、6512 LoD設定部
 6502、6513 探索部
 6503、6514 予測部
 6504 減算部
 6505 量子化部
 6506、6515 逆量子化部
 6507、6516 再構成部
 6508、6517 メモリ
 6509 算術符号化部
 6510 属性情報復号部
 6511 算術復号部
 6600 属性情報符号化部
 6601 ソート部
 6602 Haar変換部
 6603 量子化部
 6604、6612 逆量子化部
 6605、6613 逆Haar変換部
 6606、6614 メモリ
 6607 算術符号化部
 6610 属性情報復号部
 6611 算術復号部

Claims (12)

  1.  点群データに含まれる複数の三次元点の複数の属性情報から複数の係数値を算出し、
     前記複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を生成し、
     前記第2符号列を含むビットストリームを生成する
     三次元データ符号化方法。
  2.  前記複数の属性情報の各々は、複数の成分を含み、
     前記複数の係数値の各々は、前記複数の成分に対応する複数の係数成分を含み、
     前記第1情報は、前記複数の係数成分が全てゼロである前記ゼロ係数値が連続する数を示し、
     前記第2情報は、前記複数の係数成分の各々がゼロであるか否かを示す
     請求項1記載の三次元データ符号化方法。
  3.  前記第2符号列は、さらに、前記複数の係数成分の各々が1であるか否かを示す第3情報と、前記複数の係数成分の各々から2を減算した値を示す第4情報とを含む
     請求項2記載の三次元データ符号化方法。
  4.  前記複数の係数値は、前記複数の属性情報の各々を高周波成分と低周波成分とに分けて階層化することにより生成される
     請求項1~3のいずれか1項に記載の三次元データ符号化方法。
  5.  前記三次元データ符号化方法は、さらに、
     前記複数の係数値の各々を量子化し、
     前記第1符号列には、量子化後の複数の係数値が配列される
     請求項1~4のいずれか1項に記載の三次元データ符号化方法。
  6.  ビットストリームから、点群データに含まれる複数の三次元点の複数の属性情報から生成された複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を取得し、
     前記第2符号列から前記第1符号列を復元することで前記複数の係数値を取得し、
     前記複数の係数値から前記複数の属性情報を算出する
     三次元データ復号方法。
  7.  前記複数の属性情報の各々は、複数の成分を含み、
     前記複数の係数値の各々は、前記複数の成分に対応する複数の係数成分を含み、
     前記第1情報は、前記複数の係数成分が全てゼロである前記ゼロ係数値が連続する数を示し、
     前記第2情報は、前記複数の係数成分の各々がゼロであるか否かを示す
     請求項6記載の三次元データ復号方法。
  8.  前記第2符号列は、さらに、前記複数の係数成分の各々が1であるか否かを示す第3情報と、前記複数の係数成分の各々から2を減算した値を示す第4情報とを含む
     請求項7記載の三次元データ復号方法。
  9.  前記複数の係数値は、前記複数の属性情報の各々を高周波成分と低周波成分とに分けて階層化することにより生成される
     請求項6~8のいずれか1項に記載の三次元データ復号方法。
  10.  前記第1符号列には、量子化された複数の係数値が配列され、
     前記第1符号列を復元することで前記量子化された複数の係数値を取得し、
     前記量子化された複数の係数値の各々を逆量子化することで前記複数の係数値を取得する
     請求項6~9のいずれか1項に記載の三次元データ復号方法。
  11.  プロセッサと、
     メモリとを備え、
     前記プロセッサは、前記メモリを用いて、
     点群データに含まれる複数の三次元点の複数の属性情報から複数の係数値を算出し、
     前記複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を生成し、
     前記第2符号列を含むビットストリームを生成する
     三次元データ符号化装置。
  12.  プロセッサと、
     メモリとを備え、
     前記プロセッサは、前記メモリを用いて、
     ビットストリームから、点群データに含まれる複数の三次元点の複数の属性情報から生成された複数の係数値が配列された第1符号列において値ゼロの係数値であるゼロ係数値が連続する数を示す第1情報と、前記係数値がゼロであるか否かを示す第2情報とを含む第2符号列を取得し、
     前記第2符号列から前記第1符号列を復元することで前記複数の係数値を取得し、
     前記複数の係数値から前記複数の属性情報を算出する
     三次元データ復号装置。
PCT/JP2019/051275 2018-12-26 2019-12-26 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置 WO2020138352A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP19905976.7A EP3905202A4 (en) 2018-12-26 2019-12-26 THREE-DIMENSIONAL DATA ENCODING METHOD, THREE-DIMENSIONAL DATA DECODER METHOD, THREE-DIMENSIONAL DATA ENCODING DEVICE AND THREE-DIMENSIONAL DATA DECODER DEVICE
KR1020217019416A KR20210107686A (ko) 2018-12-26 2019-12-26 삼차원 데이터 부호화 방법, 삼차원 데이터 복호 방법, 삼차원 데이터 부호화 장치, 및 삼차원 데이터 복호 장치
MX2021006631A MX2021006631A (es) 2018-12-26 2019-12-26 Metodo de codificacion de datos tridimensionales, metodo de decodificacion de datos tridimensionales, dispositivo codificador de datos tridimensionales y dispositivo decodificador de datos tridimensionales.
JP2020562446A JPWO2020138352A1 (ja) 2018-12-26 2019-12-26 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
BR112021010602-2A BR112021010602A2 (pt) 2018-12-26 2019-12-26 Método de codificação de dados tridimensionais, método de decodificação de dados tridimensionais, dispositivo de codificação de dados tridimensionais, e dispositivo de decodificação de dados tridimensionais
CN201980085560.2A CN113228109A (zh) 2018-12-26 2019-12-26 三维数据编码方法、三维数据解码方法、三维数据编码装置、以及三维数据解码装置
US17/353,148 US20210314612A1 (en) 2018-12-26 2021-06-21 Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862785002P 2018-12-26 2018-12-26
US62/785,002 2018-12-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/353,148 Continuation US20210314612A1 (en) 2018-12-26 2021-06-21 Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device

Publications (1)

Publication Number Publication Date
WO2020138352A1 true WO2020138352A1 (ja) 2020-07-02

Family

ID=71129525

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/051275 WO2020138352A1 (ja) 2018-12-26 2019-12-26 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置

Country Status (8)

Country Link
US (1) US20210314612A1 (ja)
EP (1) EP3905202A4 (ja)
JP (1) JPWO2020138352A1 (ja)
KR (1) KR20210107686A (ja)
CN (1) CN113228109A (ja)
BR (1) BR112021010602A2 (ja)
MX (1) MX2021006631A (ja)
WO (1) WO2020138352A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112532990A (zh) * 2020-11-23 2021-03-19 绍兴文理学院 一种串长度参数编码、解码方法和装置
US20220191520A1 (en) * 2019-03-19 2022-06-16 Sony Group Corporation Information processing apparatus and method
WO2022224888A1 (ja) * 2021-04-21 2022-10-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023240660A1 (zh) * 2022-06-17 2023-12-21 Oppo广东移动通信有限公司 解码方法、编码方法、解码器以及编码器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06237448A (ja) * 1993-02-12 1994-08-23 Toshiba Corp 可変長符号化及び復号化装置
JP2002165217A (ja) * 2000-11-28 2002-06-07 Kddi Corp 3次元画像の階層符号化伝送方法および階層復号方法
JP2005244789A (ja) * 2004-02-27 2005-09-08 Seiko Epson Corp 情報処理装置
WO2014020663A1 (ja) 2012-07-30 2014-02-06 三菱電機株式会社 地図表示装置
US20170347122A1 (en) * 2016-05-28 2017-11-30 Microsoft Technology Licensing, Llc Scalable point cloud compression with transform, and corresponding decompression
JP2018201143A (ja) * 2017-05-29 2018-12-20 株式会社シキノハイテック 画像符号化装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3413720B2 (ja) * 1998-06-26 2003-06-09 ソニー株式会社 画像符号化方法及び装置、並びに画像復号方法及び装置
US7016417B1 (en) * 1998-12-23 2006-03-21 Kendyl A. Roman General purpose compression for video images (RHN)
EP1489806B1 (en) * 2003-06-16 2005-01-19 Alcatel Method for transmitting signalling information in a multicarrier radio communication network
JP4502384B2 (ja) * 2004-11-25 2010-07-14 キヤノン株式会社 可変長符号復号化装置及び可変長符号復号化方法
US8098735B2 (en) * 2006-12-21 2012-01-17 Lsi Corporation Efficient 8×8 CABAC residual block decode
KR101394153B1 (ko) * 2007-12-11 2014-05-16 삼성전자주식회사 양자화 방법 및 장치, 역양자화 방법 및 장치
KR101501568B1 (ko) * 2008-07-04 2015-03-12 에스케이 텔레콤주식회사 영상 부호화 및 복호화 장치 및, 방법
US9391635B2 (en) * 2009-05-15 2016-07-12 Texas Instruments Incorporated Block scanner and run-level encoder from AC to DC values
US8340448B2 (en) * 2009-10-06 2012-12-25 Cisco Technology, Inc. Locally variable quantization and hybrid variable length coding for image and video compression
US10091529B2 (en) * 2010-07-09 2018-10-02 Samsung Electronics Co., Ltd. Method and apparatus for entropy encoding/decoding a transform coefficient
US9288496B2 (en) * 2010-12-03 2016-03-15 Qualcomm Incorporated Video coding using function-based scan order for transform coefficients
US20130044819A1 (en) * 2011-08-16 2013-02-21 Phani Kumar Uppalapati Decoding a variable length code
US9363512B2 (en) * 2012-03-08 2016-06-07 Blackberry Limited Motion vector sign bit hiding
US9491463B2 (en) * 2012-04-14 2016-11-08 Qualcomm Incorporated Group flag in transform coefficient coding for video coding
CN109328461B (zh) * 2016-04-29 2023-09-05 世宗大学校产学协力团 视频信号编码/解码方法和设备
US10861196B2 (en) * 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
EP3503557A1 (en) * 2017-12-22 2019-06-26 Thomson Licensing Method and apparatus for video encoding and decoding based on context switching
US20190208225A1 (en) * 2018-01-02 2019-07-04 Qualcomm Incorporated Sign prediction in video coding
US10877152B2 (en) * 2018-03-27 2020-12-29 The Mathworks, Inc. Systems and methods for generating synthetic sensor data
AU2018204786A1 (en) * 2018-06-29 2020-01-16 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding a transformed block of video samples
US11222427B2 (en) * 2018-10-31 2022-01-11 Wind River Systems, Inc. Image compression

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06237448A (ja) * 1993-02-12 1994-08-23 Toshiba Corp 可変長符号化及び復号化装置
JP2002165217A (ja) * 2000-11-28 2002-06-07 Kddi Corp 3次元画像の階層符号化伝送方法および階層復号方法
JP2005244789A (ja) * 2004-02-27 2005-09-08 Seiko Epson Corp 情報処理装置
WO2014020663A1 (ja) 2012-07-30 2014-02-06 三菱電機株式会社 地図表示装置
US20170347122A1 (en) * 2016-05-28 2017-11-30 Microsoft Technology Licensing, Llc Scalable point cloud compression with transform, and corresponding decompression
JP2018201143A (ja) * 2017-05-29 2018-12-20 株式会社シキノハイテック 画像符号化装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3905202A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220191520A1 (en) * 2019-03-19 2022-06-16 Sony Group Corporation Information processing apparatus and method
US11943457B2 (en) * 2019-03-19 2024-03-26 Sony Group Corporation Information processing apparatus and method
CN112532990A (zh) * 2020-11-23 2021-03-19 绍兴文理学院 一种串长度参数编码、解码方法和装置
CN112532990B (zh) * 2020-11-23 2024-03-08 绍兴文理学院 一种串长度参数编码、解码方法和装置
WO2022224888A1 (ja) * 2021-04-21 2022-10-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置

Also Published As

Publication number Publication date
JPWO2020138352A1 (ja) 2021-11-18
KR20210107686A (ko) 2021-09-01
EP3905202A4 (en) 2022-03-16
MX2021006631A (es) 2021-07-07
US20210314612A1 (en) 2021-10-07
CN113228109A (zh) 2021-08-06
BR112021010602A2 (pt) 2021-08-24
EP3905202A1 (en) 2021-11-03

Similar Documents

Publication Publication Date Title
WO2020162495A1 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7167147B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7330962B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7245244B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7167144B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7448519B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7389028B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7410879B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
WO2020138352A1 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7478668B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
WO2020075862A1 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7448517B2 (ja) 三次元データの符号化方法、三次元データの復号方法、三次元データの符号化装置、及び三次元データの復号装置
JPWO2019235587A1 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
WO2020196677A1 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
WO2020196680A1 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
JP7453212B2 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
WO2020184444A1 (ja) 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19905976

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112021010602

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2020562446

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019905976

Country of ref document: EP

Effective date: 20210726

ENP Entry into the national phase

Ref document number: 112021010602

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20210531