JP2022150216A - Point group decryption device, point group decryption method, and program - Google Patents

Point group decryption device, point group decryption method, and program Download PDF

Info

Publication number
JP2022150216A
JP2022150216A JP2021052710A JP2021052710A JP2022150216A JP 2022150216 A JP2022150216 A JP 2022150216A JP 2021052710 A JP2021052710 A JP 2021052710A JP 2021052710 A JP2021052710 A JP 2021052710A JP 2022150216 A JP2022150216 A JP 2022150216A
Authority
JP
Japan
Prior art keywords
point cloud
points
information
upsampling
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021052710A
Other languages
Japanese (ja)
Inventor
康平 松▲崎▼
Kohei Matsuzaki
恭平 海野
Kyohei UNNO
圭 河村
Kei Kawamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021052710A priority Critical patent/JP2022150216A/en
Priority to PCT/JP2022/001225 priority patent/WO2022201773A1/en
Publication of JP2022150216A publication Critical patent/JP2022150216A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Architecture (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide a point group decryption device, a point group decryption method, and a program capable of improving an inter-prediction accuracy of a point group, and improving coding efficiency.SOLUTION: A point group decryption device 200 includes an up-sampling unit 25 which is configured to up-sample points of reference geometric information, and an occupation prediction unit 26 which is configured to predict occupancy information by using the up-sampled reference geometric information.SELECTED DRAWING: Figure 2

Description

本発明は、点群復号装置、点群復号方法及びプログラムに関する。 The present invention relates to a point cloud decoding device, a point cloud decoding method, and a program.

非特許文献1には、インター予測を用いた点群の幾何的情報の符号化及び復号技術が開示されている。かかるインター予測は、複数の要素技術によって構成される。 Non-Patent Document 1 discloses a technique for encoding and decoding point cloud geometric information using inter-prediction. Such inter-prediction is composed of a plurality of elemental technologies.

非特許文献2には、時系列的に連続する2つの点群の間で、八分木 (Octree) 法によって分割された小領域(ノード)を対応付け、ノード単位で動き補償を実現する技術が開示されている。 Non-Patent Document 2 describes a technique for realizing motion compensation in units of nodes by associating small regions (nodes) divided by the Octree method between two time-series continuous point groups. is disclosed.

非特許文献3には、対応付けられたノードを8つの子ノードに分割する場合に、各子ノードに点が存在するか否か(占有情報)を判定し、時系列的に前の点群(参照フレーム)のノードの占有情報を、時系列的に現在の点群(現フレーム)のノードの占有情報の予測とする技術が開示されている。 In Non-Patent Document 3, when dividing the associated node into eight child nodes, it is determined whether or not a point exists in each child node (occupancy information), and the previous point group in chronological order A technique is disclosed in which the occupancy information of a node (reference frame) is used to predict the occupancy information of a node in a current point group (current frame) in time series.

かかる占有情報の予測は、予測不可能を表すno pred、非占有を表すpred0、占有を表すpred1、強い占有を表すpredLという分類で表現される。 Prediction of such occupancy information is expressed by classification of no pred indicating unpredictable, pred0 indicating non-occupancy, pred1 indicating occupancy, and predL indicating strong occupancy.

pred1及びpredLについては、子ノード内に存在する点の個数が固定値の閾値未満であればpred1に分類され、そうでなければpredLに分類される。 For pred1 and predL, if the number of points present in the child node is less than a fixed threshold, it is classified as pred1, otherwise it is classified as predL.

ここでは、現フレームのノードの占有情報を算術符号化する場合に、かかる予測を用いて各ビットのコンテキストを選択し、コンテキスト毎に異なる生起確率を選択することによって符号化性能を改善することができる。 Here, when the occupation information of the node of the current frame is arithmetically coded, the prediction is used to select the context of each bit, and the coding performance can be improved by selecting different occurrence probabilities for each context. can.

非特許文献4には、時系列的に連続する2つの点群の間で点群全体の動きパラメータ(回転,並進)を推定し、整列させることによって、非特許文献2及び3に基づく符号化の性能を改善する技術が開示されている。 In Non-Patent Document 4, by estimating and aligning motion parameters (rotation, translation) of the entire point group between two time-series continuous point groups, encoding based on Non-Patent Documents 2 and 3 Techniques for improving the performance of are disclosed.

Exploratory model for inter-prediction in G-PCC、ISO/IEC JTC1/SC29/WG11 N18096Exploratory model for inter-prediction in G-PCC, ISO/IEC JTC1/SC29/WG11 N18096 [PCC]On motion compensastion for geometry coding in TM3、ISO/IEC JTC1/SC29/WG11 MPEG2018/m42521[PCC] On motion compensation for geometry coding in TM3, ISO/IEC JTC1/SC29/WG11 MPEG2018/m42521 [PCC]How to use a predictive set of points for geometry coding in TMC3、ISO/IEC JTC1/SC29/WG11 MPEG2018/m42520[PCC] How to use a predictive set of points for geometry coding in TMC3, ISO/IEC JTC1/SC29/WG11 MPEG2018/m42520 [PCC]Global motion compensation for point cloud compensation in TM3、ISO/IEC JTC1/SC29/WG11 MPEG2018/m44751[PCC] Global motion compensation for point cloud compensation in TM3, ISO/IEC JTC1/SC29/WG11 MPEG2018/m44751

しかしながら、非特許文献1~4におけるインター予測では、点群の空間方向の密度が低く時間方向の相関が低い場合に、予測精度が低くなり、符号化効率が低下するという問題点があった。 However, the inter prediction in Non-Patent Documents 1 to 4 has a problem that the prediction accuracy is low and the coding efficiency is low when the density of the point cloud in the spatial direction is low and the correlation in the time direction is low.

そこで、本発明は、上述の課題に鑑みてなされたものであり、点群のインター予測精度を改善し、符号化効率を改善することができる点群復号装置、点群復号方法及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and provides a point cloud decoding device, a point cloud decoding method, and a program that can improve the inter prediction accuracy of the point cloud and improve the encoding efficiency. intended to

本発明の第1の特徴は、ビットストリームから点群を復号するように構成されている点群復号装置であって、参照幾何情報の点をアップサンプリングするように構成されているアップサンプリング部と、アップサンプリングされた前記参照幾何情報を用いて占有情報を予測するように構成されている占有予測部とを有することを要旨とする。 A first feature of the present invention is a point cloud decoding device configured to decode a point cloud from a bitstream, comprising an upsampling unit configured to upsample points of reference geometric information; and an occupancy prediction unit configured to predict occupancy information using the upsampled reference geometric information.

本発明の第2の特徴は、ビットストリームから点群を復号するように構成されている点群復号方法であって、参照幾何情報の点をアップサンプリングする工程と、アップサンプリングされた前記参照幾何情報を用いて占有情報を予測する工程とを有することを要旨とする。 A second aspect of the present invention is a point cloud decoding method adapted to decode a point cloud from a bitstream, comprising the steps of upsampling points of reference geometry information; and predicting occupancy information using the information.

本発明の第3の特徴は、コンピュータを、ビットストリームから点群を復号するように構成されている点群復号装置として機能させるプログラムであって、前記点群復号装置は、参照幾何情報の点をアップサンプリングするように構成されているアップサンプリング部と、アップサンプリングされた前記参照幾何情報を用いて占有情報を予測するように構成されている占有予測部とを有することを要旨とする。 A third feature of the present invention is a program that causes a computer to function as a point cloud decoding device configured to decode a point cloud from a bitstream, the point cloud decoding device comprising points of reference geometric information and an occupancy prediction unit configured to predict occupancy information using the upsampled reference geometric information.

本発明によれば、点群のインター予測精度を改善し、符号化効率を改善することができる点群復号装置、点群復号方法及びプログラムを提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a point cloud decoding device, a point cloud decoding method, and a program capable of improving the inter-prediction accuracy of the point cloud and improving the encoding efficiency.

図1は、一実施形態に係る点群処理システム10の構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a point cloud processing system 10 according to one embodiment. 図2は、一実施形態に係る点群復号装置200の機能ブロックの一例を示す図である。FIG. 2 is a diagram showing an example of functional blocks of the point cloud decoding device 200 according to one embodiment. 図3Aは、一実施形態における階層ごとのノードの概要の一例を示す図である。FIG. 3A is a diagram showing an example of an outline of nodes for each hierarchy in one embodiment. 図3Bは、一実施形態における階層ごとのノードの概要の一例を示す図である。FIG. 3B is a diagram illustrating an example of an outline of nodes for each hierarchy in one embodiment. 図4は、L1距離が1となる箇所にアップサンプリングする場合の模式図である。FIG. 4 is a schematic diagram of upsampling to a location where the L1 distance is 1. In FIG. 図5は、一実施形態に係る点群復号装置200においてモデルを生成する処理の一例を示すフローチャートである。FIG. 5 is a flow chart showing an example of processing for generating a model in the point cloud decoding device 200 according to one embodiment. 図6は、一実施形態に係る点群復号装置200においてモデルを生成する処理の一例を示すフローチャートである。FIG. 6 is a flow chart showing an example of processing for generating a model in the point cloud decoding device 200 according to one embodiment. 図7は、最尤推定によって得られたベクトル集合を用いてアップサンプリングする場合の模式図である。FIG. 7 is a schematic diagram of upsampling using a set of vectors obtained by maximum likelihood estimation. 図8は、属性情報として方位角を利用する場合の一例を示す図である。FIG. 8 is a diagram showing an example of using azimuth angles as attribute information.

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、以下の実施
形態における構成要素は、適宜、既存の構成要素等との置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that constituent elements in the following embodiments can be appropriately replaced with existing constituent elements and the like, and various variations including combinations with other existing constituent elements are possible. Therefore, the following description of the embodiments is not intended to limit the scope of the invention described in the claims.

(第1実施形態)
以下、図1~図8を参照して、本発明の第1実施形態に係る点群処理システム10について説明する。図1は、本実施形態に係る実施形態に係る点群処理システム10を示す図である。
(First embodiment)
A point cloud processing system 10 according to a first embodiment of the present invention will be described below with reference to FIGS. 1 to 8. FIG. FIG. 1 is a diagram showing a point cloud processing system 10 according to an embodiment according to this embodiment.

図1に示すように、点群処理システム10は、点群符号化装置100及び点群復号装置200を有する。 As shown in FIG. 1 , the point cloud processing system 10 has a point cloud encoding device 100 and a point cloud decoding device 200 .

点群符号化装置100は、入力点群信号を符号化することによって符号化データ(ビットストリーム)を生成するように構成されている。点群復号装置200は、ビットストリームを復号することによって出力点群信号を生成するように構成されている。 The point cloud encoding device 100 is configured to generate encoded data (bitstream) by encoding an input point cloud signal. The point cloud decoding device 200 is configured to generate an output point cloud signal by decoding the bitstream.

なお、入力点群信号及び出力点群信号は、点群内の各点の位置情報と属性情報とから構成される。属性情報は、例えば、各点の色情報や反射率である。 Note that the input point cloud signal and the output point cloud signal are composed of position information and attribute information of each point in the point cloud. The attribute information is, for example, color information and reflectance of each point.

ここで、かかるビットストリームは、点群符号化装置100から点群復号装置200に対して伝送路を介して送信されてもよい。また、ビットストリームは、記憶媒体に格納された上で、点群符号化装置100から点群復号装置200に提供されてもよい。 Here, such a bitstream may be transmitted from the point cloud encoding device 100 to the point cloud decoding device 200 via a transmission line. Also, the bitstream may be stored in a storage medium and then provided from the point cloud encoding device 100 to the point cloud decoding device 200 .

(点群復号装置200)
以下、図2を参照して、本実施形態に係る点群復号装置200について説明する。図2は、本実施形態に係る点群復号装置200の機能ブロックの一例について示す図である。
(Point group decoding device 200)
The point group decoding device 200 according to this embodiment will be described below with reference to FIG. FIG. 2 is a diagram showing an example of functional blocks of the point group decoding device 200 according to this embodiment.

図2に示すように、点群復号装置200は、動き復号部21と、算術復号部22と、八分木復号部23と、動き補償部24と、アップサンプリング部25と、占有予測部26と、確率取得部27と、モデル生成部28とを有する。 As shown in FIG. 2, the point group decoding device 200 includes a motion decoding unit 21, an arithmetic decoding unit 22, an octree decoding unit 23, a motion compensation unit 24, an upsampling unit 25, and an occupation prediction unit 26. , a probability acquisition unit 27 , and a model generation unit 28 .

なお,本実施形態においては、モデル生成部28における処理は、復号処理を行う前に予め実行されてもよい。 Note that, in the present embodiment, the processing in the model generation unit 28 may be performed in advance before the decoding processing is performed.

以下、本実施形態に係る点群復号装置200の各機能ブロックについて説明する。動き復号部21、算術復号部22、八分木復号部23、動き補償部24、占有予測部26及び確率取得部27における具体的な処理については、例えば、上述の非特許文献1~4に記載の方法を用いることができる.
動き復号部21は、入力ビットストリームに含まれる符号化された動きパラメータを復号するように構成されている。ここで、動きパラメータは、点群全体又は点群の一部のみを姿勢変換させる回転行列や並進ベクトルとして表現される。
Each functional block of the point cloud decoding device 200 according to this embodiment will be described below. Specific processing in the motion decoding unit 21, the arithmetic decoding unit 22, the octree decoding unit 23, the motion compensation unit 24, the occupancy prediction unit 26, and the probability acquisition unit 27 is described, for example, in Non-Patent Documents 1 to 4 above. The described method can be used.
The motion decoding unit 21 is arranged to decode encoded motion parameters contained in the input bitstream. Here, the motion parameters are expressed as rotation matrices and translation vectors that change the attitude of the entire point group or only part of the point group.

算術復号部22は、入力ビットストリーム及び与えられたデータの生起確率を用いて八分木データ(ビット列)を復号するように構成されている。かかるデータは、0又は1の二値であってもよいし、それ以外であってもよい。かかるデータの生起確率は、確率取得部24から与えられる。 The arithmetic decoding unit 22 is configured to decode the octree data (bit string) using the input bitstream and the given data occurrence probabilities. Such data may be binary, 0 or 1, or otherwise. The probability of occurrence of such data is given from the probability acquisition unit 24 .

後述する八分木復号部23が、ノード単位で処理を行うため、1つのノードに含まれる8つの子ノードの占有情報を表す8つのビットを復号した時点で、算術復号部22は、一
度処理を停止するように構成されている。
Since the octree decoding unit 23, which will be described later, performs processing on a node-by-node basis, the arithmetic decoding unit 22 performs processing once when eight bits representing occupation information of eight child nodes included in one node are decoded. is configured to stop

そして、算術復号部22は、八分木復号部23が、この8つのビットに対する処理を完了した後に、処理を再開するように構成されている。 The arithmetic decoding unit 22 is configured to resume processing after the octree decoding unit 23 completes the processing for these eight bits.

このようにして、入力ビットストリームの全てを処理するまで、算術復号部22及び八分木復号部23は、交互に処理を行うように構成されている。 In this manner, the arithmetic decoding unit 22 and the octree decoding unit 23 are configured to alternately perform processing until the entire input bitstream is processed.

なお、本実施形態においては、全て又は一部のノードにおいて八分木データについて、公知の四分木 (Quad tree) データや二分木 Binary tree) データに置き換えてもよい。 In this embodiment, the octatree data may be replaced with known quadtree data or binary tree data in all or some of the nodes.

八分木復号部23は、公知の八分木法に基づく復号手法を用いてビット列から幾何情報を復号するように構成されている。 The octree decoding unit 23 is configured to decode geometric information from a bit string using a known decoding method based on the octree method.

すなわち、八分木復号部23は、あるノードに含まれる8つの子ノードの占有情報を表す8つのビットが与えられた場合、ビットが1となる位置に子ノードを生成するように構成されている。 That is, the octree decoding unit 23 is configured to generate a child node at a position where the bit is 1 when 8 bits representing occupation information of 8 child nodes included in a certain node are given. there is

八分木復号部23は、かかる処理を上層から下層に向かって階層的に行い、最下層のノードの座標を、点群を表す幾何情報として出力するように構成されている。 The octree decoding unit 23 is configured to hierarchically perform such processing from the upper layer to the lower layer, and output the coordinates of the nodes in the lowest layer as geometric information representing a point group.

八分木法は、ノード単位で処理を行う手法であるため、現在のノードに含まれる8つの子ノードの生成処理が完了した時点で、八分木復号部23は、一度処理を停止するように構成されている。 Since the octree method is a method of performing processing on a node-by-node basis, the octree decoding unit 23 once stops processing when the generation processing of eight child nodes included in the current node is completed. is configured to

そして、八分木復号部23は、算術復号部22が次に処理するノードの8つの子ノードの占有情報を表す8つのビットを復号した後に、処理を再開するように構成されている。 The octree decoding unit 23 is configured to restart processing after decoding eight bits representing occupation information of eight child nodes of the node to be processed next by the arithmetic decoding unit 22 .

このようにして、入力ビットストリームの全てを処理するまで、算術復号部22及び八分木復号部23は、交互に処理を行うように構成されている。 In this manner, the arithmetic decoding unit 22 and the octree decoding unit 23 are configured to alternately perform processing until the entire input bitstream is processed.

ここでは,ノードは、3次元空間を分割するボクセルとして表現されるため、現在処理しているノード又は当該ノードの子ノードの領域に対応する参照幾何情報を選別することができる。かかる選別は、点群として表現される参照幾何情報から、当該領域の内部に含まれる一部のみを取り出す処理である.
本実施形態においては、八分木復号部23は、現在処理しているノードの8つの子ノードが表すボクセルの領域を、アップサンプリング部25へ出力するように構成されている。
Here, since nodes are expressed as voxels that divide the three-dimensional space, it is possible to select reference geometric information corresponding to the region of the node currently being processed or the child node of the node. Such selection is a process of extracting only a portion included inside the region from the reference geometric information expressed as a point group.
In the present embodiment, the octree decoding unit 23 is configured to output to the upsampling unit 25 a region of voxels represented by eight child nodes of the node currently being processed.

なお、本実施形態においては、全て又は一部のノードにおいて八分木法について、公知の四分木法や二分木法に置き換えてもよい.
動き補償部24は、点群として表現される参照幾何情報を、動きパラメータを用いて姿勢変換し、参照幾何情報を出力するように構成されている。かかる姿勢変換は、点群全体であってもよいし、点群の一部のみであってもよい。
In this embodiment, the octatree method may be replaced with a known quadtree method or binary tree method for all or some of the nodes.
The motion compensator 24 is configured to transform the orientation of reference geometric information expressed as a point group using motion parameters, and output the reference geometric information. Such pose transformation may be the entire point cloud or only a portion of the point cloud.

すなわち、動き補償部24は、点群全体の場合には、全ての点に対して共通の動きパラメータを用いて姿勢変換を行い、点群の一部のみの場合には、一部の点に対して個別の動きパラメータを用いて姿勢変換を行うように構成されている。動きパラメータは,動き復号部21から与えられる。 That is, the motion compensation unit 24 performs posture transformation using a common motion parameter for all points in the case of the entire point group, and performs posture transformation on some points in the case of only a part of the point group. In contrast, it is configured to perform posture transformation using individual motion parameters. The motion parameters are given from the motion decoder 21 .

アップサンプリング部25は、点群として表現される参照幾何情報に対してアップサンプリングを施すように構成されている。かかる参照幾何情報は、動き補償部24で姿勢変換されたものであってもよいし、動き補償部24で姿勢変換されていないものであってもよい。 The upsampling unit 25 is configured to upsample the reference geometric information expressed as a point group. Such reference geometric information may be one whose posture has been transformed by the motion compensator 24, or may be one which has not been posture-transformed by the motion compensator 24. FIG.

アップサンプリング部25は、参照幾何情報の各点に対して、所与のモデルを用いて、各点の周囲に新たな点を生成するように構成されている。かかるモデルは、モデル生成部28から与えられる。 The upsampling unit 25 is configured to generate new points around each point of the reference geometric information using a given model. Such a model is given from the model generator 28 .

アップサンプリング部25は、モデルが図示していない点の属性情報(例えば、LiDARセンサとの距離)を必要とする場合には、かかる属性情報を使用若しくは計算することによって、点を生成する。 The upsampling unit 25 generates points by using or calculating such attribute information when the model requires attribute information of the points (for example, the distance from the LiDAR sensor), which is not shown.

換言すると、アップサンプリング部25は、属性情報ごとに異なるモデルを用いてアップサンプリングを行うように構成されている。すなわち、アップサンプリング部25は、点の属性情報によって、点のアップサンプリング方法を変更するように構成されている。 In other words, the upsampling unit 25 is configured to perform upsampling using different models for each piece of attribute information. That is, the upsampling unit 25 is configured to change the point upsampling method according to the point attribute information.

ここで、属性情報は、参照幾何情報の各点に予め付与されている場合には、そのまま使用され、参照幾何情報の各点に予め付与されていない場合には、新たに計算される。 Here, if the attribute information is assigned to each point of the reference geometry information in advance, it is used as it is, and if it is not assigned to each point of the reference geometry information in advance, it is newly calculated.

本実施形態において、アップサンプリング部25は、八分木復号部23から出力されたノードの8つの子ノードが表すボクセルの領域を用いて、参照幾何情報を選別するように構成されている。 In this embodiment, the upsampling unit 25 is configured to select reference geometric information using voxel regions represented by eight child nodes of the node output from the octree decoding unit 23 .

そして、アップサンプリング部25は、選別された参照幾何情報に対して、アップサンプリングを施すように構成されている。 The upsampling unit 25 is configured to upsample the selected reference geometric information.

ただし、かかるアップサンプリングは、入力された参照幾何情報又は動き補償部24から出力された参照幾何情報に対して行ってもよい。 However, such upsampling may be performed on the input geometric reference information or the geometric reference information output from the motion compensation unit 24 .

また、アップサンプリング部25は、モデル生成部28からシンタックスを受け取り、かかるシンタックスに基づいて、アップサンプリングをするか否かについての情報や、アップサンプリングの方法について決定するように構成されていてもよい。 Also, the upsampling unit 25 is configured to receive syntax from the model generation unit 28 and determine information on whether or not to perform upsampling and the upsampling method based on the syntax. good too.

また、アップサンプリング部25は、与えられた点群の中で、疎な点及び密な点を判別し、疎な点に対してのみ、アップサンプリングを施すように構成されていてもよい。 Further, the upsampling section 25 may be configured to distinguish between sparse points and dense points in a given point group and perform upsampling only on the sparse points.

ここで、疎な点を判別する方法としては、例えば、各点の最近傍に位置する点との距離が閾値以上になるか否か、各点の半径r[m] 以内に位置する点の個数が閾値以下になるか否か、各点の属するボクセルの内部に位置する点の個数が閾値以下になるか否か等を用いてもよいし、他の方法を用いてもよい。 Here, as a method of discriminating sparse points, for example, whether or not the distance from each point to the nearest point is equal to or greater than a threshold value, or whether or not the number of points located within the radius r[m] of each point is determined. Whether or not the number is equal to or less than a threshold, or whether or not the number of points located inside the voxels to which each point belongs may be used, or other methods may be used.

占有予測部26は、アップサンプリング部25によってアップサンプリングされた参照幾何情報を表す点群を用いて占有情報を予測するように構成されている。 The occupation prediction unit 26 is configured to predict occupation information using the point cloud representing the reference geometric information upsampled by the upsampling unit 25 .

すなわち、占有予測部26は、これから算術復号部22が復号するビット列に対応する8つの子ノードが表すボクセル内の点群として表現される参照幾何情報から、例えば、no pred(予測不可能)、pred0(非占有)、pred1(占有)及びpredL(強い占有)という分類を得る。かかるボクセルの領域は、八分木復号部23から与え
られる。
That is, the occupancy prediction unit 26 determines, for example, no pred (unpredictable), The classifications pred0 (unoccupied), pred1 (occupied) and predL (strongly occupied) are obtained. Such a voxel region is given from the octree decoding unit 23 .

占有予測部26は、この8つの子ノードの占有情報の予測を、確率取得部27へ出力するように構成されている。 The occupation prediction unit 26 is configured to output the prediction of occupation information of the eight child nodes to the probability acquisition unit 27 .

本実施形態においては、八分木復号部から出力されたノードの8つの子ノードが表すボクセルの領域に含まれる参照幾何情報を,アップサンプリング部でアップサンプリングした結果に基づいて,占有情報を予測する.
ただし、占有予測部26は、入力された参照幾何情報又は動き補償部24から出力された参照幾何情報をアップサンプリングした後に、八分木復号部23から出力されたノードの8つの子ノードが表すボクセルの領域に含まれる参照幾何情報を選別した結果に基づいて、この占有情報の予測について行うように構成されていてもよい。
In this embodiment, the occupancy information is predicted based on the result of upsampling the reference geometric information included in the voxel region represented by the eight child nodes of the node output from the octree decoding unit by the upsampling unit. do.
However, the occupancy prediction unit 26 upsamples the input reference geometry information or the reference geometry information output from the motion compensation unit 24, and then the eight child nodes of the node output from the octree decoding unit 23 represent The occupation information may be predicted based on the result of selecting the reference geometric information included in the voxel region.

また、八分木法では、ノードの内部に含まれる点の個数が上層ほど多く下層ほど少なくなることが予想される。そのため,pred1及びpredLの分類に用いる閾値thを、固定値の代わりに、th=λ×nとしてもよい。ここで、nは、八分木法における階層番号(最下層を1とし、上層ほど大きくなる番号とする)であり、λは、任意の係数である。 Also, in the octree method, it is expected that the number of points included inside a node increases in higher layers and decreases in lower layers. Therefore, the threshold th used for classifying pred1 and predL may be th=λ×n instead of a fixed value. Here, n is a hierarchical number in the octree method (the lowest layer is 1 and the number increases toward the higher layers), and λ is an arbitrary coefficient.

図3A及び図3Bに、階層ごとのノードの概要について示す。ノードは、実際には3次元の格子で表されるが、ここでは、図を単純化するために2次元の格子で表現する。 3A and 3B show an outline of nodes for each hierarchy. Although the nodes are actually represented by a three-dimensional grid, they are represented here by a two-dimensional grid to simplify the drawing.

図3Aは、上層(n=4)における4つのノードの模式図を示している。各ノード内の四角形は、点を表現可能な最小単位を表し、黒色で塗りつぶされた四角形は、点が存在することを意味する。図3Bは、より下層(n=2)における4つのノードの模式図を示している。 FIG. 3A shows a schematic diagram of four nodes in the upper layer (n=4). A rectangle inside each node represents the minimum unit that can express a point, and a black rectangle means that a point exists. FIG. 3B shows a schematic diagram of four nodes in the lower layer (n=2).

上層のノードほど、ボクセルの体積が大きいため、より多くの点が含まれる可能性がある。一方、下層のノードは、上層のノードを分割したものであるため、相対的に点の個数が少なくなる。 Higher nodes may contain more points due to their larger voxel volume. On the other hand, since the nodes in the lower layer are obtained by dividing the nodes in the upper layer, the number of points is relatively small.

そのため、固定値の閾値thを用いた場合には、上層ほどpredLに分類される可能性が高く、下層ほどpred1に分類される可能性が高くなる。例えば、th=3とした場合、図3Aに示す上層のノードは、全てpredLに分類され、図3Bに示す下層のノードは、全てpred1に分類される。 Therefore, when a fixed threshold value th is used, the higher the layer, the higher the possibility of being classified into predL, and the lower the layer, the higher the possibility of being classified into pred1. For example, when th=3, all upper-layer nodes shown in FIG. 3A are classified into predL, and all lower-layer nodes shown in FIG. 3B are classified into pred1.

一方、例えば、λ=1、th=λ×nとした場合、上層のノード及び下層のノードは、図3A及び図3Bに示す左上の1つのノードが、predLに分類され、他のノードが、pred1に分類される。 On the other hand, for example, when λ = 1 and th = λ × n, among the upper and lower nodes, the upper left node shown in FIGS. 3A and 3B is classified as predL, and the other nodes are It is classified into pred1.

このように、階層に応じて閾値を変動させることにより、同一階層におけるノードを点の密度に応じて分類する効果が得られる。 In this way, by varying the threshold according to the hierarchy, it is possible to obtain the effect of classifying the nodes in the same hierarchy according to the density of points.

或いは、階層番号の代わりに任意の統計量を用いてもよい。例えば、ある階層における占有ノード内の点の個数の平均値mを数え、その1つ下の階層で用いる閾値をth=λ×mとしてもよい。或いは、統計量は、ある階層における占有ノード内の点の個数の中央値や、最上階層からの累積移動平均値であってもよい。これにより、入力点群の密度に対して適応的に閾値を変動させることができる。 Alternatively, any statistic may be used instead of the hierarchy number. For example, the average value m of the number of points in the occupied node in a certain layer may be counted, and the threshold used in the layer one level below may be set to th=λ×m. Alternatively, the statistic may be the median value of the number of points in the occupied node in a certain layer, or the cumulative moving average value from the top layer. Thereby, the threshold can be adaptively changed with respect to the density of the input point group.

確率取得部27は、占有予測部26から与えられる占有情報の予測等を用いて、算術復
号部22によって復号されるノードに対応するデータの生起確率を取得するように構成されている。かかる生起確率は、固定値であってもよいし、適応的な変動値であってもよい。
The probability acquisition unit 27 is configured to acquire the probability of occurrence of data corresponding to the node decoded by the arithmetic decoding unit 22 using prediction of occupation information provided from the occupation prediction unit 26 and the like. Such probability of occurrence may be a fixed value or an adaptive variable value.

確率取得部27は、生起確率を取得する際に、算術復号部22によって復号されるノードの親ノードの近傍ノードの占有情報や、共通の親ノードを持つ8つの子ノードの占有情報のような他の情報を用いるように構成されていてもよい。 When acquiring the occurrence probability, the probability acquisition unit 27 obtains information such as occupation information of neighboring nodes of the parent node of the node decoded by the arithmetic decoding unit 22 and occupation information of eight child nodes having a common parent node. It may be configured to use other information.

確率取得部27は、取得された生起確率を算術復号部22へ出力するように構成されている。 The probability acquisition unit 27 is configured to output the acquired occurrence probability to the arithmetic decoding unit 22 .

モデル生成部28は、点をアップサンプリングするためのモデルを生成するように構成されている。モデル生成部28は、規則的な方法に基づいて、かかるモデルを生成するように構成されていてもよい。 Model generator 28 is configured to generate a model for upsampling the points. Model generator 28 may be configured to generate such models based on a systematic method.

例えば、モデル生成部28は、点の位置を基準として3次元空間上でL1距離が1となる6か所にアップサンプリングするモデルを生成するように構成されていてもよいし、点を中心に配置した場合のGeodesic domeの頂点位置にアップサンプリングするモデルを生成するように構成されていてもよいし、他の方法でアップサンプリングするモデルを生成するように構成されていてもよい。 For example, the model generation unit 28 may be configured to generate a model up-sampled to six locations where the L1 distance is 1 in the three-dimensional space with the position of the point as a reference, or It may be configured to generate an up-sampled model at the vertex position of the Geodesic dome when arranged, or may be configured to generate an up-sampled model by another method.

図4に、L1距離が1となる箇所にアップサンプリングする場合の模式図を示す。点は、実際には3次元で表されるが、ここでは、図を単純化するために2次元で表現する。 FIG. 4 shows a schematic diagram of upsampling to a location where the L1 distance is 1. In FIG. The points are actually represented in three dimensions, but are represented here in two dimensions to simplify the drawing.

図4において、黒色の四角形は、参照フレーム内の1点を表し、黒色の丸は、この点からアップサンプリングされた点を表す。図4においては,2次元格子上でL1距離が1となる4か所に点がアップサンプリングされる。 In FIG. 4, the black squares represent one point in the reference frame and the black circles represent points upsampled from this point. In FIG. 4, the points are upsampled to four locations where the L1 distance is 1 on the two-dimensional grid.

また、モデル生成部28は、訓練用の点群を用いて最尤推定に基づいて、かかるモデルを生成するように構成されていてもよい。図5に、かかるケースにおける処理のフローチャートを示す。 The model generation unit 28 may also be configured to generate such a model based on maximum likelihood estimation using a point cloud for training. FIG. 5 shows a flow chart of processing in such a case.

図5に示すように、ステップS101において、訓練用の点群が入力されると、ステップS102において、動き補償部24は、LiDARで計測した時系列的に連続する複数の点群を、訓練用の点群、すなわち、参照フレーム及び現フレームのペアとし、参照フレームの姿勢変換を行う。 As shown in FIG. 5, in step S101, when a training point group is input, in step S102, the motion compensation unit 24 converts a plurality of time-series continuous point groups measured by LiDAR into a training point group. , that is, a pair of the reference frame and the current frame, and pose transformation of the reference frame is performed.

ステップS103において、モデル生成部28は、最近傍探索によって参照フレームの各点と現フレームの点を対応付け、対応する点の位置誤差を表すベクトルを計算する。 In step S103, the model generating unit 28 associates each point of the reference frame with the point of the current frame by nearest neighbor search, and calculates a vector representing the positional error of the corresponding points.

ステップS104において、モデル生成部28は、出現頻度を高めるために、かかるベクトルを量子化してもよい。 In step S104, the model generator 28 may quantize such vectors in order to increase the appearance frequency.

例えば、モデル生成部28は、ベクトルの向きや大きさを空間的に等間隔になるように離散化された代表値に置き換えてもよいし、k-means法によってk通りに分類されたベクトル群の代表値に置き換えてもよいし、他の方法を用いてもよい。 For example, the model generation unit 28 may replace the directions and magnitudes of the vectors with representative values that are discretized so that they are spaced equally, or a group of vectors classified into k types by the k-means method. may be replaced with a representative value of , or another method may be used.

ステップS105において、モデル生成部28は、同一のベクトルが出現した回数をカウントし、出現頻度の高い上位N個のベクトルを選択する。モデル生成部28は、点の位置を基準として、かかるベクトルが指し示す先に点をアップサンプリングするモデルを生
成してもよい。
In step S105, the model generation unit 28 counts the number of times the same vector appears, and selects the top N vectors with the highest appearance frequency. The model generating unit 28 may generate a model for up-sampling points to points indicated by the vectors, using the positions of the points as references.

ステップS106において、モデル生成部28は、選択済みベクトル集合を出力する。 In step S106, the model generator 28 outputs the selected vector set.

図6に、上述のモデルを生成する処理の別のケースのフローチャートを示す。 FIG. 6 shows a flowchart of another case of the process of generating the model described above.

図6に示すように、ステップS201において、訓練用の点群及びベクトル集合が入力されると、ステップS202において、モデル生成部28は、アップサンプリングなしの参照フレームを用いて現フレームを符号化し、符号量を取得する。 As shown in FIG. 6, in step S201, when a training point cloud and vector set are input, in step S202, the model generation unit 28 encodes the current frame using a reference frame without upsampling, Get the code amount.

ステップS203において、モデル生成部28は、ベクトル集合の要素数が0になるまで、ステップS204~S209の処理を繰り返す。 In step S203, the model generating unit 28 repeats the processing of steps S204 to S209 until the number of elements in the vector set becomes zero.

ステップS204において、モデル生成部28は、ベクトル集合内の残りのベクトルのそれぞれについて、ステップS205~S209の動作を繰り返す。 In step S204, the model generator 28 repeats the operations of steps S205 to S209 for each of the remaining vectors in the vector set.

ステップS205において、モデル生成部28は、選択済みベクトル集合及びステップS204において選択された1つのベクトルを用いて、参照フレームをアップサンプリングする。 In step S205, the model generation unit 28 upsamples the reference frame using the selected vector set and one vector selected in step S204.

ステップS206において、モデル生成部28は、アップサンプリングされた参照フレームを用いて現フレームを符号化し、符号量を取得する。 In step S206, the model generation unit 28 encodes the current frame using the upsampled reference frame and acquires the code amount.

ステップS207において、モデル生成部28は、ステップS206において取得された符号量が過去最低であるか否かについて判定する。Yesの場合、本処理は、ステップS208に進み、Noの場合は、本処理は、ステップS209に進む。 In step S207, the model generation unit 28 determines whether or not the code amount obtained in step S206 is the lowest ever. If Yes, the process proceeds to step S208, and if No, the process proceeds to step S209.

ステップS208において、モデル生成部28は、ステップS204において選択された1つのベクトルを選択済みベクトル集合に追加する。 In step S208, the model generation unit 28 adds one vector selected in step S204 to the selected vector set.

ステップS209において、モデル生成部28は、ステップS204において選択された1つのベクトルをベクトル集合から除外する。 In step S209, the model generator 28 excludes one vector selected in step S204 from the vector set.

ステップS210において、モデル生成部28は、選択済みベクトル集合を出力する。 In step S210, the model generator 28 outputs the selected vector set.

モデル生成部28は、ベクトルの個数Nを決定する際には、訓練用の点群を実際に符号化した場合に符号化効率が最大となるNを選択するように構成されていてもよい。 When determining the number N of vectors, the model generation unit 28 may be configured to select N that maximizes the encoding efficiency when the training point group is actually encoded.

或いは、モデル生成部28は、N個のベクトルを出現頻度の高い順に選ぶ代わりに、訓練用の点群の符号化効率が良くなる順に選択するように構成されていてもよい。 Alternatively, the model generation unit 28 may be configured to select the N vectors in order of increasing efficiency of encoding the training point group, instead of selecting the N vectors in descending order of appearance frequency.

すなわち、モデル生成部28は、選択する候補となる全てのベクトルについて、それらをモデルに含めた場合の符号化効率を調査した後に、最も改善効果の大きい1つのベクトルをモデルに含めるように構成されていてもよい。そして、モデル生成部28は、かかるベクトルを候補から除外し、符号化効率が改善しなくなるまで同じ処理を繰り返すように構成されていてもよい。このようにして、モデル生成部28は、モデルに含めるベクトルの集合を選んでもよい。 That is, the model generating unit 28 is configured to examine the coding efficiency when all the vectors to be selected are included in the model, and then include one vector with the greatest improvement effect in the model. may be Then, the model generation unit 28 may be configured to exclude such vectors from the candidates and repeat the same process until the encoding efficiency is no longer improved. In this manner, model generator 28 may select a set of vectors to include in the model.

或いは、モデル生成部28は、初めに図5に示す処理で出現頻度の高いN個のベクトル集合を選択した後に、出現頻度の高い順に1つずつベクトルを選択し、図6に示す内側の
反復処理(ステップS204~S209)を行うことによって、N回の反復のみでモデルに含めるベクトルの集合を選択するように構成されていてもよい。
Alternatively, the model generation unit 28 first selects a set of N vectors with high frequency of appearance by the processing shown in FIG. The process (steps S204-S209) may be configured to select the set of vectors to include in the model in only N iterations.

図7に、最尤推定によって得られたベクトル集合を用いてアップサンプリングする場合の模式図を示す。点は、実際には3次元で表されるが、ここでは、図を単純化するために2次元で表現する.
図7において、黒色の四角形は、参照フレーム内の1点を表し、黒色の丸は、かかる点からアップサンプリングされた点を表す。
FIG. 7 shows a schematic diagram of upsampling using a set of vectors obtained by maximum likelihood estimation. The points are actually represented in three dimensions, but here they are represented in two dimensions to simplify the drawing.
In FIG. 7, a black square represents a point in the reference frame and a black circle represents a point upsampled from that point.

ここで、得られるベクトル集合の例として、v1=(1,1)、v2=(2,-2)、v3=(-1,2)、v4=(-2,0)、v5=(-1,-2)を想定する。図7においては、参照フレーム内の1点の位置を基準に、これらのベクトルが指し示す先の位置に、点がアップサンプリングされる。 Here, as an example of the obtained vector set, v1 = (1, 1), v2 = (2, -2), v3 = (-1, 2), v4 = (-2, 0), v5 = (- 1, -2). In FIG. 7, the points are upsampled relative to the location of the point in the reference frame to the locations pointed to by these vectors.

また、モデル生成部28は、点の属性情報毎に、個別に、かかるモデルを作成するように構成されていてもよい。 In addition, the model generation unit 28 may be configured to generate such a model individually for each point attribute information.

かかる属性情報は、点の持つ任意の特徴であり、例えば、点の座標を3次元極座標系で表現した場合の中心からの距離や仰角や方位角である。或いは、かかる属性情報は、点からその2近傍点へのベクトルのなす角であってもよいし、点からその2近傍点の中心へ向かうベクトルの大きさや向きであってもよい。或いは、かかる属性情報は、非特許文献5(Stoyanov、Todor等、「Fast and accurate scan
registration through minimization of the distance between compact 3D NDT representations.」、The International Journal of
Robotics Reserch 31.12(2012):1377-1393)に記載されるように点の周囲の点を用いて計算した分散共分散行列を特異値分解し、その特異値の関係性から得られる球や平面や線という分類であってもよいし、他の特徴であってもよい。
Such attribute information is arbitrary features of a point, such as the distance from the center, the elevation angle, and the azimuth angle when the coordinates of the point are expressed in a three-dimensional polar coordinate system. Alternatively, such attribute information may be an angle formed by a vector from a point to its two neighboring points, or may be the magnitude or direction of a vector from a point to the center of its two neighboring points. Alternatively, such attribute information is described in Non-Patent Document 5 (Stoyanov, Todor et al., "Fast and Accurate Scan
registration through minimization of the distance between compact 3D NDT representations. , The International Journal of
Robotics Research 31.12 (2012): 1377-1393), the variance-covariance matrix calculated using the points around the point is singular value decomposed, and the sphere or It may be classified as a plane or a line, or may be another feature.

上述した最尤推定は、かかる属性情報によって分類された点群毎に行われてもよい。すなわち、モデル生成部28は、属性情報毎に異なるモデルを生成するように構成されていてもよい。 The maximum likelihood estimation described above may be performed for each point group classified by such attribute information. That is, the model generator 28 may be configured to generate different models for each piece of attribute information.

この際、参照フレームの点と現フレームの点との間で属性情報が一致する頻度を高めるために、属性情報の値について量子化してもよい。例えば,中心からの距離は、10メートル間隔のビンで表現し、同一のビンに属する点は、同一の距離であるとみなしてよい。 At this time, the value of attribute information may be quantized in order to increase the frequency of matching attribute information between points in the reference frame and points in the current frame. For example, the distance from the center may be represented by bins spaced 10 meters apart, and points belonging to the same bin may be considered to have the same distance.

また、属性情報によって分類を行う際には、複数の属性情報を組み合わせて分類のパターンを増やしてもよい。 Moreover, when classifying according to attribute information, a plurality of pieces of attribute information may be combined to increase classification patterns.

図8に、属性情報として方位角を利用する場合の例を示す。図8の例では、黒色の丸は、原点を表し、三角形及び菱形は、それぞれ参照フレーム内の点を表す。 FIG. 8 shows an example of using azimuth angles as attribute information. In the example of FIG. 8, the black circle represents the origin, and the triangles and diamonds each represent points in the reference frame.

参照フレーム内の点の位置は、一般に、3次元直交座標系における原点を基準とした(x,y,z)座標で表現されるため、3次元極座標系表現に変換され得る。 Since the position of a point in the reference frame is generally represented by (x, y, z) coordinates relative to the origin in a three-dimensional Cartesian coordinate system, it can be converted to a three-dimensional polar coordinate system representation.

図8の例は、三角形の点は、方位角45°となり、菱形の点は、方位角150°となる場合を示している。このようにして,各点に属性情報を付与し、属性情報に応じて点を分類することができる。 The example of FIG. 8 shows a case where the triangular points have an azimuth angle of 45° and the rhombic points have an azimuth angle of 150°. In this way, attribute information can be assigned to each point, and the points can be classified according to the attribute information.

また、モデル生成部28は、アップサンプリング部25によってアップサンプリングを行うか否かについての情報や、アップサンプリングの方法をシンタックスとして出力するように構成されていてもよい。 Further, the model generation unit 28 may be configured to output information as to whether or not the upsampling unit 25 performs upsampling and the upsampling method as syntax.

かかるシンタックスは、例えば、0がアップサンプリングを実施しないというルールを表し、1が規則的な方法に基づいてアップサンプリングを実施するというルールを表し、2が最尤推定に基づいてアップサンプリングを実施するというルールを表す情報である。 Such a syntax could, for example, represent a rule where 0 represents no upsampling, 1 represents upsampling based on a regular method, and 2 upsampling based on maximum likelihood estimation. This is information representing a rule that

また、上述の点群符号化装置100及び点群復号装置200は、コンピュータに各機能(各工程)を実行させるプログラムであって実現されていてもよい。 Also, the point cloud encoding device 100 and the point cloud decoding device 200 described above may be implemented as a program that causes a computer to execute each function (each process).

なお、上記の各実施形態では、本発明を点群符号化装置100及び点群復号装置200への適用を例にして説明したが、本発明は、かかる例のみに限定されるものではなく、点群符号化装置100及び点群復号装置200の各機能を備えた点群符号化/復号システムにも同様に適用できる。 In the above-described embodiments, the present invention is applied to the point group encoding device 100 and the point group decoding device 200 as examples, but the present invention is not limited to such examples. A point cloud encoding/decoding system having the functions of the point cloud encoding device 100 and the point cloud decoding device 200 can be similarly applied.

なお、本実施形態によれば、例えば、動画像通信において総合的なサービス品質の向上を実現できることから、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、持続可能な産業化を推進するとともに、イノベーションの拡大を図る」に貢献することが可能となる。 In addition, according to this embodiment, for example, since it is possible to improve the overall service quality in video communication, the United Nations-led Sustainable Development Goals (SDGs) Goal 9 "Develop resilient infrastructure, It will be possible to contribute to the promotion of sustainable industrialization and the expansion of innovation.

10…点群処理システム
100…点群符号化装置
200…点群復号装置
21…動き復号部
22…算術復号部
23…八分木復号部
24…動き補償部
25…アップサンプリング部
26…占有予測部
27…確率取得部
28…モデル生成部
10 Point cloud processing system 100 Point cloud encoding device 200 Point cloud decoding device 21 Motion decoding unit 22 Arithmetic decoding unit 23 Octtree decoding unit 24 Motion compensation unit 25 Upsampling unit 26 Occupancy prediction Part 27... Probability acquisition part 28... Model generation part

Claims (9)

ビットストリームから点群を復号するように構成されている点群復号装置であって、
参照幾何情報の点をアップサンプリングするように構成されているアップサンプリング部と、
アップサンプリングされた前記参照幾何情報を用いて占有情報を予測するように構成されている占有予測部とを有することを特徴とする点群復号装置。
A point cloud decoding device configured to decode a point cloud from a bitstream, comprising:
an upsampling unit configured to upsample points of the reference geometric information;
and an occupancy prediction unit configured to predict occupancy information using the upsampled reference geometric information.
前記点のアップサンプリング方法を表すモデルを生成するように構成されているモデル生成部を更に有し、
前記アップサンプリング部は、前記モデル生成部によって生成された前記モデルを用いて、前記点をアップサンプリングするように構成されていることを特徴とする請求項1に記載の点群復号装置。
further comprising a model generator configured to generate a model representing the method of upsampling the points;
2. The point cloud decoding device according to claim 1, wherein the upsampling unit is configured to upsample the points using the model generated by the model generating unit.
前記アップサンプリング部は、規則的な方法に基づいて生成されたモデルを用いて、前記点をアップサンプリングするように構成されていることを特徴とする請求項1又は2に記載の点群復号装置。 3. The point cloud decoding device according to claim 1, wherein the upsampling unit is configured to upsample the points using a model generated based on a regular method. . 前記アップサンプリング部は、最尤推定に基づいて生成されたモデルを用いて、前記点をアップサンプリングするように構成されていることを特徴とする請求項1~3のいずれか一項に記載の点群復号装置。 4. The method of any one of claims 1-3, wherein the upsampling unit is configured to upsample the points using a model generated based on maximum likelihood estimation. Point cloud decoder. 前記最尤推定は、訓練用の点群において符号化効率が最大となるように前記点をアップサンプリングする位置と個数を推定することを特徴とする請求項4に記載の点群復号装置。 5. The point cloud decoding apparatus according to claim 4, wherein the maximum likelihood estimation estimates the positions and the number of points to be up-sampled so as to maximize coding efficiency in the training point cloud. 前記アップサンプリング部は、前記点の属性情報によって、前記点のアップサンプリング方法を変更するように構成されていることを特徴とする請求項1~5のいずれか一項に記載の点群復号装置。 The point group decoding device according to any one of claims 1 to 5, wherein the upsampling unit is configured to change an upsampling method of the points according to the attribute information of the points. . ビットストリームから点群を復号するように構成されている点群復号装置であって、
八分木法における階層番号の関数として表される閾値を用いて、前記占有情報を予測するように構成されている占有予測部を有することを特徴とする点群復号装置。
A point cloud decoding device configured to decode a point cloud from a bitstream, comprising:
A point cloud decoding device, comprising: an occupancy prediction unit configured to predict the occupancy information using a threshold expressed as a function of a layer number in the octree method.
ビットストリームから点群を復号するように構成されている点群復号方法であって、
参照幾何情報の点をアップサンプリングする工程と、
アップサンプリングされた前記参照幾何情報を用いて占有情報を予測する工程とを有することを特徴とする点群復号方法。
A point cloud decoding method configured to decode a point cloud from a bitstream, comprising:
Upsampling points of reference geometry information;
and predicting occupancy information using the upsampled reference geometric information.
コンピュータを、ビットストリームから点群を復号するように構成されている点群復号装置として機能させるプログラムであって、
前記点群復号装置は、
参照幾何情報の点をアップサンプリングするように構成されているアップサンプリング部と、
アップサンプリングされた前記参照幾何情報を用いて占有情報を予測するように構成されている占有予測部とを有することを特徴とするプログラム。
A program that causes a computer to function as a point cloud decoding device configured to decode a point cloud from a bitstream,
The point group decoding device is
an upsampling unit configured to upsample points of the reference geometric information;
an occupancy prediction unit configured to predict occupancy information using the upsampled reference geometric information.
JP2021052710A 2021-03-26 2021-03-26 Point group decryption device, point group decryption method, and program Pending JP2022150216A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021052710A JP2022150216A (en) 2021-03-26 2021-03-26 Point group decryption device, point group decryption method, and program
PCT/JP2022/001225 WO2022201773A1 (en) 2021-03-26 2022-01-14 Point cloud decoding device, point cloud decoding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021052710A JP2022150216A (en) 2021-03-26 2021-03-26 Point group decryption device, point group decryption method, and program

Publications (1)

Publication Number Publication Date
JP2022150216A true JP2022150216A (en) 2022-10-07

Family

ID=83396756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021052710A Pending JP2022150216A (en) 2021-03-26 2021-03-26 Point group decryption device, point group decryption method, and program

Country Status (2)

Country Link
JP (1) JP2022150216A (en)
WO (1) WO2022201773A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3595181B1 (en) * 2018-07-11 2023-09-06 BlackBerry Limited Predictor-copy coding mode for coding of point clouds
CN114009025A (en) * 2019-07-02 2022-02-01 松下电器(美国)知识产权公司 Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device

Also Published As

Publication number Publication date
WO2022201773A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
US11882317B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
US11936846B2 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
Zhu et al. Lossless point cloud geometry compression via binary tree partition and intra prediction
WO2021067867A1 (en) Trimming search space for nearest neighbor determinations in point cloud compression
JP7461389B2 (en) Planar mode in Octree-based point cloud coding
JP7330306B2 (en) Transform method, inverse transform method, encoder, decoder and storage medium
CN112438049B (en) Encoding and decoding method, encoder, decoder, and storage medium
EP3896657B1 (en) Method and apparatus for processing a point cloud
Daribo et al. Efficient rate-distortion compression of dynamic point cloud for grid-pattern-based 3D scanning systems
JP5932051B2 (en) Predictive position decoding
US20200374566A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
KR20220166793A (en) Simplified angle mode for geometry-based point cloud compression
CN114731161A (en) Method and apparatus for tree switching in point cloud compression
KR20220166792A (en) Simplified angle mode for geometry-based point cloud compression
AU2021411954A1 (en) Inter prediction coding for geometry point cloud compression
US20230410377A1 (en) Method of encoding and decoding, encoder, decoder
WO2022201773A1 (en) Point cloud decoding device, point cloud decoding method, and program
US20240244179A1 (en) Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
WO2023095670A1 (en) Point cloud decoding device, point cloud decoding method, and program
RU2798751C2 (en) 3d data coding method, 3d data decoding method, 3d data coding device and 3d data decoding device
WO2023127052A1 (en) Decoding device, encoding device, decoding program, encoding program, decoding method, and encoding method
WO2023155045A1 (en) Prediction method and apparatus, coder, decoder, and coding and decoding system
WO2023277128A1 (en) Point cloud decoding device, point cloud decoding method, and program
JP2023053827A (en) Point group decoding device, point group decoding method and program
KR20240097892A (en) Methods, devices and media for point cloud coding

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240610