JP2022150216A - Point group decryption device, point group decryption method, and program - Google Patents
Point group decryption device, point group decryption method, and program Download PDFInfo
- Publication number
- JP2022150216A JP2022150216A JP2021052710A JP2021052710A JP2022150216A JP 2022150216 A JP2022150216 A JP 2022150216A JP 2021052710 A JP2021052710 A JP 2021052710A JP 2021052710 A JP2021052710 A JP 2021052710A JP 2022150216 A JP2022150216 A JP 2022150216A
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- points
- information
- upsampling
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000007476 Maximum Likelihood Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 abstract description 2
- 239000013598 vector Substances 0.000 description 35
- 238000012545 processing Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 5
- 239000000470 constituent Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 101000638078 Homo sapiens Transmembrane channel-like protein 3 Proteins 0.000 description 1
- 102100032048 Transmembrane channel-like protein 3 Human genes 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Architecture (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、点群復号装置、点群復号方法及びプログラムに関する。 The present invention relates to a point cloud decoding device, a point cloud decoding method, and a program.
非特許文献1には、インター予測を用いた点群の幾何的情報の符号化及び復号技術が開示されている。かかるインター予測は、複数の要素技術によって構成される。 Non-Patent Document 1 discloses a technique for encoding and decoding point cloud geometric information using inter-prediction. Such inter-prediction is composed of a plurality of elemental technologies.
非特許文献2には、時系列的に連続する2つの点群の間で、八分木 (Octree) 法によって分割された小領域(ノード)を対応付け、ノード単位で動き補償を実現する技術が開示されている。 Non-Patent Document 2 describes a technique for realizing motion compensation in units of nodes by associating small regions (nodes) divided by the Octree method between two time-series continuous point groups. is disclosed.
非特許文献3には、対応付けられたノードを8つの子ノードに分割する場合に、各子ノードに点が存在するか否か(占有情報)を判定し、時系列的に前の点群(参照フレーム)のノードの占有情報を、時系列的に現在の点群(現フレーム)のノードの占有情報の予測とする技術が開示されている。 In Non-Patent Document 3, when dividing the associated node into eight child nodes, it is determined whether or not a point exists in each child node (occupancy information), and the previous point group in chronological order A technique is disclosed in which the occupancy information of a node (reference frame) is used to predict the occupancy information of a node in a current point group (current frame) in time series.
かかる占有情報の予測は、予測不可能を表すno pred、非占有を表すpred0、占有を表すpred1、強い占有を表すpredLという分類で表現される。 Prediction of such occupancy information is expressed by classification of no pred indicating unpredictable, pred0 indicating non-occupancy, pred1 indicating occupancy, and predL indicating strong occupancy.
pred1及びpredLについては、子ノード内に存在する点の個数が固定値の閾値未満であればpred1に分類され、そうでなければpredLに分類される。 For pred1 and predL, if the number of points present in the child node is less than a fixed threshold, it is classified as pred1, otherwise it is classified as predL.
ここでは、現フレームのノードの占有情報を算術符号化する場合に、かかる予測を用いて各ビットのコンテキストを選択し、コンテキスト毎に異なる生起確率を選択することによって符号化性能を改善することができる。 Here, when the occupation information of the node of the current frame is arithmetically coded, the prediction is used to select the context of each bit, and the coding performance can be improved by selecting different occurrence probabilities for each context. can.
非特許文献4には、時系列的に連続する2つの点群の間で点群全体の動きパラメータ(回転,並進)を推定し、整列させることによって、非特許文献2及び3に基づく符号化の性能を改善する技術が開示されている。 In Non-Patent Document 4, by estimating and aligning motion parameters (rotation, translation) of the entire point group between two time-series continuous point groups, encoding based on Non-Patent Documents 2 and 3 Techniques for improving the performance of are disclosed.
しかしながら、非特許文献1~4におけるインター予測では、点群の空間方向の密度が低く時間方向の相関が低い場合に、予測精度が低くなり、符号化効率が低下するという問題点があった。 However, the inter prediction in Non-Patent Documents 1 to 4 has a problem that the prediction accuracy is low and the coding efficiency is low when the density of the point cloud in the spatial direction is low and the correlation in the time direction is low.
そこで、本発明は、上述の課題に鑑みてなされたものであり、点群のインター予測精度を改善し、符号化効率を改善することができる点群復号装置、点群復号方法及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and provides a point cloud decoding device, a point cloud decoding method, and a program that can improve the inter prediction accuracy of the point cloud and improve the encoding efficiency. intended to
本発明の第1の特徴は、ビットストリームから点群を復号するように構成されている点群復号装置であって、参照幾何情報の点をアップサンプリングするように構成されているアップサンプリング部と、アップサンプリングされた前記参照幾何情報を用いて占有情報を予測するように構成されている占有予測部とを有することを要旨とする。 A first feature of the present invention is a point cloud decoding device configured to decode a point cloud from a bitstream, comprising an upsampling unit configured to upsample points of reference geometric information; and an occupancy prediction unit configured to predict occupancy information using the upsampled reference geometric information.
本発明の第2の特徴は、ビットストリームから点群を復号するように構成されている点群復号方法であって、参照幾何情報の点をアップサンプリングする工程と、アップサンプリングされた前記参照幾何情報を用いて占有情報を予測する工程とを有することを要旨とする。 A second aspect of the present invention is a point cloud decoding method adapted to decode a point cloud from a bitstream, comprising the steps of upsampling points of reference geometry information; and predicting occupancy information using the information.
本発明の第3の特徴は、コンピュータを、ビットストリームから点群を復号するように構成されている点群復号装置として機能させるプログラムであって、前記点群復号装置は、参照幾何情報の点をアップサンプリングするように構成されているアップサンプリング部と、アップサンプリングされた前記参照幾何情報を用いて占有情報を予測するように構成されている占有予測部とを有することを要旨とする。 A third feature of the present invention is a program that causes a computer to function as a point cloud decoding device configured to decode a point cloud from a bitstream, the point cloud decoding device comprising points of reference geometric information and an occupancy prediction unit configured to predict occupancy information using the upsampled reference geometric information.
本発明によれば、点群のインター予測精度を改善し、符号化効率を改善することができる点群復号装置、点群復号方法及びプログラムを提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a point cloud decoding device, a point cloud decoding method, and a program capable of improving the inter-prediction accuracy of the point cloud and improving the encoding efficiency.
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、以下の実施
形態における構成要素は、適宜、既存の構成要素等との置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that constituent elements in the following embodiments can be appropriately replaced with existing constituent elements and the like, and various variations including combinations with other existing constituent elements are possible. Therefore, the following description of the embodiments is not intended to limit the scope of the invention described in the claims.
(第1実施形態)
以下、図1~図8を参照して、本発明の第1実施形態に係る点群処理システム10について説明する。図1は、本実施形態に係る実施形態に係る点群処理システム10を示す図である。
(First embodiment)
A point
図1に示すように、点群処理システム10は、点群符号化装置100及び点群復号装置200を有する。
As shown in FIG. 1 , the point
点群符号化装置100は、入力点群信号を符号化することによって符号化データ(ビットストリーム)を生成するように構成されている。点群復号装置200は、ビットストリームを復号することによって出力点群信号を生成するように構成されている。
The point
なお、入力点群信号及び出力点群信号は、点群内の各点の位置情報と属性情報とから構成される。属性情報は、例えば、各点の色情報や反射率である。 Note that the input point cloud signal and the output point cloud signal are composed of position information and attribute information of each point in the point cloud. The attribute information is, for example, color information and reflectance of each point.
ここで、かかるビットストリームは、点群符号化装置100から点群復号装置200に対して伝送路を介して送信されてもよい。また、ビットストリームは、記憶媒体に格納された上で、点群符号化装置100から点群復号装置200に提供されてもよい。
Here, such a bitstream may be transmitted from the point
(点群復号装置200)
以下、図2を参照して、本実施形態に係る点群復号装置200について説明する。図2は、本実施形態に係る点群復号装置200の機能ブロックの一例について示す図である。
(Point group decoding device 200)
The point
図2に示すように、点群復号装置200は、動き復号部21と、算術復号部22と、八分木復号部23と、動き補償部24と、アップサンプリング部25と、占有予測部26と、確率取得部27と、モデル生成部28とを有する。
As shown in FIG. 2, the point
なお,本実施形態においては、モデル生成部28における処理は、復号処理を行う前に予め実行されてもよい。
Note that, in the present embodiment, the processing in the
以下、本実施形態に係る点群復号装置200の各機能ブロックについて説明する。動き復号部21、算術復号部22、八分木復号部23、動き補償部24、占有予測部26及び確率取得部27における具体的な処理については、例えば、上述の非特許文献1~4に記載の方法を用いることができる.
動き復号部21は、入力ビットストリームに含まれる符号化された動きパラメータを復号するように構成されている。ここで、動きパラメータは、点群全体又は点群の一部のみを姿勢変換させる回転行列や並進ベクトルとして表現される。
Each functional block of the point
The
算術復号部22は、入力ビットストリーム及び与えられたデータの生起確率を用いて八分木データ(ビット列)を復号するように構成されている。かかるデータは、0又は1の二値であってもよいし、それ以外であってもよい。かかるデータの生起確率は、確率取得部24から与えられる。
The
後述する八分木復号部23が、ノード単位で処理を行うため、1つのノードに含まれる8つの子ノードの占有情報を表す8つのビットを復号した時点で、算術復号部22は、一
度処理を停止するように構成されている。
Since the
そして、算術復号部22は、八分木復号部23が、この8つのビットに対する処理を完了した後に、処理を再開するように構成されている。
The
このようにして、入力ビットストリームの全てを処理するまで、算術復号部22及び八分木復号部23は、交互に処理を行うように構成されている。
In this manner, the
なお、本実施形態においては、全て又は一部のノードにおいて八分木データについて、公知の四分木 (Quad tree) データや二分木 Binary tree) データに置き換えてもよい。 In this embodiment, the octatree data may be replaced with known quadtree data or binary tree data in all or some of the nodes.
八分木復号部23は、公知の八分木法に基づく復号手法を用いてビット列から幾何情報を復号するように構成されている。
The
すなわち、八分木復号部23は、あるノードに含まれる8つの子ノードの占有情報を表す8つのビットが与えられた場合、ビットが1となる位置に子ノードを生成するように構成されている。
That is, the
八分木復号部23は、かかる処理を上層から下層に向かって階層的に行い、最下層のノードの座標を、点群を表す幾何情報として出力するように構成されている。
The
八分木法は、ノード単位で処理を行う手法であるため、現在のノードに含まれる8つの子ノードの生成処理が完了した時点で、八分木復号部23は、一度処理を停止するように構成されている。
Since the octree method is a method of performing processing on a node-by-node basis, the
そして、八分木復号部23は、算術復号部22が次に処理するノードの8つの子ノードの占有情報を表す8つのビットを復号した後に、処理を再開するように構成されている。
The
このようにして、入力ビットストリームの全てを処理するまで、算術復号部22及び八分木復号部23は、交互に処理を行うように構成されている。
In this manner, the
ここでは,ノードは、3次元空間を分割するボクセルとして表現されるため、現在処理しているノード又は当該ノードの子ノードの領域に対応する参照幾何情報を選別することができる。かかる選別は、点群として表現される参照幾何情報から、当該領域の内部に含まれる一部のみを取り出す処理である.
本実施形態においては、八分木復号部23は、現在処理しているノードの8つの子ノードが表すボクセルの領域を、アップサンプリング部25へ出力するように構成されている。
Here, since nodes are expressed as voxels that divide the three-dimensional space, it is possible to select reference geometric information corresponding to the region of the node currently being processed or the child node of the node. Such selection is a process of extracting only a portion included inside the region from the reference geometric information expressed as a point group.
In the present embodiment, the
なお、本実施形態においては、全て又は一部のノードにおいて八分木法について、公知の四分木法や二分木法に置き換えてもよい.
動き補償部24は、点群として表現される参照幾何情報を、動きパラメータを用いて姿勢変換し、参照幾何情報を出力するように構成されている。かかる姿勢変換は、点群全体であってもよいし、点群の一部のみであってもよい。
In this embodiment, the octatree method may be replaced with a known quadtree method or binary tree method for all or some of the nodes.
The
すなわち、動き補償部24は、点群全体の場合には、全ての点に対して共通の動きパラメータを用いて姿勢変換を行い、点群の一部のみの場合には、一部の点に対して個別の動きパラメータを用いて姿勢変換を行うように構成されている。動きパラメータは,動き復号部21から与えられる。
That is, the
アップサンプリング部25は、点群として表現される参照幾何情報に対してアップサンプリングを施すように構成されている。かかる参照幾何情報は、動き補償部24で姿勢変換されたものであってもよいし、動き補償部24で姿勢変換されていないものであってもよい。
The
アップサンプリング部25は、参照幾何情報の各点に対して、所与のモデルを用いて、各点の周囲に新たな点を生成するように構成されている。かかるモデルは、モデル生成部28から与えられる。
The
アップサンプリング部25は、モデルが図示していない点の属性情報(例えば、LiDARセンサとの距離)を必要とする場合には、かかる属性情報を使用若しくは計算することによって、点を生成する。
The
換言すると、アップサンプリング部25は、属性情報ごとに異なるモデルを用いてアップサンプリングを行うように構成されている。すなわち、アップサンプリング部25は、点の属性情報によって、点のアップサンプリング方法を変更するように構成されている。
In other words, the
ここで、属性情報は、参照幾何情報の各点に予め付与されている場合には、そのまま使用され、参照幾何情報の各点に予め付与されていない場合には、新たに計算される。 Here, if the attribute information is assigned to each point of the reference geometry information in advance, it is used as it is, and if it is not assigned to each point of the reference geometry information in advance, it is newly calculated.
本実施形態において、アップサンプリング部25は、八分木復号部23から出力されたノードの8つの子ノードが表すボクセルの領域を用いて、参照幾何情報を選別するように構成されている。
In this embodiment, the
そして、アップサンプリング部25は、選別された参照幾何情報に対して、アップサンプリングを施すように構成されている。
The
ただし、かかるアップサンプリングは、入力された参照幾何情報又は動き補償部24から出力された参照幾何情報に対して行ってもよい。
However, such upsampling may be performed on the input geometric reference information or the geometric reference information output from the
また、アップサンプリング部25は、モデル生成部28からシンタックスを受け取り、かかるシンタックスに基づいて、アップサンプリングをするか否かについての情報や、アップサンプリングの方法について決定するように構成されていてもよい。
Also, the
また、アップサンプリング部25は、与えられた点群の中で、疎な点及び密な点を判別し、疎な点に対してのみ、アップサンプリングを施すように構成されていてもよい。
Further, the
ここで、疎な点を判別する方法としては、例えば、各点の最近傍に位置する点との距離が閾値以上になるか否か、各点の半径r[m] 以内に位置する点の個数が閾値以下になるか否か、各点の属するボクセルの内部に位置する点の個数が閾値以下になるか否か等を用いてもよいし、他の方法を用いてもよい。 Here, as a method of discriminating sparse points, for example, whether or not the distance from each point to the nearest point is equal to or greater than a threshold value, or whether or not the number of points located within the radius r[m] of each point is determined. Whether or not the number is equal to or less than a threshold, or whether or not the number of points located inside the voxels to which each point belongs may be used, or other methods may be used.
占有予測部26は、アップサンプリング部25によってアップサンプリングされた参照幾何情報を表す点群を用いて占有情報を予測するように構成されている。
The
すなわち、占有予測部26は、これから算術復号部22が復号するビット列に対応する8つの子ノードが表すボクセル内の点群として表現される参照幾何情報から、例えば、no pred(予測不可能)、pred0(非占有)、pred1(占有)及びpredL(強い占有)という分類を得る。かかるボクセルの領域は、八分木復号部23から与え
られる。
That is, the
占有予測部26は、この8つの子ノードの占有情報の予測を、確率取得部27へ出力するように構成されている。
The
本実施形態においては、八分木復号部から出力されたノードの8つの子ノードが表すボクセルの領域に含まれる参照幾何情報を,アップサンプリング部でアップサンプリングした結果に基づいて,占有情報を予測する.
ただし、占有予測部26は、入力された参照幾何情報又は動き補償部24から出力された参照幾何情報をアップサンプリングした後に、八分木復号部23から出力されたノードの8つの子ノードが表すボクセルの領域に含まれる参照幾何情報を選別した結果に基づいて、この占有情報の予測について行うように構成されていてもよい。
In this embodiment, the occupancy information is predicted based on the result of upsampling the reference geometric information included in the voxel region represented by the eight child nodes of the node output from the octree decoding unit by the upsampling unit. do.
However, the
また、八分木法では、ノードの内部に含まれる点の個数が上層ほど多く下層ほど少なくなることが予想される。そのため,pred1及びpredLの分類に用いる閾値thを、固定値の代わりに、th=λ×nとしてもよい。ここで、nは、八分木法における階層番号(最下層を1とし、上層ほど大きくなる番号とする)であり、λは、任意の係数である。 Also, in the octree method, it is expected that the number of points included inside a node increases in higher layers and decreases in lower layers. Therefore, the threshold th used for classifying pred1 and predL may be th=λ×n instead of a fixed value. Here, n is a hierarchical number in the octree method (the lowest layer is 1 and the number increases toward the higher layers), and λ is an arbitrary coefficient.
図3A及び図3Bに、階層ごとのノードの概要について示す。ノードは、実際には3次元の格子で表されるが、ここでは、図を単純化するために2次元の格子で表現する。 3A and 3B show an outline of nodes for each hierarchy. Although the nodes are actually represented by a three-dimensional grid, they are represented here by a two-dimensional grid to simplify the drawing.
図3Aは、上層(n=4)における4つのノードの模式図を示している。各ノード内の四角形は、点を表現可能な最小単位を表し、黒色で塗りつぶされた四角形は、点が存在することを意味する。図3Bは、より下層(n=2)における4つのノードの模式図を示している。 FIG. 3A shows a schematic diagram of four nodes in the upper layer (n=4). A rectangle inside each node represents the minimum unit that can express a point, and a black rectangle means that a point exists. FIG. 3B shows a schematic diagram of four nodes in the lower layer (n=2).
上層のノードほど、ボクセルの体積が大きいため、より多くの点が含まれる可能性がある。一方、下層のノードは、上層のノードを分割したものであるため、相対的に点の個数が少なくなる。 Higher nodes may contain more points due to their larger voxel volume. On the other hand, since the nodes in the lower layer are obtained by dividing the nodes in the upper layer, the number of points is relatively small.
そのため、固定値の閾値thを用いた場合には、上層ほどpredLに分類される可能性が高く、下層ほどpred1に分類される可能性が高くなる。例えば、th=3とした場合、図3Aに示す上層のノードは、全てpredLに分類され、図3Bに示す下層のノードは、全てpred1に分類される。 Therefore, when a fixed threshold value th is used, the higher the layer, the higher the possibility of being classified into predL, and the lower the layer, the higher the possibility of being classified into pred1. For example, when th=3, all upper-layer nodes shown in FIG. 3A are classified into predL, and all lower-layer nodes shown in FIG. 3B are classified into pred1.
一方、例えば、λ=1、th=λ×nとした場合、上層のノード及び下層のノードは、図3A及び図3Bに示す左上の1つのノードが、predLに分類され、他のノードが、pred1に分類される。 On the other hand, for example, when λ = 1 and th = λ × n, among the upper and lower nodes, the upper left node shown in FIGS. 3A and 3B is classified as predL, and the other nodes are It is classified into pred1.
このように、階層に応じて閾値を変動させることにより、同一階層におけるノードを点の密度に応じて分類する効果が得られる。 In this way, by varying the threshold according to the hierarchy, it is possible to obtain the effect of classifying the nodes in the same hierarchy according to the density of points.
或いは、階層番号の代わりに任意の統計量を用いてもよい。例えば、ある階層における占有ノード内の点の個数の平均値mを数え、その1つ下の階層で用いる閾値をth=λ×mとしてもよい。或いは、統計量は、ある階層における占有ノード内の点の個数の中央値や、最上階層からの累積移動平均値であってもよい。これにより、入力点群の密度に対して適応的に閾値を変動させることができる。 Alternatively, any statistic may be used instead of the hierarchy number. For example, the average value m of the number of points in the occupied node in a certain layer may be counted, and the threshold used in the layer one level below may be set to th=λ×m. Alternatively, the statistic may be the median value of the number of points in the occupied node in a certain layer, or the cumulative moving average value from the top layer. Thereby, the threshold can be adaptively changed with respect to the density of the input point group.
確率取得部27は、占有予測部26から与えられる占有情報の予測等を用いて、算術復
号部22によって復号されるノードに対応するデータの生起確率を取得するように構成されている。かかる生起確率は、固定値であってもよいし、適応的な変動値であってもよい。
The
確率取得部27は、生起確率を取得する際に、算術復号部22によって復号されるノードの親ノードの近傍ノードの占有情報や、共通の親ノードを持つ8つの子ノードの占有情報のような他の情報を用いるように構成されていてもよい。
When acquiring the occurrence probability, the
確率取得部27は、取得された生起確率を算術復号部22へ出力するように構成されている。
The
モデル生成部28は、点をアップサンプリングするためのモデルを生成するように構成されている。モデル生成部28は、規則的な方法に基づいて、かかるモデルを生成するように構成されていてもよい。
例えば、モデル生成部28は、点の位置を基準として3次元空間上でL1距離が1となる6か所にアップサンプリングするモデルを生成するように構成されていてもよいし、点を中心に配置した場合のGeodesic domeの頂点位置にアップサンプリングするモデルを生成するように構成されていてもよいし、他の方法でアップサンプリングするモデルを生成するように構成されていてもよい。
For example, the
図4に、L1距離が1となる箇所にアップサンプリングする場合の模式図を示す。点は、実際には3次元で表されるが、ここでは、図を単純化するために2次元で表現する。 FIG. 4 shows a schematic diagram of upsampling to a location where the L1 distance is 1. In FIG. The points are actually represented in three dimensions, but are represented here in two dimensions to simplify the drawing.
図4において、黒色の四角形は、参照フレーム内の1点を表し、黒色の丸は、この点からアップサンプリングされた点を表す。図4においては,2次元格子上でL1距離が1となる4か所に点がアップサンプリングされる。 In FIG. 4, the black squares represent one point in the reference frame and the black circles represent points upsampled from this point. In FIG. 4, the points are upsampled to four locations where the L1 distance is 1 on the two-dimensional grid.
また、モデル生成部28は、訓練用の点群を用いて最尤推定に基づいて、かかるモデルを生成するように構成されていてもよい。図5に、かかるケースにおける処理のフローチャートを示す。
The
図5に示すように、ステップS101において、訓練用の点群が入力されると、ステップS102において、動き補償部24は、LiDARで計測した時系列的に連続する複数の点群を、訓練用の点群、すなわち、参照フレーム及び現フレームのペアとし、参照フレームの姿勢変換を行う。
As shown in FIG. 5, in step S101, when a training point group is input, in step S102, the
ステップS103において、モデル生成部28は、最近傍探索によって参照フレームの各点と現フレームの点を対応付け、対応する点の位置誤差を表すベクトルを計算する。
In step S103, the
ステップS104において、モデル生成部28は、出現頻度を高めるために、かかるベクトルを量子化してもよい。
In step S104, the
例えば、モデル生成部28は、ベクトルの向きや大きさを空間的に等間隔になるように離散化された代表値に置き換えてもよいし、k-means法によってk通りに分類されたベクトル群の代表値に置き換えてもよいし、他の方法を用いてもよい。
For example, the
ステップS105において、モデル生成部28は、同一のベクトルが出現した回数をカウントし、出現頻度の高い上位N個のベクトルを選択する。モデル生成部28は、点の位置を基準として、かかるベクトルが指し示す先に点をアップサンプリングするモデルを生
成してもよい。
In step S105, the
ステップS106において、モデル生成部28は、選択済みベクトル集合を出力する。
In step S106, the
図6に、上述のモデルを生成する処理の別のケースのフローチャートを示す。 FIG. 6 shows a flowchart of another case of the process of generating the model described above.
図6に示すように、ステップS201において、訓練用の点群及びベクトル集合が入力されると、ステップS202において、モデル生成部28は、アップサンプリングなしの参照フレームを用いて現フレームを符号化し、符号量を取得する。
As shown in FIG. 6, in step S201, when a training point cloud and vector set are input, in step S202, the
ステップS203において、モデル生成部28は、ベクトル集合の要素数が0になるまで、ステップS204~S209の処理を繰り返す。
In step S203, the
ステップS204において、モデル生成部28は、ベクトル集合内の残りのベクトルのそれぞれについて、ステップS205~S209の動作を繰り返す。
In step S204, the
ステップS205において、モデル生成部28は、選択済みベクトル集合及びステップS204において選択された1つのベクトルを用いて、参照フレームをアップサンプリングする。
In step S205, the
ステップS206において、モデル生成部28は、アップサンプリングされた参照フレームを用いて現フレームを符号化し、符号量を取得する。
In step S206, the
ステップS207において、モデル生成部28は、ステップS206において取得された符号量が過去最低であるか否かについて判定する。Yesの場合、本処理は、ステップS208に進み、Noの場合は、本処理は、ステップS209に進む。
In step S207, the
ステップS208において、モデル生成部28は、ステップS204において選択された1つのベクトルを選択済みベクトル集合に追加する。
In step S208, the
ステップS209において、モデル生成部28は、ステップS204において選択された1つのベクトルをベクトル集合から除外する。
In step S209, the
ステップS210において、モデル生成部28は、選択済みベクトル集合を出力する。
In step S210, the
モデル生成部28は、ベクトルの個数Nを決定する際には、訓練用の点群を実際に符号化した場合に符号化効率が最大となるNを選択するように構成されていてもよい。
When determining the number N of vectors, the
或いは、モデル生成部28は、N個のベクトルを出現頻度の高い順に選ぶ代わりに、訓練用の点群の符号化効率が良くなる順に選択するように構成されていてもよい。
Alternatively, the
すなわち、モデル生成部28は、選択する候補となる全てのベクトルについて、それらをモデルに含めた場合の符号化効率を調査した後に、最も改善効果の大きい1つのベクトルをモデルに含めるように構成されていてもよい。そして、モデル生成部28は、かかるベクトルを候補から除外し、符号化効率が改善しなくなるまで同じ処理を繰り返すように構成されていてもよい。このようにして、モデル生成部28は、モデルに含めるベクトルの集合を選んでもよい。
That is, the
或いは、モデル生成部28は、初めに図5に示す処理で出現頻度の高いN個のベクトル集合を選択した後に、出現頻度の高い順に1つずつベクトルを選択し、図6に示す内側の
反復処理(ステップS204~S209)を行うことによって、N回の反復のみでモデルに含めるベクトルの集合を選択するように構成されていてもよい。
Alternatively, the
図7に、最尤推定によって得られたベクトル集合を用いてアップサンプリングする場合の模式図を示す。点は、実際には3次元で表されるが、ここでは、図を単純化するために2次元で表現する.
図7において、黒色の四角形は、参照フレーム内の1点を表し、黒色の丸は、かかる点からアップサンプリングされた点を表す。
FIG. 7 shows a schematic diagram of upsampling using a set of vectors obtained by maximum likelihood estimation. The points are actually represented in three dimensions, but here they are represented in two dimensions to simplify the drawing.
In FIG. 7, a black square represents a point in the reference frame and a black circle represents a point upsampled from that point.
ここで、得られるベクトル集合の例として、v1=(1,1)、v2=(2,-2)、v3=(-1,2)、v4=(-2,0)、v5=(-1,-2)を想定する。図7においては、参照フレーム内の1点の位置を基準に、これらのベクトルが指し示す先の位置に、点がアップサンプリングされる。 Here, as an example of the obtained vector set, v1 = (1, 1), v2 = (2, -2), v3 = (-1, 2), v4 = (-2, 0), v5 = (- 1, -2). In FIG. 7, the points are upsampled relative to the location of the point in the reference frame to the locations pointed to by these vectors.
また、モデル生成部28は、点の属性情報毎に、個別に、かかるモデルを作成するように構成されていてもよい。
In addition, the
かかる属性情報は、点の持つ任意の特徴であり、例えば、点の座標を3次元極座標系で表現した場合の中心からの距離や仰角や方位角である。或いは、かかる属性情報は、点からその2近傍点へのベクトルのなす角であってもよいし、点からその2近傍点の中心へ向かうベクトルの大きさや向きであってもよい。或いは、かかる属性情報は、非特許文献5(Stoyanov、Todor等、「Fast and accurate scan
registration through minimization of the distance between compact 3D NDT representations.」、The International Journal of
Robotics Reserch 31.12(2012):1377-1393)に記載されるように点の周囲の点を用いて計算した分散共分散行列を特異値分解し、その特異値の関係性から得られる球や平面や線という分類であってもよいし、他の特徴であってもよい。
Such attribute information is arbitrary features of a point, such as the distance from the center, the elevation angle, and the azimuth angle when the coordinates of the point are expressed in a three-dimensional polar coordinate system. Alternatively, such attribute information may be an angle formed by a vector from a point to its two neighboring points, or may be the magnitude or direction of a vector from a point to the center of its two neighboring points. Alternatively, such attribute information is described in Non-Patent Document 5 (Stoyanov, Todor et al., "Fast and Accurate Scan
registration through minimization of the distance between compact 3D NDT representations. , The International Journal of
Robotics Research 31.12 (2012): 1377-1393), the variance-covariance matrix calculated using the points around the point is singular value decomposed, and the sphere or It may be classified as a plane or a line, or may be another feature.
上述した最尤推定は、かかる属性情報によって分類された点群毎に行われてもよい。すなわち、モデル生成部28は、属性情報毎に異なるモデルを生成するように構成されていてもよい。
The maximum likelihood estimation described above may be performed for each point group classified by such attribute information. That is, the
この際、参照フレームの点と現フレームの点との間で属性情報が一致する頻度を高めるために、属性情報の値について量子化してもよい。例えば,中心からの距離は、10メートル間隔のビンで表現し、同一のビンに属する点は、同一の距離であるとみなしてよい。 At this time, the value of attribute information may be quantized in order to increase the frequency of matching attribute information between points in the reference frame and points in the current frame. For example, the distance from the center may be represented by bins spaced 10 meters apart, and points belonging to the same bin may be considered to have the same distance.
また、属性情報によって分類を行う際には、複数の属性情報を組み合わせて分類のパターンを増やしてもよい。 Moreover, when classifying according to attribute information, a plurality of pieces of attribute information may be combined to increase classification patterns.
図8に、属性情報として方位角を利用する場合の例を示す。図8の例では、黒色の丸は、原点を表し、三角形及び菱形は、それぞれ参照フレーム内の点を表す。 FIG. 8 shows an example of using azimuth angles as attribute information. In the example of FIG. 8, the black circle represents the origin, and the triangles and diamonds each represent points in the reference frame.
参照フレーム内の点の位置は、一般に、3次元直交座標系における原点を基準とした(x,y,z)座標で表現されるため、3次元極座標系表現に変換され得る。 Since the position of a point in the reference frame is generally represented by (x, y, z) coordinates relative to the origin in a three-dimensional Cartesian coordinate system, it can be converted to a three-dimensional polar coordinate system representation.
図8の例は、三角形の点は、方位角45°となり、菱形の点は、方位角150°となる場合を示している。このようにして,各点に属性情報を付与し、属性情報に応じて点を分類することができる。 The example of FIG. 8 shows a case where the triangular points have an azimuth angle of 45° and the rhombic points have an azimuth angle of 150°. In this way, attribute information can be assigned to each point, and the points can be classified according to the attribute information.
また、モデル生成部28は、アップサンプリング部25によってアップサンプリングを行うか否かについての情報や、アップサンプリングの方法をシンタックスとして出力するように構成されていてもよい。
Further, the
かかるシンタックスは、例えば、0がアップサンプリングを実施しないというルールを表し、1が規則的な方法に基づいてアップサンプリングを実施するというルールを表し、2が最尤推定に基づいてアップサンプリングを実施するというルールを表す情報である。 Such a syntax could, for example, represent a rule where 0 represents no upsampling, 1 represents upsampling based on a regular method, and 2 upsampling based on maximum likelihood estimation. This is information representing a rule that
また、上述の点群符号化装置100及び点群復号装置200は、コンピュータに各機能(各工程)を実行させるプログラムであって実現されていてもよい。
Also, the point
なお、上記の各実施形態では、本発明を点群符号化装置100及び点群復号装置200への適用を例にして説明したが、本発明は、かかる例のみに限定されるものではなく、点群符号化装置100及び点群復号装置200の各機能を備えた点群符号化/復号システムにも同様に適用できる。
In the above-described embodiments, the present invention is applied to the point
なお、本実施形態によれば、例えば、動画像通信において総合的なサービス品質の向上を実現できることから、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、持続可能な産業化を推進するとともに、イノベーションの拡大を図る」に貢献することが可能となる。 In addition, according to this embodiment, for example, since it is possible to improve the overall service quality in video communication, the United Nations-led Sustainable Development Goals (SDGs) Goal 9 "Develop resilient infrastructure, It will be possible to contribute to the promotion of sustainable industrialization and the expansion of innovation.
10…点群処理システム
100…点群符号化装置
200…点群復号装置
21…動き復号部
22…算術復号部
23…八分木復号部
24…動き補償部
25…アップサンプリング部
26…占有予測部
27…確率取得部
28…モデル生成部
10 Point
Claims (9)
参照幾何情報の点をアップサンプリングするように構成されているアップサンプリング部と、
アップサンプリングされた前記参照幾何情報を用いて占有情報を予測するように構成されている占有予測部とを有することを特徴とする点群復号装置。 A point cloud decoding device configured to decode a point cloud from a bitstream, comprising:
an upsampling unit configured to upsample points of the reference geometric information;
and an occupancy prediction unit configured to predict occupancy information using the upsampled reference geometric information.
前記アップサンプリング部は、前記モデル生成部によって生成された前記モデルを用いて、前記点をアップサンプリングするように構成されていることを特徴とする請求項1に記載の点群復号装置。 further comprising a model generator configured to generate a model representing the method of upsampling the points;
2. The point cloud decoding device according to claim 1, wherein the upsampling unit is configured to upsample the points using the model generated by the model generating unit.
八分木法における階層番号の関数として表される閾値を用いて、前記占有情報を予測するように構成されている占有予測部を有することを特徴とする点群復号装置。 A point cloud decoding device configured to decode a point cloud from a bitstream, comprising:
A point cloud decoding device, comprising: an occupancy prediction unit configured to predict the occupancy information using a threshold expressed as a function of a layer number in the octree method.
参照幾何情報の点をアップサンプリングする工程と、
アップサンプリングされた前記参照幾何情報を用いて占有情報を予測する工程とを有することを特徴とする点群復号方法。 A point cloud decoding method configured to decode a point cloud from a bitstream, comprising:
Upsampling points of reference geometry information;
and predicting occupancy information using the upsampled reference geometric information.
前記点群復号装置は、
参照幾何情報の点をアップサンプリングするように構成されているアップサンプリング部と、
アップサンプリングされた前記参照幾何情報を用いて占有情報を予測するように構成されている占有予測部とを有することを特徴とするプログラム。 A program that causes a computer to function as a point cloud decoding device configured to decode a point cloud from a bitstream,
The point group decoding device is
an upsampling unit configured to upsample points of the reference geometric information;
an occupancy prediction unit configured to predict occupancy information using the upsampled reference geometric information.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021052710A JP2022150216A (en) | 2021-03-26 | 2021-03-26 | Point group decryption device, point group decryption method, and program |
PCT/JP2022/001225 WO2022201773A1 (en) | 2021-03-26 | 2022-01-14 | Point cloud decoding device, point cloud decoding method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021052710A JP2022150216A (en) | 2021-03-26 | 2021-03-26 | Point group decryption device, point group decryption method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022150216A true JP2022150216A (en) | 2022-10-07 |
Family
ID=83396756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021052710A Pending JP2022150216A (en) | 2021-03-26 | 2021-03-26 | Point group decryption device, point group decryption method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022150216A (en) |
WO (1) | WO2022201773A1 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3595181B1 (en) * | 2018-07-11 | 2023-09-06 | BlackBerry Limited | Predictor-copy coding mode for coding of point clouds |
CN114009025A (en) * | 2019-07-02 | 2022-02-01 | 松下电器(美国)知识产权公司 | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device |
-
2021
- 2021-03-26 JP JP2021052710A patent/JP2022150216A/en active Pending
-
2022
- 2022-01-14 WO PCT/JP2022/001225 patent/WO2022201773A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022201773A1 (en) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11882317B2 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
US11936846B2 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
Zhu et al. | Lossless point cloud geometry compression via binary tree partition and intra prediction | |
WO2021067867A1 (en) | Trimming search space for nearest neighbor determinations in point cloud compression | |
JP7461389B2 (en) | Planar mode in Octree-based point cloud coding | |
JP7330306B2 (en) | Transform method, inverse transform method, encoder, decoder and storage medium | |
CN112438049B (en) | Encoding and decoding method, encoder, decoder, and storage medium | |
EP3896657B1 (en) | Method and apparatus for processing a point cloud | |
Daribo et al. | Efficient rate-distortion compression of dynamic point cloud for grid-pattern-based 3D scanning systems | |
JP5932051B2 (en) | Predictive position decoding | |
US20200374566A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
KR20220166793A (en) | Simplified angle mode for geometry-based point cloud compression | |
CN114731161A (en) | Method and apparatus for tree switching in point cloud compression | |
KR20220166792A (en) | Simplified angle mode for geometry-based point cloud compression | |
AU2021411954A1 (en) | Inter prediction coding for geometry point cloud compression | |
US20230410377A1 (en) | Method of encoding and decoding, encoder, decoder | |
WO2022201773A1 (en) | Point cloud decoding device, point cloud decoding method, and program | |
US20240244179A1 (en) | Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device | |
WO2023095670A1 (en) | Point cloud decoding device, point cloud decoding method, and program | |
RU2798751C2 (en) | 3d data coding method, 3d data decoding method, 3d data coding device and 3d data decoding device | |
WO2023127052A1 (en) | Decoding device, encoding device, decoding program, encoding program, decoding method, and encoding method | |
WO2023155045A1 (en) | Prediction method and apparatus, coder, decoder, and coding and decoding system | |
WO2023277128A1 (en) | Point cloud decoding device, point cloud decoding method, and program | |
JP2023053827A (en) | Point group decoding device, point group decoding method and program | |
KR20240097892A (en) | Methods, devices and media for point cloud coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210407 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240610 |