WO2022247705A1 - 一种点云属性信息的预测编解码方法及装置 - Google Patents

一种点云属性信息的预测编解码方法及装置 Download PDF

Info

Publication number
WO2022247705A1
WO2022247705A1 PCT/CN2022/093617 CN2022093617W WO2022247705A1 WO 2022247705 A1 WO2022247705 A1 WO 2022247705A1 CN 2022093617 W CN2022093617 W CN 2022093617W WO 2022247705 A1 WO2022247705 A1 WO 2022247705A1
Authority
WO
WIPO (PCT)
Prior art keywords
attribute information
points
information
point
prediction
Prior art date
Application number
PCT/CN2022/093617
Other languages
English (en)
French (fr)
Inventor
张伟
杨付正
孙泽星
霍俊彦
Original Assignee
荣耀终端有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 荣耀终端有限公司 filed Critical 荣耀终端有限公司
Priority to US18/265,874 priority Critical patent/US20240037796A1/en
Priority to EP22810432.9A priority patent/EP4240018A4/en
Publication of WO2022247705A1 publication Critical patent/WO2022247705A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the existing methods only use the attribute information of adjacent points in the geometric space for prediction, and do not consider the discontinuity of the actual scene and the correlation between other information and attribute information.
  • the prediction residual of the obtained attribute information is large, the prediction accuracy is low, and there are many outliers and jump values, which affect the coding efficiency.
  • the present invention provides a method and device for predictive encoding and decoding of point cloud attribute information.
  • the technical problem to be solved in the present invention is realized through the following technical solutions:
  • a predictive coding method for point cloud attribute information comprising:
  • an adaptive prediction list of point cloud attribute information is established, including:
  • several points are selected from the encoded points according to certain rules, and the prediction list is updated according to the attribute information of the selected points, including:
  • the above m points are screened according to the second information of the point, and the attribute information of the selected point is inserted into the prediction list; otherwise, the above The attribute information of m points is inserted into the prediction list.
  • the above-mentioned m points are screened according to the second information of the points, and the attribute information of the selected points is inserted into the prediction list, including:
  • the above-mentioned t points are screened according to the third information of the point, and the attribute information of the selected point is inserted into the prediction list; otherwise, the above-mentioned The attribute information of t points is inserted into the prediction list.
  • the above-mentioned t points are screened according to the third information of the points, and the attribute information of the selected points is inserted into the prediction list, including:
  • a point whose third information is closest to the current point to be encoded is selected, and the attribute information of this point is inserted into the prediction list.
  • the first information is the depth information of the point or the spatial position of the point
  • the third information is the azimuth angle information of the point.
  • the prediction mode and the prediction residual are encoded to obtain code stream information, including:
  • Another embodiment of the present invention provides a device for predictive encoding of point cloud attribute information, including:
  • the first calculation module is used to establish an adaptive prediction list of point cloud attribute information
  • An encoding module configured to encode the prediction mode and the prediction residual to obtain code stream information.
  • the attribute information of the point cloud is reconstructed by using the predicted value and the predicted residual obtained by decoding.
  • Another embodiment of the present invention also provides a device for predictive decoding of point cloud attribute information, including:
  • the second data acquisition module is used to acquire code stream information
  • the reconstruction module is used to reconstruct the attribute information of the point cloud by using the predicted value and the predicted residual obtained by decoding.
  • the present invention solves the inconsistency of the point cloud attribute information caused by the discontinuity of the actual scene by establishing an adaptively updated point cloud attribute information prediction list, and selecting the best prediction mode from the list to predict the point cloud attribute information. Continuous problem, which significantly reduces the prediction residual of attribute information and the occurrence frequency of outliers and jump values, and improves the prediction accuracy and coding efficiency of attribute information;
  • FIG. 2 is a schematic diagram of updating the prediction list by using the encoded points collected by the Laser to which the current point to be encoded belongs according to an embodiment of the present invention
  • Fig. 5 is a schematic flowchart of a predictive decoding method for point cloud attribute information provided by an embodiment of the present invention
  • Step 1 Get the original point cloud data.
  • the acquired geometric position information of the original point cloud data is represented based on a Cartesian coordinate system
  • the attribute information of the original point cloud data includes but not limited to reflectance information
  • Step 2 Build an adaptive prediction list of point cloud attribute information.
  • the attribute information of points with similar geometric distances in space usually has similarity, but due to the discontinuity of the scene, the attribute information of non-adjacent points in space may also have certain similarity.
  • the measurement distance of the lidar and the reflectivity of the collection point so there is also a certain correlation between the depth information and the attribute information of the point cloud. Therefore, it is necessary to save the attribute information of the encoded point in the point cloud before the point to be encoded in the established prediction list through certain rules, then the best prediction mode can be selected from the prediction list through certain rules to predict the current to-be-encoded point. Attribute information of the code point.
  • a prediction list with a certain size is established and initialized to fill it.
  • a prediction list predList with a size of 4 can be established, and some prior values of attribute information can be filled in it to predictively encode the attribute information of the first point.
  • step b) specifically includes:
  • the search range is a certain range before the current point to be encoded, and its size can be set according to the actual situation.
  • the first information may be depth information of a point or a spatial position of a point.
  • the depth information of a point is the distance from the point to the lidar
  • the spatial position is the three-dimensional space coordinates of the point.
  • the second information may be the depth information of the point or the spatial position of the point, and when the first information is the depth information, the second information is the spatial position; when the first information is the spatial position, the second information is the depth information.
  • the third information may be the azimuth information of the point, where the azimuth information may be the horizontal azimuth of the point or other information related to the azimuth, such as the number of the point scanned by the Laser.
  • Steps a) and b) of this embodiment will be described in detail below by taking the size of the prediction list as 4 and taking the first information, the second information, and the third information as depth information, spatial position, and azimuth information respectively as an example.
  • FIG. 2 is a schematic diagram of updating the prediction list by using the encoded points collected by the Laser to which the current to-be-encoded point belongs according to an embodiment of the present invention.
  • is the attribute information of the encoded point
  • is the attribute information of the encoded point
  • is the attribute information to be inserted into the prediction list
  • the search range can include from the 7th point to the 2nd point.
  • the encoded points between points whose size is 6.
  • the prediction list is not filled, if there is an encoded point collected by a different Laser from the current point to be encoded, that is, when there is an encoded point in the points collected by other Lasers, then the current point to be encoded is correctly Select the corresponding point from the above points collected by Laser to update the prediction list.
  • the specific update process is the same as the above step b).
  • Step c) of this embodiment will be described in detail below through a specific example.
  • FIG. 3 is a schematic diagram of updating the prediction list by using the encoded points collected by the Laser above the current to-be-encoded point provided by the embodiment of the present invention.
  • is the attribute information of the encoded point
  • is the attribute information of the encoded point
  • is the attribute information to be inserted into the prediction list
  • the Laser to which the current point to be coded belongs to the jth Laser Determine the search range among the coded points collected by the j-1th Laser just above the current point to be coded. For example, if the current point to be coded is the 8th point collected by the jth Laser, the search range can include the jth point - 1 coded point between the 5th point and the 11th point collected by the Laser, its size is 7. Then, select the first two points closest to the depth information of the current point to be encoded from the search range.
  • This embodiment solves the discontinuity of the point cloud attribute information caused by the discontinuity of the actual scene by establishing an adaptively updated point cloud attribute information prediction list, and selecting the best prediction mode from the list to predict the point cloud attribute information Therefore, it significantly reduces the prediction residual error of attribute information and the occurrence frequency of outliers and jump values, and improves the prediction accuracy and coding efficiency of attribute information.
  • the selected prediction mode is encoded using the context model and existing entropy encoding techniques.
  • the existing entropy coding technology can be used to code the prediction residual of the attribute information to obtain the code stream information.
  • an entropy encoding context is designed for the prediction mode according to the established prediction list, which improves the effectiveness of the entropy encoding context model and further improves encoding efficiency.
  • the present invention establishes an adaptively updated attribute information prediction list, selects the best prediction mode from the list to predict the attribute information of the point cloud, and further designs the entropy coding context of the prediction mode according to the prediction list to perform on-point cloud attribute information coding.
  • This method fully considers the correlation between point cloud depth information and attribute information, and solves the problem of point cloud attribute information discontinuity caused by the discontinuity of the actual scene, thereby significantly reducing the prediction residual and deviation of attribute information.
  • the occurrence frequency of value and jump value improves the prediction accuracy and coding efficiency of attribute information.
  • Figure 4 is a structure of a predictive encoding device for point cloud attribute information provided by an embodiment of the present invention Schematic, which includes:
  • the first data acquisition module 11 is used to acquire original point cloud data
  • the first calculation module 12 is used to establish an adaptive prediction list of point cloud attribute information
  • the first prediction module 13 is used to select a prediction mode from the adaptive prediction list and predict the attribute information of the point cloud to obtain a prediction residual;
  • the encoding module 14 is configured to encode the prediction mode and the prediction residual to obtain code stream information.
  • the device provided in this embodiment can implement the encoding method provided in Embodiment 1 above, and the detailed process will not be repeated here.
  • Step 1 Get stream information.
  • Step 2 Establish an adaptive prediction list of point cloud attribute information.
  • the establishment of the adaptive prediction list of point cloud attribute information may refer to the method at the encoding end in the first embodiment above, and will not be described in detail here.
  • Step 3 Predict the attribute information of the point cloud according to the adaptive prediction list and the decoded prediction mode, and obtain the predicted value.
  • the encoder uses the adaptive prediction list of the point cloud attribute information to design the entropy coding context model, therefore, at the decoding end, it is also necessary to use the adaptive prediction list of the point cloud attribute information to design the corresponding The context model is entropy decoded, and thus the predicted mode is decoded.
  • the encoding end adopts the conventional entropy coding method, the corresponding entropy decoding method can be directly adopted at the decoding end to obtain the prediction residual of point cloud attribute information.
  • the predicted value obtained in step 3 is added to the predicted residual to obtain the attribute information of the reconstructed point cloud.
  • the second data acquisition module 21 is used to acquire code stream information
  • the second calculation module 22 is used to establish an adaptive prediction list of point cloud attribute information
  • the reconstruction module 24 is used to reconstruct the attribute information of the point cloud by using the prediction value and the prediction residual obtained by decoding.
  • the device provided in this embodiment can implement the decoding method provided in Embodiment 3 above, and the detailed process will not be repeated here.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种点云属性信息的预测编解码方法及装置,所述编码方法包括:获取原始点云数据;建立点云属性信息的自适应预测列表;从自适应预测列表中选择预测模式并对点云的属性信息进行预测,得到预测残差;对预测模式和预测残差进行编码,得到码流信息。本发明通过建立自适应更新的点云属性信息预测列表,并从该列表中选择最佳预测模式来预测点云的属性信息,解决了由于实际场景不连续所导致的点云属性信息不连续的问题,从而显著减小了属性信息的预测残差以及离异值和跳变值的出现频率,提高了属性信息的预测精度和编码效率。

Description

一种点云属性信息的预测编解码方法及装置
本申请要求于2021年05月26日提交中国专利局、申请号为202110580205.1、申请名称为“一种点云属性信息的预测编解码方法及装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本发明属于点云编解码技术领域,具体涉及一种点云属性信息的预测编解码方法及装置。
背景技术
随着硬件处理能力的提升和计算机视觉的飞速发展,三维点云数据在虚拟现实、增强现实、自动驾驶和环境建模等领域得到了广泛的应用。然而大规模点云通常具有较大的数据量,十分不利于点云数据的传输及存储,因此需要对大规模点云进行高效的编解码。
在现有的点云编解码技术中,点云的属性信息一般是基于重建的几何信息进行编码的。具体地,在现有技术一提供的基于几何的点云压缩编码(G-PCC,Geometry-based Point Cloud Compression)方法中,主要采用基于点云莫顿码进行邻居搜索的属性信息预测编码方法。首先,根据点云的几何坐标计算得到对应的莫顿码;其次,根据点的莫顿码进行邻居查找,用查找到的邻居的属性信息值及其加权平均值来对预测列表进行填充;然后,根据一定的规则进行模式选择,选出最佳预测模式对当前待编码点的属性信息进行预测,最后对选择的预测模式以及得到的预测残差进行编码。在现有技术二提供的基于二维规则化平面投影的点云编解码方法中,针对点云的属性信息编解码提出了两种框架:一是点云几何信息和属性信息同时进行编解码的框架,另一种是基于几何重构的属性信息编解码框架。
然而,由于点云的属性信息与场景密切相关,而现有方法只利用了几何空间上邻近点的属性信息来进行预测,没有考虑实际场景的不连续性以及其他信息与属性信息之间的相关性,从而导致其所得到的属性信息的预测残差较大,预测精度较低,并且存在较多离异值和跳变值,影响编码效率。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种点云属性信息的预测编解码方法及装置。本发明要解决的技术问题通过以下技术方案实现:
一种点云属性信息的预测编码方法,包括:
获取原始点云数据;
建立点云属性信息的自适应预测列表;
从所述自适应预测列表中选择预测模式并对点云的属性信息进行预测,得到预测残差;
对所述预测模式和所述预测残差进行编码,得到码流信息。
在本发明的一个实施例中,建立点云属性信息的自适应预测列表,包括:
建立并初始化预测列表;
按照一定规则从已编码点中选取若干点,并根据所选点的属性信息对所述预测列表进行更新,得到当前待编码点的属性信息自适应预测列表。
在本发明的一个实施例中,按照一定规则从已编码点中选取若干点,并根据所选点的属性信息对所述预测列表进行更新,包括:
将当前待编码点的前一个已编码点的属性信息插入到所述预测列表的第一个位置;
从当前待编码点所属Laser采集的已编码点中选择若干点,并将所选点的属性信息插入到所述预测列表中;
当判断所述预测列表未被填满时,依次从其他Laser采集的已编码点中选择若干点,并将所选点的属性信息插入到所述预测列表中。
在本发明的一个实施例中,从当前待编码点所属Laser或其他Laser采集 的已编码点中选择若干点,并将所选点的属性信息插入到所述预测列表中,包括:
在Laser采集的已编码点中确定查找范围;
根据点的第一信息在所述查找范围内选择m个点;
若判断上述m个点中存在第一信息相同的点,则根据点的第二信息对上述m个点进行筛选,并将所选点的属性信息插入到所述预测列表中;否则,将上述m个点的属性信息插入到所述预测列表中。
在本发明的一个实施例中,根据点的第二信息对上述m个点进行筛选,并将所选点的属性信息插入到所述预测列表中,包括:
在上述m个点中找出所有第一信息相同的n个点;
将上述m个点中第一信息不同的m-n个点的属性信息插入到所述预测列表中;
在上述n个点中,选出第二信息与当前待编码点最邻近的前t个点;
若判断上述t个点中存在第二信息相同的点,则根据点的第三信息对上述t个点进行筛选,并将所选点的属性信息插入到所述预测列表中;否则,将上述t个点的属性信息插入到所述预测列表中。
在本发明的一个实施例中,根据点的第三信息对上述t个点进行筛选,并将所选点的属性信息插入到所述预测列表中,包括:
在上述t个点中找出所有第二信息相同的k个点;
将上述t个点中第二信息不同的t-k个点的属性信息插入到所述预测列表中;
在上述k个点中,选出第三信息与当前待编码点最邻近的一个点,并将该点的属性信息插入到所述预测列表中。
在本发明的一个实施例中,所述第一信息为点的深度信息或者点的空间位置;
所述第二信息为点的深度信息或者点的空间位置,且当所述第一信息为 深度信息时,所述第二信息为空间位置;当所述第一信息为空间位置时,所述第二信息为深度信息;
所述第三信息为点的方位角信息。
在本发明的一个实施例中,对所述预测模式和预测残差进行编码,得到码流信息,包括:
根据所述自适应预测列表对所述预测模式设计上下文模型;
利用该上下文模型对所述预测模式进行编码;
对所述预测残差进行编码,得到码流信息。
本发明的另一个实施例提供了一种点云属性信息的预测编码装置,包括:
第一数据获取模块,用于获取原始点云数据;
第一计算模块,用于建立点云属性信息的自适应预测列表;
第一预测模块,用于从所述自适应预测列表中选择预测模式并对点云的属性信息进行预测,得到预测残差;
编码模块,用于对所述预测模式和所述预测残差进行编码,得到码流信息。
本发明的另一个实施例还提供了一种点云属性信息的预测解码方法,包括:
获取码流信息;
建立点云属性信息的自适应预测列表;
根据所述自适应预测列表和解码得到的预测模式对点云的属性信息进行预测,得到预测值;
利用所述预测值及解码得到的预测残差重建点云的属性信息。
本发明的另一个实施例还提供了一种点云属性信息的预测解码装置,包括:
第二数据获取模块,用于获取码流信息;
第二计算模块,用于建立点云属性信息的自适应预测列表;
第二预测模块,用于根据所述自适应预测列表和解码得到的预测模式对点云的属性信息进行预测,得到预测值;
重建模块,用于利用所述预测值及解码得到的预测残差重建点云的属性信息。
本发明的有益效果:
1、本发明通过建立自适应更新的点云属性信息预测列表,并从该列表中选择最佳预测模式来预测点云的属性信息,解决了由于实际场景不连续所导致的点云属性信息不连续的问题,从而显著减小了属性信息的预测残差以及离异值和跳变值的出现频率,提高了属性信息的预测精度和编码效率;
2、本发明在进行点云属性信息编码时,根据建立的预测列表对预测模式设计了熵编码上下文,提高了熵编码上下文模型的有效性,进一步提升了编码效率。
以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
图1是本发明实施例提供的一种点云属性信息的预测编码方法流程示意图;
图2是本发明实施例提供的一种利用当前待编码点所属Laser采集的已编码点对预测列表进行更新的示意图;
图3是本发明实施例提供的一种利用当前待编码点上方Laser采集的已编码点对预测列表进行更新的示意图;
图4是本发明实施例提供的一种点云属性信息的预测编码装置结构示意图;
图5是本发明实施例提供的一种点云属性信息的预测解码方法流程示意图;
图6是本发明实施例提供的一种点云属性信息的预测解码装置结构示意图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
实施例一
请参见图1,图1是本发明实施例提供的一种点云属性信息的预测编码方法流程示意图,具体包括:
步骤1:获取原始点云数据。
具体地,原始点云数据通常由一组三维空间点组成,每个空间点都记录了自身的几何位置信息,以及颜色、反射率、法线等额外的属性信息。原始点云数据可通过激光雷达扫描获取,激光雷达是由多束沿中心轴两侧分布的Laser(激光扫描器)组合排列构成,每一个Laser具有一个固定的俯仰角,并且可以看作一个相对独立的采集系统。此外,原始点云数据也可通过各种平台提供的公共数据集获得。
在本实施例中,设获取到的原始点云数据的几何位置信息基于笛卡尔坐标系进行表示,原始点云数据的属性信息包括但不限于反射率信息。
步骤2:建立点云属性信息的自适应预测列表。
通过分析点云空间分布和激光雷达采集原理可知,空间中几何距离相近的点的属性信息通常具有相似性,然而由于场景的不连续性使得空间中非邻近点的属性信息也可能具有一定的相似性;此外,激光雷达的测量距离与采集点的反射率之间具有一定的关系,因而点云的深度信息与属性信息之间也具有一定的相关性。因此,需要将点云中待编码点前的已编码点的属性信息通过一定的规则保存到建立的预测列表中,则可通过一定的规则从预测列表中选出最佳预测模式来预测当前待编码点的属性信息。
首先,建立并初始化预测列表。
具体地,在编码点云中第一个点的属性信息前,建立一个具有一定大小的预测列表,并对其进行初始化填充。例如,可建立一个大小为4的预测列 表predList,并在其中填充一些属性信息的先验值,用于对第一个点的属性信息进行预测编码。
然后,按照一定规则从已编码点中选取若干点,并根据所选点的属性信息对预测列表进行更新,得到当前待编码点的属性信息自适应预测列表,用于对当前待编码点的属性信息进行预测编码,具体过程如下:
a)将当前待编码点的前一个已编码点的属性信息插入到预测列表的第一个位置。
b)从当前待编码点所属Laser采集的已编码点中选择若干点,并将所选点的属性信息插入到预测列表中。
在本实施例中,步骤b)具体包括:
b1)在Laser采集的已编码点中确定查找范围;
在本实施例中,查找范围是当前待编码点前的某一范围,其大小可根据实际情况进行设置。
b2)根据点的第一信息在查找范围内选择m个点;
在本实施例中,主要采用最近邻法进行点的选择,即在确定的查找范围内,选出第一信息与当前待编码点最邻近的前m个点。
具体地,第一信息可以是点的深度信息或者点的空间位置。其中,点的深度信息为该点到激光雷达的距离,空间位置为点的三维空间坐标。
b3)若判断上述m个点中存在第一信息相同的点,则根据点的第二信息对上述m个点进行筛选,并将所选点的属性信息插入到预测列表中;否则,将上述m个点的属性信息插入到预测列表中。
由于空间中几何邻近的点通常具有较强的相似性,因此,选出的m个点中可能会存在第一信息相同的点,当出现这种情况时,则需要进一步对这m个点进行筛选,具体如下:
i.在上述m个点中找出所有第一信息相同的n个点;
ii.将上述m个点中第一信息不同的m-n个点的属性信息插入到预测列表 中;
iii.在上述n个点中,选出第二信息与当前待编码点最邻近的前t个点;
iv.若判断上述t个点中存在第二信息相同的点,则根据点的第三信息对上述t个点进行筛选,并将所选点的属性信息插入到预测列表中;否则,将上述t个点的属性信息插入到预测列表中。
其中,第二信息可以为点的深度信息或者点的空间位置,且当第一信息为深度信息时,第二信息为空间位置;当第一信息为空间位置时,第二信息为深度信息。
同理,在选出的t个点中,仍然可能存在第二信息相同的点,相应的,则需要再次进行筛选。具体如下:
i.在上述t个点中找出所有第二信息相同的k个点;
ii.将上述t个点中第二信息不同的t-k个点的属性信息插入到预测列表中;
iii.在上述k个点中,选出第三信息与当前待编码点最邻近的一个点,并将该点的属性信息插入到预测列表中。
其中,第三信息可以是点的方位角信息,此处的方位角信息可为点的水平方位角或其他与方位角相关的信息,例如Laser扫描到的第几个点。
下面以预测列表大小为4,以第一信息、第二信息、第三信息分别为深度信息、空间位置以及方位角信息为例,对本实施例的步骤a)和b)进行详细说明。
具体地,请参见图2,图2是本发明实施例提供的一种利用当前待编码点所属Laser采集的已编码点对预测列表进行更新的示意图,图2中
Figure PCTCN2022093617-appb-000001
是待编码点的属性信息,○是已编码点的属性信息,
Figure PCTCN2022093617-appb-000002
是待插入预测列表的属性信息,
Figure PCTCN2022093617-appb-000003
是预测列表中已经存在的点的属性信息。
首先将当前待编码点的前一个已编码点的属性信息插入到预测列表的第一个位置。接下来,在当前待编码点所属Laser采集的已编码点中确定查找范围,例如,若当前待编码点为该Laser采集的第8个点,则查找范围可包括从 第7个点到第2个点之间的已编码点,其大小为6。然后,从该查找范围内选出与当前待编码点深度信息最相近的前3个点。进一步的,若这3个点中不存在深度信息相同的点,则直接将这3个点的属性信息插入到预测列表中,否则,需要在这3个点中进行相应的筛选,具体的,首先在这3个点中找出深度信息相同的点,假如这3个点中有2个点的深度信息相同,则先将剩余的1个深度信息不同的点插入到预测列表中,然后在深度信息相同的2个点中选择与当前待编码点空间位置最近的前1个点,由于只选了前一个点,因此无需进行接下来是否存在空间位置相同的点的判断,直接将其插入到预测列表中。
c)当判断预测列表未被填满时,依次从其他Laser采集的已编码点中选择若干点,并将所选点的属性信息插入预测列表中。
具体地,当预测列表未被填满时,若存在与当前待编码点属于不同Laser采集的已编码点时,也即其他Laser采集的点中存在已编码点时,则从当前待编码点正上方的若干Laser采集的点中选择相应的点进行预测列表的更新。
具体更新过程同上述步骤b)。
需要说明的是,在将当前待编码点的前一个已编码点的属性信息以及当前待编码点所属Laser采集的已编码点中若干点的属性信息插入到预测列表后,若预测列表未被填满,则需进一步从当前待编码点上方Laser采集的已编码点中选出若干点插入到预测列表中,此时若预测列表仍未被填满,则继续向上方Laser进行查找,直至预测列表被填满或查找完正上方所有Laser。
下面通过一具体示例对本实施例的步骤c)进行详细说明。
请参见图3,图3是本发明实施例提供的一种利用当前待编码点上方Laser采集的已编码点对预测列表进行更新的示意图,图3中
Figure PCTCN2022093617-appb-000004
是待编码点的属性信息,○是已编码点的属性信息,
Figure PCTCN2022093617-appb-000005
是待插入预测列表的属性信息,
Figure PCTCN2022093617-appb-000006
是预测列表中已经存在的点的属性信息。
首先,设当前待编码点所属Laser为第j个Laser。在当前待编码点的正 上方第j-1个Laser采集的已编码点中确定查找范围,例如,若当前待编码点为第j个Laser采集的第8个点,则查找范围可包括第j-1个Laser采集的第5个点到第11个点之间的已编码点,其大小为7。然后,从该查找范围内选出与当前待编码点深度信息最相近的前2个点。进一步的,若这2个点中不存在深度信息相同的点,则直接将这2个点的属性信息插入到预测列表中,否则,需要在这2个点中进行相应的筛选,具体的,首先在这2个点中找出深度信息相同的点,假如这2个点的深度信息相同,然后在其中选择与当前待编码点空间位置最近的前1个点,由于只选了前一个点,因此无需进行接下来是否存在空间位置相同的点的判断,直接将其插入到预测列表中。接下来,如果预测列表仍未被填满,则继续在当前待编码点正上方的第j-2个Laser中进行查找,直至预测列表被填满或找完正上方所有Laser。
需要说明的是,预测列表中的属性信息值可根据需要进行相应的调整。
至此,得到当前待编码点的属性信息自适应预测列表。
本实施例通过建立自适应更新的点云属性信息预测列表,并从该列表中选择最佳预测模式来预测点云的属性信息,解决了由于实际场景不连续所导致的点云属性信息不连续的问题,从而显著减小了属性信息的预测残差以及离异值和跳变值的出现频率,提高了属性信息的预测精度和编码效率。
步骤3:从自适应预测列表中选择预测模式对点云的属性信息进行预测,得到预测残差。
具体地,可通过现有的率失真优化技术在预测列表中选取代价最小的预测模式对当前待编码点的属性信息进行预测,从而得到属性信息的预测残差。
步骤4:对预测模式和预测残差进行编码,得到码流信息,具体包括:
41)根据自适应预测列表对预测模式设计上下文模型;
具体地,在本实施例中,首先,获取自适应预测列表中点的深度信息。
然后,计算自适应预测列表中点与当前待编码点的深度信息的差别,并选择差别最小的点在预测列表中的位置作为当前待编码点预测模式的估计值。
最后,利用该估计值作为当前待编码点预测模式的熵编码上下文。
42)利用该上下文模型对预测模式进行编码;
具体地,利用该上下文模型和现有的熵编码技术对所选的预测模式进行编码。
43)对预测残差进行编码,得到码流信息。
具体地,可利用现有的熵编码技术对属性信息的预测残差进行编码,得到码流信息。
本实施例在进行点云属性信息编码时,根据建立的预测列表对预测模式设计了熵编码上下文,提高了熵编码上下文模型的有效性,进一步提升了编码效率。
本发明通过建立自适应更新的属性信息预测列表,从该列表中选择最佳预测模式来预测点云的属性信息,并进一步根据预测列表设计预测模式的熵编码上下文,以对点云属性信息进行编码。该方法充分考虑了点云深度信息与属性信息之间的相关性,解决了由于实际场景不连续所导致的点云属性信息不连续的问题,从而显著减小了属性信息的预测残差以及离异值和跳变值的出现频率,提高了属性信息的预测精度和编码效率。
实施例二
在上述实施例一的基础上,本实施例提供了一种点云属性信息的预测编码装置,请参见图4,图4是本发明实施例提供的一种点云属性信息的预测编码装置结构示意图,其包括:
第一数据获取模块11,用于获取原始点云数据;
第一计算模块12,用于建立点云属性信息的自适应预测列表;
第一预测模块13,用于从自适应预测列表中选择预测模式并对点云的属性信息进行预测,得到预测残差;
编码模块14,用于对预测模式和预测残差进行编码,得到码流信息。
本实施例提供的装置可以实现上述实施例一提供的编码方法,详细过程 在此不再赘述。
实施例三
本实施例提供了一种点云属性信息的预测解码方法,请参见图5,图5是本发明实施例提供的一种点云属性信息的预测解码方法流程示意图,具体包括:
步骤一:获取码流信息。
步骤二:建立点云属性信息的自适应预测列表。
在本实施例中,点云属性信息的自适应预测列表的建立可参考上述实施例一中编码端的方法,在此不再详述。
步骤三:根据自适应预测列表和解码得到的预测模式对点云的属性信息进行预测,得到预测值。
对于预测模式,由于编码端利用了点云属性信息的自适应预测列表对其设计了熵编码上下文模型,因此,在解码端,同样需要利用点云属性信息的自适应预测列表对其设计相应的熵解码上下文模型,从而解码得到预测模式。
根据预测模式从自适应预测列表选择对应的值作为点云属性信息的预测值。
步骤四:利用预测值及解码得到的预测残差重建点云的属性信息。
对于预测残差,由于编码端采用的是常规的熵编码方法,因此,在解码端可直接采用相应的熵解码方法得到点云属性信息的预测残差。
将步骤三得到的预测值与预测残差相加,即可得到重建的点云属性信息。
实施例四
在上述实施例三的基础上,本实施例提供了一种点云属性信息的预测解码装置,请参见图6,图6是本发明实施例提供的一种点云属性信息的预测解码装置结构示意图,其包括:
第二数据获取模块21,用于获取码流信息;
第二计算模块22,用于建立点云属性信息的自适应预测列表;
第二预测模块23,用于根据自适应预测列表和解码得到的预测模式对点云的属性信息进行预测,得到预测值;
重建模块24,用于利用预测值及解码得到的预测残差重建点云的属性信息。
本实施例提供的装置可以实现上述实施例三提供的解码方法,详细过程在此不再赘述。
以上内容是结合具体地优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (11)

  1. 一种点云属性信息的预测编码方法,其特征在于,包括:
    获取原始点云数据;
    建立点云属性信息的自适应预测列表;
    从所述自适应预测列表中选择预测模式并对点云的属性信息进行预测,得到预测残差;
    对所述预测模式和所述预测残差进行编码,得到码流信息。
  2. 根据权利要求1所述的点云属性信息的预测编码方法,其特征在于,建立点云属性信息的自适应预测列表,包括:
    建立并初始化预测列表;
    按照一定规则从已编码点中选取若干点,并根据所选点的属性信息对所述预测列表进行更新,得到当前待编码点的属性信息自适应预测列表。
  3. 根据权利要求2所述的点云属性信息的预测编码方法,其特征在于,按照一定规则从已编码点中选取若干点,并根据所选点的属性信息对所述预测列表进行更新,包括:
    将当前待编码点的前一个已编码点的属性信息插入到所述预测列表的第一个位置;
    从当前待编码点所属Laser采集的已编码点中选择若干点,并将所选点的属性信息插入到所述预测列表中;
    当判断所述预测列表未被填满时,依次从其他Laser采集的已编码点中选择若干点,并将所选点的属性信息插入到所述预测列表中。
  4. 根据权利要求3所述的点云属性信息的预测编码方法,其特征在于,从当前待编码点所属Laser或其他Laser采集的已编码点中选择若干点,并将所选点的属性信息插入到所述预测列表中,包括:
    在Laser采集的已编码点中确定查找范围;
    根据点的第一信息在所述查找范围内选择m个点;
    若判断上述m个点中存在第一信息相同的点,则根据点的第二信息对上述m个点进行筛选,并将所选点的属性信息插入到所述预测列表中;否则,将上述m个点的属性信息插入到所述预测列表中。
  5. 根据权利要求4所述的点云属性信息的预测编码方法,其特征在于,根据点的第二信息对上述m个点进行筛选,并将所选点的属性信息插入到所述预测列表中,包括:
    在上述m个点中找出所有第一信息相同的n个点;
    将上述m个点中第一信息不同的m-n个点的属性信息插入到所述预测列表中;
    在上述n个点中,选出第二信息与当前待编码点最邻近的前t个点;
    若判断上述t个点中存在第二信息相同的点,则根据点的第三信息对上述t个点进行筛选,并将所选点的属性信息插入到所述预测列表中;否则,将上述t个点的属性信息插入到所述预测列表中。
  6. 根据权利要求5所述的点云属性信息的预测编码方法,其特征在于,根据点的第三信息对上述t个点进行筛选,并将所选点的属性信息插入到所述预测列表中,包括:
    在上述t个点中找出所有第二信息相同的k个点;
    将上述t个点中第二信息不同的t-k个点的属性信息插入到所述预测列表中;
    在上述k个点中,选出第三信息与当前待编码点最邻近的一个点,并将该点的属性信息插入到所述预测列表中。
  7. 根据权利要求6所述的点云属性信息的预测编码方法,其特征在于,所述第一信息为点的深度信息或者点的空间位置;
    所述第二信息为点的深度信息或者点的空间位置,且当所述第一信息为深度信息时,所述第二信息为空间位置;当所述第一信息为空间位置时,所述第二信息为深度信息;
    所述第三信息为点的方位角信息。
  8. 根据权利要求1所述的点云属性信息的预测编码方法,其特征在于,对所述预测模式和预测残差进行编码,得到码流信息,包括:
    根据所述自适应预测列表对所述预测模式设计上下文模型;
    利用该上下文模型对所述预测模式进行编码;
    对所述预测残差进行编码,得到码流信息。
  9. 一种点云属性信息的预测编码装置,其特征在于,包括:
    第一数据获取模块(11),用于获取原始点云数据;
    第一计算模块(12),用于建立点云属性信息的自适应预测列表;
    第一预测模块(13),用于从所述自适应预测列表中选择预测模式并对点云的属性信息进行预测,得到预测残差;
    编码模块(14),用于对所述预测模式和所述预测残差进行编码,得到码流信息。
  10. 一种点云属性信息的预测解码方法,其特征在于,包括:
    获取码流信息;
    建立点云属性信息的自适应预测列表;
    根据所述自适应预测列表和解码得到的预测模式对点云的属性信息进行预测,得到预测值;
    利用所述预测值及解码得到的预测残差重建点云的属性信息。
  11. 一种点云属性信息的预测解码装置,其特征在于,包括:
    第二数据获取模块(21),用于获取码流信息;
    第二计算模块(22),用于建立点云属性信息的自适应预测列表;
    第二预测模块(23),用于根据所述自适应预测列表和解码得到的预测模式对点云的属性信息进行预测,得到预测值;
    重建模块(24),用于利用所述预测值及解码得到的预测残差重建点云的属性信息。
PCT/CN2022/093617 2021-05-26 2022-05-18 一种点云属性信息的预测编解码方法及装置 WO2022247705A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/265,874 US20240037796A1 (en) 2021-05-26 2022-05-18 Method and Apparatus for Predictively Coding and Decoding Attribute Information of Point Cloud
EP22810432.9A EP4240018A4 (en) 2021-05-26 2022-05-18 METHOD AND APPARATUS FOR PREDICTION CODING AND DECODING POINT CLOUD ATTRIBUTE INFORMATION

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110580205.1 2021-05-26
CN202110580205.1A CN115412715B (zh) 2021-05-26 2021-05-26 一种点云属性信息的预测编解码方法及装置

Publications (1)

Publication Number Publication Date
WO2022247705A1 true WO2022247705A1 (zh) 2022-12-01

Family

ID=84155491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2022/093617 WO2022247705A1 (zh) 2021-05-26 2022-05-18 一种点云属性信息的预测编解码方法及装置

Country Status (4)

Country Link
US (1) US20240037796A1 (zh)
EP (1) EP4240018A4 (zh)
CN (1) CN115412715B (zh)
WO (1) WO2022247705A1 (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110708560A (zh) * 2018-07-10 2020-01-17 腾讯美国有限责任公司 点云数据处理方法和装置
CN112385238A (zh) * 2019-07-10 2021-02-19 深圳市大疆创新科技有限公司 一种数据编码、数据解码方法、设备及存储介质
CN112385222A (zh) * 2019-06-12 2021-02-19 浙江大学 点云处理的方法与装置
WO2021045603A1 (ko) * 2019-09-06 2021-03-11 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2021049758A1 (ko) * 2019-09-11 2021-03-18 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108322742B (zh) * 2018-02-11 2019-08-16 北京大学深圳研究生院 一种基于帧内预测的点云属性压缩方法
US11010931B2 (en) * 2018-10-02 2021-05-18 Tencent America LLC Method and apparatus for video coding
CN109257604B (zh) * 2018-11-20 2020-11-27 山东大学 一种基于tmc3点云编码器的颜色属性编码方法
WO2021000334A1 (zh) * 2019-07-04 2021-01-07 深圳市大疆创新科技有限公司 一种数据编码、数据解码方法、设备及存储介质
CN111405281A (zh) * 2020-03-30 2020-07-10 北京大学深圳研究生院 一种点云属性信息的编码方法、解码方法、存储介质及终端设备
CN112565734B (zh) * 2020-12-03 2022-04-19 西安电子科技大学 基于混合编码的点云属性编解码方法及装置
CN112565757B (zh) * 2020-12-03 2022-05-13 西安电子科技大学 基于通道差异化的点云属性编码及解码方法、装置及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110708560A (zh) * 2018-07-10 2020-01-17 腾讯美国有限责任公司 点云数据处理方法和装置
CN112385222A (zh) * 2019-06-12 2021-02-19 浙江大学 点云处理的方法与装置
CN112385238A (zh) * 2019-07-10 2021-02-19 深圳市大疆创新科技有限公司 一种数据编码、数据解码方法、设备及存储介质
WO2021045603A1 (ko) * 2019-09-06 2021-03-11 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2021049758A1 (ko) * 2019-09-11 2021-03-18 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4240018A4

Also Published As

Publication number Publication date
EP4240018A1 (en) 2023-09-06
US20240037796A1 (en) 2024-02-01
CN115412715B (zh) 2024-03-26
CN115412715A (zh) 2022-11-29
EP4240018A4 (en) 2024-03-27

Similar Documents

Publication Publication Date Title
US11252441B2 (en) Hierarchical point cloud compression
US10853973B2 (en) Point cloud compression using fixed-point numbers
US11409998B2 (en) Trimming search space for nearest neighbor determinations in point cloud compression
CN109257604A (zh) 一种基于tmc3点云编码器的颜色属性编码方法
WO2022121648A1 (zh) 点云数据编码方法、解码方法、设备、介质及程序产品
CN113518226A (zh) 一种基于地面分割的g-pcc点云编码改进方法
WO2022247705A1 (zh) 一种点云属性信息的预测编解码方法及装置
WO2022166968A1 (zh) 基于二维规则化平面投影的点云编解码方法及装置
WO2022166961A1 (zh) 面向大规模点云的二维规则化平面投影及编解码方法
WO2022166967A1 (zh) 基于二维规则化平面投影的点云编解码方法及装置
WO2022166963A1 (zh) 基于二维规则化平面投影的点云编解码方法及装置
WO2022247704A1 (zh) 一种点云深度信息的预测编解码方法及装置
WO2023023914A1 (zh) 帧内预测、编解码方法及装置、编解码器、设备、介质
WO2022166958A1 (zh) 基于二维规则化平面投影的点云编解码方法及装置
WO2022247716A1 (zh) 一种点云方位角信息的预测编解码方法及装置
WO2022166966A1 (zh) 基于二维规则化平面投影的点云编解码方法及装置
WO2023133710A1 (zh) 编码方法、解码方法、编码器、解码器和编解码系统
WO2023155045A1 (zh) 预测的方法和装置、编码器、解码器和编解码系统
CN117765218A (zh) 一种地形建筑混合模型的轻量化方法及系统
CN117896536A (zh) 点云解码、编码方法、介质、电子设备及产品
CN115272666A (zh) 在线点云语义分割方法、装置、存储介质及电子设备
CN116458158A (zh) 帧内预测方法及装置、编解码器、设备、存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22810432

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022810432

Country of ref document: EP

Effective date: 20230530

WWE Wipo information: entry into national phase

Ref document number: 18265874

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE