WO2024145910A1 - 编解码方法、码流、编码器、解码器以及存储介质 - Google Patents

编解码方法、码流、编码器、解码器以及存储介质 Download PDF

Info

Publication number
WO2024145910A1
WO2024145910A1 PCT/CN2023/070931 CN2023070931W WO2024145910A1 WO 2024145910 A1 WO2024145910 A1 WO 2024145910A1 CN 2023070931 W CN2023070931 W CN 2023070931W WO 2024145910 A1 WO2024145910 A1 WO 2024145910A1
Authority
WO
WIPO (PCT)
Prior art keywords
node
information
prediction
plane
target
Prior art date
Application number
PCT/CN2023/070931
Other languages
English (en)
French (fr)
Inventor
孙泽星
Original Assignee
Oppo广东移动通信有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oppo广东移动通信有限公司 filed Critical Oppo广东移动通信有限公司
Priority to PCT/CN2023/070931 priority Critical patent/WO2024145910A1/zh
Publication of WO2024145910A1 publication Critical patent/WO2024145910A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Definitions

  • the embodiments of the present application provide a coding and decoding method, a bit stream, an encoder, a decoder and a storage medium, which can improve the geometric coding efficiency of point clouds, thereby improving the coding and decoding performance of point clouds.
  • the code stream is decoded based on the target context information to determine the plane position information of the current node.
  • the plane position information of the current node is determined, and the plane position information of the current node is encoded based on the target context information, and the obtained encoding bits are written into the bitstream.
  • an embodiment of the present application provides a code stream, which is generated by bit encoding based on information to be encoded; wherein the information to be encoded includes at least: plane position information of the current node.
  • an embodiment of the present application provides an encoder, the encoder comprising a first determining unit and an encoding unit; wherein,
  • the encoding unit is configured to encode the plane position information of the current node based on the target context information, and write the obtained encoding bits into the bit stream.
  • an encoder comprising a first memory and a first processor; wherein:
  • a first memory for storing a computer program that can be run on the first processor
  • the first processor is used to execute the method described in the second aspect when running a computer program.
  • a point cloud is a set of discrete points that are irregularly distributed in space and express the spatial structure and surface properties of a three-dimensional object or scene.
  • FIG1A shows a three-dimensional point cloud image
  • FIG1B shows a partial magnified view of the three-dimensional point cloud image. It can be seen that the point cloud surface is composed of densely distributed points.
  • FIG4A shows a schematic diagram of the composition framework of a G-PCC encoder.
  • the geometric information is transformed so that all point clouds are contained in a bounding box (Bounding Box), and then quantized.
  • This step of quantization mainly plays a role in scaling. Due to the quantization rounding, the geometric information of a part of the point cloud is the same, so whether to remove duplicate points is determined based on parameters.
  • the process of quantization and removal of duplicate points is also called voxelization.
  • the Bounding Box is divided into octrees or a prediction tree is constructed.
  • FIG8 provides a schematic diagram of infer direct coding model (IDCM) coding.
  • IDCM infer direct coding model
  • the DCM coding mode of the current node needs to be encoded.
  • DCM modes There are currently two DCM modes, namely: (a) only one point exists (or multiple points, but they are repeated points); (b) contains two points.
  • the geometric information of each point needs to be encoded. Assuming that the side length of the node is 2d , d bits are required to encode each component of the geometric coordinates of the node, and the bit information is directly encoded into the bit stream. It should be noted here that when encoding the lidar point cloud, the three-dimensional coordinate information is predictively encoded by using the lidar acquisition parameters, which can further improve the encoding efficiency of the geometric information.
  • the Morton code M is x, y, z starting from the highest bit, and then arranged in sequence from x l ,y l ,z l to the lowest bit.
  • the calculation formula of M is as follows:
  • the general test sequences include four categories: Cat1A, Cat1B, Cat3-fused, and Cat3-frame.
  • the Cat2-frame point cloud only contains reflectance attribute information
  • the Cat1A and Cat1B point clouds only contain color attribute information
  • the Cat3-fused point cloud contains both color and reflectance attribute information.
  • the decoding end obtains the placeholder code of each node by continuously parsing in the order of breadth-first traversal, and continuously divides the nodes in turn until a 1 ⁇ 1 ⁇ 1 unit cube is obtained.
  • geometric lossless decoding it is necessary to parse the number of points contained in each leaf node and finally restore the geometrically reconstructed point cloud information.
  • the decoding end reconstructs the prediction tree structure by continuously parsing the bit stream, and then obtains the geometric position prediction residual information and quantization parameters of each prediction node through parsing, and dequantizes the prediction residual to restore the reconstructed geometric position information of each node, and finally completes the geometric reconstruction at the decoding end.
  • the relevant technology only predicts and encodes the plane position information of the current node through some prior reference information, and does not consider the temporal correlation of nodes between adjacent frames. In this way, when predicting and decoding the plane position information of the current node, the geometric coding efficiency of the current node is reduced due to incomplete consideration.
  • an embodiment of the present application provides a coding and decoding method, at the encoding end, based on the prediction node corresponding to the current node in the prediction frame, the plane structure information of the preset node of the current node is determined, wherein the preset node includes the prediction node and at least one target node in the prediction frame; according to the plane structure information of the preset node, the context indication information of the current node is determined; according to the context indication information, the target context information is determined; the plane position information of the current node is determined, and the plane position information of the current node is encoded based on the target context information, and the obtained encoding bits are written into the bitstream.
  • the plane structure information of the preset node of the current node is determined, wherein the preset node includes the prediction node and at least one target node in the prediction frame; according to the plane structure information of the preset node, the context indication information of the current node is determined; according to the context indication information, the target context information is determined; the bitstream is decoded based on the target context information to determine the plane position information of the current node.
  • the target context information can be determined by considering the plane structure information of the predicted node in the predicted frame; in this way, since the correlation of the plane structure information between the corresponding nodes in adjacent predicted frames is taken into account, the geometric information encoding efficiency of the point cloud can be effectively improved; at the same time, the time domain correlation between adjacent predicted frames is used to remove the redundancy of the plane structure information between adjacent frames, which can further improve the geometric information encoding efficiency of the point cloud, thereby improving the encoding and decoding performance of the point cloud.
  • FIG10 a schematic diagram of a decoding method provided by an embodiment of the present application is shown. As shown in FIG10 , the method may include:
  • S1001 Determine the plane structure information of the preset node of the current node based on the prediction node corresponding to the current node in the prediction frame, wherein the preset node includes the prediction node and at least one target node in the prediction frame.
  • the decoding method of the embodiment of the present application is applied to a decoder.
  • the decoding method may refer to a point cloud geometry decoding method, specifically an inter-frame plane decoding method; more specifically, a context information determination method based on a point cloud plane coding mode, and then decoding the plane position information of the current node according to the determined target context information.
  • a point in a point cloud, can be all points in the point cloud or some points in the point cloud, and these points are relatively concentrated in space.
  • the current node specifically refers to the node currently to be decoded in the point cloud.
  • FIG11 shows a schematic diagram of inter-frame plane coding provided by an embodiment of the present application.
  • the current frame and the predicted frame are included, wherein there are nodes a and b in the current frame, and both nodes a and b are plane eligible (Planar Eligible); there are nodes c and d in the predicted frame, node c is a true plane node (Is Truly Planar node), and node d is a non-planar node (Not a Planar node).
  • node c is a predicted node in the predicted frame and the current node (i.e., node a) in the current frame. In this way, the optimization of the start of the plane coding condition can be achieved according to the placeholder information of the predicted node.
  • the preset direction may be any direction in three dimensions, such as the X-axis direction, the Y-axis direction, or the Z-axis direction, etc. That is to say, the placeholder information of the prediction node is first used to determine whether the prediction node belongs to a real plane. If the plane identification information of the prediction node is PredPlanMode, then by using the plane identification information of the prediction node, it can be determined whether the current node starts the plane coding mode in the three-dimensional direction.
  • the plane structure information of the prediction node and the reference information of the current node it is determined whether the current node starts the plane coding mode in the preset direction.
  • the reference information of the current node can be the plane coding start condition in the related technology, such as judging according to the plane probability of the node in each dimension, or judging whether the current layer node meets the plane coding according to the point cloud density of the current layer, or judging whether the current node meets the plane coding according to the acquisition parameters of the laser radar point cloud, etc.
  • the inter-frame information can also be used to enrich the start conditions for judging the plane coding mode.
  • the preset node of the current node in addition to the predicted node of the current node in the predicted frame, at least one target node may also be included.
  • the at least one target node may be composed of the neighboring nodes of the predicted node, or may be composed of the predicted nodes corresponding to the neighboring nodes of the current node, which is not specifically limited here.
  • the method may further include: determining a neighboring node of the prediction node; and determining at least one target node in the prediction frame according to the neighboring nodes of the prediction node.
  • the method may also include: determining the neighboring nodes of the current node; determining the predicted nodes of the neighboring nodes of the current node based on the predicted frame; and determining at least one target node in the predicted frame based on the predicted nodes of the neighboring nodes of the current node.
  • At least one target node may also include at least one of the following: a predicted node corresponding to at least one coplanar node coplanar with the current node, a predicted node corresponding to at least one colinear node colinear with the current node, and a predicted node corresponding to at least one co-point node co-point with the current node.
  • the neighborhood nodes of the current node may be included.
  • the neighborhood nodes of the current node may be only coplanar neighborhood nodes, or only collinear neighborhood nodes, or coplanar neighborhood nodes and collinear neighborhood nodes, or coplanar neighborhood nodes, collinear neighborhood nodes and co-point neighborhood nodes, or a larger reference neighborhood range, which is not specifically limited.
  • FIG12 shows a schematic diagram of the positional relationship between a prediction node and a neighborhood node provided in an embodiment of the present application.
  • the node represented by the bold solid line is the prediction node
  • the node represented by the dotted line is the six neighborhood nodes coplanar with the prediction node (i.e., coplanar neighborhood nodes, which can be referred to as "coplanar nodes" for short).
  • coplanar neighborhood nodes which can be referred to as "coplanar nodes” for short.
  • the placeholder information of the six neighborhood nodes coplanar with the prediction node can be known here, so these six neighborhood nodes can be determined as the required target nodes.
  • At least one target node can only consider the occupancy information of the six neighboring nodes coplanar with the prediction node, but the neighborhood reference range is not limited here.
  • the neighborhood reference range is not limited here.
  • the coplanar neighboring nodes of the prediction node, or the coplanar neighboring nodes and colinear neighboring nodes of the prediction node, or a larger reference neighborhood range can be referenced, and no restrictions are imposed here.
  • the nodes represented by the bold solid line are the prediction nodes
  • the nodes represented by the dotted line are the neighborhood nodes of the prediction nodes.
  • the reference neighborhood range here is not limited to 6 coplanar neighboring nodes. Specifically, it can include 6 coplanar neighboring nodes, 12 colinear neighboring nodes, and 8 co-point neighboring nodes.
  • the placeholder information of the preset node of the current node can be obtained based on the predicted node corresponding to the current node and the at least one target node, and then the plane structure information of the preset node can be determined by utilizing the placeholder information of the preset node of the current node, so as to predict and decode the plane position information of the current node.
  • determining the context indication information of the current node according to the plane structure information of the preset node may include:
  • the second context indication information of the current node is determined according to the plane structure information of the second type of preset nodes.
  • the preset node may include: a prediction node and six target nodes.
  • the seven nodes may be divided into a first type of preset node and a second type of preset node.
  • the first type of preset node includes a prediction node and a first target node
  • the second type of preset node includes a second target node; then, the first context indication information of the current node is calculated using the plane structure information of the first type of preset node, and the second context indication information of the current node is calculated using the plane structure information of the second type of preset node.
  • the first target node and the second target node may be different.
  • the number of the first target nodes is three
  • the number of the second target nodes is three.
  • the first target node may include: a coplanar node located to the left of the prediction node, a coplanar node located in front of the prediction node, and a coplanar node located below the prediction node;
  • the second target node may include: a coplanar node located to the right of the prediction node, a coplanar node located behind the prediction node, and a coplanar node located above the prediction node.
  • the first target node may include: a prediction node corresponding to a coplanar node located to the left of the current node, a prediction node corresponding to a coplanar node located in front of the current node, and a prediction node corresponding to a coplanar node located below the current node;
  • the second target node may include: a prediction node corresponding to a coplanar node located to the right of the current node, a prediction node corresponding to a coplanar node located behind the current node, and a prediction node corresponding to a coplanar node located above the current node; but no specific limitation is made to this.
  • determining the plane structure information of the first type of preset nodes may include:
  • the plane structure information of the first type of preset nodes is composed according to the plane identification information of the predicted node, the plane position information of the predicted node, the plane identification information of the first target node and the plane position information of the first target node.
  • the occupancy information of the six coplanar neighboring nodes are coPlanarLeft, coPlanarRight, coPlanarFront, coPlanarBelow, coPlanarUpper, coPlanarDown, and the occupancy information PredNode of the predicted node;
  • the occupancy information of the three coplanar neighboring nodes is used to calculate the plane structure information of the three coplanar neighboring nodes, including the plane identification (planarMode) information and the plane position (PlanePos) information.
  • the calculation method of PlaneMode and PlanePos is as follows:
  • planarMode plane0 ⁇ plane1;
  • PlanePos planarMode &plane1;
  • the occupancy information of these three coplanar neighboring nodes is coPlanarLeft, coPlanarFront, and coPlanarDown, respectively.
  • the plane structure information of the first type of preset nodes is calculated using the occupancy information of these three coplanar neighboring nodes and the occupancy information of the predicted node, which are: PredNodePlaneMode, PredNodePlanePos, coPlanarLeftPlaneMode, coPlanarLeftPlanePos, coPlanarFrontPlaneMode, coPlanarFrontPlanePos, coPlanarDownPlaneMode, and coPlanarDown PlanePos.
  • determining the first context indication information of the current node based on the plane structure information of the first type of preset node may include: determining the first context indication information of the current node based on the plane identification information of the predicted node, the plane position information of the predicted node, the plane identification information of the first target node, and the plane position information of the first target node.
  • the plane structure information of the second type of preset node can be used to calculate Ctx2, as follows:
  • determining the first context indication information of the current node according to the first type of plane structure information of the preset node may include: determining the first context indication information of the current node according to the plane position information of the predicted node and the plane position information of the third target node.
  • S1004 Decode the code stream based on the target context information to determine the plane position information of the current node.
  • determining the target context information according to the first context indication information and the second context indication information may include:
  • the spatial distance includes one of the following: a short distance and a long distance;
  • the plane position information is divided into three elements: predicted as a low plane, predicted as a high plane, and unpredictable;
  • (e) Ctx1 is calculated using the planar structure information of the prediction node and three coplanar neighboring nodes to the left/front/below;
  • This embodiment provides a decoding method, which determines the plane structure information of the preset node of the current node based on the prediction node corresponding to the current node in the prediction frame, wherein the preset node includes the prediction node and at least one target node in the prediction frame; determines the context indication information of the current node according to the plane structure information of the preset node; determines the target context information according to the context indication information; and determines the plane position information of the current node by decoding the code stream based on the target context information.
  • the correlation of the plane structure information between the corresponding nodes in the adjacent prediction frames is taken into account, and the redundancy of the plane structure information between the adjacent frames is removed by using the time domain correlation between the adjacent prediction frames, so that the geometric information encoding efficiency of the point cloud can be improved, thereby improving the encoding and decoding performance of the point cloud.
  • FIG15 a schematic diagram of a flow chart of an encoding method provided in an embodiment of the present application is shown. As shown in FIG15, the method may include:
  • S1501 Determine the plane structure information of the preset node of the current node based on the prediction node corresponding to the current node in the prediction frame, wherein the preset node includes the prediction node and at least one target node in the prediction frame.
  • the encoding method of the embodiment of the present application is applied to an encoder.
  • the encoding method may refer to a point cloud geometry encoding method, specifically an inter-frame plane encoding method; more specifically, a context information determination method based on a point cloud plane encoding mode, and then encoding the plane position information of the current node according to the determined target context information.
  • a point in a point cloud, can be all points in the point cloud or some points in the point cloud, and these points are relatively concentrated in space.
  • the current node specifically refers to the node to be encoded in the point cloud.
  • the predicted frame is an encoded frame, and the predicted frame has an adjacent relationship with the current frame containing the current node.
  • the predicted frame is an encoded reference frame adjacent to the current frame, and the temporal correlation of nodes between adjacent predicted frames can be used to improve the plane coding efficiency of the current node.
  • optimization of the start of plane coding conditions can be achieved according to the placeholder information of the prediction node. That is, the plane structure information of the prediction node can be determined by the placeholder information of the prediction node, and then the plane structure information of the prediction node can be used to directly determine whether the current node starts the plane coding mode. Therefore, in some embodiments, the method may also include: determining the placeholder information of the prediction node; determining the plane structure information of the prediction node according to the placeholder information of the prediction node; and determining whether the current node starts the plane coding mode in a preset direction based on the plane structure information of the prediction node.
  • the plane structure information of the prediction node may include the plane identification information (PredPlanMode) of the prediction node and the plane position information (PredPlanPos) of the prediction node.
  • the method may also include: determining the placeholder information of the prediction node; determining the plane identification information of the prediction node according to the placeholder information of the prediction node; and determining whether the current node starts the plane coding mode in a preset direction based on the plane identification information of the prediction node.
  • the preset direction may be any direction in three dimensions, such as the X-axis direction, the Y-axis direction, or the Z-axis direction, etc. That is to say, the placeholder information of the prediction node is first used to determine whether the prediction node belongs to a real plane. If the plane identification information of the prediction node is PredPlanMode, then by using the plane identification information of the prediction node, it can be determined whether the current node starts the plane coding mode in the three-dimensional direction.
  • determining whether the current node starts the plane coding mode in a preset direction may include:
  • the plane structure information of the prediction node and the reference information of the current node it is determined whether the current node starts the plane coding mode in the preset direction.
  • the reference information of the current node can be the plane coding start condition in the related technology, such as judging according to the plane probability of the node in each dimension, or judging whether the current layer node meets the plane coding according to the point cloud density of the current layer, or judging whether the current node meets the plane coding according to the acquisition parameters of the laser radar point cloud, etc.
  • the inter-frame information can also be used to enrich the start conditions for judging the plane coding mode.
  • the preset node of the current node in addition to the predicted node of the current node in the predicted frame, at least one target node may also be included.
  • the at least one target node may be composed of the neighboring nodes of the predicted node, or may be composed of the predicted nodes corresponding to the neighboring nodes of the current node, which is not specifically limited here.
  • the method may further include: determining a neighboring node of the prediction node; and determining at least one target node in the prediction frame according to the neighboring nodes of the prediction node.
  • the neighborhood nodes of the prediction node can be: at least one coplanar node coplanar with the prediction node, and/or, at least one colinear node colinear with the prediction node, and/or, at least one co-point node co-point with the prediction node; therefore, at least one target node can include at least one of the following: at least one coplanar node coplanar with the prediction node, at least one colinear node colinear with the prediction node, and at least one co-point node co-point with the prediction node.
  • At least one target node may also include at least one of the following: a predicted node corresponding to at least one coplanar node coplanar with the current node, a predicted node corresponding to at least one colinear node colinear with the current node, and a predicted node corresponding to at least one co-point node co-point with the current node.
  • the placeholder information of the preset node of the current node can be obtained based on the predicted node corresponding to the current node and the at least one target node, and then the plane structure information of the preset node can be determined by utilizing the placeholder information of the preset node of the current node, so as to predict and encode the plane position information of the current node.
  • the context indication information of the current node may include the first context indication information of the current node and the second context indication information of the current node.
  • the context indication information is calculated according to the plane structure information (e.g., plane identification information and/or plane position information) of the preset node, and the calculation method here is not limited, and there is no specific limitation on how to calculate.
  • the second context indication information of the current node is determined according to the plane structure information of the second type of preset nodes.
  • the first target node and the second target node may be different.
  • the number of the first target nodes is three
  • the number of the second target nodes is three.
  • the first target node may include: a coplanar node located to the left of the prediction node, a coplanar node located in front of the prediction node, and a coplanar node located below the prediction node;
  • the second target node may include: a coplanar node located to the right of the prediction node, a coplanar node located behind the prediction node, and a coplanar node located above the prediction node.
  • Plane structure information of the first type of preset nodes is composed according to the plane identification information of the prediction node, the plane position information of the prediction node, the plane identification information of the first target node, and the plane position information of the first target node.
  • determining the first context indication information of the current node based on the plane structure information of the first type of preset node may include: determining the first context indication information of the current node based on the plane identification information of the predicted node, the plane position information of the predicted node, the plane identification information of the first target node, and the plane position information of the first target node.
  • the first target node is the three coplanar neighboring nodes of the predicted node
  • the plane structure information of the first type of preset node is calculated using the occupancy information of the three coplanar neighboring nodes and the occupancy information of the predicted node, which are: PredNodePlaneMode, PredNodePlanePos, coPlanarLeftPlaneMode, coPlanarLeftPlanePos, coPlanarFrontPlaneMode, coPlanarFrontPlanePos, coPlanarDownPlaneMode, coPlanarDownPlanePos.
  • the first context indication information of the current node (represented by Ctx1) is calculated using the plane structure information of the first type of preset node.
  • Ctx1 please refer to the calculation process of the decoding end, which is specifically as formula (3), and will not be described in detail here.
  • Plane structure information of the second type of preset nodes is composed according to the plane identification information of the second target node and the plane position information of the second target node.
  • the second target node is another three coplanar neighboring nodes of the predicted node
  • the occupancy information of these three coplanar neighboring nodes is used to calculate the plane structure information of the second type of preset node, which are: coPlanarRightPlaneMode, coPlanarRightPlanePos, coPlanarUpperPlaneMode, coPlanarUpperPlanePos, coPlanarBelowPlaneMode, coPlanarBelowPlanePos.
  • the plane structure information of the second type of preset node is used to calculate the second context indication information of the current node (represented by Ctx2).
  • Ctx2 please refer to the calculation process of the decoding end, which is specifically as formula (4), and will not be described in detail here.
  • the first type of plane structure information of the preset node is composed according to the plane position information of the predicted node and the plane position information of the third target node.
  • determining the first context indication information of the current node according to the first type of plane structure information of the preset node may include: determining the first context indication information of the current node according to the plane position information of the predicted node and the plane position information of the third target node.
  • the first type of plane structure information of the preset node may include: PredNodePlanePos, coPlanarLeftPlanePos, coPlanarDownPlanePos, coPlanarFrontPlanePos, coPlanarRightPlanePos, coPlanarUpperPlanePos, coPlanarBelowPlanePos.
  • the plane position information of the preset node is used to calculate the first context indication information of the current node (represented by Ctx1).
  • Ctx1 For the calculation of Ctx1, please refer to the calculation process of the decoding end, which is specifically as formula (5), and will not be described in detail here.
  • the target context information here can be a target context index value, and then the corresponding context model is determined based on the target context index value, and the plane position information of the current node is encoded using the context model; alternatively, the target context information here can also be the context model that is finally determined, and then the plane position information of the current node is encoded using the context model.
  • determining the reference context information of the current node includes at least one of the following:
  • the correlation of the plane structure information between the corresponding nodes in the adjacent prediction frames is taken into account, and the redundancy of the plane structure information between the adjacent frames is removed by using the time domain correlation between the adjacent prediction frames, so that the geometric information encoding efficiency of the point cloud can be improved, thereby improving the encoding and decoding performance of the point cloud.
  • L 255; in addition, if the coded node is a plane, ⁇ (coded node) is 1; otherwise, ⁇ (coded node) is 0.
  • FIG17 is a schematic diagram of the intersection of a laser radar and a node provided in an embodiment of the present application.
  • a node filled with a grid is simultaneously traversed by two laser rays (Laser), so the current node is not a plane in the vertical direction of the Z axis;
  • a node filled with a slash is small enough to not be simultaneously traversed by two lasers, so the green node may be a plane in the vertical direction of the Z axis.
  • the plane identification information and the plane position information may be predictively coded.
  • the existing reference context information may include:
  • the plane position information is divided into three elements: predicted as a low plane, predicted as a high plane, and unpredictable;
  • the current node is a small cube filled with a grid
  • the neighboring node is searched as a small cube filled with white, and the distance between the two nodes is judged as "near" and "far", and the plane position of the reference node is referenced.
  • FIG19 is a schematic diagram of a current node located at a high plane position of a parent node provided by an embodiment of the present application. As shown in FIG19, (a), (b), and (c) show three examples of the current node being located at a high plane position of a parent node. The specific description is as follows:
  • FIG20 is a schematic diagram of predictive encoding of the laser radar point cloud plane position information provided in an embodiment of the present application. As shown in FIG20, when the laser radar emission angle is ⁇ bottom , it can be mapped to a low plane (Bottom virtual plane); when the laser radar emission angle is ⁇ top , it can be mapped to a high plane (Top virtual plane).
  • the plane position of the current node is predicted by using the laser radar acquisition parameters, and the position of the current node intersecting with the laser ray is used to quantify the position into multiple intervals, which is finally used as the context information of the plane position of the current node.
  • the specific calculation process is as follows: Assuming that the coordinates of the laser radar are (x Lidar , y Lidar , z Lidar ), and the geometric coordinates of the current node are (x, y, z), then first calculate the vertical tangent value tan ⁇ of the current node relative to the laser radar, and the calculation formula is as follows:
  • each Laser has a certain offset angle relative to the LiDAR, it is also necessary to calculate the relative tangent value tan ⁇ corr,L of the current node relative to the Laser.
  • the specific calculation is as follows:
  • the relative tangent value tan ⁇ corr,L of the current node is used to predict the plane position of the current node. Specifically, assuming that the tangent value of the lower boundary of the current node is tan( ⁇ bottom ), and the tangent value of the upper boundary is tan( ⁇ top ), the plane position is quantized into 4 quantization intervals according to tan ⁇ corr,L , that is, the context information of the plane position is determined.
  • the plane position information of the current node can be predicted and encoded by considering the plane structure information of the predicted node in the predicted frame, thereby improving the plane coding efficiency of the current node.
  • the first step is to start optimizing the plane encoding conditions.
  • node c is the predicted node of the current node (i.e., node a) in the predicted frame and the current frame.
  • the placeholder information of the predicted node is used to determine whether the predicted node belongs to a real plane.
  • the plane identification information of the predicted node is PredPlanMode
  • the plane position information of the current node is predicted and encoded.
  • Ctx2 Using the occupancy information of the three coplanar neighboring nodes on the right/behind/above, respectively assumed to be: coEdgerRight, coEdgerUpper, coEdgerBelow, first use the occupancy information of these coplanar neighboring nodes to calculate the plane structure information corresponding to each node, respectively: coPlanarRightPlaneMode, coPlanarRightPlanePos, coPlanarUpperPlaneMode, coPlanarUpperPlanePos, coPlanarBelowPlaneMode, coPlanarBelow PlanePos, then use the plane structure information corresponding to these coplanar neighboring nodes to calculate Ctx2, see formula (4) for details.
  • the plane position information is divided into three elements: predicted as a low plane, predicted as a high plane, and unpredictable;
  • the reference range of the neighborhood nodes may not be restricted. Among them, considering the balance between coding efficiency, time complexity, memory occupancy, etc., only the occupancy information of 6 coplanar neighborhood nodes and 1 prediction node is considered here, but there is no restriction on the neighborhood reference range, for example: only coplanar neighborhood nodes, or coplanar neighborhood nodes and collinear neighborhood nodes, or a larger neighborhood reference range may be referenced, which is not specifically limited here.
  • the reference information finally obtained by using the occupancy information of the neighboring nodes can be used, and the context finally used for the plane position is not restricted.
  • Ctx1 and Ctx2 can be directly calculated by using the plane structure information of the neighboring nodes such as coplanar, colinear and co-point to perform simple AND or OR operations, and finally used to determine the context of the plane position encoding.
  • there is no restriction on the context finally used for encoding For example, Ctx1 and Ctx2 can be mapped to obtain a new context by using some methods such as spatial rotation without deformation or context mapping, and there is no restriction on this.
  • the plane structure information of the prediction node can be used to modify the plane coding start condition of the current node. Among them, it can be directly determined whether the current node to be coded is plane coded by using the plane structure information of the prediction node. In an embodiment of the present application, the plane structure information of the prediction node and the reference information of the current node can also be used to comprehensively consider and determine whether the current node is plane coded. Here, there is no restriction on how to use the plane structure information of the prediction node to determine the plane coding condition of the current node.
  • the following takes the geometric lossless attribute lossless test environment as an example, where bpp is a performance indicator for measuring compression efficiency.
  • bpp is a performance indicator for measuring compression efficiency.
  • bpp is less than 100%, it means that the coding efficiency is improved compared with the existing coding scheme, as shown in Table 1.
  • Test Sequences Test results (Geometry_bpp) egyptian_mask_vox12 97.124% facade_00009_vox12 96.340% facade_00015_vox14 96.740% frog_00067_vox12 95.015% house_without_roof_00057_vox12 96.777% shiva_00035_vox12 97.763%
  • the first determination unit 2101 is further configured to determine the neighboring nodes of the prediction node; determine at least one target node in the prediction frame based on the neighboring nodes of the prediction node; wherein the at least one target node includes at least one of the following: at least one coplanar node coplanar with the prediction node, at least one colinear node colinear with the prediction node, and at least one co-point node co-point with the prediction node.
  • the third target node includes: a coplanar node to the left of the prediction node, a coplanar node in front of the prediction node, a coplanar node below the prediction node, a coplanar node to the right of the prediction node, a coplanar node behind the prediction node, and a coplanar node above the prediction node; or, the third target node includes: a prediction node corresponding to a coplanar node to the left of the current node, a prediction node corresponding to a coplanar node in front of the current node, a prediction node corresponding to a coplanar node below the current node, a prediction node corresponding to a coplanar node to the right of the current node, a prediction node corresponding to a coplanar node behind the current node, and a prediction node corresponding to a coplanar node above the current node.
  • the first determining unit 2101 is further configured to determine reference context information of the current node; and determine target context information according to the first context indication information, the second context indication information and the reference context information.
  • the integrated unit is implemented in the form of a software function module and is not sold or used as an independent product, it can be stored in a computer-readable storage medium.
  • the technical solution of this embodiment is essentially or the part that contributes to the prior art or all or part of the technical solution can be embodied in the form of a software product.
  • the computer software product is stored in a storage medium, including several instructions for a computer device (which can be a personal computer, server, or network device, etc.) or a processor to perform all or part of the steps of the method described in this embodiment.
  • the aforementioned storage medium includes: U disk, mobile hard disk, read-only memory (ROM), random access memory (RAM), disk or optical disk, etc., various media that can store program codes.
  • a first memory 2202 used to store a computer program that can be run on the first processor 2203;
  • the processing unit can be implemented in one or more application specific integrated circuits (Application Specific Integrated Circuits, ASIC), digital signal processors (Digital Signal Processing, DSP), digital signal processing devices (DSP Device, DSPD), programmable logic devices (Programmable Logic Device, PLD), field programmable gate arrays (Field-Programmable Gate Array, FPGA), general processors, controllers, microcontrollers, microprocessors, other electronic units for performing the functions described in this application or a combination thereof.
  • ASIC Application Specific Integrated Circuits
  • DSP Digital Signal Processing
  • DSP Device digital signal processing devices
  • PLD programmable logic devices
  • FPGA field programmable gate array
  • general processors controllers, microcontrollers, microprocessors, other electronic units for performing the functions described in this application or a combination thereof.
  • the technology described in this application can be implemented by a module (such as a process, function, etc.) that performs the functions described in this application.
  • the software code can be stored in a memory and executed by a processor.
  • the memory can be implemented in the processor or outside the processor.
  • FIG. 23 shows a schematic diagram of the composition structure of a decoder provided by the embodiment of the present application.
  • the decoder 230 may include: a second determination unit 2301 and a decoding unit 2302; wherein,
  • the predicted frame is a decoded frame, and the predicted frame has a neighbor relationship with the current frame including the current node.
  • the second determination unit 2301 is further configured to determine the placeholder information of the prediction node; and determine the plane identification information of the prediction node based on the placeholder information of the prediction node; and determine whether the current node starts the plane coding mode in a preset direction based on the plane identification information of the prediction node.
  • the second determination unit 2301 is further configured to determine the neighboring nodes of the prediction node; determine at least one target node in the prediction frame based on the neighboring nodes of the prediction node; wherein the at least one target node includes at least one of the following: at least one coplanar node coplanar with the prediction node, at least one colinear node colinear with the prediction node, and at least one co-point node co-point with the prediction node.
  • the second determination unit 2301 is also configured to determine the plane structure information of the first type of preset nodes and the plane structure information of the second type of preset nodes based on the plane structure information of the preset nodes; and determine the first context indication information of the current node based on the plane structure information of the first type of preset nodes; and determine the second context indication information of the current node based on the plane structure information of the second type of preset nodes.
  • the second determination unit 2301 is further configured to determine the placeholder information of the prediction node and the placeholder information of the first target node; and determine the plane identification information of the prediction node and the plane position information of the prediction node based on the placeholder information of the prediction node; and determine the plane identification information of the first target node and the plane position information of the first target node based on the placeholder information of the first target node; and compose the plane structure information of the first category of preset nodes based on the plane identification information of the prediction node, the plane position information of the prediction node, the plane identification information of the first target node and the plane position information of the first target node; and determine the first context indication information of the current node based on the plane identification information of the prediction node, the plane position information of the prediction node, the plane identification information of the first target node and the plane position information of the first target node.
  • the second determination unit 2301 is further configured to determine the placeholder information of the second target node; and determine the plane identification information of the second target node and the plane position information of the second target node based on the placeholder information of the second target node; and compose the plane structure information of the second category of preset nodes based on the plane identification information of the second target node and the plane position information of the second target node; and determine the second context indication information of the current node based on the plane identification information of the second target node and the plane position information of the second target node.
  • the first target node includes: the prediction node corresponding to the coplanar node located to the left of the current node, the prediction node corresponding to the coplanar node located in front of the current node, and the prediction node corresponding to the coplanar node located below the current node;
  • the second target node includes: the prediction node corresponding to the coplanar node located to the right of the current node, the prediction node corresponding to the coplanar node located behind the current node, and the prediction node corresponding to the coplanar node located above the current node.
  • the second determination unit 2301 is further configured to determine the first type of plane structure information of the preset node and the second type of plane structure information of the preset node based on the plane structure information of the preset node; and to determine the first context indication information of the current node based on the first type of plane structure information of the preset node; and to determine the second context indication information of the current node based on the second type of plane structure information of the preset node.
  • the second determination unit 2301 is further configured to determine the placeholder information of the prediction node and the third target node respectively; and determine the plane position information of the prediction node and the plane position information of the third target node based on the placeholder information of the prediction node and the third target node respectively; and constitute the first type of plane structure information of the preset node based on the plane position information of the prediction node and the plane position information of the third target node; and determine the first context indication information of the current node based on the plane position information of the prediction node and the plane position information of the third target node.
  • the second determination unit 2301 is further configured to determine the placeholder information of the prediction node and the third target node respectively; and determine the plane identification information of the prediction node and the plane identification information of the third target node based on the placeholder information of the prediction node and the third target node respectively; and constitute the second type of plane structure information of the preset node based on the plane identification information of the prediction node and the plane identification information of the third target node; and determine the second context indication information of the current node based on the plane identification information of the prediction node and the plane identification information of the third target node.
  • the third target node includes: a coplanar node to the left of the prediction node, a coplanar node in front of the prediction node, a coplanar node below the prediction node, a coplanar node to the right of the prediction node, a coplanar node behind the prediction node, and a coplanar node above the prediction node; or, the third target node includes: a prediction node corresponding to a coplanar node to the left of the current node, a prediction node corresponding to a coplanar node in front of the current node, a prediction node corresponding to a coplanar node below the current node, a prediction node corresponding to a coplanar node to the right of the current node, a prediction node corresponding to a coplanar node behind the current node, and a prediction node corresponding to a coplanar node above the current node.
  • the second determining unit 2301 is further configured to obtain first context indication information of the current node and second context indication information of the current node; and determine target context information according to the first context indication information and the second context indication information.
  • the second determining unit 2301 is further configured to perform context mapping processing according to the first context indication information and the second context indication information to obtain new context information; and determine the target context information according to the new context information.
  • the second determining unit 2301 is further configured to determine reference context information of the current node; and determine target context information according to the first context indication information, the second context indication information and the reference context information.
  • the second determining unit 2301 is further configured to determine the reference context information of the current node, including at least one of the following:
  • the spatial distance includes one of the following: a short distance and a long distance;
  • the second determination unit 2301 is further configured to determine the placeholder information of the prediction node; and determine the plane structure information of the prediction node based on the placeholder information of the prediction node; and determine whether the current node starts the plane coding mode in a preset direction based on the plane structure information of the prediction node.
  • the second determination unit 2301 is further configured to obtain reference information of the current node; and determine whether the current node starts the plane coding mode in a preset direction according to the plane structure information of the prediction node and the reference information of the current node.
  • a "unit" can be a part of a circuit, a part of a processor, a part of a program or software, etc., and of course it can also be a module, or it can be non-modular.
  • the components in this embodiment can be integrated into a processing unit, or each unit can exist physically separately, or two or more units can be integrated into one unit.
  • the above-mentioned integrated unit can be implemented in the form of hardware or in the form of a software functional module.
  • the integrated unit is implemented in the form of a software function module and is not sold or used as an independent product, it can be stored in a computer-readable storage medium.
  • this embodiment provides a computer-readable storage medium, which is applied to the decoder 230.
  • the computer-readable storage medium stores a computer program. When the computer program is executed by the second processor, it implements any decoding method in the above embodiments.
  • the decoder 230 may include: a second communication interface 2401, a second memory 2402 and a second processor 2403; each component is coupled together through a second bus system 2404. It can be understood that the second bus system 2404 is used to achieve connection and communication between these components.
  • the second bus system 2404 also includes a power bus, a control bus and a status signal bus. However, for the sake of clarity, various buses are marked as the second bus system 2404 in Figure 24. Among them,
  • the second communication interface 2401 is used for receiving and sending signals during the process of sending and receiving information with other external network elements;
  • a schematic diagram of the composition structure of a coding and decoding system provided in an embodiment of the present application is shown.
  • a coding and decoding system 250 may include an encoder 2501 and a decoder 2502 .
  • the plane structure information of the preset node of the current node is determined, wherein the preset node includes the prediction node and at least one target node in the prediction frame; according to the plane structure information of the preset node, the context indication information of the current node is determined; according to the context indication information, the target context information is determined.
  • the plane position information of the current node is encoded based on the target context information, and the obtained encoding bits are written into the bit stream; and at the decoding end, the bit stream can be decoded based on the target context information to determine the plane position information of the current node.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请实施例公开了一种编解码方法、码流、编码器、解码器以及存储介质,该方法包括:基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息;基于目标上下文信息解码码流,确定当前节点的平面位置信息。这样,可以提升点云的几何编码效率,进而提高点云的编解码性能。

Description

编解码方法、码流、编码器、解码器以及存储介质 技术领域
本申请实施例涉及点云编解码技术领域,尤其涉及一种编解码方法、码流、编码器、解码器以及存储介质。
背景技术
在基于几何的点云压缩(Geometry-based Point Cloud Compression,G-PCC)编解码框架中,点云的几何信息和每点所对应的属性信息是分开进行编码的。其中,对于几何信息而言,可以分为基于八叉树(Octree)的几何编解码和基于预测树的几何编解码。
相关技术中,在当前节点满足平面编码条件时,由于考虑不全面,例如仅通过一些先验的参考信息来对当前节点的平面位置信息进行预测编码,从而降低了当前节点的几何编码效率。
发明内容
本申请实施例提供一种编解码方法、码流、编码器、解码器以及存储介质,可以提升点云的几何编码效率,进而提高点云的编解码性能。
本申请实施例的技术方案可以如下实现:
第一方面,本申请实施例提供了一种解码方法,应用于解码器,该方法包括:
基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;
根据预设节点的平面结构信息,确定当前节点的上下文指示信息;
根据上下文指示信息,确定目标上下文信息;
基于目标上下文信息解码码流,确定当前节点的平面位置信息。
第二方面,本申请实施例提供了一种编码方法,应用于编码器,该方法包括:
基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;
根据预设节点的平面结构信息,确定当前节点的上下文指示信息;
根据上下文指示信息,确定目标上下文信息;
确定当前节点的平面位置信息,并基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。
第三方面,本申请实施例提供了一种码流,该码流是根据待编码信息进行比特编码生成的;其中,待编码信息至少包括:当前节点的平面位置信息。
第四方面,本申请实施例提供了一种编码器,该编码器包括第一确定单元和编码单元;其中,
第一确定单元,配置为基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息;以及确定当前节点的平面位置信息;
编码单元,配置为基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。
第五方面,本申请实施例提供了一种编码器,该编码器包括第一存储器和第一处理器;其中,
第一存储器,用于存储能够在第一处理器上运行的计算机程序;
第一处理器,用于在运行计算机程序时,执行如第二方面所述的方法。
第六方面,本申请实施例提供了一种解码器,该解码器包括第二确定单元和解码单元;其中,
第二确定单元,配置为基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;以及根据上下文指示信息,确定目标上下文信息;
解码单元,配置为基于目标上下文信息解码码流,确定当前节点的平面位置信息。
第七方面,本申请实施例提供了一种解码器,该解码器包括第二存储器和第二处理器;其中,
第二存储器,用于存储能够在第二处理器上运行的计算机程序;
第二处理器,用于在运行计算机程序时,执行如第一方面所述的方法。
第八方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,所述计算机程序被执行时实现如第一方面所述的方法、或者实现如第二方面所述的方法。
本申请实施例提供了一种编解码方法、码流、编码器、解码器以及存储介质,无论是在编码端还是解码端,基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息。这样,在编码端,在确定当前节点的平面位置信息之后,基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流;而在解码端,可以基于目标上下文信息解码码流,确定当前节点的平面位置信息。也就是说,在利用目标上下文信息对当前节点的平面位置信息进行编解码过程中,可以通过考虑预测帧中预测节点的平面结构信息来确定目标上下文信息;如此,由于考虑到相邻预测帧中相对应节点之间的平面结构信息的相关性,从而可以有效提升点云的几何信息编码效率;同时利用相邻预测帧之间的时域相关性来去除相邻帧之间平面结构信息的冗余,还可以进一步提升点云的几何信息编码效率,进而提高点云的编解码性能。
附图说明
图1A为一种三维点云图像示意图;
图1B为一种三维点云图像的局部放大示意图;
图2A为一种不同观看角度下的点云图像示意图;
图2B为一种图2A对应的数据存储格式示意图;
图3为一种点云编解码的网络架构示意图;
图4A为一种G-PCC编码器的组成框图示意图;
图4B为一种G-PCC解码器的组成框图示意图;
图5A为一种低平面位置示意图;
图5B为一种高平面位置示意图;
图6为一种节点编码顺序示意图;
图7A为一种平面标识信息示意图;
图7B为另一种平面标识信息示意图;
图8为一种IDCM编码示意图;
图9A为一种子块的交点示意图;
图9B为一种子块的三角面片拟合示意图;
图9C为一种子块的上采样示意图;
图10为本申请实施例提供的一种解码方法的流程示意图;
图11为本申请实施例提供的一种帧间平面编码示意图;
图12为本申请实施例提供的一种预测节点与邻域节点之间的位置关系示意图;
图13为本申请实施例提供的另一种预测节点与邻域节点之间的位置关系示意图;
图14为本申请实施例提供的一种处于相同划分深度以及相同坐标的邻域节点示意图;
图15为本申请实施例提供的一种编码方法的流程示意图;
图16为本申请实施例提供的一种当前节点的兄弟姐妹节点示意图;
图17为本申请实施例提供的一种激光雷达与节点的相交示意图;
图18为本申请实施例提供的一种当前节点位于父节点的低平面位置示意图;
图19为本申请实施例提供的一种当前节点位于父节点的高平面位置示意图;
图20为本申请实施例提供的一种激光雷达点云平面位置信息的预测编码示意图;
图21为本申请实施例提供的一种编码器的组成结构示意图;
图22为本申请实施例提供的一种编码器的具体硬件结构示意图;
图23为本申请实施例提供的一种解码器的组成结构示意图;
图24为本申请实施例提供的一种解码器的具体硬件结构示意图;
图25为本申请实施例提供的一种编解码系统的组成结构示意图。
具体实施方式
为了能够更加详尽地了解本申请实施例的特点与技术内容,下面结合附图对本申请实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本申请实施例。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
还需要指出,本申请实施例所涉及的术语“第一\第二\第三”仅是用于区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
点云(Point Cloud)是物体表面的三维表现形式,通过光电雷达、激光雷达、激光扫描仪、多视角相机等采集设备,可以采集得到物体表面的点云(数据)。
点云是空间中一组无规则分布的、表达三维物体或场景的空间结构及表面属性的离散点集,图1A展示了三维点云图像和图1B展示了三维点云图像的局部放大图,可以看到点云表面是由分布稠密的点所组成的。
二维图像在每一个像素点均有信息表达,分布规则,因此不需要额外记录其位置信息;然而点云中的点在三维空间中的分布具有随机性和不规则性,因此需要记录每一个点在空间中的位置,才能完整地表达一幅点云。与二维图像类似,采集过程中每一个位置均有对应的属性信息,通常为RGB颜色值,颜色值反映物体的色彩;对于点云来说,每一个点所对应的属性信息除了颜色信息以外,还有比较常见的是反射率(reflectance)值,反射率值反映物体的表面材质。因此,点云中的点可以包括点的位置信息和点的属性信息。例如,点的位置信息可以是点的三维坐标信息(x,y,z)。点的位置信息也可称为点的几何信息。例如,点的属性信息可以包括颜色信息(三维颜色信息)和/或反射率(一维反射率信息r)等等。例如,颜色信息可以是任意一种色彩空间上的信息。例如,颜色信息可以是RGB信息。其中,R表示红色(Red,R),G表示绿色(Green,G),B表示蓝色(Blue,B)。再如,颜色信息可以是亮度色度(YCbCr,YUV)信息。其中,Y表示明亮度(Luma),Cb(U)表示蓝色色差,Cr(V)表示红色色差。
根据激光测量原理得到的点云,点云中的点可以包括点的三维坐标信息和点的反射率值。再如,根据摄影测量原理得到的点云,点云中的点可以可包括点的三维坐标信息和点的三维颜色信息。再如,结合激光测量和摄影测量原理得到点云,点云中的点可以可包括点的三维坐标信息、点的反射率值和点的三维颜色信息。
如图2A和图2B所示为一幅点云图像及其对应的数据存储格式。其中,图2A提供了点云图像的六个观看角度,图2B由文件头信息部分和数据部分组成,头信息包含了数据格式、数据表示类型、点云总点数、以及点云所表示的内容。例如,点云为“.ply”格式,由ASCII码表示,总点数为207242,每个点具有三维坐标信息(x,y,z)和三维颜色信息(r,g,b)。
点云可以按获取的途径分为:
静态点云:即物体是静止的,获取点云的设备也是静止的;
动态点云:物体是运动的,但获取点云的设备是静止的;
动态获取点云:获取点云的设备是运动的。
例如,按点云的用途分为两大类:
类别一:机器感知点云,其可以用于自主导航系统、实时巡检系统、地理信息系统、视觉分拣机器人、抢险救灾机器人等场景;
类别二:人眼感知点云,其可以用于数字文化遗产、自由视点广播、三维沉浸通信、三维沉浸交互等点云应用场景。
点云可以灵活方便地表达三维物体或场景的空间结构及表面属性,并且由于点云通过直接对真实物体采样获得,在保证精度的前提下能提供极强的真实感,因而应用广泛,其范围包括虚拟现实游戏、计算机辅助设计、地理信息系统、自动导航系统、数字文化遗产、自由视点广播、三维沉浸远程呈现、生物组织器官三维重建等。
点云的采集主要有以下途径:计算机生成、3D激光扫描、3D摄影测量等。计算机可以生成虚拟三维物体及场景的点云;3D激光扫描可以获得静态现实世界三维物体或场景的点云,每秒可以获取百万级点云;3D摄影测量可以获得动态现实世界三维物体或场景的点云,每秒可以获取千万级点云。这些技术降低了点云数据获取成本和时间周期,提高了数据的精度。点云数据获取方式的变革,使大量点云 数据的获取成为可能,伴随着应用需求的增长,海量3D点云数据的处理遭遇存储空间和传输带宽限制的瓶颈。
示例性地,以帧率为30帧每秒(fps)的点云视频为例,每帧点云的点数为70万,每个点具有坐标信息xyz(float)和颜色信息RGB(uchar),则10s点云视频的数据量大约为0.7million×(4Byte×3+1Byte×3)×30fps×10s=3.15GB,其中,1Byte为10bit,而YUV采样格式为4:2:0,帧率为24fps的1280×720二维视频,其10s的数据量约为1280×720×12bit×24fps×10s≈0.33GB,10s的两视角三维视频的数据量约为0.33×2=0.66GB。由此可见,点云视频的数据量远超过相同时长的二维视频和三维视频的数据量。因此,为更好地实现数据管理,节省服务器存储空间,降低服务器与客户端之间的传输流量及传输时间,点云压缩成为促进点云产业发展的关键问题。
也就是说,由于点云是海量点的集合,存储点云不仅会消耗大量的内存,而且不利于传输,也没有这么大的带宽可以支持将点云不经过压缩直接在网络层进行传输,因此,需要对点云进行压缩。
目前,可对点云进行压缩的点云编码框架可以是运动图像专家组(Moving Picture Experts Group,MPEG)提供的基于几何的点云压缩(Geometry-based Point Cloud Compression,G-PCC)编解码框架或基于视频的点云压缩(Video-based Point Cloud Compression,V-PCC)编解码框架,也可以是音视频编码标准(Audio Video Standard,AVS)提供的AVS-PCC编解码框架。G-PCC编解码框架可用于针对第一类静态点云和第三类动态获取点云进行压缩,V-PCC编解码框架可用于针对第二类动态点云进行压缩。G-PCC编解码框架也称为点云编解码器TMC13,V-PCC编解码框架也称为点云编解码器TMC2。
本申请实施例提供了一种包含解码方法和编码方法的点云编解码系统的网络架构,图3为本申请实施例提供的一种点云编解码的网络架构示意图。如图3所示,该网络架构包括一个或多个电子设备13至1N和通信网络01,其中,电子设备13至1N可以通过通信网络01进行视频交互。电子设备在实施的过程中可以为各种类型的具有点云编解码功能的设备,例如,所述电子设备可以包括手机、平板电脑、个人计算机、个人数字助理、导航仪、数字电话、视频电话、电视机、传感设备、服务器等,本申请实施例不作限定。
其中,本申请实施例中的解码器或编码器就可以为上述电子设备。也就是说,本申请实施例中的电子设备具有点云编解码功能,一般包括点云编码器(即编码器)和点云解码器(即解码器)。
下面以G-PCC编解码框架为例进行点云压缩技术的说明。
可以理解,在点云G-PCC编解码框架中,针对待编码的点云数据,首先通过片(slice)划分,将点云数据划分为多个slice。在每一个slice中,点云的几何信息和每个点云所对应的属性信息是分开进行编码的。
图4A示出了一种G-PCC编码器的组成框架示意图。如图4A所示,在几何编码过程中,对几何信息进行坐标转换,使点云全都包含在一个包围盒(Bounding Box)中,然后再进行量化,这一步量化主要起到缩放的作用,由于量化取整,使得一部分点云的几何信息相同,于是再基于参数来决定是否移除重复点,量化和移除重复点这一过程又被称为体素化过程。接着对Bounding Box进行八叉树划分或者预测树构建。在该过程中,针对划分的叶子结点中的点进行算术编码,生成二进制的几何比特流;或者,针对划分产生的交点(Vertex)进行算术编码(基于交点进行表面拟合),生成二进制的几何比特流。在属性编码过程中,几何编码完成,对几何信息进行重建后,需要先进行颜色转换,将颜色信息(即属性信息)从RGB颜色空间转换到YUV颜色空间。然后,利用重建的几何信息对点云重新着色,使得未编码的属性信息与重建的几何信息对应起来。属性编码主要针对颜色信息进行,在颜色信息编码过程中,主要有两种变换方法,一是依赖于细节层次(Level of Detail,LOD)划分的基于距离的提升变换,二是直接进行区域自适应分层变换(Region Adaptive Hierarchal Transform,RAHT),这两种方法都会将颜色信息从空间域转换到频域,通过变换得到高频系数和低频系数,最后对系数进行量化,再对量化系数进行算术编码,可以生成二进制的属性比特流。
图4B示出了一种G-PCC解码器的组成框架示意图。如图4B所示,针对所获取的二进制比特流,首先对二进制比特流中的几何比特流和属性比特流分别进行独立解码。在对几何比特流的解码时,通过算术解码-重构八叉树/重构预测树-重建几何-坐标逆转换,得到点云的几何信息;在对属性比特流的解码时,通过算术解码-反量化-LOD划分/RAHT-颜色逆转换,得到点云的属性信息,基于几何信息和属性信息还原待编码的点云数据(即输出点云)。
需要说明的是,在如图4A或图4B所示,目前G-PCC的几何编解码可以分为基于八叉树的几何编解码(用虚线框标识)和基于预测树的几何编解码(用点划线框标识)。
对于基于八叉树的几何编码(Octree geometry encoding,OctGeomEnc)而言,基于八叉树的几何编码包括:首先对几何信息进行坐标转换,使点云全都包含在一个Bounding Box中。然后再进行量化,这一步量化主要起到缩放的作用,由于量化取整,使得一部分点的几何信息相同,根据参数来决定是否 移除重复点,量化和移除重复点这一过程又被称为体素化过程。接下来,按照广度优先遍历的顺序不断对Bounding Box进行树划分(例如八叉树、四叉树、二叉树等),对每个节点的占位码进行编码。在相关技术中,某公司提出了一种隐式几何的划分方式,首先计算点云的包围盒
Figure PCTCN2023070931-appb-000001
假设d x>d y>d z,该包围盒对应为一个长方体。在几何划分时,首先会基于x轴一直进行二叉树划分,得到两个子节点;直到满足d x=d y>d z条件时,才会基于x和y轴一直进行四叉树划分,得到四个子节点;当最终满足d x=d y=d z条件时,会一直进行八叉树划分,直到划分得到的叶子结点为1×1×1的单位立方体时停止划分,对叶子结点中的点进行编码,生成二进制码流。在基于二叉树/四叉树/八叉树划分的过程中,引入两个参数:K、M。参数K指示在进行八叉树划分之前二叉树/四叉树划分的最多次数;参数M用来指示在进行二叉树/四叉树划分时对应的最小块边长为2 M。同时K和M必须满足条件:假设d max=max(d x,d y,d z),d min=min(d x,d y,d z),参数K满足:K≥d max-d min;参数M满足:M≥d min。参数K与M之所以满足上述的条件,是因为目前G-PCC在几何隐式划分的过程中,划分方式的优先级为二叉树、四叉树和八叉树,当节点块大小不满足二叉树/四叉树的条件时,才会对节点一直进行八叉树的划分,直到划分到叶子节点最小单位1×1×1。基于八叉树的几何信息编码模式可以通过利用空间中相邻点之间的相关性来对点云的几何信息进行有效的编码,但是对于一些较为平坦的节点或者具有平面特性的节点,通过利用平面编码模式可以进一步提升点云几何信息的编码效率。
示例性地,图5A和图5B提供了一种平面位置示意图。其中,图5A示出了一种Z轴方向的低平面位置示意图,图5B示出了一种Z轴方向的高平面位置示意图。如图5A所示,这里的(a)、(a0)、(a1)、(a2)、(a3)均属于Z轴方向的低平面位置,以(a)为例,可以看到当前节点中被占据的四个子节点都位于当前节点在Z轴方向的低平面位置,那么可以认为当前节点属于一个Z平面并且在Z轴方向是一个低平面。同理,如图5B所示,这里的(b)、(b0)、(b1)、(b2)、(b3)均属于Z轴方向的高平面位置,以(b)为例,可以看到当前节点中被占据的四个子节点位于当前节点在Z轴方向的高平面位置,那么可以认为当前节点属于一个Z平面并且在Z轴方向是一个高平面。
进一步地,对八叉树编码和平面编码效率进行比较,图6提供了一种节点编码顺序示意图,即按照图6所示的0、1、2、3、4、5、6、7的顺序进行节点编码。在这里,如果对图5A中的(a)采用八叉树编码方式,那么当前节点的占位信息表示为:11001100。但是如果采用平面编码方式,首先需要编码一个标识符表示当前节点在Z轴方向是一个平面,其次如果当前节点在Z轴方向是一个平面,还需要对当前节点的平面位置进行表示;其次仅仅需要对Z轴方向的低平面节点的占位信息进行编码(即0、2、4、6四个子节点的占位信息),因此基于平面编码方式对当前节点进行编码,仅仅需要编码6个比特(bit),相比相关技术的八叉树编码可以减少2个bit的表示。基于此分析,平面编码相比八叉树编码具有较为明显的编码效率。因此,对于一个被占据的节点,如果在某一个维度上采用平面编码方式进行编码,首先需要对当前节点在该维度上的平面标识(planarMode)和平面位置(PlanePos)信息进行表示,其次基于当前节点的平面信息来对当前节点的占位信息进行编码。示例性地,图7A示出了一种平面标识信息示意图。如图7A所示,这里在Z轴方向为一个低平面;对应地,平面标识信息的取值为真(true)或者1,即planarMode_ Z=true;平面位置信息为低平面(low),即PlanePosition_ Z=low。图7B示出了另一种平面标识信息示意图。如图7B所示,这里在Z轴方向不为一个平面;对应地,平面标识信息的取值为假(false)或者0,即planarMode_ Z=false。
需要注意的是,对于PlaneMode_ i:0代表当前节点在i轴方向不是一个平面,1代表当前节点在i轴方向是一个平面。若当前节点在i轴方向是一个平面,则对于PlanePosition_ i:0代表当前节点在i轴方向是一个低平面,1表示当前节点在i轴方向上是一个高平面。其中,i表示坐标维度,可以为X轴方向、Y轴方向或者Z轴方向,故i=0,1,2。
但是,基于八叉树的几何信息编码模式仅对空间中具有相关性的点有高效的压缩速率,而对于在几何空间中处于孤立位置的点来说,使用直接编码模式(Direct Coding Model,DCM)可以大大降低复杂度。对于八叉树中的所有节点,DCM的使用不是通过标志位信息来表示的,而是通过当前节点的父节点和邻居信息来进行推断得到。判断当前节点是否具有DCM编码资格的方式有三种,具体如下:
(1)当前节点没有兄弟姐妹子节点,即当前节点的父节点只有一个孩子节点,同时当前节点父节点的父节点仅有两个被占据子节点,即当前节点最多只有一个邻居节点。
(2)当前节点的父节点仅有当前节点一个占据子节点,同时与当前节点共用一个面的六个邻居节点也都属于空节点。
(3)当前节点的兄弟姐妹节点数目大于1。
示例性地,图8提供了一种推断直接编码模式(Infer Direct Coding Model,IDCM)编码示意图。如果当前节点不具有DCM编码资格将对其进行八叉树划分,若具有DCM编码资格将进一步判断该节点中包含的点数,当点数小于阈值(例如2)时,则对该节点进行DCM编码,否则将继续进行八叉树 划分。当应用DCM编码模式时,首先需要编码当前节点是否是一个真正的孤立点,即IDCM_flag,当IDCM_flag为true时,则当前节点采用DCM编码,否则仍然采用八叉树编码。在当前节点满足DCM编码时,需要编码当前节点的DCM编码模式,目前存在两种DCM模式,分别是:(a)仅仅只有一个点存在(或者是多个点,但是属于重复点);(b)含有两个点。最后需要编码每个点的几何信息,假设节点的边长为2 d时,对该节点几何坐标的每一个分量进行编码时需要d比特,该比特信息直接被编进码流中。这里需要注意的是,在对激光雷达点云进行编码时,通过利用激光雷达采集参数来对三个维度的坐标信息进行预测编码,从而可以进一步提升几何信息的编码效率。
还需要注意的是,在节点划分到叶子节点时,在几何无损编码的情况下,需要对叶子节点中的重复点数目进行编码。最终对所有节点的占位信息进行编码,生成二进制码流。另外G-PCC目前引入了一种平面编码模式,在对几何进行划分的过程中,会判断当前节点的子节点是否处于同一平面,如果当前节点的子节点满足同一平面的条件,会用该平面对当前节点的子节点进行表示。
对于基于八叉树的几何解码而言,解码端按照广度优先遍历的顺序,在对每个节点的占位信息解码之前,首先会利用已经重建得到的几何信息来判断当前节点是否进行平面解码或者IDCM解码,如果当前节点满足平面解码的条件,则会首先对当前节点的平面标识和平面位置信息进行解码,其次基于平面信息来对当前节点的占位信息进行解码;如果当前节点满足IDCM解码的条件,则会首先解码当前节点是否是一个真正的IDCM节点,如果是一个真正的IDCM解码,则会继续解析当前节点的DCM解码模式,其次可以得到当前DCM节点中的点数目,最后对每个点的几何信息进行解码。对于既不满足平面解码也不满足DCM解码的节点,会对当前节点的占位信息进行解码。通过按照这样的方式不断解析得到每个节点的占位码,并且依次不断划分节点,直至划分得到1x1x1的单位立方体时停止划分,解析得到每个叶子节点中包含的点数,最终恢复得到几何重构点云信息。
对于基于三角面片集(triangle soup,trisoup)的几何信息编码而言,在基于trisoup的几何信息编码框架中,同样也要先进行几何划分,但区别于基于二叉树/四叉树/八叉树的几何信息编码,该方法不需要将点云逐级划分到边长为1×1×1的单位立方体,而是划分到子块(block)边长为W时停止划分,基于每个block中点云的分布所形成的表面,得到该表面与block的十二条边所产生的至多十二个交点(vertex)。依次编码每个block的vertex坐标,生成二进制码流。
对于基于trisoup的点云几何信息重建而言,在解码端进行点云几何信息重建时,首先解码vertex坐标用于完成三角面片重建,该过程如图9A、图9B和图9C所示。其中,图9A所示的block中存在3个交点(v1,v2,v3),利用这3个交点按照一定顺序所构成的三角面片集被称为triangle soup,即trisoup,如图9B所示。之后,在该三角面片集上进行采样,将得到的采样点作为该block内的重建点云,如图9C所示。
对于基于预测树的几何编码(Predictive geometry coding,PredGeomTree)而言,基于预测树的几何编码包括:首先对输入点云进行排序,目前采用的排序方法包括无序、莫顿序、方位角序和径向距离序。在编码端通过利用两种不同的方式建立预测树结构,其中包括:KD-Tree(高时延慢速模式)和低时延快速模式(利用激光雷达标定信息)。在利用激光雷达标定信息时,将每个点划分到不同的激光器(Laser)上,按照不同的Laser建立预测树结构。接下来基于预测树的结构,遍历预测树中的每个节点,通过选取不同的预测模式对节点的几何位置信息进行预测得到预测残差,并且利用量化参数对几何预测残差进行量化。最终通过不断迭代,对预测树节点位置信息的预测残差、预测树结构以及量化参数等进行编码,生成二进制码流。
对于基于预测树的几何解码而言,解码端通过不断解析码流,重构预测树结构,其次通过解析得到每个预测节点的几何位置预测残差信息以及量化参数,并且对预测残差进行反量化,恢复得到每个节点的重构几何位置信息,最终完成解码端的几何重构。
在几何编码完成后,需要对几何信息进行重建。目前,属性编码主要针对颜色信息进行。首先,将颜色信息从RGB颜色空间转换到YUV颜色空间。然后,利用重建的几何信息对点云重新着色,使得未编码的属性信息与重建的几何信息对应起来。在颜色信息编码中,主要有两种变换方法,一是依赖于LOD划分的基于距离的提升变换,二是直接进行RAHT变换,这两种方法都会将颜色信息从空间域转换到频域,通过变换得到高频系数和低频系数,最后对系数进行量化并编码,生成二进制码流,具体参见图4A和图4B所示。
进一步地,在利用几何信息来对属性信息进行预测时,可以利用莫顿码进行最近邻居搜索,点云中每点对应的莫顿码可以由该点的几何坐标得到。计算莫顿码的具体方法描述如下所示,对于每一个分量用d比特二进制数表示的三维坐标,其三个分量可以表示为:
Figure PCTCN2023070931-appb-000002
其中,x l,y l,z l∈{0,1分别是x,y,z的最高位(l=1)到最低位(l=d)对应的二进制数值。莫顿码 M是对x,y,z从最高位开始,依次交叉排列x l,y l,z l到最低位,M的计算公式如下所示:
Figure PCTCN2023070931-appb-000003
其中,m l′∈{0,1}分别是M的最高位(l′=1)到最低位(l′=3d)的值。在得到点云中每个点的莫顿码M后,将点云中的点按莫顿码由小到大的顺序进行排列,并将每个点的权重值w设为1。
还可以理解,对于G-PCC编解码框架而言,通用测试条件如下:
(1)测试条件共4种:
条件1:几何位置有限度有损、属性有损;
条件2:几何位置无损、属性有损;
条件3:几何位置无损、属性有限度有损;
条件4:几何位置无损、属性无损。
(2)通用测试序列包括Cat1A,Cat1B,Cat3-fused,Cat3-frame共四类,其中Cat2-frame点云只包含反射率属性信息,Cat1A、Cat1B点云只包含颜色属性信息,Cat3-fused点云同时包含颜色和反射率属性信息。
(3)技术路线:共2种,以几何压缩所采用的算法进行区分。
技术路线1:八叉树编码分支。
在编码端,将包围盒依次划分得到子立方体,对非空的(包含点云中的点)的子立方体继续进行划分,直到划分得到的叶子结点为1×1×1的单位立方体时停止划分,在几何无损编码情况下,需要对叶子节点中所包含的点数进行编码,最终完成几何八叉树的编码,生成二进制码流。
在解码端,解码端按照广度优先遍历的顺序,通过不断解析得到每个节点的占位码,并且依次不断划分节点,直至划分得到1×1×1的单位立方体时停止划分,在几何无损解码的情况下,需要解析得到每个叶子节点中包含的点数,最终恢复得到几何重构点云信息。
技术路线2:预测树编码分支。
在编码端通过利用两种不同的方式建立预测树结构,其中包括:基于KD-Tree(高时延慢速模式)和利用激光雷达标定信息(低时延快速模式),利用激光雷达标定信息,可以将每个点划分到不同的Laser上,按照不同的Laser建立预测树结构。接下来基于预测树的结构,遍历预测树中的每个节点,通过选取不同的预测模式对节点的几何位置信息进行预测得到预测残差,并且利用量化参数对几何预测残差进行量化。最终通过不断迭代,对预测树节点位置信息的预测残差、预测树结构以及量化参数等进行编码,生成二进制码流。
在解码端,解码端通过不断解析码流,重构预测树结构,其次通过解析得到每个预测节点的几何位置预测残差信息以及量化参数,并且对预测残差进行反量化,恢复得到每个节点的重构几何位置信息,最终完成解码端的几何重构。
简单来说,在当前节点满足平面编码的条件时,相关技术仅仅通过一些先验的参考信息来对当前节点的平面位置信息进行预测编解码,并没有考虑到相邻帧之间节点的时域相关性。如此,在对当前节点的平面位置信息进行预测编解码时,由于考虑不全面,从而降低了当前节点的几何编码效率。
基于此,本申请实施例提供了一种编解码方法,在编码端,基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息;确定当前节点的平面位置信息,并基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。在解码端,基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息;基于目标上下文信息解码码流,确定当前节点的平面位置信息。这样,在利用目标上下文信息对当前节点的平面位置信息进行编解码过程中,可以通过考虑预测帧中预测节点的平面结构信息来确定目标上下文信息;如此,由于考虑到相邻预测帧中相对应节点之间的平面结构信息的相关性,从而可以有效提升点云的几何信息编码效率;同时利用相邻预测帧之间的时域相关性来去除相邻帧之间平面结构信息的冗余,还可以进一步提升点云的几何信息编码效率,进而提高点云的编解码性能。
下面将结合附图对本申请各实施例进行详细说明。
在本申请的一实施例中,参见图10,其示出了本申请实施例提供的一种解码方法的流程示意图。如图10所示,该方法可以包括:
S1001:基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点。
需要说明的是,本申请实施例的解码方法应用于解码器。另外,该解码方法可以是指一种点云几何 解码方法,具体为一种帧间平面解码方法;更具体地,是一种基于点云平面编码模式的上下文信息确定方法,然后根据所确定的目标上下文信息对当前节点的平面位置信息进行解码处理。
还需要说明的是,在点云中,点可以是点云中的所有点,也可以是点云中的部分点,这些点在空间上相对集中。这里,当前节点具体是指点云中当前待解码的节点。
在本申请实施例中,预测帧为已解码帧,且预测帧与包含当前节点的当前帧具有相邻关系。也就是说,预测帧是与当前帧相邻的已解码参考帧,可以利用相邻预测帧之间节点的时域相关性,从而可以提升当前节点的平面解码效率。
示例性地,图11示出了本申请实施例提供的一种帧间平面编码示意图。如图11所示,这里包括当前帧和预测帧,其中,当前帧中存在节点a和节点b,且节点a和节点b均具有平面资格(Planar Eligible);预测帧中存在节点c和节点d,节点c是真的平面节点(Is Truly Planar node),节点d是非平面节点(Not a Planar node)。从图11可以看到,节点c为预测帧中与当前帧中的当前节点(即节点a)的预测节点。这样,根据预测节点的占位信息可以实现对平面编码条件启动的优化。
在本申请实施例中,可以通过预测节点的占位信息确定出预测节点的平面结构信息,然后利用预测节点的平面结构信息直接决定当前节点是否启动平面编码模式。因此,在一些实施例中,该方法还可以包括:确定预测节点的占位信息;根据预测节点的占位信息,确定预测节点的平面结构信息;基于预测节点的平面结构信息,确定当前节点在预设方向上是否启动平面编码模式。
需要说明的是,对于预测节点的平面结构信息,可以包括预测节点的平面标识信息(PredPlanMode)和预测节点的平面位置信息(PredPlanPos)。在一种具体的实施例中,该方法还可以包括:确定预测节点的占位信息;根据预测节点的占位信息,确定预测节点的平面标识信息;基于预测节点的平面标识信息,确定当前节点在预设方向上是否启动平面编码模式。
在本申请实施例中,预设方向可以是三个维度方向的任意方向,例如X轴方向、或者Y轴方向、或者Z轴方向等。也就是说,首先利用预测节点的占位信息来判断预测节点是否属于一个真正的平面,如果预测节点的平面标识信息为PredPlanMode,那么通过利用预测节点的平面标识信息就可以确定当前节点在三个维度方向上是否启动平面编码模式。
还需要说明的是,对于当前节点是否启动平面编码模式,除了利用预测节点的平面结构信息之外,还可以结合当前节点的参考信息综合进行考虑决定当前节点是否进行平面编码。因此,在一些实施例中,基于预测节点的平面结构信息,确定当前节点在预设方向上是否启动平面编码模式,可以包括:
获取当前节点的参考信息;
根据预测节点的平面结构信息和当前节点的参考信息,确定当前节点在预设方向上是否启动平面编码模式。
在这里,当前节点的参考信息可以是相关技术中的平面编码启动条件,例如根据节点在每个维度上的平面概率进行判断,或者根据当前层的点云密度来判断当前层节点是否满足平面编码,或者根据激光雷达点云的采集参数来判断当前节点是否满足平面编码等。这样,在这三种平面编码启动条件的基础上,还可以利用帧间信息来丰富判断平面编码模式的启动条件。
简单来说,在本申请实施例中,可以是通过利用预测节点的平面结构信息直接决定当前节点是否进行平面编码。此外,还可以利用预测节点的平面结构信息与当前节点的参考信息综合进行考虑决定当前节点是否进行平面编码。在这里,对于如何利用预测节点的平面结构信息来判断当前节点是否启动平面编码模式,对此并不受任何限制。
可以理解地,在本申请实施例中,对于当前节点的预设节点而言,除了当前节点在预测帧中的预测节点之外,还可以包括有至少一个目标节点。其中,这至少一个目标节点可以是由预测节点的邻域节点组成,或者也可以是由当前节点的邻域节点对应的预测节点组成,这里对此不作具体限定。
在一种可能的实现方式中,对于至少一个目标节点,该方法还可以包括:确定预测节点的邻域节点;根据预测节点的邻域节点,确定预测帧中的至少一个目标节点。
在这里,由于预测节点的邻域节点可以为:与预测节点共面的至少一个共面节点,和/或,与预测节点共线的至少一个共线节点,和/或,与预测节点共点的至少一个共点节点;因此,至少一个目标节点可以包括下述至少一项:与预测节点共面的至少一个共面节点、与预测节点共线的至少一个共线节点和与预测节点共点的至少一个共点节点。
在另一种可能的实现方式中,对于至少一个目标节点,该方法还可以包括:确定当前节点的邻域节点;基于预测帧,确定当前节点的邻域节点各自的预测节点;根据当前节点的邻域节点各自的预测节点,确定预测帧中的至少一个目标节点。
在这里,由于当前节点的邻域节点可以为:与当前节点共面的至少一个共面节点,和/或,与当前节点共线的至少一个共线节点,和/或,与当前节点共点的至少一个共点节点;因此,至少一个目标节 点也可以包括下述至少一项:与当前节点共面的至少一个共面节点对应的预测节点、与当前节点共线的至少一个共线节点对应的预测节点和与当前节点共点的至少一个共点节点对应的预测节点。
在本申请实施例中,对于当前节点的邻域节点而言,可以包括有6个共面邻域节点(可简称为“共面节点”)、12个共线邻域节点(可简称为“共线节点”)和8个共点邻域节点(可简称为“共点节点”)。在这里,当前节点的邻域节点可以是仅为共面邻域节点,或者仅为共线邻域节点,或者为共面邻域节点和共线邻域节点,或者为共面邻域节点、共线邻域节点和共点邻域节点,更或者也可以是更大的参考邻域范围,对此并不作具体限定。其中,在考虑到编码效率和时间复杂度以及内存占用率等之间的平衡,这里可以仅考虑当前节点的6个共面邻域节点,然后根据这6个共面邻域节点分别得到各自对应的预测节点,以确定出所需要的目标节点。
示例性地,图12示出了本申请实施例提供的一种预测节点与邻域节点之间的位置关系示意图。如图12所示,由加粗实线表示的节点为预测节点,由点划线表示的节点为与预测节点共面的六个邻域节点(即共面邻域节点,可简称为“共面节点”)。因为预测节点的几何信息在解码端都可以得到,这里是可以知道与预测节点共面的6个邻域节点的占位信息,因此可以将这6个邻域节点确定为所需要的目标节点。
还需要说明的是,在考虑到编码效率和时间复杂度以及内存占用率等之间的平衡,至少一个目标节点可以仅仅考虑与预测节点共面的六个邻域节点的占位信息,但是这里对邻域参考范围不进行限制,例如,可以仅仅参考预测节点的共面邻域节点,或者预测节点的共面邻域节点和共线邻域节点,更或者更大的参考邻域范围,在此不进行任何限制。示例性地,如图13所示,由加粗实线表示的节点为预测节点,由虚线表示的节点为预测节点的邻域节点,这里的参考邻域范围并不局限于6个共面邻域节点,具体地,这里可以包括有6个共面邻域节点、12个共线邻域节点和8个共点邻域节点。
这样,在确定出所需要的至少一个目标节点之后,根据当前节点对应的预测节点以及这至少一个目标节点可以得到当前节点的预设节点的占位信息,然后通过利用当前节点的预设节点的占位信息来确定出预设节点的平面结构信息,以此对当前节点的平面位置信息进行预测解码。
S1002:根据预设节点的平面结构信息,确定当前节点的上下文指示信息。
需要说明的是,在本申请实施例中,当前节点的上下文指示信息可以包括当前节点的第一上下文指示信息和当前节点的第二上下文指示信息。其中,根据预设节点的平面结构信息(例如,平面标识信息和/或平面位置信息)进行上下文指示信息的计算,这里的计算方式不受限制,至于如何进行计算并不作具体限定。
在一种可能的实现方式中,根据预设节点的平面结构信息,确定当前节点的上下文指示信息,可以包括:
根据预设节点的平面结构信息,确定第一类预设节点的平面结构信息和第二类预设节点的平面结构信息;
根据第一类预设节点的平面结构信息,确定当前节点的第一上下文指示信息;
根据第二类预设节点的平面结构信息,确定当前节点的第二上下文指示信息。
在本申请实施例中,预设节点可以包括:预测节点和六个目标节点。在这里,可以将这七个节点分为第一类预设节点和第二类预设节点,示例性地,第一类预设节点包括预测节点和第一目标节点,第二类预设节点包括第二目标节点;然后利用第一类预设节点的平面结构信息来计算当前节点的第一上下文指示信息,利用第二类预设节点的平面结构信息来计算当前节点的第二上下文指示信息。
在本申请实施例中,第一目标节点和第二目标节点可以不同。示例性地,第一目标节点的数量为三个,第二目标节点的数量为三个。其中,在一种实施方式中,第一目标节点可以包括:位于预测节点左方的共面节点、位于预测节点前方的共面节点、位于预测节点下方的共面节点;第二目标节点可以包括:位于预测节点右方的共面节点、位于预测节点后方的共面节点、位于预测节点上方的共面节点。或者,在另一种实施方式中,第一目标节点可以包括:位于当前节点左方的共面节点对应的预测节点、位于当前节点前方的共面节点对应的预测节点、位于当前节点下方的共面节点对应的预测节点;第二目标节点可以包括:位于当前节点右方的共面节点对应的预测节点、位于当前节点后方的共面节点对应的预测节点、位于当前节点上方的共面节点对应的预测节点;但是对此均不作具体限定。
在一种具体的实施例中,在第一类预设节点包括预测节点和第一目标节点时,确定第一类预设节点的平面结构信息,可以包括:
确定预测节点的占位信息和第一目标节点的占位信息;
根据预测节点的占位信息,确定预测节点的平面标识信息和预测节点的平面位置信息;以及根据第一目标节点的占位信息,确定第一目标节点的平面标识信息和第一目标节点的平面位置信息;
根据预测节点的平面标识信息、预测节点的平面位置信息、第一目标节点的平面标识信息和第一目 标节点的平面位置信息,组成第一类预设节点的平面结构信息。
示例性地,以X轴方向的平面位置信息的预测解码为例,假设六个目标节点为预测节点的六个共面邻域节点,这六个共面邻域节点的占位信息分别为coPlanarLeft、coPlanarRight、coPlanarFront、coPlanarBelow、coPlanarUpper、coPlanarDown,以及预测节点的占位信息PredNode;首先利用三个共面邻域节点的占位信息来计算三个共面邻域节点的平面结构信息,包括平面标识(planarMode)信息和平面位置(PlanePos)信息。在这里,PlaneMode和PlanePos的计算方式如下:
uint8_t plane0=0;
plane0|=!!(occupancy&0x0f)<<0;
plane0|=!!(occupancy&0x33)<<1;
plane0|=!!(occupancy&0x55)<<2;
uint8_t plane1=0;
plane1|=!!(occupancy&0xf0)<<0;
plane1|=!!(occupancy&0xcc)<<1;
plane1|=!!(occupancy&0xaa)<<2;
//Only planar if a single plane normal to an axis is occupied
planarMode=plane0^plane1;
PlanePos=planarMode&plane1;
这样,假设第一目标节点为预测节点的三个共面邻域节点,这三个共面邻域节点的占位信息分别为coPlanarLeft、coPlanarFront、coPlanarDown,首先利用这三个共面邻域节点的占位信息和预测节点的占位信息计算得到第一类预设节点的平面结构信息,分别为:PredNodePlaneMode、PredNodePlanePos、coPlanarLeftPlaneMode、coPlanarLeftPlanePos、coPlanarFrontPlaneMode、coPlanarFrontPlanePos、coPlanarDownPlaneMode、coPlanarDown PlanePos。
进一步地,根据第一类预设节点的平面结构信息,确定当前节点的第一上下文指示信息,可以包括:根据预测节点的平面标识信息、预测节点的平面位置信息、第一目标节点的平面标识信息和第一目标节点的平面位置信息,确定当前节点的第一上下文指示信息。
还需要说明的是,假设当前节点的第一上下文指示信息可以用Ctx1表示,那么在确定出第一类预设节点的平面结构信息之后,可以利用第一类预设节点的平面结构信息来计算得到Ctx1,具体如下:
Const int mask=1<<axisIdx(axisIdx=0(x),1(y),2(z))
Ctx1=!!(PredNodePlanePos&mask)<<7|
!!(PredNodePlaneMode&mask)<<6|
!!(coPlanarLeftPlanePos&mask)<<5|
!!(coPlanarFrontPlanePos&mask)<<4|
!!(coPlanarDownPlanePos&mask)<<3|
!!(coPlanarLeftPlaneMode&mask)<<2|
!!(coPlanarFrontPlaneMode&mask)<<1|
!!(coPlanarDownPlaneMode&mask)                        (3)
在另一种具体的实施例中,在第二类预设节点包括第二目标节点时,确定第二类预设节点的平面结构信息,可以包括:
确定第二目标节点的占位信息;
根据第二目标节点的占位信息,确定第二目标节点的平面标识信息和第二目标节点的平面位置信息;
根据第二目标节点的平面标识信息和第二目标节点的平面位置信息,组成第二类预设节点的平面结构信息。
需要说明的是,假设第二目标节点为预测节点的另三个共面邻域节点,这三个共面邻域节点的占位信息分别为coEdgerRight、coEdgerUpper、coEdgerBelow,首先利用这三个共面邻域节点的占位信息来计算第二类预设节点的平面结构信息,分别为:coPlanarRightPlaneMode、coPlanarRightPlanePos、coPlanarUpperPlaneMode、coPlanarUpper PlanePos、coPlanarBelowPlaneMode、coPlanarBelowPlanePos。
进一步地,根据第二类预设节点的平面结构信息,确定当前节点的第二上下文指示信息,可以包括:根据第二目标节点的平面标识信息和第二目标节点的平面位置信息,确定当前节点的第二上下文指示信息。
还需要说明的是,假设当前节点的第二上下文指示信息可以用Ctx2表示,那么在确定出第二类预设节点的平面结构信息之后,可以利用第二类预设节点的平面结构信息来计算得到Ctx2,具体如下:
Ctx2=!!(coPlanarRightPlanePos&mask)<<5|
!!(coPlanarUpperPlanePos&mask)<<4|
!!(coPlanarBelowPlanePos&mask)<<3|
!!(coPlanarRightPlaneMode&mask)<<2|
!!(coPlanarUpperPlaneMode&mask)<<1|
!!(coPlanarBelowPlaneMode&mask)                       (4)
在本申请实施例中,“<<”表示左移运算符,例如,“<<n”表示左移n位,在乘法运算中为乘以2 n;“!!”通常用于类型判断,其表示双重否定,即取反后的值再次取反;“|”表示位运算符,这里具体为按位或;“&”表示位运算符,这里具体为按位与;对于“a|=b”表示a=a|b,即将a与b按位或运算之后赋值给a。
在上述实现方式中,对于第一目标节点和第二目标节点而言,可以是六个共面邻域节点中的若干个节点。其中,这六个共面邻域节点的获取方式,可以是:首先利用当前节点得到预测帧的预测节点,其次利用预测节点得到与预测节点共面的6个共面邻域节点;或者,也可以是:首先得到当前节点在当前帧中的6个共面邻域节点,其次利用这6个共面邻域节点分别得到各自对应的预测节点,以作为最终的六个共面邻域节点;虽然这两种获取方式得到的预测节点会有所差别,但是本申请实施例对此不作具体限定。
在另一种可能的实现方式中,根据预设节点的平面结构信息,确定当前节点的上下文指示信息,可以包括:
根据预设节点的平面结构信息,确定预设节点的第一类平面结构信息和预设节点的第二类平面结构信息;
根据预设节点的第一类平面结构信息,确定当前节点的第一上下文指示信息;
根据预设节点的第二类平面结构信息,确定当前节点的第二上下文指示信息。
需要说明的是,在本申请实施例中,预设节点也可以包括:预测节点和六个目标节点。示例性地,第一上下文指示信息的计算可以是通过这七个节点的平面位置信息进行计算得到的,第二上下文指示信息的计算可以是通过这七个节点的平面标识信息进行计算得到的。
还需要说明的是,在本申请实施例中,第三目标节点的数量为六个,具体可以为六个共面邻域节点。示例性地,在一种实施方式中,第三目标节点可以包括:位于预测节点左方的共面节点、位于预测节点前方的共面节点、位于预测节点下方的共面节点、位于预测节点右方的共面节点、位于预测节点后方的共面节点、位于预测节点上方的共面节点;或者,在另一种实施方式中,第三目标节点可以包括:位于当前节点左方的共面节点对应的预测节点、位于当前节点前方的共面节点对应的预测节点、位于当前节点下方的共面节点对应的预测节点、位于当前节点右方的共面节点对应的预测节点、位于当前节点后方的共面节点对应的预测节点、位于当前节点上方的共面节点对应的预测节点;但是对此均不作具体限定。
在一种具体的实施例中,在预设节点包括预测节点和第三目标节点时,确定预设节点的第一类平面结构信息,可以包括:
确定预测节点和第三目标节点各自的占位信息;
根据预测节点和第三目标节点各自的占位信息,确定预测节点的平面位置信息和第三目标节点的平面位置信息;
根据预测节点的平面位置信息和第三目标节点的平面位置信息,组成预设节点的第一类平面结构信息。
进一步地,根据预设节点的第一类平面结构信息,确定当前节点的第一上下文指示信息,可以包括:根据预测节点的平面位置信息和第三目标节点的平面位置信息,确定当前节点的第一上下文指示信息。
在本申请实施例中,假设第三目标节点为六个共面邻域节点,那么预设节点的第一类平面结构信息可以包括:PredNodePlanePos、coPlanarLeftPlanePos、coPlanarDownPlanePos、coPlanarFrontPlanePos、coPlanarRightPlanePos、coPlanarUpperPlanePos、coPlanarBelow PlanePos。
这样,当前节点的第一上下文指示信息可以用Ctx1表示。在确定出预设节点的平面位置信息之后,可以利用预设节点的平面位置信息来计算得到Ctx1,具体如下:
Const int mask=1<<axisIdx(axisIdx=0(x),1(y),2(z))
Ctx1=!!(PredNodePlanePos&mask)<<6|
!!(coPlanarLeftPlanePos&mask)<<5|
!!(coPlanarFrontPlanePos&mask)<<4|
!!(coPlanarDownPlanePos&mask)<<3|
!!(coPlanarRightPlanePos&mask)<<2|
!!(coPlanarUpperPlanePos&mask)<<1
!!(coPlanarBelowPlanePos&mask)                    (5)
在另一种具体的实施例中,在预设节点包括预测节点和第三目标节点时,确定预设节点的第二类平 面结构信息,可以包括:
确定预测节点和第三目标节点各自的占位信息;
根据预测节点和第三目标节点各自的占位信息,确定预测节点的平面标识信息和第三目标节点的平面标识信息;
根据预测节点的平面标识信息和第三目标节点的平面标识信息,组成预设节点的第二类平面结构信息。
进一步地,根据预设节点的第二类平面结构信息,确定当前节点的第二上下文指示信息,可以包括:根据预测节点的平面标识信息和第三目标节点的平面标识信息,确定当前节点的第二上下文指示信息。
在本申请实施例中,假设第三目标节点为六个共面邻域节点,那么预设节点的第二类平面结构信息可以包括:PredNodePlaneMode、coPlanarLeftPlaneMode、coPlanarDown PlaneMode、coPlanarFrontPlaneMode、coPlanarRightPlaneMode、coPlanarUpperPlaneMode、coPlanarBelowPlaneMode。
这样,当前节点的第二上下文指示信息可以用Ctx2表示。在确定出预设节点的平面标识信息之后,可以利用预设节点的平面标识信息来计算得到Ctx2,具体如下:
Ctx2=!!(PredNodePlaneMode&mask)<<6|
!!(coPlanarLeftPlaneMode&mask)<<5|
!!(coPlanarFrontPlaneMode&mask)<<4|
!!(coPlanarDownPlaneMode&mask)<<3|
!!(coPlanarRightPlaneMode&mask)<<2|
!!(coPlanarUpperPlaneMode&mask)<<1
!!(coPlanarBelowPlaneMode&mask)                          (6)
也就是说,在上述的实现方式中,Ctx1的计算可以是通过利用预测节点和左方/前方/下方三个共面邻域节点的平面标识信息和平面位置信息进行计算得到的,Ctx2的计算可以是通过利用右方/后方/上方三个共面邻域节点的平面标识信息和平面位置信息进行计算得到的;或者,Ctx1的计算可以是通过利用预测节点和六个共面邻域节点等七个节点的平面位置信息进行计算得到的,Ctx2的计算可以是通过利用预测节点和六个共面邻域节点等七个节点的平面标识信息进行计算得到的。在这里,仅仅是给出了两种通过利用邻域节点的平面结构信息进行计算得到Ctx1和Ctx2的方式,但是本申请实施例对Ctx1和Ctx2的计算不受限制;例如,本申请实施例中Ctx1和Ctx2可以是通过利用邻域节点的占位信息来进行推算得到的,至于如何进行计算并不作具体限定。
S1003:根据上下文指示信息,确定目标上下文信息。
S1004:基于目标上下文信息解码码流,确定当前节点的平面位置信息。
需要说明的是,在本申请实施例中,首先需要确定出目标上下文信息,然后才能够利用目标上下文信息对当前节点的平面位置信息进行解码处理。在一些实施例中,根据上下文指示信息,确定目标上下文信息,可以包括:
获取当前节点的第一上下文指示信息和当前节点的第二上下文指示信息;
根据第一上下文指示信息和第二上下文指示信息,确定目标上下文信息。
也就是说,在利用邻域节点的平面结构信息计算出Ctx1和Ctx2之后,根据Ctx1和Ctx2可以确定出目标上下文信息。进一步地,本申请实施例还可以对Ctx1和Ctx2进行上下文映射处理,以确定出目标上下文信息。因此,在一些实施例中,根据第一上下文指示信息和第二上下文指示信息,确定目标上下文信息,可以包括:
根据第一上下文指示信息和第二上下文指示信息进行上下文映射处理,得到新的上下文信息;根据新的上下文信息,确定目标上下文信息。
还需要说明的是,在本申请实施例中,可以是通过利用共面、共线和共点等多个邻域节点的平面结构信息进行简单的与或运算,直接计算得到Ctx1和Ctx2,最终来确定目标上下文信息。另外,在本申请实施例中,对于最终用于解码的目标上下文信息不受限制,例如可以通过利用空间旋转不变形或者上下文映射等一些方式来对Ctx1和Ctx2进行映射得到新的上下文信息,进而确定目标上下文信息,这里对此不作具体限定。
在一些实施例中,根据上下文指示信息,确定目标上下文信息,可以包括:
确定当前节点的参考上下文信息;
根据第一上下文指示信息、第二上下文指示信息和参考上下文信息,确定目标上下文信息。
进一步地,对于已有的参考上下文信息而言,在一些实施例中,确定当前节点的参考上下文信息,包括下述至少一项:
根据邻域节点的占位信息进行预测,确定当前节点的平面位置信息的预测值,且预测值包括下述其中一项:低平面、高平面和无法预测;
确定与当前节点在相同划分深度以及相同坐标下的节点和当前节点之间的空间距离,且空间距离包括下述其中一项:近距离和远距离;
确定与当前节点在相同划分深度以及相同坐标下的节点是否为一个平面,若节点为一个平面,则确定节点的平面位置;
确定当前节点的坐标维度信息。
需要说明的是,在本申请实施例中,确定出与当前节点在相同划分深度以及相同坐标下的节点和当前节点之间的空间距离之后,如果该空间距离小于预设距离阈值,那么可以确定该空间距离为近距离;或者,如果该空间距离大于预设距离阈值,那么可以确定该空间距离为远距离。
示例性地,图14为本申请实施例提供的一种处于相同划分深度以及相同坐标的邻域节点示意图。如图14所示,加粗的大立方体表示父节点(Parent node),其内部网格填充的小立方体表示当前节点(Current node),并且示出了当前节点的交点位置(Vertex position);白色填充的小立方体表示处于相同划分深度以及相同坐标的邻域节点,当前节点与邻域节点之间的距离为空间距离,可以判断为“近距离”或“远距离”;另外,如果该邻域节点为一个平面,那么还需要该邻域节点的平面位置(Planar position)。
这样,对于最终用于平面位置信息的目标上下文信息,可以如下:
(a)利用邻域节点的占位信息进行预测得到当前节点的平面位置信息为三元素:预测为低平面、预测为高平面和无法预测;
(b)与当前节点在相同划分深度以及相同坐标下的节点与当前节点之间的空间距离:“近距离”和“远距离”;
(c)若与当前节点在相同划分深度以及相同坐标下的节点是一个平面,则确定该节点的平面位置;
(d)当前节点的坐标维度(i=0,1,2);
(e)Ctx1,例如利用预测节点和左方/前方/下方三个共面邻域节点的平面结构信息计算得到;
(f)Ctx2,例如利用右方/后方/上方三个共面邻域节点的平面结构信息计算得到。
也就是说,在本申请实施例中,可以利用如图12所示的共面邻域节点的占位信息,确定预测节点和六个共面邻域节点的平面结构信息;然后利用这七个节点的平面结构信息来计算出当前节点的平面位置信息的上下文Ctx1和Ctx2,最终利用Ctx1和Ctx2以及已有的参考上下文信息来对当前节点的平面位置信息进行解码处理。
本实施例提供了一种解码方法,基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息;基于目标上下文信息解码码流,确定当前节点的平面位置信息。这样,在利用目标上下文信息对当前节点的平面位置信息进行解码过程中,由于考虑到相邻预测帧中相对应节点之间的平面结构信息的相关性,同时利用相邻预测帧之间的时域相关性来去除相邻帧之间平面结构信息的冗余,从而可以提升点云的几何信息编码效率,进而提高点云的编解码性能。
在本申请的另一实施例中,参见图15,其示出了本申请实施例提供的一种编码方法的流程示意图。如图15所示,该方法可以包括:
S1501:基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点。
需要说明的是,本申请实施例的编码方法应用于编码器。另外,该编码方法可以是指一种点云几何编码方法,具体为一种帧间平面编码方法;更具体地,是一种基于点云平面编码模式的上下文信息确定方法,然后根据所确定的目标上下文信息对当前节点的平面位置信息进行编码处理。
还需要说明的是,在点云中,点可以是点云中的所有点,也可以是点云中的部分点,这些点在空间上相对集中。这里,当前节点具体是指点云中当前待编码的节点。
在本申请实施例中,预测帧为已编码帧,且预测帧与包含当前节点的当前帧具有相邻关系。也就是说,预测帧是与当前帧相邻的已编码参考帧,可以利用相邻预测帧之间节点的时域相关性,从而可以提升当前节点的平面编码效率。
在本申请实施例中,具体参见图11,根据预测节点的占位信息可以实现对平面编码条件启动的优化。也就是说,可以通过预测节点的占位信息确定出预测节点的平面结构信息,然后利用预测节点的平面结构信息直接决定当前节点是否启动平面编码模式。因此,在一些实施例中,该方法还可以包括:确定预测节点的占位信息;根据预测节点的占位信息,确定预测节点的平面结构信息;基于预测节点的平面结构信息,确定当前节点在预设方向上是否启动平面编码模式。
需要说明的是,对于预测节点的平面结构信息,可以包括预测节点的平面标识信息(PredPlanMode) 和预测节点的平面位置信息(PredPlanPos)。在一种具体的实施例中,该方法还可以包括:确定预测节点的占位信息;根据预测节点的占位信息,确定预测节点的平面标识信息;基于预测节点的平面标识信息,确定当前节点在预设方向上是否启动平面编码模式。
在本申请实施例中,预设方向可以是三个维度方向的任意方向,例如X轴方向、或者Y轴方向、或者Z轴方向等。也就是说,首先利用预测节点的占位信息来判断预测节点是否属于一个真正的平面,如果预测节点的平面标识信息为PredPlanMode,那么通过利用预测节点的平面标识信息就可以确定当前节点在三个维度方向上是否启动平面编码模式。
还需要说明的是,对于当前节点是否启动平面编码模式,除了利用预测节点的平面结构信息之外,还可以结合当前节点的参考信息综合进行考虑决定当前节点是否进行平面编码。因此,在一些实施例中,基于预测节点的平面结构信息,确定当前节点在预设方向上是否启动平面编码模式,可以包括:
获取当前节点的参考信息;
根据预测节点的平面结构信息和当前节点的参考信息,确定当前节点在预设方向上是否启动平面编码模式。
在这里,当前节点的参考信息可以是相关技术中的平面编码启动条件,例如根据节点在每个维度上的平面概率进行判断,或者根据当前层的点云密度来判断当前层节点是否满足平面编码,或者根据激光雷达点云的采集参数来判断当前节点是否满足平面编码等。这样,在这三种平面编码启动条件的基础上,还可以利用帧间信息来丰富判断平面编码模式的启动条件。
简单来说,在本申请实施例中,可以是通过利用预测节点的平面结构信息直接决定当前节点是否进行平面编码。此外,还可以利用预测节点的平面结构信息与当前节点的参考信息综合进行考虑决定当前节点是否进行平面编码。在这里,对于如何利用预测节点的平面结构信息来判断当前节点是否启动平面编码模式,对此并不受任何限制。
可以理解地,在本申请实施例中,对于当前节点的预设节点而言,除了当前节点在预测帧中的预测节点之外,还可以包括有至少一个目标节点。其中,这至少一个目标节点可以是由预测节点的邻域节点组成,或者也可以是由当前节点的邻域节点对应的预测节点组成,这里对此不作具体限定。
在一种可能的实现方式中,对于至少一个目标节点,该方法还可以包括:确定预测节点的邻域节点;根据预测节点的邻域节点,确定预测帧中的至少一个目标节点。
在这里,由于预测节点的邻域节点可以为:与预测节点共面的至少一个共面节点,和/或,与预测节点共线的至少一个共线节点,和/或,与预测节点共点的至少一个共点节点;因此,至少一个目标节点可以包括下述至少一项:与预测节点共面的至少一个共面节点、与预测节点共线的至少一个共线节点和与预测节点共点的至少一个共点节点。
在另一种可能的实现方式中,对于至少一个目标节点,该方法还可以包括:确定当前节点的邻域节点;基于预测帧,确定当前节点的邻域节点各自的预测节点;根据当前节点的邻域节点各自的预测节点,确定预测帧中的至少一个目标节点。
在这里,由于当前节点的邻域节点可以为:与当前节点共面的至少一个共面节点,和/或,与当前节点共线的至少一个共线节点,和/或,与当前节点共点的至少一个共点节点;因此,至少一个目标节点也可以包括下述至少一项:与当前节点共面的至少一个共面节点对应的预测节点、与当前节点共线的至少一个共线节点对应的预测节点和与当前节点共点的至少一个共点节点对应的预测节点。
在本申请实施例中,对于当前节点的邻域节点而言,可以包括有6个共面邻域节点、12个共线邻域节点和8个共点邻域节点。在这里,当前节点的邻域节点可以是仅为共面邻域节点,或者仅为共线邻域节点,或者为共面邻域节点和共线邻域节点,或者为共面邻域节点、共线邻域节点和共点邻域节点,更或者也可以是更大的参考邻域范围,对此并不作具体限定。其中,在考虑到编码效率和时间复杂度以及内存占用率等之间的平衡,这里可以仅考虑当前节点的6个共面邻域节点,然后根据这6个共面邻域节点分别得到各自对应的预测节点,以确定出所需要的目标节点。
在本申请实施例中,因为预测节点的几何信息在编码端都可以得到,这里是可以知道与预测节点共面的6个邻域节点的占位信息,因此也可以将这6个邻域节点确定为所需要的目标节点。其中,在考虑到编码效率和时间复杂度以及内存占用率等之间的平衡,至少一个目标节点可以仅仅考虑与预测节点共面的六个邻域节点的占位信息,但是这里对邻域参考范围不进行限制,例如,可以仅仅参考预测节点的共面邻域节点,或者预测节点的共面邻域节点和共线邻域节点,更或者更大的参考邻域范围,在此不进行任何限制。
这样,在确定出所需要的至少一个目标节点之后,根据当前节点对应的预测节点以及这至少一个目标节点可以得到当前节点的预设节点的占位信息,然后通过利用当前节点的预设节点的占位信息来确定出预设节点的平面结构信息,以此对当前节点的平面位置信息进行预测编码。
S1502:根据预设节点的平面结构信息,确定当前节点的上下文指示信息。
需要说明的是,在本申请实施例中,当前节点的上下文指示信息可以包括当前节点的第一上下文指示信息和当前节点的第二上下文指示信息。其中,根据预设节点的平面结构信息(例如,平面标识信息和/或平面位置信息)进行上下文指示信息的计算,这里的计算方式不受限制,至于如何进行计算并不作具体限定。
在一种可能的实现方式中,根据预设节点的平面结构信息,确定当前节点的上下文指示信息,可以包括:
根据预设节点的平面结构信息,确定第一类预设节点的平面结构信息和第二类预设节点的平面结构信息;
根据第一类预设节点的平面结构信息,确定当前节点的第一上下文指示信息;
根据第二类预设节点的平面结构信息,确定当前节点的第二上下文指示信息。
在本申请实施例中,预设节点可以包括:预测节点和六个目标节点。在这里,可以将这七个节点分为第一类预设节点和第二类预设节点,示例性地,第一类预设节点包括预测节点和第一目标节点,第二类预设节点包括第二目标节点;然后利用第一类预设节点的平面结构信息来计算当前节点的第一上下文指示信息,利用第二类预设节点的平面结构信息来计算当前节点的第二上下文指示信息。
在本申请实施例中,第一目标节点和第二目标节点可以不同。示例性地,第一目标节点的数量为三个,第二目标节点的数量为三个。其中,在一种实施方式中,第一目标节点可以包括:位于预测节点左方的共面节点、位于预测节点前方的共面节点、位于预测节点下方的共面节点;第二目标节点可以包括:位于预测节点右方的共面节点、位于预测节点后方的共面节点、位于预测节点上方的共面节点。或者,在另一种实施方式中,第一目标节点可以包括:位于当前节点左方的共面节点对应的预测节点、位于当前节点前方的共面节点对应的预测节点、位于当前节点下方的共面节点对应的预测节点;第二目标节点可以包括:位于当前节点右方的共面节点对应的预测节点、位于当前节点后方的共面节点对应的预测节点、位于当前节点上方的共面节点对应的预测节点;但是对此均不作具体限定。
在一种具体的实施例中,在第一类预设节点包括预测节点和第一目标节点时,确定第一类预设节点的平面结构信息,可以包括:
确定预测节点的占位信息和第一目标节点的占位信息;
根据预测节点的占位信息,确定预测节点的平面标识信息和预测节点的平面位置信息;以及根据第一目标节点的占位信息,确定第一目标节点的平面标识信息和第一目标节点的平面位置信息;
根据预测节点的平面标识信息、预测节点的平面位置信息、第一目标节点的平面标识信息和第一目标节点的平面位置信息,组成第一类预设节点的平面结构信息。
进一步地,根据第一类预设节点的平面结构信息,确定当前节点的第一上下文指示信息,可以包括:根据预测节点的平面标识信息、预测节点的平面位置信息、第一目标节点的平面标识信息和第一目标节点的平面位置信息,确定当前节点的第一上下文指示信息。
在本申请实施例中,假设第一目标节点为预测节点的三个共面邻域节点,利用这三个共面邻域节点的占位信息和预测节点的占位信息计算得到第一类预设节点的平面结构信息,分别为:PredNodePlaneMode、PredNodePlanePos、coPlanarLeftPlaneMode、coPlanarLeftPlanePos、coPlanarFrontPlaneMode、coPlanarFrontPlanePos、coPlanarDownPlaneMode、coPlanarDownPlanePos。然后利用第一类预设节点的平面结构信息来计算得到当前节点的第一上下文指示信息(用Ctx1表示),关于Ctx1的计算具体参见解码端的计算过程,具体如式(3),这里不再详述。
在另一种具体的实施例中,在第二类预设节点包括第二目标节点时,确定第二类预设节点的平面结构信息,可以包括:
确定第二目标节点的占位信息;
根据第二目标节点的占位信息,确定第二目标节点的平面标识信息和第二目标节点的平面位置信息;
根据第二目标节点的平面标识信息和第二目标节点的平面位置信息,组成第二类预设节点的平面结构信息。
进一步地,根据第二类预设节点的平面结构信息,确定当前节点的第二上下文指示信息,可以包括:根据第二目标节点的平面标识信息和第二目标节点的平面位置信息,确定当前节点的第二上下文指示信息。
在本申请实施例中,假设第二目标节点为预测节点的另三个共面邻域节点,利用这三个共面邻域节点的占位信息来计算第二类预设节点的平面结构信息,分别为:coPlanarRightPlaneMode、coPlanarRightPlanePos、coPlanarUpperPlaneMode、coPlanarUpperPlanePos、coPlanarBelowPlaneMode、coPlanarBelowPlanePos。然后利用第二类预设节点的平面结构信息来计算得到当前节点的第二上下文指 示信息(用Ctx2表示),关于Ctx2的计算具体参见解码端的计算过程,具体如式(4),这里不再详述。
另外,在上述实现方式中,对于第一目标节点和第二目标节点而言,可以是六个共面邻域节点中的若干个节点。其中,这六个共面邻域节点的获取方式,可以是:首先利用当前节点得到预测帧的预测节点,其次利用预测节点得到与预测节点共面的6个共面邻域节点;或者,也可以是:首先得到当前节点在当前帧中的6个共面邻域节点,其次利用这6个共面邻域节点分别得到各自对应的预测节点,以作为最终的六个共面邻域节点;虽然这两种获取方式得到的预测节点会有所差别,但是本申请实施例对此不作具体限定。
在另一种可能的实现方式中,根据预设节点的平面结构信息,确定当前节点的上下文指示信息,可以包括:
根据预设节点的平面结构信息,确定预设节点的第一类平面结构信息和预设节点的第二类平面结构信息;
根据预设节点的第一类平面结构信息,确定当前节点的第一上下文指示信息;
根据预设节点的第二类平面结构信息,确定当前节点的第二上下文指示信息。
需要说明的是,在本申请实施例中,预设节点可以包括:预测节点和六个目标节点。示例性地,第一上下文指示信息的计算可以是通过这七个节点的平面位置信息进行计算得到的,第二上下文指示信息的计算可以是通过这七个节点的平面标识信息进行计算得到的。
还需要说明的是,在本申请实施例中,第三目标节点的数量为六个,具体可以为六个共面邻域节点。示例性地,在一种实施方式中,第三目标节点可以包括:位于预测节点左方的共面节点、位于预测节点前方的共面节点、位于预测节点下方的共面节点、位于预测节点右方的共面节点、位于预测节点后方的共面节点、位于预测节点上方的共面节点;或者,在另一种实施方式中,第三目标节点可以包括:位于当前节点左方的共面节点对应的预测节点、位于当前节点前方的共面节点对应的预测节点、位于当前节点下方的共面节点对应的预测节点、位于当前节点右方的共面节点对应的预测节点、位于当前节点后方的共面节点对应的预测节点、位于当前节点上方的共面节点对应的预测节点;但是对此均不作具体限定。
在一种具体的实施例中,在预设节点包括预测节点和第三目标节点时,确定预设节点的第一类平面结构信息,可以包括:
确定预测节点和第三目标节点各自的占位信息;
根据预测节点和第三目标节点各自的占位信息,确定预测节点的平面位置信息和第三目标节点的平面位置信息;
根据预测节点的平面位置信息和第三目标节点的平面位置信息,组成预设节点的第一类平面结构信息。
进一步地,根据预设节点的第一类平面结构信息,确定当前节点的第一上下文指示信息,可以包括:根据预测节点的平面位置信息和第三目标节点的平面位置信息,确定当前节点的第一上下文指示信息。
在本申请实施例中,假设第三目标节点为六个共面邻域节点,那么预设节点的第一类平面结构信息可以包括:PredNodePlanePos、coPlanarLeftPlanePos、coPlanarDownPlanePos、coPlanarFrontPlanePos、coPlanarRightPlanePos、coPlanarUpperPlanePos、coPlanarBelowPlanePos。然后利用预设节点的平面位置信息来计算得到当前节点的第一上下文指示信息(用Ctx1表示),关于Ctx1的计算具体参见解码端的计算过程,具体如式(5),这里不再详述。
在另一种具体的实施例中,在预设节点包括预测节点和第三目标节点时,确定预设节点的第二类平面结构信息,可以包括:
确定预测节点和第三目标节点各自的占位信息;
根据预测节点和第三目标节点各自的占位信息,确定预测节点的平面标识信息和第三目标节点的平面标识信息;
根据预测节点的平面标识信息和第三目标节点的平面标识信息,组成预设节点的第二类平面结构信息。
进一步地,根据预设节点的第二类平面结构信息,确定当前节点的第二上下文指示信息,可以包括:根据预测节点的平面标识信息和第三目标节点的平面标识信息,确定当前节点的第二上下文指示信息。
在本申请实施例中,假设第三目标节点为六个共面邻域节点,那么预设节点的第二类平面结构信息可以包括:PredNodePlaneMode、coPlanarLeftPlaneMode、coPlanarDownPlaneMode、coPlanarFront PlaneMode、coPlanarRightPlaneMode、coPlanarUpperPlaneMode、coPlanarBelowPlaneMode。然后利用预设节点的平面标识信息来计算得到当前节点的第二上下文指示信息(用Ctx2表示),关于Ctx2的计算具体参见解码端的计算过程,具体如式(6),这里不再详述。
也就是说,在上述的实现方式中,Ctx1的计算可以是通过利用预测节点和左方/前方/下方三个共面 邻域节点的平面标识信息和平面位置信息进行计算得到的,Ctx2的计算可以是通过利用右方/后方/上方三个共面邻域节点的平面标识信息和平面位置信息进行计算得到的;或者,Ctx1的计算可以是通过利用预测节点和六个共面邻域节点等七个节点的平面位置信息进行计算得到的,Ctx2的计算可以是通过利用预测节点和六个共面邻域节点等七个节点的平面标识信息进行计算得到的。在这里,仅仅是给出了两种通过利用邻域节点的平面结构信息进行计算得到Ctx1和Ctx2的方式,但是本申请实施例对Ctx1和Ctx2的计算不受限制;例如,本申请实施例中Ctx1和Ctx2可以是通过利用邻域节点的占位信息来进行推算得到的,至于如何进行计算并不作具体限定。
S1503:根据上下文指示信息,确定目标上下文信息。
S1504:确定当前节点的平面位置信息,并基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。
需要说明的是,在本申请实施例中,不仅需要确定目标上下文信息,而且还需要确定当前节点的平面位置信息,然后才能够利用目标上下文信息对当前节点的平面位置信息进行编码处理。在一些实施例中,确定当前节点的平面位置信息,可以包括:
在当前节点满足平面编码条件时,确定当前节点的平面位置信息为下述其中之一:低平面位置信息或者高平面位置信息。
在本申请实施例中,关于判断当前节点是否满足平面编码条件,可以是根据节点在每个维度上的平面概率进行判断,或者也可以是根据当前层的点云密度来判断当前层节点是否满足平面编码,或者还可以是根据激光雷达点云的采集参数来判断当前节点是否满足平面编码等等。此外,本申请实施例还可以根据预测节点的平面结构信息(例如平面标识信息PredPlanMode)来判断当前节点是否满足平面编码条件,进而确定当前节点在预设方向上是否启动平面编码;这里对此不作具体限定。
在一些实施例中,根据上下文指示信息,确定目标上下文信息,可以包括:
获取当前节点的第一上下文指示信息和当前节点的第二上下文指示信息;
根据第一上下文指示信息和第二上下文指示信息,确定目标上下文信息。
也就是说,在利用邻域节点的平面结构信息计算出Ctx1和Ctx2之后,根据Ctx1和Ctx2可以确定出目标上下文信息。进一步地,本申请实施例还可以对Ctx1和Ctx2进行上下文映射处理,以确定出目标上下文信息。因此,在一些实施例中,根据第一上下文指示信息和第二上下文指示信息,确定目标上下文信息,可以包括:
根据第一上下文指示信息和第二上下文指示信息进行上下文映射处理,得到新的上下文信息;根据新的上下文信息,确定目标上下文信息。
还需要说明的是,在本申请实施例中,可以是通过利用共面、共线和共点等多个邻域节点的平面结构信息进行简单的与或运算,直接计算得到Ctx1和Ctx2,最终来确定目标上下文信息。另外,在本申请实施例中,对于最终用于编码的目标上下文信息不受限制,例如可以通过利用空间旋转不变形或者上下文映射等一些方式来对Ctx1和Ctx2进行映射得到新的上下文信息,进而确定目标上下文信息,这里对此不作具体限定。
在一些实施例中,根据上下文指示信息,确定目标上下文信息,可以包括:
确定当前节点的参考上下文信息;
根据第一上下文指示信息、第二上下文指示信息和参考上下文信息,确定目标上下文信息。
需要说明的是,在本申请实施例中,可以是根据Ctx1和Ctx2以及参考上下文信息来确定出目标上下文信息,或者也可以是对Ctx1和Ctx2进行映射得到新的上下文信息,再根据新的上下文信息以及参考上下文信息来确定出目标上下文信息,这里对于最终使用的目标上下文信息不受限制。
还需要说明的是,在本申请实施例中,这里的目标上下文信息可以为目标上下文索引值,然后根据目标上下文索引值确定出对应的上下文模型,利用上下文模型对当前节点的平面位置信息进行编码;或者,这里的目标上下文信息也可以为最终确定出的上下文模型,然后利用上下文模型对当前节点的平面位置信息进行编码。
进一步地,对于已有的参考上下文信息而言,在一些实施例中,确定当前节点的参考上下文信息,包括下述至少一项:
根据邻域节点的占位信息进行预测,确定当前节点的平面位置信息的预测值,且预测值包括下述其中一项:低平面、高平面和无法预测;
确定与当前节点在相同划分深度以及相同坐标下的节点和当前节点之间的空间距离,且空间距离满足下述其中一项:近距离和远距离;
确定与当前节点在相同划分深度以及相同坐标下的节点是否为一个平面,若节点为一个平面,则确定节点的平面位置;
确定当前节点的坐标维度信息。
需要说明的是,针对当前节点,可以在相同的八叉树划分深度等级下,以及相同的垂直坐标下查找邻域节点,即与当前节点在相同划分深度以及相同坐标下的节点;然后判断当前节点与该节点之间的距离为“近距离”或“远距离”;并且在节点为一个平面时,参考节点的平面位置。
这样,对于最终用于平面位置信息的目标上下文信息,可以如下:
(a)利用邻域节点的占位信息进行预测得到当前节点的平面位置信息为三元素:预测为低平面、预测为高平面和无法预测;
(b)与当前节点在相同划分深度以及相同坐标下的节点与当前节点之间的空间距离:“近距离”和“远距离”;
(c)若与当前节点在相同划分深度以及相同坐标下的节点是一个平面,则确定该节点的平面位置;
(d)当前节点的坐标维度(i=0,1,2);
(e)Ctx1,例如利用预测节点和左方/前方/下方三个共面邻域节点的平面结构信息计算得到;
(f)Ctx2,例如利用右方/后方/上方三个共面邻域节点的平面结构信息计算得到。
也就是说,在本申请实施例中,可以利用如图12所示的共面邻域节点的占位信息,确定预测节点和六个共面邻域节点的平面结构信息;然后利用这七个节点的平面结构信息来计算出当前节点的平面位置信息的上下文Ctx1和Ctx2,最终利用Ctx1和Ctx2以及已有的参考上下文信息来对当前节点的平面位置信息进行编码处理。
在一些实施例中,本申请实施例还提供了一种码流,该码流是根据待编码信息进行比特编码生成的;其中,待编码信息至少包括:当前节点的平面位置信息。
这样,编码端通过目标上下文信息将当前节点的平面位置信息写入码流之后,后续在解码端,首先确定目标上下文信息,然后可以利用目标上下文信息对当前节点的平面位置信息进行解码处理。另外,还需要说明的是,在目标上下文信息为目标上下文索引值时,为了加快解码速度,编码端也可以将目标上下文索引值写入码流,后续在解码端可以直接解码得到目标上下文索引值,根据目标上下文索引值确定出上下文模型,然后利用上下文模型对当前节点的平面位置信息进行解码处理,从而提高解码效率。
本实施例提供了一种编码方法,基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息;确定当前节点的平面位置信息,并基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。这样,在利用目标上下文信息对当前节点的平面位置信息进行编码过程中,由于考虑到相邻预测帧中相对应节点之间的平面结构信息的相关性,同时利用相邻预测帧之间的时域相关性来去除相邻帧之间平面结构信息的冗余,从而可以提升点云的几何信息编码效率,进而提高点云的编解码性能。
在本申请的又一实施例中,基于前述实施例的解码/编码方法,如果当前节点使用平面编码模式,那么可以利用目标上下文信息对当前节点的平面位置信息进行预测编解码。如此,对于当前节点而言,首先需要判断当前节点是否满足平面编码条件。
在G-PCC标准中,判断一个节点是否满足平面编码的条件以及在该节点满足平面编码条件时,需要对该节点的平面标识和平面位置信息的预测编码。
在本申请实施例中,这里存在三种判断节点是否满足平面编码的判断条件,下面对其逐一进行详细说明。
一、根据节点在每个维度上的平面概率进行判断。
(1)确定当前节点的局部区域密度(local_node_density);
(2)确定当前节点在每个维度上的概率Prob(i)。
在节点的局部区域密度小于阈值Th(例如Th=3)时,利用当前节点在三个坐标维度上的平面概率Prob(i)和阈值Th0、Th1和Th2进行比较,其中Th0<Th1<Th2(例如,Th0=0.6,Th1=0.77,Th2=0.88),这里可以利用Eligible i(i=0,1,2)表示每个维度上是否启动平面编码:Eligible i=Prob(i)>=threshold。
需要注意的是,threshold是进行自适应变化的,例如,当Prob(0)>Prob(1)>Prob(2)时,则Eligible i的设置如下:
Eligible 0=Prob(0)>=Th0;
Eligible 1=Prob(1)>=Th1;
Eligible 2=Prob(2)>=Th2。
当Prob(1)>Prob(0)>Prob(2)时,则Eligible i的设置如下:
Eligible 0=Prob(0)>=Th1;
Eligible 1=Prob(1)>=Th0;
Eligible 2=Prob(2)>=Th2。
在这里,Prob(i)的更新具体如下:
Prob(i) new=(L×Prob(i)+δ(coded node))/L+1          (7)
其中,L=255;另外,若coded node节点是一个平面,则δ(coded node)为1;否则δ(coded node)为0。
在这里,local_node_density的更新具体如下:
local_node_density new=local_node_density+4*numSiblings          (8)
其中,local_node_density初始化为4,numSiblings为该节点的兄弟姐妹节点数目。示例性地,图16为本申请实施例提供的一种当前节点的兄弟姐妹节点示意图。如图16所示,当前节点为用斜线填充的节点,用网格填充的节点为兄弟姐妹节点,那么当前节点的兄弟姐妹节点数目为5(包括当前节点自身)。
二、根据当前层的点云密度来判断当前层节点是否满足平面编码。
利用当前层点的密度来判断是否对当前层的节点进行平面编码。假设当前待编码点云的点数为pointCount,经过IDCM编码已经重建出的点数为numPointCountRecon,又因为八叉树是基于广度优先遍历的顺序进行编码,因此可以得到当前层待编码的节点数目假设为nodeCount,那么判断当前层是否启动平面编码假设为planarEligibleKOctreeDepth,具体为:planarEligibleKOctreeDepth=(pointCount-numPointCountRecon)<nodeCount×1.3。
其中,若(pointCount-numPointCountRecon)小于nodeCount×1.3,则planarEligibleK OctreeDepth为true;若(pointCount-numPointCountRecon)不小于nodeCount×1.3,则planarEligibleKOctreeDepth为false。这样,当planarEligibleKOctreeDepth为true时,则在当前层所有节点都进行平面编码;否则在当前层所有节点都不进行平面编码,仅仅采用八叉树编码。
三、根据激光雷达点云的采集参数来判断当前节点是否满足平面编码。
图17为本申请实施例提供的一种激光雷达与节点的相交示意图。如图17所示,用网格填充的节点同时被两个激光射线(Laser)穿过,因此当前节点在Z轴垂直方向上不是一个平面;用斜线填充的节点足够小到不能同时被两个Laser同时穿过,因此绿色节点在Z轴垂直方向上有可能是一个平面。
进一步地,针对满足平面编码条件的节点,可以对平面标识信息和平面位置信息进行预测编码。
首先,平面标识信息的预测编码。
在这里,仅仅采用三个上下文信息进行编码,即各个坐标维度上的平面标识分开进行上下文设计。
其次,平面位置信息的预测编码。
应理解,针对非激光雷达点云平面位置信息的编码而言,在相关技术中,已有的参考上下文信息可以包括:
(a)利用邻域节点的占位信息进行预测得到当前节点的平面位置信息为三元素:预测为低平面、预测为高平面和无法预测;
(b)与当前节点在相同划分深度以及相同坐标下的节点与当前节点之间的空间距离:“近”和“远”;
(c)与当前节点在相同划分深度以及相同坐标下的节点如果是一个平面,则确定该节点的平面位置;
(d)坐标维度(i=0,1,2)。
示例性地,以前述的图14为例,当前节点为网格填充的小立方体,则在相同的八叉树划分深度等级下,以及相同的垂直坐标下查找邻域节点为白色填充的小立方体,判断两个节点之间的距离为“近”和“远”,并且参考节点的平面位置。
在本申请实施例中,图18为本申请实施例提供的一种当前节点位于父节点的低平面位置示意图。如图18所示,(a)、(b)、(c)示出了三种当前节点位于父节点的低平面位置的示例。具体说明如下:
①如果点填充节点的子节点4到7中有任何一个被占用,而所有网格填充节点都未被占用,则极有可能在当前节点(用斜线填充)中存在一个平面,且该平面位置较低。
②如果点填充节点的子节点4到7都未被占用,而任何网格填充节点被占用,则极有可能在当前节点(用斜线填充)中存在一个平面,且该平面位置较高。
③如果点填充节点的子节点4到7均为空节点,网格填充节点均为空节点,则无法推断平面位置,故标记为未知。
④如果点填充节点的子节点4到7中有任何一个被占用,而网格填充节点中有任何一个被占用,此时也无法推断出平面位置,因此将其标记为未知。
在本申请实施例中,图19为本申请实施例提供的一种当前节点位于父节点的高平面位置示意图。 如图19所示,(a)、(b)、(c)示出了三种当前节点位于父节点的高平面位置的示例。具体说明如下:
①如果网格填充节点的子节点4到7中有任何一个节点被占用,而点填充节点未被占用,则极有可能在当前节点(用斜线填充)中存在一个平面,且平面位置较低。
②如果网格填充节点的子节点4到7均未被占用,而点填充节点被占用,则极有可能在当前节点(用斜线填充)中存在平面,且平面位置较高。
③如果网格填充节点的子节点4到7都是未被占用的,而点填充节点是未被占用的,此时无法推断平面位置,因此标记为未知。
④如果网格填充节点的子节点4到7中有一个被占用,而点填充节点被占用,此时无法推断平面位置,因此标记为未知。
还应理解,针对激光雷达点云平面位置信息的编码而言,图20为本申请实施例提供的一种激光雷达点云平面位置信息的预测编码示意图。如图20所示,在激光雷达的发射角度为θ bottom时,这时候可以映射为低平面(Bottom virtual plane);在激光雷达的发射角度为θ top时,这时候可以映射为高平面(Top virtual plane)。
也就是说,通过利用激光雷达采集参数来预测当前节点的平面位置,通过利用当前节点与激光射线相交的位置来将位置量化为多个区间,最终作为当前节点平面位置的上下文信息。具体计算过程如下:假设激光雷达的坐标为(x Lidar,y Lidar,z Lidar),当前节点的几何坐标为(x,y,z),那么首先计算当前节点相对于激光雷达的垂直正切值tanθ,计算公式如下:
Figure PCTCN2023070931-appb-000004
进一步地,又因为每个Laser会相对于激光雷达有一定偏移角度,因此还需要计算当前节点相对于Laser的相对正切值tanθ corr,L,具体计算如下:
Figure PCTCN2023070931-appb-000005
最终会利用当前节点的相对正切值tanθ corr,L来对当前节点的平面位置进行预测,具体如下,假设当前节点下边界的正切值为tan(θ bottom),上边界的正切值为tan(θ top),根据tanθ corr,L将平面位置量化为4个量化区间,即确定平面位置的上下文信息。
如此,在确定出当前节点满足平面编码条件时,不仅通过相关技术中一些先验的参考信息来对当前节点的平面位置信息进行预测编解码,同时还可以考虑相邻帧之间节点的时域相关性,具体可以通过考虑预测帧中预测节点的平面结构信息来对当前节点的平面位置信息进行预测编码,从而能够提升当前节点的平面编码效率。
在本申请实施例中,该技术方案可以在编码端和解码端均实施,在对平面信息编码时,利用邻域节点的占位信息来对当前节点的平面位置信息进行预测编码,具体如下所示:
对于八叉树编码端算法,首先可以是平面编码条件的启动优化。具体如图11所示,从中可以看到,节点c为预测帧中与当前帧中的当前节点(即节点a)的预测节点。首先利用预测节点的占位信息来判断预测节点是否属于一个真正的平面,假设预测节点的平面标识信息为PredPlanMode,那么通过利用预测节点的平面标识信息来决定当前节点在三个维度方向上是否启动平面编码,即:Eligible i(i=0,1,2)。
其次可以是平面位置信息的编码优化。具体如图12所示,从中可以看出,由加粗实线表示的节点为预测节点,由点划线表示的节点为与预测节点共面的六个邻域节点。因为预测节点的几何信息在编解码端都可以得到,因此在这里是可以知道与预测节点共面的6个邻域节点的占位信息。通过利用预测节点以及预测节点共面的6个邻域节点的占位信息,来对当前节点的平面位置信息进行预测编码。
示例性地,以X轴方向的平面位置信息预测编码为例,假设用于当前节点的平面位置信息的上下文分别为Ctx1和Ctx2,对应的计算方式分别如下所示:
Ctx1:利用六个共面邻域节点的平面结构信息来进行设计。假设六个共面邻域节点的占位信息分别为coPlanarLeft、coPlanarRight、coPlanarFront、coPlanarBelow、coPlanarUpper、coPlanarDown,首先利用其中的三个共面邻域节点的占位信息来计算三个节点的平面结构信息,包括平面标识(planarMode)和平面位置(PlanePos)信息。这里,利用三个共面邻域节点占位信息和预测节点的占位信息计算得到每个节点的平面结构信息,分别为PredNodePlaneMode、PredNodePlanePos、coPlanarLeftPlaneMode、coPlanarLeftPlanePos、coPlanarFrontPlaneMode、coPlanarFrontPlanePos、coPlanarDownPlaneMode、coPlanarDown PlanePos,其次利用左方/前方/下方三个共面邻域节点和预测节点的平面结构信息来计算得到Ctx1,具体参见式(3)。
Ctx2:利用右方/后方/上方三个共面邻域节点的占位信息,分别假设为:coEdgerRight、coEdgerUpper、coEdgerBelow,首先利用这些共面邻域节点的占位信息分别计算得到每个节点对应的平面结构信息,分别为:coPlanarRightPlaneMode、coPlanarRightPlanePos、coPlanarUpperPlaneMode、coPlanarUpperPlanePos、 coPlanarBelowPlaneMode、coPlanarBelow PlanePos,其次这些共面邻域节点对应的平面结构信息来计算Ctx2,具体参见式(4)。
这样,最终平面位置的目标上下文信息如下:
(a)利用邻域节点的占位信息进行预测得到当前节点的平面位置信息为三元素:预测为低平面、预测为高平面和无法预测;
(b)与当前节点在相同划分深度以及相同坐标下的节点与当前节点之间的空间距离:“近距离”和“远距离”;
(c)若与当前节点在相同划分深度以及相同坐标下的节点是一个平面,则确定该节点的平面位置;
(d)当前节点的坐标维度(i=0,1,2);
(e)Ctx1:利用预测节点和左方/前方/下方三个共面邻域节点的平面结构信息计算得到;
(f)Ctx2:利用右方/后方/上方三个共面邻域节点的平面结构信息计算得到。
对于八叉树解码端算法,类似编码端同样的算法,可以利用如图12所示的共面邻域节点的占位信息,来得到当前节点平面位置信息的上下文Ctx1和Ctx2,最终利用Ctx1和Ctx2以及已有的参考上下文信息来对当前节点的平面位置信息进行解码。
进一步地,在本申请实施例中,Ctx1的计算是通过利用预测节点和左方/前方/下方三个共面邻域节点的平面位置信息和平面标识信息进行计算得到的,Ctx2的计算是通过利用右方/后方/上方三个共面邻域节点的平面位置信息和平面标识信息进行计算得到的。除此之外,Ctx1的计算是仅仅包含这七个节点的平面位置信息,Ctx2的计算是仅仅包含这七个节点的平面标识信息,具体参见式(5)和式(6)。
进一步地,在本申请实施例中,可以对Ctx1和Ctx2的计算不进行限制。其中,这里仅仅是给出了两种通过利用邻域节点的平面结构信息进行计算得到Ctx1和Ctx2的方式,但是对此不作具体限定,本申请实施例所保护的是Ctx1和Ctx2是通过利用邻域节点的占位信息来进行推算得到的,至于如何进行计算并不受限制。
进一步地,在本申请实施例中,可以对邻域节点的参考范围不进行限制。其中,在考虑到编码效率和时间复杂度以及内存占用率等之间的平衡,这里仅仅考虑了6个共面邻域节点和1个预测节点的占位信息,但是针对邻域参考范围不进行限制,例如:可以仅仅参考共面邻域节点,或者共面邻域节点和共线邻域节点,更或者更大的邻域参考范围,在此不进行具体限定。
进一步地,在本申请实施例中,可以对最终利用邻域节点的占位信息得到的参考信息,最终用于平面位置的上下文不受限制。其中,可以通过利用共面、共线和共点等邻域节点的平面结构信息进行简单的与或运算,直接计算得到Ctx1和Ctx2,最终用来确定平面位置编码的上下文。在本申请实施例中,对于最终用于编码的上下文不受限制,例如可以通过利用空间旋转不变形或者上下文映射等一些方式来对Ctx1和Ctx2进行映射得到新的上下文,对此不受限制。
进一步地,在本申请实施例中,可以对利用预测节点的平面结构信息来对当前节点的平面编码启动条件进行修改。其中,可以是通过利用预测节点的平面结构信息直接决定当前待编码节点是否进行平面编码。在本申请实施例中,还可以利用预测节点的平面结构信息与当前节点的参考信息综合进行考虑决定当前节点是否进行平面编码。在这里,对于如何利用预测节点的平面结构信息来判断当前节点的平面编码条件,对此不受限制。
简单来说,本申请实施例首先通过利用预测帧中与当前节点相对应的预测节点的占位信息,计算得到预测节点的平面结构信息,通过利用预测节点的平面结构信息来决定当前节点的平面编码启动条件;其次通过考虑相邻预测帧的平面结构信息来对当前节点的平面位置信息进行预测编码,这样可以提升点云的几何编码效率;通过利用相邻帧之间的时域相关性来去除相邻帧之间平面结构信息的冗余,可以进一步提升点云的几何信息编码效率。
示例性地。下面以几何无损属性无损测试环境为例,其中bpp为衡量压缩效率的性能指标,当bpp小于100%时,代表编码效率相对于已有的编码方案提升,具体如表1所示。
表1
测试序列(Sequences) 测试结果(Geometry_bpp)
egyptian_mask_vox12 97.124%
facade_00009_vox12 96.340%
facade_00015_vox14 96.740%
frog_00067_vox12 95.015%
house_without_roof_00057_vox12 96.777%
shiva_00035_vox12 97.763%
ulb_unicorn_vox13 99.722%
arco_valentino_dense_vox12 99.866%
arco_valentino_dense_vox20 99.941%
egyptian_mask_vox20 99.071%
facade_00009_vox20 99.154%
facade_00015_vox20 98.989%
facade_00064_vox14 96.055%
facade_00064_vox20 99.070%
frog_00067_vox20 98.862%
head_00039_vox20 99.230%
house_without_roof_00057_vox20 98.800%
landscape_00014_vox20 98.710%
palazzo_carignano_dense_vox14 99.879%
palazzo_carignano_dense_vox20 99.947%
shiva_00035_vox20 99.345%
stanford_area_2_vox16 99.590%
stanford_area_2_vox20 99.610%
staue_klimt_vox12 95.984%
staue_klimt_vox20 98.876%
ulb_unicorn_hires_vox15 98.008%
ulb_unicorn_hires_vox20 99.327%
ulb_unicorn_vox20 99.907%
citytunnel_q1mm 99.066%
overpass_q1mm 98.886%
tollbooth_q1mm 98.665%
经过试验测试,从表1可以看到在所选取的测试序列集上,单个测试序列最大可以提升5%的压缩性能(frog_00067_vox12)。示例性地,表2示出了几何无损属性无损(lossless geometry,lossless attributes)下的性能结果,表3示出了几何有损属性有损(lossy geometry,lossy attributes)下的性能结果。
表2
Figure PCTCN2023070931-appb-000006
表3
Figure PCTCN2023070931-appb-000007
并且,将所有的测试序列的平面编码都开启,和已有的TMC13-v19的测试性能如表4所示。
表4
Figure PCTCN2023070931-appb-000008
在本申请实施例中,通过上述实施例对前述实施例的具体实现进行详细阐述,从中可以看出,根据前述实施例的技术方案,本申请实施例的技术方案在编码/解码节点的平面位置信息时,通过考虑预测帧中节点的平面结构信息来对当前节点的平面位置信息进行预测编解码,通过考虑相邻帧中相对应节点之间的平面结构信息之间的相关性,从而可以有效提升点云的几何信息编码效率。另外,本申请实施例的技术方案是通过利用预测节点的平面结构信息以及与预测节点共面的6个共面邻域节点的平面结构信息来对当前节点的平面位置信息进行预测,同样的可以考虑更为丰富的邻域节点的平面结构信息,这里不受限制;从而进一步提升点云的几何信息编码效率,进而提高点云的编解码性能。
在本申请的再一实施例中,基于前述实施例相同的发明构思,参见图21,其示出了本申请实施例提供的一种编码器的组成结构示意图。如图21所示,该编码器210可以包括:第一确定单元2101和编码单元2102;其中,
第一确定单元2101,配置为基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息;以及确定当前节点的平面位置信息;
编码单元2102,配置为基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。
在一些实施例中,第一确定单元2101,还配置为在当前节点满足平面编码条件时,确定当前节点的平面位置信息为下述其中之一:低平面位置信息或者高平面位置信息。
在一些实施例中,预测帧为已编码帧,且预测帧与包含当前节点的当前帧具有相邻关系。
在一些实施例中,第一确定单元2101,还配置为确定预测节点的占位信息;以及根据预测节点的占位信息,确定预测节点的平面标识信息;以及基于预测节点的平面标识信息,确定当前节点在预设方向上是否启动平面编码模式。
在一些实施例中,第一确定单元2101,还配置为确定预测节点的邻域节点;根据预测节点的邻域节点,确定预测帧中的至少一个目标节点;其中,至少一个目标节点包括下述至少一项:与预测节点共面的至少一个共面节点、与预测节点共线的至少一个共线节点和与预测节点共点的至少一个共点节点。
在一些实施例中,第一确定单元2101,还配置为确定当前节点的邻域节点;以及基于预测帧,确定当前节点的邻域节点各自的预测节点;以及根据当前节点的邻域节点各自的预测节点,确定预测帧中的至少一个目标节点;其中,至少一个目标节点包括下述至少一项:与当前节点共面的至少一个共面节点对应的预测节点、与当前节点共线的至少一个共线节点对应的预测节点和与当前节点共点的至少一个共点节点对应的预测节点。
在一些实施例中,第一确定单元2101,还配置为根据预设节点的平面结构信息,确定第一类预设节点的平面结构信息和第二类预设节点的平面结构信息;以及根据第一类预设节点的平面结构信息,确定当前节点的第一上下文指示信息;以及根据第二类预设节点的平面结构信息,确定当前节点的第二上下文指示信息。
在一些实施例中,在第一类预设节点包括预测节点和第一目标节点时,第一确定单元2101,还配置为确定预测节点的占位信息和第一目标节点的占位信息;以及根据预测节点的占位信息,确定预测节点的平面标识信息和预测节点的平面位置信息;以及根据第一目标节点的占位信息,确定第一目标节点的平面标识信息和第一目标节点的平面位置信息;以及根据预测节点的平面标识信息、预测节点的平面位置信息、第一目标节点的平面标识信息和第一目标节点的平面位置信息,组成第一类预设节点的平面 结构信息;以及根据预测节点的平面标识信息、预测节点的平面位置信息、第一目标节点的平面标识信息和第一目标节点的平面位置信息,确定当前节点的第一上下文指示信息。
在一些实施例中,在第二类预设节点包括第二目标节点时,第一确定单元2101,还配置为确定第二目标节点的占位信息;以及根据第二目标节点的占位信息,确定第二目标节点的平面标识信息和第二目标节点的平面位置信息;以及根据第二目标节点的平面标识信息和第二目标节点的平面位置信息,组成第二类预设节点的平面结构信息;以及根据第二目标节点的平面标识信息和第二目标节点的平面位置信息,确定当前节点的第二上下文指示信息。
在一些实施例中,第一目标节点包括:位于预测节点左方的共面节点、位于预测节点前方的共面节点、位于预测节点下方的共面节点;第二目标节点包括:位于预测节点右方的共面节点、位于预测节点后方的共面节点、位于预测节点上方的共面节点;
或者,第一目标节点包括:位于当前节点左方的共面节点对应的预测节点、位于当前节点前方的共面节点对应的预测节点、位于当前节点下方的共面节点对应的预测节点;第二目标节点包括:位于当前节点右方的共面节点对应的预测节点、位于当前节点后方的共面节点对应的预测节点、位于当前节点上方的共面节点对应的预测节点。
在一些实施例中,第一确定单元2101,还配置为根据预设节点的平面结构信息,确定预设节点的第一类平面结构信息和预设节点的第二类平面结构信息;以及根据预设节点的第一类平面结构信息,确定当前节点的第一上下文指示信息;以及根据预设节点的第二类平面结构信息,确定当前节点的第二上下文指示信息。
在一些实施例中,在预设节点包括预测节点和第三目标节点时,第一确定单元2101,还配置为确定预测节点和第三目标节点各自的占位信息;以及根据预测节点和第三目标节点各自的占位信息,确定预测节点的平面位置信息和第三目标节点的平面位置信息;以及根据预测节点的平面位置信息和第三目标节点的平面位置信息,组成预设节点的第一类平面结构信息;以及根据预测节点的平面位置信息和第三目标节点的平面位置信息,确定当前节点的第一上下文指示信息。
在一些实施例中,在预设节点包括预测节点和第三目标节点时,第一确定单元2101,还配置为确定预测节点和第三目标节点各自的占位信息;以及根据预测节点和第三目标节点各自的占位信息,确定预测节点的平面标识信息和第三目标节点的平面标识信息;以及根据预测节点的平面标识信息和第三目标节点的平面标识信息,组成预设节点的第二类平面结构信息;以及根据预测节点的平面标识信息和第三目标节点的平面标识信息,确定当前节点的第二上下文指示信息。
在一些实施例中,第三目标节点包括:位于预测节点左方的共面节点、位于预测节点前方的共面节点、位于预测节点下方的共面节点、位于预测节点右方的共面节点、位于预测节点后方的共面节点、位于预测节点上方的共面节点;或者,第三目标节点包括:位于当前节点左方的共面节点对应的预测节点、位于当前节点前方的共面节点对应的预测节点、位于当前节点下方的共面节点对应的预测节点、位于当前节点右方的共面节点对应的预测节点、位于当前节点后方的共面节点对应的预测节点、位于当前节点上方的共面节点对应的预测节点。
在一些实施例中,第一确定单元2101,还配置为获取当前节点的第一上下文指示信息和当前节点的第二上下文指示信息;以及根据第一上下文指示信息和第二上下文指示信息,确定目标上下文信息。
在一些实施例中,第一确定单元2101,还配置为根据第一上下文指示信息和第二上下文指示信息进行上下文映射处理,得到新的上下文信息;以及根据新的上下文信息,确定目标上下文信息。
在一些实施例中,第一确定单元2101,还配置为确定当前节点的参考上下文信息;以及根据第一上下文指示信息、第二上下文指示信息和参考上下文信息,确定目标上下文信息。
在一些实施例中,第一确定单元2101,还配置为确定当前节点的参考上下文信息,包括下述至少一项:
根据邻域节点的占位信息进行预测,确定当前节点的平面位置信息的预测值,且预测值包括下述其中一项:低平面、高平面和无法预测;
确定与当前节点在相同划分深度以及相同坐标下的节点和当前节点之间的空间距离,且空间距离满足下述其中一项:近距离和远距离;
确定与当前节点在相同划分深度以及相同坐标下的节点是否为一个平面,若节点为一个平面,则确定节点的平面位置;
确定当前节点的坐标维度信息。
在一些实施例中,第一确定单元2101,还配置为确定预测节点的占位信息;以及根据预测节点的占位信息,确定预测节点的平面结构信息;以及基于预测节点的平面结构信息,确定当前节点在预设方向上是否启动平面编码模式。
在一些实施例中,第一确定单元2101,还配置为获取当前节点的参考信息;以及根据预测节点的平面结构信息和当前节点的参考信息,确定当前节点在预设方向上是否启动平面编码模式。
可以理解地,在本申请实施例中,“单元”可以是部分电路、部分处理器、部分程序或软件等等,当然也可以是模块,还可以是非模块化的。而且在本实施例中的各组成部分可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
因此,本申请实施例提供了一种计算机可读存储介质,应用于编码器210,该计算机可读存储介质存储有计算机程序,所述计算机程序被第一处理器执行时实现前述实施例中任一项所述的编码方法。
基于编码器210的组成以及计算机可读存储介质,参见图22,其示出了本申请实施例提供的编码器210的具体硬件结构示意图。如图22所示,编码器210可以包括:第一通信接口2201、第一存储器2202和第一处理器2203;各个组件通过第一总线系统2204耦合在一起。可理解,第一总线系统2204用于实现这些组件之间的连接通信。第一总线系统2204除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图22中将各种总线都标为第一总线系统2204。其中,
第一通信接口2201,用于在与其他外部网元之间进行收发信息过程中,信号的接收和发送;
第一存储器2202,用于存储能够在第一处理器2203上运行的计算机程序;
第一处理器2203,用于在运行所述计算机程序时,执行:
基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;
根据预设节点的平面结构信息,确定当前节点的上下文指示信息;
根据上下文指示信息,确定目标上下文信息;
确定当前节点的平面位置信息,并基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。
可以理解,本申请实施例中的第一存储器2202可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data Rate SDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DRRAM)。本申请描述的系统和方法的第一存储器2202旨在包括但不限于这些和任意其它适合类型的存储器。
而第一处理器2203可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过第一处理器2203中的硬件的集成逻辑电路或者软件形式的指令完成。上述的第一处理器2203可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于第一存储器2202,第一处理器2203读取第一存储器2202中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本申请描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(Application Specific Integrated Circuits, ASIC)、数字信号处理器(Digital Signal Processing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(Programmable Logic Device,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。对于软件实现,可通过执行本申请所述功能的模块(例如过程、函数等)来实现本申请所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
可选地,作为另一个实施例,第一处理器2203还配置为在运行所述计算机程序时,执行前述实施例中任一项所述的编码方法。
本实施例提供了一种编码器,对于该编码器而言,在利用目标上下文信息对当前节点的平面位置信息进行编码过程中,可以通过考虑预测帧中预测节点的平面结构信息确定目标上下文信息;如此,由于考虑到相邻预测帧中相对应节点之间平面结构信息的相关性,同时利用相邻预测帧之间的时域相关性来去除相邻帧之间平面结构信息的冗余,可以提升点云的几何信息编码效率,进而提高点云的编解码性能。
在本申请的再一实施例中,基于前述实施例相同的发明构思,参见图23,其示出了本申请实施例提供的一种解码器的组成结构示意图。如图23所示,该解码器230可以包括:第二确定单元2301和解码单元2302;其中,
第二确定单元2301,配置为基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;以及根据上下文指示信息,确定目标上下文信息;
解码单元2302,配置为基于目标上下文信息解码码流,确定当前节点的平面位置信息。
在一些实施例中,预测帧为已解码帧,且预测帧与包含当前节点的当前帧具有相邻关系。
在一些实施例中,第二确定单元2301,还配置为确定预测节点的占位信息;以及根据预测节点的占位信息,确定预测节点的平面标识信息;以及基于预测节点的平面标识信息,确定当前节点在预设方向上是否启动平面编码模式。
在一些实施例中,第二确定单元2301,还配置为确定预测节点的邻域节点;根据预测节点的邻域节点,确定预测帧中的至少一个目标节点;其中,至少一个目标节点包括下述至少一项:与预测节点共面的至少一个共面节点、与预测节点共线的至少一个共线节点和与预测节点共点的至少一个共点节点。
在一些实施例中,第二确定单元2301,还配置为确定当前节点的邻域节点;以及基于预测帧,确定当前节点的邻域节点各自的预测节点;以及根据当前节点的邻域节点各自的预测节点,确定预测帧中的至少一个目标节点;其中,至少一个目标节点包括下述至少一项:与当前节点共面的至少一个共面节点对应的预测节点、与当前节点共线的至少一个共线节点对应的预测节点和与当前节点共点的至少一个共点节点对应的预测节点。
在一些实施例中,第二确定单元2301,还配置为根据预设节点的平面结构信息,确定第一类预设节点的平面结构信息和第二类预设节点的平面结构信息;以及根据第一类预设节点的平面结构信息,确定当前节点的第一上下文指示信息;以及根据第二类预设节点的平面结构信息,确定当前节点的第二上下文指示信息。
在一些实施例中,在第一类预设节点包括预测节点和第一目标节点时,第二确定单元2301,还配置为确定预测节点的占位信息和第一目标节点的占位信息;以及根据预测节点的占位信息,确定预测节点的平面标识信息和预测节点的平面位置信息;以及根据第一目标节点的占位信息,确定第一目标节点的平面标识信息和第一目标节点的平面位置信息;以及根据预测节点的平面标识信息、预测节点的平面位置信息、第一目标节点的平面标识信息和第一目标节点的平面位置信息,组成第一类预设节点的平面结构信息;以及根据预测节点的平面标识信息、预测节点的平面位置信息、第一目标节点的平面标识信息和第一目标节点的平面位置信息,确定当前节点的第一上下文指示信息。
在一些实施例中,在第二类预设节点包括第二目标节点时,第二确定单元2301,还配置为确定第二目标节点的占位信息;以及根据第二目标节点的占位信息,确定第二目标节点的平面标识信息和第二目标节点的平面位置信息;以及根据第二目标节点的平面标识信息和第二目标节点的平面位置信息,组成第二类预设节点的平面结构信息;以及根据第二目标节点的平面标识信息和第二目标节点的平面位置信息,确定当前节点的第二上下文指示信息。
在一些实施例中,第一目标节点包括:位于预测节点左方的共面节点、位于预测节点前方的共面节点、位于预测节点下方的共面节点;第二目标节点包括:位于预测节点右方的共面节点、位于预测节点后方的共面节点、位于预测节点上方的共面节点;
或者,第一目标节点包括:位于当前节点左方的共面节点对应的预测节点、位于当前节点前方的共面节点对应的预测节点、位于当前节点下方的共面节点对应的预测节点;第二目标节点包括:位于当前 节点右方的共面节点对应的预测节点、位于当前节点后方的共面节点对应的预测节点、位于当前节点上方的共面节点对应的预测节点。
在一些实施例中,第二确定单元2301,还配置为根据预设节点的平面结构信息,确定预设节点的第一类平面结构信息和预设节点的第二类平面结构信息;以及根据预设节点的第一类平面结构信息,确定当前节点的第一上下文指示信息;以及根据预设节点的第二类平面结构信息,确定当前节点的第二上下文指示信息。
在一些实施例中,在预设节点包括预测节点和第三目标节点时,第二确定单元2301,还配置为确定预测节点和第三目标节点各自的占位信息;以及根据预测节点和第三目标节点各自的占位信息,确定预测节点的平面位置信息和第三目标节点的平面位置信息;以及根据预测节点的平面位置信息和第三目标节点的平面位置信息,组成预设节点的第一类平面结构信息;以及根据预测节点的平面位置信息和第三目标节点的平面位置信息,确定当前节点的第一上下文指示信息。
在一些实施例中,在预设节点包括预测节点和第三目标节点时,第二确定单元2301,还配置为确定预测节点和第三目标节点各自的占位信息;以及根据预测节点和第三目标节点各自的占位信息,确定预测节点的平面标识信息和第三目标节点的平面标识信息;以及根据预测节点的平面标识信息和第三目标节点的平面标识信息,组成预设节点的第二类平面结构信息;以及根据预测节点的平面标识信息和第三目标节点的平面标识信息,确定当前节点的第二上下文指示信息。
在一些实施例中,第三目标节点包括:位于预测节点左方的共面节点、位于预测节点前方的共面节点、位于预测节点下方的共面节点、位于预测节点右方的共面节点、位于预测节点后方的共面节点、位于预测节点上方的共面节点;或者,第三目标节点包括:位于当前节点左方的共面节点对应的预测节点、位于当前节点前方的共面节点对应的预测节点、位于当前节点下方的共面节点对应的预测节点、位于当前节点右方的共面节点对应的预测节点、位于当前节点后方的共面节点对应的预测节点、位于当前节点上方的共面节点对应的预测节点。
在一些实施例中,第二确定单元2301,还配置为获取当前节点的第一上下文指示信息和当前节点的第二上下文指示信息;以及根据第一上下文指示信息和第二上下文指示信息,确定目标上下文信息。
在一些实施例中,第二确定单元2301,还配置为根据第一上下文指示信息和第二上下文指示信息进行上下文映射处理,得到新的上下文信息;以及根据新的上下文信息,确定目标上下文信息。
在一些实施例中,第二确定单元2301,还配置为确定当前节点的参考上下文信息;以及根据第一上下文指示信息、第二上下文指示信息和参考上下文信息,确定目标上下文信息。
在一些实施例中,第二确定单元2301,还配置为确定当前节点的参考上下文信息,包括下述至少一项:
根据邻域节点的占位信息进行预测,确定当前节点的平面位置信息的预测值,且预测值包括下述其中一项:低平面、高平面和无法预测;
确定与当前节点在相同划分深度以及相同坐标下的节点和当前节点之间的空间距离,且空间距离包括下述其中一项:近距离和远距离;
确定与当前节点在相同划分深度以及相同坐标下的节点是否为一个平面,若节点为一个平面,则确定节点的平面位置;
确定当前节点的坐标维度信息。
在一些实施例中,第二确定单元2301,还配置为确定预测节点的占位信息;以及根据预测节点的占位信息,确定预测节点的平面结构信息;以及基于预测节点的平面结构信息,确定当前节点在预设方向上是否启动平面编码模式。
在一些实施例中,第二确定单元2301,还配置为获取当前节点的参考信息;以及根据预测节点的平面结构信息和当前节点的参考信息,确定当前节点在预设方向上是否启动平面编码模式。
可以理解地,在本实施例中,“单元”可以是部分电路、部分处理器、部分程序或软件等等,当然也可以是模块,还可以是非模块化的。而且在本实施例中的各组成部分可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本实施例提供了一种计算机可读存储介质,应用于解码器230,该计算机可读存储介质存储有计算机程序,所述计算机程序被第二处理器执行时实现前述实施例中任一项所述的解码方法。
基于解码器230的组成以及计算机可读存储介质,参见图24,其示出了本申请实施例提供的解码器230的具体硬件结构示意图。如图24所示,解码器230可以包括:第二通信接口2401、第二存储器 2402和第二处理器2403;各个组件通过第二总线系统2404耦合在一起。可理解,第二总线系统2404用于实现这些组件之间的连接通信。第二总线系统2404除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图24中将各种总线都标为第二总线系统2404。其中,
第二通信接口2401,用于在与其他外部网元之间进行收发信息过程中,信号的接收和发送;
第二存储器2402,用于存储能够在第二处理器2403上运行的计算机程序;
第二处理器2403,用于在运行所述计算机程序时,执行:
基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;
根据预设节点的平面结构信息,确定当前节点的上下文指示信息;
根据上下文指示信息,确定目标上下文信息;
基于目标上下文信息解码码流,确定当前节点的平面位置信息。
可选地,作为另一个实施例,第二处理器2403还配置为在运行所述计算机程序时,执行前述实施例中任一项所述的解码方法。
可以理解,第二存储器2402与第一存储器2202的硬件功能类似,第二处理器2403与第一处理器2203的硬件功能类似;这里不再详述。
本实施例提供了一种解码器,对于该解码器而言,在利用目标上下文信息对当前节点的平面位置信息进行解码过程中,可以通过考虑预测帧中预测节点的平面结构信息确定目标上下文信息;如此,由于考虑到相邻预测帧中相对应节点之间平面结构信息的相关性,同时利用相邻预测帧之间的时域相关性来去除相邻帧之间平面结构信息的冗余,可以提升点云的几何信息编码效率,进而提高点云的编解码性能。
在本申请的再一实施例中,参见图25,其示出了本申请实施例提供的一种编解码系统的组成结构示意图。如图25所示,编解码系统250可以包括编码器2501和解码器2502。
在本申请实施例中,编码器2501可以为前述实施例中任一项所述的编码器,解码器2502可以为前述实施例中任一项所述的解码器。
需要说明的是,在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本申请所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
工业实用性
本申请实施例中,无论是在编码端还是解码端,基于当前节点在预测帧中对应的预测节点,确定当前节点的预设节点的平面结构信息,其中,预设节点包括预测节点和预测帧中的至少一个目标节点;根据预设节点的平面结构信息,确定当前节点的上下文指示信息;根据上下文指示信息,确定目标上下文信息。这样,在编码端,在确定当前节点的平面位置信息之后,基于目标上下文信息对当前节点的平面位置信息进行编码,将所得到的编码比特写入码流;而在解码端,可以基于目标上下文信息解码码流,确定当前节点的平面位置信息。也就是说,在利用目标上下文信息对当前节点的平面位置信息进行编解码过程中,可以通过考虑预测帧中预测节点的平面结构信息来确定目标上下文信息;如此,由于考虑到相邻预测帧中相对应节点之间的平面结构信息的相关性,从而可以有效提升点云的几何信息编码效率;同时利用相邻预测帧之间的时域相关性来去除相邻帧之间平面结构信息的冗余,还可以进一步提升点云的几何信息编码效率,进而提高点云的编解码性能。

Claims (45)

  1. 一种解码方法,应用于解码器,所述方法包括:
    基于当前节点在预测帧中对应的预测节点,确定所述当前节点的预设节点的平面结构信息,其中,所述预设节点包括所述预测节点和所述预测帧中的至少一个目标节点;
    根据所述预设节点的平面结构信息,确定所述当前节点的上下文指示信息;
    根据所述上下文指示信息,确定目标上下文信息;
    基于所述目标上下文信息解码码流,确定所述当前节点的平面位置信息。
  2. 根据权利要求1所述的方法,其中,所述预测帧为已解码帧,且所述预测帧与包含所述当前节点的当前帧具有相邻关系。
  3. 根据权利要求1所述的方法,其中,所述方法还包括:
    确定所述预测节点的占位信息;
    根据所述预测节点的占位信息,确定所述预测节点的平面标识信息;
    基于所述预测节点的平面标识信息,确定所述当前节点在预设方向上是否启动平面编码模式。
  4. 根据权利要求1所述的方法,其中,所述方法还包括:
    确定所述预测节点的邻域节点;
    根据所述预测节点的邻域节点,确定所述预测帧中的至少一个目标节点;
    其中,所述至少一个目标节点包括下述至少一项:与所述预测节点共面的至少一个共面节点、与所述预测节点共线的至少一个共线节点和与所述预测节点共点的至少一个共点节点。
  5. 根据权利要求1所述的方法,其中,所述方法还包括:
    确定所述当前节点的邻域节点;
    基于所述预测帧,确定所述当前节点的邻域节点各自的预测节点;
    根据所述当前节点的邻域节点各自的预测节点,确定所述预测帧中的至少一个目标节点;
    其中,所述至少一个目标节点包括下述至少一项:与所述当前节点共面的至少一个共面节点对应的预测节点、与所述当前节点共线的至少一个共线节点对应的预测节点和与所述当前节点共点的至少一个共点节点对应的预测节点。
  6. 根据权利要求4或5所述的方法,其中,所述根据所述预设节点的平面结构信息,确定所述当前节点的上下文指示信息,包括:
    根据所述预设节点的平面结构信息,确定第一类预设节点的平面结构信息和第二类预设节点的平面结构信息;
    根据所述第一类预设节点的平面结构信息,确定所述当前节点的第一上下文指示信息;
    根据所述第二类预设节点的平面结构信息,确定所述当前节点的第二上下文指示信息。
  7. 根据权利要求6所述的方法,其中,在所述第一类预设节点包括所述预测节点和第一目标节点时,确定所述第一类预设节点的平面结构信息,包括:
    确定所述预测节点的占位信息和所述第一目标节点的占位信息;
    根据所述预测节点的占位信息,确定所述预测节点的平面标识信息和所述预测节点的平面位置信息;以及根据所述第一目标节点的占位信息,确定所述第一目标节点的平面标识信息和所述第一目标节点的平面位置信息;
    根据所述预测节点的平面标识信息、所述预测节点的平面位置信息、所述第一目标节点的平面标识信息和所述第一目标节点的平面位置信息,组成所述第一类预设节点的平面结构信息;
    相应地,所述根据所述第一类预设节点的平面结构信息,确定所述当前节点的第一上下文指示信息,包括:
    根据所述预测节点的平面标识信息、所述预测节点的平面位置信息、所述第一目标节点的平面标识信息和所述第一目标节点的平面位置信息,确定所述当前节点的第一上下文指示信息。
  8. 根据权利要求7所述的方法,其中,在所述第二类预设节点包括第二目标节点时,确定所述第二类预设节点的平面结构信息,包括:
    确定所述第二目标节点的占位信息;
    根据所述第二目标节点的占位信息,确定所述第二目标节点的平面标识信息和所述第二目标节点的平面位置信息;
    根据所述第二目标节点的平面标识信息和所述第二目标节点的平面位置信息,组成所述第二类预设节点的平面结构信息;
    相应地,所述根据所述第二类预设节点的平面结构信息,确定所述当前节点的第二上下文指示信息,包括:
    根据所述第二目标节点的平面标识信息和所述第二目标节点的平面位置信息,确定所述当前节点的第二上下文指示信息。
  9. 根据权利要求8所述的方法,其中,
    所述第一目标节点包括:位于所述预测节点左方的共面节点、位于所述预测节点前方的共面节点、位于所述预测节点下方的共面节点;
    所述第二目标节点包括:位于所述预测节点右方的共面节点、位于所述预测节点后方的共面节点、位于所述预测节点上方的共面节点;
    或者,
    所述第一目标节点包括:位于所述当前节点左方的共面节点对应的预测节点、位于所述当前节点前方的共面节点对应的预测节点、位于所述当前节点下方的共面节点对应的预测节点;
    所述第二目标节点包括:位于所述当前节点右方的共面节点对应的预测节点、位于所述当前节点后方的共面节点对应的预测节点、位于所述当前节点上方的共面节点对应的预测节点。
  10. 根据权利要求4或5所述的方法,其中,所述根据所述预设节点的平面结构信息,确定所述当前节点的上下文指示信息,包括:
    根据所述预设节点的平面结构信息,确定所述预设节点的第一类平面结构信息和所述预设节点的第二类平面结构信息;
    根据所述预设节点的第一类平面结构信息,确定所述当前节点的第一上下文指示信息;
    根据所述预设节点的第二类平面结构信息,确定所述当前节点的第二上下文指示信息。
  11. 根据权利要求10所述的方法,其中,在所述预设节点包括所述预测节点和第三目标节点时,确定所述预设节点的第一类平面结构信息,包括:
    确定所述预测节点和所述第三目标节点各自的占位信息;
    根据所述预测节点和所述第三目标节点各自的占位信息,确定所述预测节点的平面位置信息和所述第三目标节点的平面位置信息;
    根据所述预测节点的平面位置信息和所述第三目标节点的平面位置信息,组成所述预设节点的第一类平面结构信息;
    相应地,所述根据所述预设节点的第一类平面结构信息,确定所述当前节点的第一上下文指示信息,包括:
    根据所述预测节点的平面位置信息和所述第三目标节点的平面位置信息,确定所述当前节点的第一上下文指示信息。
  12. 根据权利要求10所述的方法,其中,在所述预设节点包括所述预测节点和第三目标节点时,确定所述预设节点的第二类平面结构信息,包括:
    确定所述预测节点和所述第三目标节点各自的占位信息;
    根据所述预测节点和所述第三目标节点各自的占位信息,确定所述预测节点的平面标识信息和所述第三目标节点的平面标识信息;
    根据所述预测节点的平面标识信息和所述第三目标节点的平面标识信息,组成所述预设节点的第二类平面结构信息;
    相应地,所述根据所述预设节点的第二类平面结构信息,确定所述当前节点的第二上下文指示信息,包括:
    根据所述预测节点的平面标识信息和所述第三目标节点的平面标识信息,确定所述当前节点的第二上下文指示信息。
  13. 根据权利要求11或12所述的方法,其中,
    所述第三目标节点包括:位于所述预测节点左方的共面节点、位于所述预测节点前方的共面节点、位于所述预测节点下方的共面节点、位于所述预测节点右方的共面节点、位于所述预测节点后方的共面节点、位于所述预测节点上方的共面节点;
    或者,
    所述第三目标节点包括:位于所述当前节点左方的共面节点对应的预测节点、位于所述当前节点前方的共面节点对应的预测节点、位于所述当前节点下方的共面节点对应的预测节点、位于所述当前节点右方的共面节点对应的预测节点、位于所述当前节点后方的共面节点对应的预测节点、位于所述当前节点上方的共面节点对应的预测节点。
  14. 根据权利要求6或10所述的方法,其中,所述根据所述上下文指示信息,确定目标上下文信 息,包括:
    获取所述当前节点的第一上下文指示信息和所述当前节点的第二上下文指示信息;
    根据所述第一上下文指示信息和所述第二上下文指示信息,确定所述目标上下文信息。
  15. 根据权利要求14所述的方法,其中,所述根据所述第一上下文指示信息和所述第二上下文指示信息,确定所述目标上下文信息,包括:
    根据所述第一上下文指示信息和所述第二上下文指示信息进行上下文映射处理,得到新的上下文信息;
    根据所述新的上下文信息,确定所述目标上下文信息。
  16. 根据权利要求14所述的方法,其中,所述根据所述上下文指示信息,确定目标上下文信息,包括:
    确定所述当前节点的参考上下文信息;
    根据所述第一上下文指示信息、所述第二上下文指示信息和所述参考上下文信息,确定所述目标上下文信息。
  17. 根据权利要求16所述的方法,其中,所述确定所述当前节点的参考上下文信息,包括下述至少一项:
    根据所述邻域节点的占位信息进行预测,确定所述当前节点的平面位置信息的预测值,且所述预测值包括下述其中一项:低平面、高平面和无法预测;
    确定与所述当前节点在相同划分深度以及相同坐标下的节点和所述当前节点之间的空间距离,且所述空间距离包括下述其中一项:近距离和远距离;
    确定与所述当前节点在相同划分深度以及相同坐标下的节点是否为一个平面,若所述节点为一个平面,则确定所述节点的平面位置;
    确定所述当前节点的坐标维度信息。
  18. 根据权利要求1所述的方法,其中,所述方法还包括:
    确定所述预测节点的占位信息;
    根据所述预测节点的占位信息,确定所述预测节点的平面结构信息;
    基于所述预测节点的平面结构信息,确定所述当前节点在预设方向上是否启动平面编码模式。
  19. 根据权利要求18所述的方法,其中,所述基于所述预测节点的平面结构信息,确定所述当前节点在预设方向上是否启动平面编码模式,包括:
    获取所述当前节点的参考信息;
    根据所述预测节点的平面结构信息和所述当前节点的参考信息,确定所述当前节点在预设方向上是否启动平面编码模式。
  20. 一种编码方法,应用于编码器,所述方法包括:
    基于当前节点在预测帧中对应的预测节点,确定所述当前节点的预设节点的平面结构信息,其中,所述预设节点包括所述预测节点和所述预测帧中的至少一个目标节点;
    根据所述预设节点的平面结构信息,确定所述当前节点的上下文指示信息;
    根据所述上下文指示信息,确定目标上下文信息;
    确定所述当前节点的平面位置信息,并基于所述目标上下文信息对所述当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。
  21. 根据权利要求20所述的方法,其中,所述确定所述当前节点的平面位置信息,包括:
    在所述当前节点满足平面编码条件时,确定所述当前节点的平面位置信息为下述其中之一:低平面位置信息或者高平面位置信息。
  22. 根据权利要求20所述的方法,其中,所述预测帧为已编码帧,且所述预测帧与包含所述当前节点的当前帧具有相邻关系。
  23. 根据权利要求20所述的方法,其中,所述方法还包括:
    确定所述预测节点的占位信息;
    根据所述预测节点的占位信息,确定所述预测节点的平面标识信息;
    基于所述预测节点的平面标识信息,确定所述当前节点在预设方向上是否启动平面编码模式。
  24. 根据权利要求20所述的方法,其中,所述方法还包括:
    确定所述预测节点的邻域节点;
    根据所述预测节点的邻域节点,确定所述预测帧中的至少一个目标节点;
    其中,所述至少一个目标节点包括下述至少一项:与所述预测节点共面的至少一个共面节点、与所述预测节点共线的至少一个共线节点和与所述预测节点共点的至少一个共点节点。
  25. 根据权利要求20所述的方法,其中,所述方法还包括:
    确定所述当前节点的邻域节点;
    基于所述预测帧,确定所述当前节点的邻域节点各自的预测节点;
    根据所述当前节点的邻域节点各自的预测节点,确定所述预测帧中的至少一个目标节点;
    其中,所述至少一个目标节点包括下述至少一项:与所述当前节点共面的至少一个共面节点对应的预测节点、与所述当前节点共线的至少一个共线节点对应的预测节点和与所述当前节点共点的至少一个共点节点对应的预测节点。
  26. 根据权利要求24或25所述的方法,其中,所述根据所述预设节点的平面结构信息,确定所述当前节点的上下文指示信息,包括:
    根据所述预设节点的平面结构信息,确定第一类预设节点的平面结构信息和第二类预设节点的平面结构信息;
    根据所述第一类预设节点的平面结构信息,确定所述当前节点的第一上下文指示信息;
    根据所述第二类预设节点的平面结构信息,确定所述当前节点的第二上下文指示信息。
  27. 根据权利要求26所述的方法,其中,在所述第一类预设节点包括所述预测节点和第一目标节点时,确定所述第一类预设节点的平面结构信息,包括:
    确定所述预测节点的占位信息和所述第一目标节点的占位信息;
    根据所述预测节点的占位信息,确定所述预测节点的平面标识信息和所述预测节点的平面位置信息;以及根据所述第一目标节点的占位信息,确定所述第一目标节点的平面标识信息和所述第一目标节点的平面位置信息;
    根据所述预测节点的平面标识信息、所述预测节点的平面位置信息、所述第一目标节点的平面标识信息和所述第一目标节点的平面位置信息,组成所述第一类预设节点的平面结构信息;
    相应地,所述根据所述第一类预设节点的平面结构信息,确定所述当前节点的第一上下文指示信息,包括:
    根据所述预测节点的平面标识信息、所述预测节点的平面位置信息、所述第一目标节点的平面标识信息和所述第一目标节点的平面位置信息,确定所述当前节点的第一上下文指示信息。
  28. 根据权利要求27所述的方法,其中,在所述第二类预设节点包括第二目标节点时,确定所述第二类预设节点的平面结构信息,包括:
    确定所述第二目标节点的占位信息;
    根据所述第二目标节点的占位信息,确定所述第二目标节点的平面标识信息和所述第二目标节点的平面位置信息;
    根据所述第二目标节点的平面标识信息和所述第二目标节点的平面位置信息,组成所述第二类预设节点的平面结构信息;
    相应地,所述根据所述第二类预设节点的平面结构信息,确定所述当前节点的第二上下文指示信息,包括:
    根据所述第二目标节点的平面标识信息和所述第二目标节点的平面位置信息,确定所述当前节点的第二上下文指示信息。
  29. 根据权利要求28所述的方法,其中,
    所述第一目标节点包括:位于所述预测节点左方的共面节点、位于所述预测节点前方的共面节点、位于所述预测节点下方的共面节点;
    所述第二目标节点包括:位于所述预测节点右方的共面节点、位于所述预测节点后方的共面节点、位于所述预测节点上方的共面节点;
    或者,
    所述第一目标节点包括:位于所述当前节点左方的共面节点对应的预测节点、位于所述当前节点前方的共面节点对应的预测节点、位于所述当前节点下方的共面节点对应的预测节点;
    所述第二目标节点包括:位于所述当前节点右方的共面节点对应的预测节点、位于所述当前节点后方的共面节点对应的预测节点、位于所述当前节点上方的共面节点对应的预测节点。
  30. 根据权利要求24或25所述的方法,其中,所述根据所述预设节点的平面结构信息,确定所述当前节点的上下文指示信息,包括:
    根据所述预设节点的平面结构信息,确定所述预设节点的第一类平面结构信息和所述预设节点的第二类平面结构信息;
    根据所述预设节点的第一类平面结构信息,确定所述当前节点的第一上下文指示信息;
    根据所述预设节点的第二类平面结构信息,确定所述当前节点的第二上下文指示信息。
  31. 根据权利要求30所述的方法,其中,在所述预设节点包括所述预测节点和第三目标节点时,确定所述预设节点的第一类平面结构信息,包括:
    确定所述预测节点和所述第三目标节点各自的占位信息;
    根据所述预测节点和所述第三目标节点各自的占位信息,确定所述预测节点的平面位置信息和所述第三目标节点的平面位置信息;
    根据所述预测节点的平面位置信息和所述第三目标节点的平面位置信息,组成所述预设节点的第一类平面结构信息;
    相应地,所述根据所述预设节点的第一类平面结构信息,确定所述当前节点的第一上下文指示信息,包括:
    根据所述预测节点的平面位置信息和所述第三目标节点的平面位置信息,确定所述当前节点的第一上下文指示信息。
  32. 根据权利要求30所述的方法,其中,在所述预设节点包括所述预测节点和第三目标节点时,确定所述预设节点的第二类平面结构信息,包括:
    确定所述预测节点和所述第三目标节点各自的占位信息;
    根据所述预测节点和所述第三目标节点各自的占位信息,确定所述预测节点的平面标识信息和所述第三目标节点的平面标识信息;
    根据所述预测节点的平面标识信息和所述第三目标节点的平面标识信息,组成所述预设节点的第二类平面结构信息;
    相应地,所述根据所述预设节点的第二类平面结构信息,确定所述当前节点的第二上下文指示信息,包括:
    根据所述预测节点的平面标识信息和所述第三目标节点的平面标识信息,确定所述当前节点的第二上下文指示信息。
  33. 根据权利要求31或32所述的方法,其中,
    所述第三目标节点包括:位于所述预测节点左方的共面节点、位于所述预测节点前方的共面节点、位于所述预测节点下方的共面节点、位于所述预测节点右方的共面节点、位于所述预测节点后方的共面节点、位于所述预测节点上方的共面节点;
    或者,
    所述第三目标节点包括:位于所述当前节点左方的共面节点对应的预测节点、位于所述当前节点前方的共面节点对应的预测节点、位于所述当前节点下方的共面节点对应的预测节点、位于所述当前节点右方的共面节点对应的预测节点、位于所述当前节点后方的共面节点对应的预测节点、位于所述当前节点上方的共面节点对应的预测节点。
  34. 根据权利要求26或30所述的方法,其中,所述根据所述上下文指示信息,确定目标上下文信息,包括:
    获取所述当前节点的第一上下文指示信息和所述当前节点的第二上下文指示信息;
    根据所述第一上下文指示信息和所述第二上下文指示信息,确定所述目标上下文信息。
  35. 根据权利要求34所述的方法,其中,所述根据所述第一上下文指示信息和所述第二上下文指示信息,确定所述目标上下文信息,包括:
    根据所述第一上下文指示信息和所述第二上下文指示信息进行上下文映射处理,得到新的上下文信息;
    根据所述新的上下文信息,确定所述目标上下文信息。
  36. 根据权利要求35所述的方法,其中,所述根据所述上下文指示信息,确定目标上下文信息,包括:
    确定所述当前节点的参考上下文信息;
    根据所述第一上下文指示信息、所述第二上下文指示信息和所述参考上下文信息,确定所述目标上下文信息。
  37. 根据权利要求36所述的方法,其中,所述确定所述当前节点的参考上下文信息,包括下述至少一项:
    根据所述邻域节点的占位信息进行预测,确定所述当前节点的平面位置信息的预测值,且所述预测值包括下述其中一项:低平面、高平面和无法预测;
    确定与所述当前节点在相同划分深度以及相同坐标下的节点和所述当前节点之间的空间距离,且所述空间距离满足下述其中一项:近距离和远距离;
    确定与所述当前节点在相同划分深度以及相同坐标下的节点是否为一个平面,若所述节点为一个平 面,则确定所述节点的平面位置;
    确定所述当前节点的坐标维度信息。
  38. 根据权利要求20所述的方法,其中,所述方法还包括:
    确定所述预测节点的占位信息;
    根据所述预测节点的占位信息,确定所述预测节点的平面结构信息;
    基于所述预测节点的平面结构信息,确定所述当前节点在预设方向上是否启动平面编码模式。
  39. 根据权利要求38所述的方法,其中,所述基于所述预测节点的平面结构信息,确定所述当前节点在预设方向上是否启动平面编码模式,包括:
    获取所述当前节点的参考信息;
    根据所述预测节点的平面结构信息和所述当前节点的参考信息,确定所述当前节点在预设方向上是否启动平面编码模式。
  40. 一种码流,其中,所述码流是根据待编码信息进行比特编码生成的;其中,所述待编码信息至少包括:当前节点的平面位置信息。
  41. 一种编码器,所述编码器包括第一确定单元和编码单元;其中,
    所述第一确定单元,配置为基于当前节点在预测帧中对应的预测节点,确定所述当前节点的预设节点的平面结构信息,其中,所述预设节点包括所述预测节点和所述预测帧中的至少一个目标节点;根据所述预设节点的平面结构信息,确定所述当前节点的上下文指示信息;根据所述上下文指示信息,确定目标上下文信息;以及确定所述当前节点的平面位置信息;
    所述编码单元,配置为基于所述目标上下文信息对所述当前节点的平面位置信息进行编码,将所得到的编码比特写入码流。
  42. 一种编码器,所述编码器包括第一存储器和第一处理器;其中,
    所述第一存储器,用于存储能够在所述第一处理器上运行的计算机程序;
    所述第一处理器,用于在运行所述计算机程序时,执行如权利要求20至39中任一项所述的方法。
  43. 一种解码器,所述解码器包括第二确定单元和解码单元;其中,
    所述第二确定单元,配置为基于当前节点在预测帧中对应的预测节点,确定所述当前节点的预设节点的平面结构信息,其中,所述预设节点包括所述预测节点和所述预测帧中的至少一个目标节点;根据所述预设节点的平面结构信息,确定所述当前节点的上下文指示信息;根据所述上下文指示信息,确定目标上下文信息;
    所述解码单元,配置为基于所述目标上下文信息解码码流,确定所述当前节点的平面位置信息。
  44. 一种解码器,所述解码器包括第二存储器和第二处理器;其中,
    所述第二存储器,用于存储能够在所述第二处理器上运行的计算机程序;
    所述第二处理器,用于在运行所述计算机程序时,执行如权利要求1至19中任一项所述的方法。
  45. 一种计算机可读存储介质,其中,所述计算机可读存储介质存储有计算机程序,所述计算机程序被执行时实现如权利要求1至19中任一项所述的方法、或者实现如权利要求20至39中任一项所述的方法。
PCT/CN2023/070931 2023-01-06 2023-01-06 编解码方法、码流、编码器、解码器以及存储介质 WO2024145910A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/CN2023/070931 WO2024145910A1 (zh) 2023-01-06 2023-01-06 编解码方法、码流、编码器、解码器以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2023/070931 WO2024145910A1 (zh) 2023-01-06 2023-01-06 编解码方法、码流、编码器、解码器以及存储介质

Publications (1)

Publication Number Publication Date
WO2024145910A1 true WO2024145910A1 (zh) 2024-07-11

Family

ID=91803539

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2023/070931 WO2024145910A1 (zh) 2023-01-06 2023-01-06 编解码方法、码流、编码器、解码器以及存储介质

Country Status (1)

Country Link
WO (1) WO2024145910A1 (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112565764A (zh) * 2020-12-03 2021-03-26 西安电子科技大学 一种点云几何信息帧间编码及解码方法
CN114008997A (zh) * 2019-06-28 2022-02-01 黑莓有限公司 基于八叉树的点云编码中的平面模式的上下文确定
US20220108492A1 (en) * 2020-10-06 2022-04-07 Qualcomm Incorporated Gpcc planar mode and buffer simplification
WO2022126326A1 (zh) * 2020-12-14 2022-06-23 Oppo广东移动通信有限公司 点云编解码方法、编码器、解码器以及计算机存储介质
CN115315724A (zh) * 2020-04-08 2022-11-08 高通股份有限公司 基于几何的点云压缩的角模式简化
CN115529463A (zh) * 2020-06-24 2022-12-27 北京小米移动软件有限公司 编码和解码方法、编码器、解码器以及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114008997A (zh) * 2019-06-28 2022-02-01 黑莓有限公司 基于八叉树的点云编码中的平面模式的上下文确定
CN115315724A (zh) * 2020-04-08 2022-11-08 高通股份有限公司 基于几何的点云压缩的角模式简化
CN115529463A (zh) * 2020-06-24 2022-12-27 北京小米移动软件有限公司 编码和解码方法、编码器、解码器以及存储介质
US20220108492A1 (en) * 2020-10-06 2022-04-07 Qualcomm Incorporated Gpcc planar mode and buffer simplification
CN112565764A (zh) * 2020-12-03 2021-03-26 西安电子科技大学 一种点云几何信息帧间编码及解码方法
WO2022126326A1 (zh) * 2020-12-14 2022-06-23 Oppo广东移动通信有限公司 点云编解码方法、编码器、解码器以及计算机存储介质

Similar Documents

Publication Publication Date Title
WO2022121648A1 (zh) 点云数据编码方法、解码方法、设备、介质及程序产品
WO2022121650A1 (zh) 点云属性的预测方法、编码器、解码器及存储介质
WO2024145910A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
WO2022188582A1 (zh) 点云中邻居点的选择方法、装置及编解码器
WO2024145904A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
WO2024148598A1 (zh) 编解码方法、编码器、解码器以及存储介质
WO2024212038A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
WO2024212045A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
WO2024207456A1 (zh) 编解码方法、编码器、解码器、码流以及存储介质
WO2024212042A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
WO2024216477A1 (zh) 编解码方法、编码器、解码器、码流以及存储介质
WO2024216476A1 (zh) 编解码方法、编码器、解码器、码流以及存储介质
WO2024207481A1 (zh) 编解码方法、编码器、解码器、码流以及存储介质
WO2024216479A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
WO2024119518A1 (zh) 编解码方法、解码器、编码器、码流及存储介质
WO2024174092A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
WO2024216649A1 (zh) 点云编解码方法、编码器、解码器、码流及存储介质
WO2024212114A1 (zh) 点云编解码方法、装置、设备及存储介质
WO2024197680A1 (zh) 点云编解码方法、装置、设备及存储介质
WO2023173238A1 (zh) 编解码方法、码流、编码器、解码器以及存储介质
WO2024178632A1 (zh) 点云编解码方法、装置、设备及存储介质
WO2024145933A1 (zh) 点云编解码方法、装置、设备及存储介质
WO2024065269A1 (zh) 点云编解码方法、装置、设备及存储介质
WO2024212113A1 (zh) 点云编解码方法、装置、设备及存储介质
WO2024216493A1 (zh) 点云编解码方法、编码器、解码器、码流及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23914068

Country of ref document: EP

Kind code of ref document: A1