WO2015139624A1 - 一种视频数据编码、解码的方法和装置 - Google Patents

一种视频数据编码、解码的方法和装置 Download PDF

Info

Publication number
WO2015139624A1
WO2015139624A1 PCT/CN2015/074421 CN2015074421W WO2015139624A1 WO 2015139624 A1 WO2015139624 A1 WO 2015139624A1 CN 2015074421 W CN2015074421 W CN 2015074421W WO 2015139624 A1 WO2015139624 A1 WO 2015139624A1
Authority
WO
WIPO (PCT)
Prior art keywords
information group
information
basic
redundant
group
Prior art date
Application number
PCT/CN2015/074421
Other languages
English (en)
French (fr)
Inventor
瑟乔夫⋅马克西姆
宋锦
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to KR1020167024055A priority Critical patent/KR101959319B1/ko
Priority to BR112016021321-1A priority patent/BR112016021321B1/pt
Priority to JP2016556710A priority patent/JP6268559B2/ja
Priority to EP15765911.1A priority patent/EP3096521A4/en
Publication of WO2015139624A1 publication Critical patent/WO2015139624A1/zh
Priority to US15/258,450 priority patent/US10313703B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/68Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving the insertion of resynchronisation markers into the bitstream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding

Definitions

  • the present invention relates to the field of coding and decoding, and in particular, to a method and apparatus for encoding and decoding video data.
  • RTP Real-time Transport Protocol
  • UDP User Datagram Protocol
  • the video is composed of a plurality of image frames.
  • UDP is an unreliable transmission protocol. During the transmission process, when the network is blocked, packet loss is likely to occur, which affects the quality of the video reconstructed by the decoder.
  • each video display picture is referred to as an image
  • an image obtained by progressive scanning may also be referred to as one frame for a field obtained by interlacing one image.
  • One frame may contain one or more stripes, and may also include one or more slices, with the difference that the stripes are divided in the order of basic coding units, and the slices are divided by image regions.
  • the frame is used as a processing unit, and specifically includes: encoding, in the encoding process of the video data, each image frame to generate a basic frame, and simultaneously generating one or more redundant frames corresponding to the basic frame; And redundant strips are packaged into different packets for transmission.
  • the decoding end can perform decoding by parsing the header information of the current frame to obtain attribute information of the current frame, and the attribute information of the current frame is used to represent that the current frame is a basic frame or a redundant frame; if the current frame is a redundant frame If the basic frame corresponding to the current frame is a normal frame (that is, no packet is lost, and the data of the reconstructed frame is complete), the current redundant frame is discarded; if the current frame is a redundant frame and the basic frame corresponding to the current frame is an abnormal frame. (ie, the packet has been lost, cannot be decoded normally), then the header information of the basic frame is copied to the header information location of the current frame, and other information of the current frame is continued to be parsed, thereby reconstructing the video using the redundant frame.
  • the header information of the basic frame is copied to the header information location of the current frame, and other information of the current frame is continued to be parsed, thereby reconstructing the video using the redundant frame.
  • the above decoding method requires that the basic frame and its corresponding redundant frame are adjacent to each other in the decoding position. Otherwise, the correspondence between the basic frame and the redundant frame cannot be reflected, and the possibility that the basic frame and the redundant frame are simultaneously lost is increased, and the basic Frames must arrive at the decoder before redundant frames, reducing transmission flexibility.
  • the method and device for encoding and decoding video data provided by the embodiments of the present invention can reduce the probability of simultaneous loss of basic frames and redundant frames, and enhance the robustness and flexibility of transmission.
  • An embodiment of the present invention provides a method for encoding video data, including:
  • the basic information group includes first data information, indicating whether the information group to be encoded is a basic information group or a redundant information group, and the location of the basic information group information;
  • the basic information group and the redundant information group are programmed into a code stream.
  • An embodiment of the present invention further provides a method for decoding video data, including:
  • the basic information group corresponding to the to-be-decoded information group is obtained, and the basic information group includes first data information, indicating whether the information group to be encoded is a basic information group or a redundant information group, and the basic information group location information;
  • a redundant information group corresponding to the to-be-decoded information group is obtained, and the redundant information group includes second data information, where the location information of the redundant information group indicates whether the information group to be encoded is a basic information group or a redundancy
  • the indication information of the information group and the location relationship information of the redundant information group and the basic information group, and the location relationship information of the redundant information group and the basic information group is used to derive the basic information group location information;
  • An embodiment of the present invention further provides an apparatus for encoding video data, including a processor, where the processor is configured to:
  • the basic information group includes first data information, indicating whether the information group to be encoded is a basic information group or a redundant information group, and the location of the basic information group information;
  • the redundant information group includes the second data Information, the location information of the redundant information group, indicating whether the information group to be encoded is a basic information group or a redundant information group, and location relationship information between the redundant information group and the basic information group;
  • the basic information group and the redundant information group are programmed into a code stream.
  • An embodiment of the present invention further provides an apparatus for decoding video data, including a processor, where the processor is configured to:
  • the basic information group corresponding to the to-be-decoded information group is obtained, and the basic information group includes first data information, indicating whether the information group to be encoded is a basic information group or a redundant information group, and the basic information group location information;
  • a redundant information group corresponding to the to-be-decoded information group is obtained, and the redundant information group includes second data information, where the location information of the redundant information group indicates whether the information group to be encoded is a basic information group or a redundancy
  • the indication information of the information group and the location relationship information of the redundant information group and the basic information group, and the location relationship information of the redundant information group and the basic information group is used to derive the basic information group location information;
  • the coding and decoding method and apparatus of the foregoing solution allow the basic frame and the corresponding redundant frame to maintain a certain interval in the code stream, thereby reducing the possibility that the basic frame and the corresponding redundant frame are simultaneously lost, and the enhanced The robustness of the transmission, and the decoding end no longer has requirements for decoding the order of the basic frame and the redundant frame, improving the flexibility of transmission.
  • FIG. 1 is a flowchart of a method for encoding video data according to Embodiment 1 of the present invention
  • FIG. 2 is a flowchart of a method for decoding video data according to Embodiment 2 of the present invention
  • FIG. 3 is a flowchart of another method for decoding video data according to Embodiment 3 of the present invention.
  • FIG. 4 is a flowchart of another method for decoding video data according to Embodiment 4 of the present invention.
  • FIG. 5 is a flowchart of another method for decoding video data according to Embodiment 5 of the present invention.
  • FIG. 6 is a flowchart of another method for decoding video data according to Embodiment 6 of the present invention.
  • FIG. 7 is a schematic structural diagram of an apparatus for encoding video data according to Embodiment 7 of the present invention.
  • FIG. 8 is a schematic structural diagram of an apparatus for decoding video data according to Embodiment 8 of the present invention.
  • FIG. 9 is a schematic diagram of a syntax structure of a video encoding method according to Embodiment 1 of the present invention.
  • FIG. 10 is a schematic diagram of a frame structure of a video encoding method according to Embodiment 1 of the present invention.
  • a method for encoding video data includes:
  • Step 102 The frame to be encoded is processed according to a specified step of a video compression coding standard, and generally includes prediction, transform, quantization, entropy coding, filtering, etc., and the video compression standard may be H.264, H.265, or SVC (scalable video). Coding, scalable coding, etc., to generate encoded data information of a basic frame, including prediction mode information, block mode information, transform mode information, quantization parameter information, filter parameters, and residual information.
  • a video compression coding standard generally includes prediction, transform, quantization, entropy coding, filtering, etc.
  • the video compression standard may be H.264, H.265, or SVC (scalable video). Coding, scalable coding, etc., to generate encoded data information of a basic frame, including prediction mode information, block mode information, transform mode information, quantization parameter information, filter parameters, and residual information.
  • the POC represents the order in which the encoded frames are displayed in the video sequence. Since the basic frame and the redundant frame correspond to the same encoded frame, in order to avoid their POC being the same, for example, if there is at most one corresponding one for each basic frame. For redundant frames, you can limit the POC of the basic frame to consecutive even numbers. For example: 0, 2, 4, 6... The POC of the redundant frame is limited to an odd number. According to the needs of the actual application, it can be a continuous odd number, for example: 1, 3, 5, 7 ... may also be discontinuous odd numbers, for example, the POC of the redundant frame may be set to the POC of the corresponding basic frame plus one.
  • the network abstraction layer unit is composed of a network abstraction layer unit header and a data part.
  • the network abstraction layer unit header contains a network abstraction layer unit type, and the network abstraction layer unit type determines the type of data included in the network abstraction layer unit.
  • the PREFIX_SEI_NUT (Supplemental Enhanced Information Prefix) mentioned later is one of the types of network abstract header units. For example, a flag may be added to the PREFIX_SEI_NUT. If the value A is written, the frame is a basic frame. If the value B is written, the frame is a redundant frame. For example,
  • the frame is a redundant frame; if the network abstraction layer unit type is a supplementary enhanced information prefix, And if the information payload type is 136, the frame is a basic frame.
  • the frame is a redundant frame; if the network abstraction layer unit type is a supplementary enhanced information prefix, and the information payload type is 135, and the frame type is 1, the frame is a basic frame.
  • the frame is a redundant frame; if the network abstraction layer unit type is a supplementary enhanced information suffix, and if the information payload type is 135, the frame Is the basic frame.
  • 105 determine a positional relationship between the redundant frames corresponding to the frame for the frame.
  • the POC of the current basic frame is represented as currPicOrderCntVal
  • the POC of the corresponding redundant frame is represented as rdnPicOrderCntVal
  • Pic_order_cnt_delta can be a positive value or a negative value, which represents the sequence relationship between the basic frame and the corresponding redundant frame, that is, it can be represented by a positive or negative sign.
  • the absolute value of the value can range from 0 to 256. If the redundant frame is not generated, the positional relationship may be set according to actual needs, and may be set to 1.
  • GOP relationship it is determined whether the basic frame and the corresponding redundant frame belong to the same GOP; if not belonging to the same GOP, the number of intervals of the GOP is determined.
  • Example 1 setting the basic frame and the corresponding redundant frame belong to the same GOP as gop_flag, belonging to the same GOP, then gop_flag is 0, otherwise it is 1; setting the basic frame and the corresponding redundant frame are separated by gop_circle GOP, gop_circle can be positive or negative; then the actual position difference between the basic frame and the corresponding redundant frame is pic_order_cnt_delta+gop_circle x gop_flag;
  • Example 2 Setting the basic frame and the corresponding redundant frame are separated by gop_circle GOPs, and gop_circle is an integer; then the actual position difference between the basic frame and the corresponding redundant frame is pic_order_cnt_delta+gop_circle.
  • the display order of the video frames ie, POC
  • the actual coding order that characterizes the order of processing each frame of data may be used as the representation of the position
  • the writing order in which the encoded data is written in binary form into the code stream is not limited as a representation of the position.
  • the frame to be encoded is processed according to a specified step of a video compression coding standard, and generally includes prediction, transform, quantization, entropy coding, filtering, etc.
  • the video compression standard may be H.264, H.265, or SVC, but
  • the basic frame corresponding to the compression uses the same compression standard to generate encoded data information of the redundant frame, including prediction mode information, block mode information, transform mode information, quantization parameter information, filtering parameters, and residual information, and the like.
  • Phase The generation information of the corresponding basic frames may be the same or different.
  • step 107 Determine the POC for the frame, and the method for determining the POC is consistent with step 103.
  • a flag identifying the redundant frame for the frame is a flag bit may be added in the PREFIX_SEI_NUT. If the value A is written, the frame is a basic frame. If the value B is written, the frame is a redundant frame, and the redundant frame flag is determined and step 104. be consistent.
  • Pic_order_cnt_delta CurrPicOrderCntVal–rdnPicOrderCntVal.
  • Pic_order_cnt_delta can be a positive value or a negative value, representing the order relationship between the redundant frame and the corresponding basic frame.
  • the absolute value of the value can be 0 to 256. If the basic frame is not generated, the positional relationship may be set according to actual needs, and may be set to 1.
  • the GOP relationship between the redundant frame and the corresponding basic frame is also determined.
  • prm_poc_reset_flag indicates whether the basic frame is an instant refresh frame, that is, a POC reset of the type of frame is encountered.
  • Step 111 Encode the data information, the POC information, the label information, the encoded data information of the redundant frame, the POC information, and the label information of the basic frame into the code stream according to the coding sequence, where the sequence of the basic frame and the redundant frame is not encoded. limited.
  • a typical grammatical structure in the first embodiment is included.
  • the scheme is coded to allow the basic frame and the corresponding redundant frame to maintain a certain interval in the code stream, which reduces the possibility of simultaneous loss of the basic frame and the corresponding redundant frame, and enhances the robustness of the transmission.
  • Sex, and the decoding end is no longer ordered for decoding basic frames and redundant frames. There is a requirement to increase the flexibility of transmission.
  • the method for decoding video data provided by this embodiment corresponds to the above method for encoding video data. As shown in Figure 2, it includes:
  • the decoding order of the basic frame is before the corresponding redundant frame, the basic frame is not missing, and the current frame to be decoded is the basic frame.
  • the nal_unit_type may be parsed. If the nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If the payloadType is the value A, the frame belongs to the basic frame, and the specific example corresponds to the step 104.
  • 203 According to the code stream information, optionally, parsing a positional relationship between the frame and a redundant frame corresponding to the frame, in a special case, when the basic frame and the corresponding redundant frame are allowed to be in different GOPs, To describe the positional relationship, a GOP relationship between the basic frame and the corresponding redundant frame is also determined, corresponding to step 105. The information obtained in this step can be used as additional information for special decoding requirements.
  • step 205 Parsing the encoded data information of the frame according to a video compression coding standard, and corresponding to step 102.
  • the method for decoding video data provided in this embodiment corresponds to the method for encoding video data in the first embodiment. As shown in Figure 3, it includes:
  • the decoding order of the basic frame is before the corresponding redundant frame, the basic frame is not deleted, and the current frame to be decoded is a redundant frame.
  • nal_unit_type is parsed. If the nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If the payloadType is the value B, the frame belongs to the redundant frame. The specific example corresponds to step 108.
  • step 109 Parse the positional relationship between the frame and the basic frame corresponding to the frame.
  • step 304 Check if the position obtained in step 303 has a basic frame that has been generated.
  • the method for decoding video data provided in this embodiment corresponds to the method for encoding video data in the first embodiment. As shown in Figure 4, it includes:
  • the decoding order of the basic frame is before the corresponding redundant frame, the basic frame is missing, and the current frame to be decoded is a redundant frame.
  • the nal_unit_type may be parsed. If the nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If the payloadType is the value B, the frame belongs to the redundant frame, and the specific example corresponds to step 108.
  • step 403 Parse the positional relationship between the frame and the basic frame corresponding to the frame.
  • the allowed redundant frame and the corresponding basic frame are located in different GOPs, in order to describe the positional relationship, it is determined.
  • the GOP relationship between the redundant frame and the corresponding basic frame corresponds to step 109. This step can determine the location of the basic frame corresponding to the frame.
  • step 404 Check if the position obtained in step 303 has a basic frame that has been generated.
  • the POC will be the POC of the decoded frame.
  • 408 Reconstruct the decoded frame according to the information obtained by parsing the frame code stream.
  • the decoded frame is outputted in the order specified by the POC.
  • the method for decoding video data provided in this embodiment corresponds to the method for encoding video data in the first embodiment. As shown in Figure 5, it includes:
  • the decoding order of the redundant frame is before the corresponding basic frame, and the current frame to be decoded is a redundant frame.
  • the nal_unit_type may be parsed. If the nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If the payloadType is the value B, the frame belongs to the redundant frame, and the specific example corresponds to step 108.
  • step 503 Parse the positional relationship between the frame and the basic frame corresponding to the frame.
  • the allowed redundant frame and the corresponding basic frame are located in different GOPs, in order to describe the positional relationship, it is determined.
  • the GOP relationship between the redundant frame and the corresponding basic frame corresponds to step 109. This step can determine the location of the basic frame corresponding to the frame.
  • step 504 Check if the position obtained in step 503 has a basic frame that has been generated.
  • step 505 If the basic frame is not generated, parsing the attribute information of the basic frame corresponding to the frame, and corresponding to step 110. This attribute information will be used as attribute information of the decoded frame.
  • POC 506 Parse the POC of the frame, and correspond to step 107.
  • the POC will be the POC of the decoded frame.
  • step 507 Parsing the encoded data information of the frame according to the video compression coding standard, and corresponding to step 106.
  • 508 Reconstruct the decoded frame according to the information obtained by parsing the frame code stream.
  • the decoded frame is stored in the order specified by the POC.
  • the decoded frame is output in the order specified by the POC.
  • the method for decoding video data provided by this embodiment corresponds to the above method for encoding video data. As shown in Figure 6, it includes:
  • the decoding order of the redundant frame is before the corresponding basic frame, and the current frame to be decoded is the basic frame.
  • the nal_unit_type may be parsed. If the nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If the payloadType is the value A, the frame belongs to the basic frame, and the specific example corresponds to the step 104.
  • step 603 According to the code stream information, optionally, parsing a positional relationship between the frame and a redundant frame corresponding to the frame, in a special case, when the basic frame and the corresponding redundant frame are allowed to be in different GOPs, To describe the positional relationship, a GOP relationship between the basic frame and the corresponding redundant frame is also determined, corresponding to step 105. The information obtained in this step can be used as additional information for special decoding requirements.
  • Step 605 Parsing the encoded data information of the frame according to a video compression coding standard, and corresponding to step 102.
  • 606 Reconstruct the decoded frame according to the information obtained by parsing the frame code stream.
  • 607 Output the decoded frame in the order specified by the POC.
  • the decoding methods provided in Embodiments 2 to 6 allow the basic frame and the corresponding redundant frame to be coded because the code stream carries the positional relationship information between the basic frame and the corresponding redundant frame.
  • the position in the stream is kept at a certain interval, which reduces the possibility of simultaneous loss of the basic frame and the corresponding redundant frame, enhances the robustness of the transmission, and the decoding end does not have the order for decoding the basic frame and the redundant frame.
  • Requirements increase the flexibility of transmission.
  • a device 1110 for encoding video data may specifically include a general-purpose processor (such as a CPU) or a dedicated processor (such as a GPU).
  • the apparatus 1110 includes a processor 1111, a transmitting circuit 1114, a memory 1112, and a bus 1113.
  • the transmitting circuit may be configured to send the encoded code stream to the outside, the memory is used to store the data obtained during the processing, and the bus is used to connect the devices to carry the communication.
  • the processor 1111 may be configured to:
  • the video compression standard may be H.264, H.265 or SVC, etc., and is used to process the to-be-coded frame according to the specified steps of the video compression coding standard, and generally includes prediction, transform, quantization, entropy coding, and filtering.
  • the encoded data information of the basic frame is generated, including prediction mode information, block mode information, transform mode information, quantization parameter information, filtering parameters, residual information, and the like.
  • the POC represents the order in which the encoded frames are displayed in the video sequence. Since the basic frame and the redundant frame correspond to the same encoded frame, in order to avoid their POC being the same, for example, if there is at most one corresponding one for each basic frame. For redundant frames, it is possible to limit the POC of the basic frame to a continuous even number, and the POC of the redundant frame is limited to an odd number. Specifically, the POC of the redundant frame may be set to the POC of the corresponding basic frame plus one.
  • a flag bit may be added to PREFIX_SEI_NUT. If the value A is written, the frame is a basic frame, and if the value B is written, the frame is a redundant frame.
  • the method further determines a positional relationship between the redundant frames corresponding to the frame for the frame.
  • the POC of the current basic frame is represented as currPicOrderCntVal
  • the POC of the corresponding redundant frame is represented as rdnPicOrderCntVal
  • the POC difference between the two frames is represented as pic_order_cnt_delta.
  • pic_order_cnt_delta rdnPicOrderCntVal–currPicOrderCntVal
  • Pic_order_cnt_delta can be a positive value or a negative value, representing the sequence relationship between the basic frame and the corresponding redundant frame.
  • the absolute value of the value can be 0 to 256. If the redundant frame is not generated, the positional relationship may be set according to actual needs, and may be set to 1.
  • the GOP relationship between the basic frame and the corresponding redundant frame is also determined.
  • the frame to be encoded is further processed according to a specified step of the video compression coding standard, and generally includes prediction, transform, quantization, entropy coding, filtering, etc.
  • the video compression standard may be H.264 or H.265. Or SVC, etc., but generally the basic frame corresponding to compression
  • generating encoded data information of the redundant frame including prediction mode information, block mode information, transform mode information, quantization parameter information, filtering parameters, residual information, and the like, and corresponding basic frame generation information Can be the same or different.
  • step 103 Also used to determine the POC for the frame, the method of determining the POC is consistent with step 103.
  • a flag bit may be added in the PREFIX_SEI_NUT. If the value A is written, the frame is a basic frame. If the value B is written, the frame is a redundant frame, and the redundant frame flag is determined and step 104. be consistent.
  • Pic_order_cnt_delta can be a positive value or a negative value, representing the order relationship between the redundant frame and the corresponding basic frame.
  • the absolute value of the value can be 0 to 256. If the basic frame is not generated, the positional relationship may be set according to actual needs, and may be set to 1.
  • the GOP relationship between the redundant frame and the corresponding basic frame is also determined.
  • prm_poc_reset_flag indicates whether the basic frame is an instant refresh frame, that is, a POC reset of the type of frame is encountered.
  • It is further configured to encode the encoded data information, the POC information, the indication information, the encoded data information of the redundant frame, the POC information, and the indication information of the basic frame into the code stream according to the coding sequence, where the sequence order of the basic frame and the redundant frame are sequentially encoded. No limit.
  • the device for encoding video data allows a basic frame and a corresponding redundant frame to maintain a certain interval in the code stream, thereby reducing the possibility that the basic frame and the corresponding redundant frame are simultaneously lost.
  • the robustness of the transmission is enhanced, and the decoding end has no requirement for decoding the order of the basic frame and the redundant frame, which improves the transmission flexibility.
  • an apparatus 1000 for decoding video data may specifically include a general-purpose processor (such as a CPU), or A dedicated processor (e.g., GPU) for performing the method of decoding video data shown in FIG. 2, the apparatus 1000 includes a processor 1001, a receiving circuit 1004, a memory 1002, and a bus 1003.
  • the receiving circuit can be configured to receive the coded stream that has been encoded, the memory is used to store the data obtained during the processing, the bus is used to connect the devices to carry the communication, and the device is configured to perform the decoding of the video data shown in FIG.
  • the processor 1001 can be configured to:
  • nal_unit_type can be parsed. If nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If payloadType is the value A, the frame belongs to the basic frame.
  • the frame is further configured to determine, according to the code stream information, a positional relationship between the frame and a redundant frame corresponding to the frame, in a special case, when the basic frame and the corresponding redundant frame are allowed to be located in different GOPs.
  • the GOP relationship between the basic frame and the corresponding redundant frame is also determined.
  • An apparatus for decoding video data includes a processor, which is configured to perform the method for decoding video data, as shown in FIG.
  • nal_unit_type can be parsed. If nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If payloadType is the value B, the frame belongs to a redundant frame.
  • An apparatus for decoding video data includes a processor, which is configured to perform the method for decoding video data shown in FIG. 4, where the processor is specifically configured to:
  • nal_unit_type can be parsed. If nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If payloadType is the value B, the frame belongs to a redundant frame.
  • the basic frame is not generated, it is used to determine attribute information of the basic frame corresponding to the frame.
  • the second processing unit 1008 is configured to reconstruct the decoded frame according to the information obtained by parsing the frame code stream.
  • An apparatus for decoding video data includes a processor for performing the method for decoding video data shown in FIG. 5, where the processor is specifically configured to:
  • nal_unit_type can be parsed. If nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If payloadType is the value B, the frame belongs to a redundant frame.
  • the basic frame is not generated, it is used to determine attribute information of the basic frame corresponding to the frame.
  • An apparatus for decoding video data includes a processor, which is configured to perform the method for decoding video data shown in FIG. 6.
  • the processor is specifically configured to:
  • nal_unit_type can be parsed. If nal_unit_type is PREFIX_SEI_NUT, the payloadType is parsed. If payloadType is the value A, the frame belongs to the basic frame.
  • the third determining unit 1203 is configured to determine a positional relationship between the frame and a redundant frame corresponding to the frame, in a special case, when the basic frame and the corresponding redundant frame are allowed to be located. In the case of different GOPs, in order to describe the positional relationship, the GOP relationship between the basic frame and the corresponding redundant frame is also determined.
  • the decoding apparatus provided in Embodiments 2 to 6 of the present invention, since the positional relationship information between the basic frame and the corresponding redundant frame can be decoded, allows the position of the basic frame and the corresponding redundant frame to remain constant in the code stream.
  • the interval reduces the possibility of simultaneous loss of the basic frame and the corresponding redundant frame, enhances the robustness of the transmission, and the decoding end no longer has requirements for decoding the sequence of the basic frame and the redundant frame, thereby improving the flexibility of transmission. Sex.
  • the generated and the The step of the basic information group corresponding to the coded information group and the redundant information group corresponding to the to-be-coded information group is not in the order, and the embodiment of the present invention does not specifically limit the basic information corresponding to the to-be-coded information group.
  • the step of the information group must be earlier than the step of generating the redundant information group corresponding to the information group to be encoded has no sequence.
  • the embodiment of the present invention does not limit the sequence of obtaining the basic information group corresponding to the to-be-decoded information group and parsing the redundant information group corresponding to the to-be-decoded information group.
  • the disclosed system, apparatus, and method may be implemented in other manners.
  • the device embodiments described above are merely illustrative.
  • the division of the unit is only a logical function division.
  • there may be another division manner for example, multiple units or components may be combined or Can be integrated into another system, or some features can be ignored or not executed.
  • the mutual coupling or direct coupling or communication connection shown or discussed may be an indirect coupling or communication connection through some interface, device or unit, and may be in an electrical, mechanical or other form.
  • the units described as separate components may or may not be physically separated, and the components displayed as units may or may not be physical units, that is, may be located in one place, or may be distributed to multiple network units. Some or all of the units may be selected according to actual needs to achieve the purpose of the solution of the embodiment.
  • each functional unit in each embodiment of the present invention may be integrated into one processing unit, or each unit may be physically included separately, or two or more units may be integrated into one unit.
  • the above integrated unit can be implemented in the form of hardware or in the form of hardware plus software functional units.
  • the above-described integrated unit implemented in the form of a software functional unit can be stored in a computer readable storage medium.
  • the software functional units described above are stored in a storage medium and include instructions for causing a computer device (which may be a personal computer, server, or network device, etc.) to perform portions of the steps of the methods described in various embodiments of the present invention.
  • the foregoing storage medium includes: a U disk, a mobile hard disk, a ROM (Read-Only Memory), a RAM (Random Access Memory), a disk or an optical disk, and the like, which can store program codes. .

Abstract

本发明公开了一种视频数据编码、解码的方法和装置,涉及编码解码术领域,能够提高传输灵活性,增强了鲁棒性。本发明提供的编码方法包括:确定待编码视频序列中的一待编码信息组;生成与所述待编码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;生成与所述待编码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息;将所述基本信息组和所述冗余信息组编入码流。

Description

一种视频数据编码、解码的方法和装置 技术领域
本发明涉及编码解码术领域,尤其涉及一种视频数据编码、解码的方法和装置。
背景技术
在视讯通信系统中,一般使用RTP(Real-time Transport Protocol,实时传输协议)对视频数据进行打包,生成RTP数据包;再使用UDP(User Datagram Protocol,用户数据报协议)传输RTP数据包。其中,视频由多个图像帧构成。但是,UDP是非可靠的传输协议,在传输过程中,当网络阻塞时,容易出现丢包,从而影响解码端重构的视频的质量。
为了解决上述问题,可以在视频数据的编码过程中引入冗余图像技术。在视频编码压缩技术中,每一个视频显示画面被称为图像,相对于隔行扫描一幅图像得到的一场而言,也可以称逐行扫描的一幅图像为一帧。一帧中可以包含一个或多个条带,也可以包含一个或多个片,区别在于条带是以基本编码单元的顺序划分的,而片是以图像区域划分的。仅以帧为处理单位举例,具体可以包括:在视频数据的编码过程中,对每个图像帧进行编码产生基本帧,同时产生与基本帧对应的一个或者多个冗余帧;将基本条带和冗余条带封装到不同的分组进行传输。这样,解码端可以通过以下方法进行解码:解析当前帧的头信息,得到当前帧的属性信息,当前帧的属性信息用于表征当前帧为基本帧或者冗余帧;若当前帧为冗余帧且当前帧对应的基本帧为正常帧(即未丢包,重构该帧的数据完整),则丢弃当前冗余帧;若当前帧为冗余帧且当前帧对应的基本帧为非正常帧(即已丢包,无法正常解码),则拷贝该基本帧的头信息至当前帧的头信息位置,并继续解析当前帧的其他信息,从而使用冗余帧重构视频。
上述解码方法要求基本帧与其所对应的冗余帧在解码位置上相邻,否则无法反映基本帧与冗余帧的对应关系,使基本帧和冗余帧同时丢失的可能性增大,同时基本帧必须在冗余帧之前到达解码端,降低了传输的灵活性。
发明内容
本发明实施例提供的视频数据编码、解码的方法和装置,能够降低基本帧和冗余帧同时丢失的概率,增强了传输的鲁棒性和灵活性。
本发明的实施例提供一种视频数据的编码方法,包括:
确定待编码视频序列中的一待编码信息组;
生成与所述待编码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;
生成与所述待编码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息;
将所述基本信息组和所述冗余信息组编入码流。
本发明实施例还提供一种视频数据的解码方法,包括:
获取待解码码流,确定一待解码信息组;
解析得到与所述待解码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;
解析得到与所述待解码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息,所述所述冗余信息组与所述基本信息组的位置关系信息用于推导所述基本信息组的位置信息;
基于所述解析得到的基本信息组或者所述解析得到的冗余信息组获取所述已解码信息组,所述已解码信息组用于已编码视频序列的重建。
本发明实施例还提供一种视频数据编码的装置,其特征在于,包括处理器,所述处理器被配置为:
确定待编码视频序列中的一待编码信息组;
生成与所述待编码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;
生成与所述待编码信息组对应的冗余信息组,冗余信息组包含第二数据 信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息;
将所述基本信息组和所述冗余信息组编入码流。
本发明实施例还提供一种视频数据解码的装置,包括处理器,所述处理器被配置为:
获取待解码码流,确定一待解码信息组;
解析得到与所述待解码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;
解析得到与所述待解码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息,所述所述冗余信息组与所述基本信息组的位置关系信息用于推导所述基本信息组的位置信息;
基于所述解析得到的基本信息组或者所述解析得到的冗余信息组获取所述已解码信息组,所述已解码信息组用于已编码视频序列的重建。
上述方案的编码、解码方法和装置,允许基本帧和所对应的冗余帧在码流中的位置保持一定的间隔,降低了基本帧和所对应的冗余帧同时丢失的可能性,增强了传输的鲁棒性,并且解码端对于解码基本帧和冗余帧的次序不再有要求,提高了传输的灵活性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的一种视频数据编码的方法的流程图;
图2为本发明实施例二提供的一种视频数据解码的方法的流程图;
图3为本发明实施例三提供的另一种视频数据解码的方法的流程图;
图4为本发明实施例四提供的另一种视频数据解码的方法的流程图;
图5为本发明实施例五提供的另一种视频数据解码的方法的流程图;
图6为本发明实施例六提供的另一种视频数据解码的方法的流程图;
图7为本发明实施例七提供的一种视频数据编码的装置的结构示意图;
图8为本发明实施例八提供的一种视频数据解码的装置的结构示意图;
图9为本发明实施例一提供的一种视频编码方法的语法结构图。
图10为本发明实施例一提供的一种视频编码方法的帧结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以已经生成三种关系,例如,A和/或B,可以表示:单独已经生成A,同时已经生成A和B,单独已经生成B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
实施例均以每一个基本帧最多只有一个相对应的冗余帧的情况具体举例说明,显然可以推广到每一个基本帧已经生成多个冗余帧的情况。
实施例一
如图1所示,为本发明实施例提供的一种视频数据编码的方法,包括:
101:从待编码编码序列中确定一待编码帧。
102:依照视频压缩编码标准的规定步骤对所述待编码帧进行处理,一般包括预测、变换、量化、熵编码、滤波等,视频压缩标准可以为H.264、H.265或者SVC(scalable video coding,可分级编码)等,生成基本帧的编码数据信息,包括预测模式信息、分块模式信息、变换模式信息、量化参数信息、滤波参数以及残差信息等。
103:为该帧确定POC(picture order count,图像顺序数)。POC代表了编码帧在视频序列中显示顺序的先后,由于基本帧和冗余帧对应了同一个编码帧,为了避免它们的POC相同,示例性的,如果每一个基本帧最多只有一个相对应的冗余帧,不妨把基本帧的POC限制为连续偶数,例如:0,2,4,6……冗余帧的POC限制为奇数,根据实际应用的需要,可以是连续奇数,例如:1,3,5,7……也可以是不连续奇数,例如:冗余帧的POC可以设定为所对应的基本帧的POC加一。
104:为该帧确定基本帧的标志。需要解释的是,如图10所示,单帧数据可以被分为不同的网络抽象层单元。网络抽象层单元由网络抽象层单元头和数据部分组成。网络抽象层单元头包含网络抽象层单元类型,网络抽象层单元类型决定了网络抽象层单元包含的数据种类。后文提到的PREFIX_SEI_NUT(补充加强信息前缀)就是网络抽象头单元类型的一种。示例性的,可以在PREFIX_SEI_NUT中添加一标志位,如果写入数值A,则该帧为基本帧,如果写入数值B,则该帧为冗余帧,具体的可以举例:
举例一:
Figure PCTCN2015074421-appb-000001
即,
如果网络抽象层单元类型是补充加强信息前缀
......
或者如果信息负载类型是135
设置冗余帧信息(信息负载大小)
或者如果信息负载类型是136
设置基本帧信息(信息负载大小)
可以解释为,
如果网络抽象层单元类型为补充加强信息前缀,且信息负载类型是135,则该帧为冗余帧;如果网络抽象层单元类型为补充加强信息前缀, 且如果信息负载类型是136,则该帧为基本帧。
举例二:
Figure PCTCN2015074421-appb-000002
即,
如果网络抽象层单元类型是补充加强信息前缀
......
或者如果信息负载类型是135
如果帧类型是0
设置冗余帧信息(信息负载大小)
否则
设置基本帧信息(信息负载大小)
可以解释为,
如果网络抽象层单元类型为补充加强信息前缀,且信息负载类型是135,且帧类型是0,则该帧为冗余帧;如果网络抽象层单元类型为补充加强信息前缀,且信息负载类型是135,且帧类型是1,则该帧为基本帧。
举例三:
Figure PCTCN2015074421-appb-000003
即,
如果网络抽象层单元类型是补充加强信息前缀
......
或者如果信息负载类型是135
设置冗余帧信息(信息负载大小)
或者如果网络抽象层单元类型是补充加强信息后缀
......
或者如果信息负载类型是135
设置基本帧信息(信息负载大小)
可以解释为,
如果网络抽象层单元类型为补充加强信息前缀,且信息负载类型是135,则该帧为冗余帧;如果网络抽象层单元类型为补充加强信息后缀,且如果信息负载类型是135,则该帧为基本帧。
105:可选的,为该帧确定与该帧所对应的冗余帧之间的位置关系。示例性的,设当前基本帧的POC表示为currPicOrderCntVal,所对应的冗余帧的POC表示为rdnPicOrderCntVal,两帧之间的POC差值表示为pic_order_cnt_delta。如果所述冗余帧已经已经生成,则位置关系pic_order_cnt_delta=rdnPicOrderCntVal–currPicOrderCntVal。pic_order_cnt_delta可以为正值,也可以为负值,代表基本帧与所对应冗余帧的先后顺序关系,也即可以用正负号来表示,取值的绝对值范围可以为0~256。如果所述冗余帧未生成,则可以根据实际需要设定位置关系,不妨设为1。
举例:
primary_pic_info(payloadSize){
pic_order_cnt_delta
}
特殊情况,当允许基本帧和所对应的冗余帧位于不同的GOP(group of picture,图片组)中时,为了描述所述位置关系,还要确定基本帧和所对应的冗余帧间的GOP关系。示例性的,确定基本帧和所对应的冗余帧是否属于同一GOP;如果不属于同一GOP,确定GOP的间隔数。
举例一:设置基本帧与所对应的冗余帧属于同一GOP的标志为gop_flag,属于同一GOP,则gop_flag为0,否则为1;设置基本帧与所对应的的冗余帧之间相隔gop_circle个GOP,gop_circle可以为正数或者负数;则基本帧与所对应的冗余帧之间的实际位置差值为pic_order_cnt_delta+gop_circle x gop_flag;
举例二:设置基本帧与所对应的的冗余帧之间相隔gop_circle个GOP,gop_circle为整数;则基本帧与所对应的冗余帧之间的实际位置差值为pic_order_cnt_delta+gop_circle。
在本实施例中对于位置关系的描述,仅以视频帧的显示顺序(即POC)作为位置的表示,还可以以表征处理每一帧数据的先后顺序的实际编码顺序作为位置的表示,还可以以把编码数据以二进制形式写入码流的写入顺序作为位置的表示等,不做限定。
106:依照视频压缩编码标准的规定步骤对所述待编码帧进行处理,一般包括预测、变换、量化、熵编码、滤波等,视频压缩标准可以为H.264、H.265或者SVC等,但一般与压缩相对应的基本帧使用相同的压缩标准,生成冗余帧的编码数据信息,包括预测模式信息、分块模式信息、变换模式信息、量化参数信息、滤波参数以及残差信息等,和相 对应的基本帧的生成信息可以相同或者不同。
107:为该帧确定POC,POC的确定方法与步骤103保持一致。
108:为该帧确定冗余帧的标志。示例性的,可以在PREFIX_SEI_NUT中添加一标志位,如果写入数值A,则该帧为基本帧,如果写入数值B,则该帧为冗余帧,冗余帧标志的确定方式与步骤104保持一致。
109:为该帧确定与该帧所对应的基本帧之间的位置关系。示例性的,如果所述基本帧已经已经生成,则位置关系pic_order_cnt_delta=currPicOrderCntVal–rdnPicOrderCntVal。pic_order_cnt_delta可以为正值,也可以为负值,代表冗余帧与所对应基本帧的先后顺序关系,取值的绝对值可以为0~256。如果所述基本帧未生成,则可以根据实际需要设定位置关系,不妨设为1。
举例:
redundant_pic_info(payloadSize){
pic_order_cnt_delta
}
特殊情况,当允许冗余帧和所对应的基本帧位于不同的GOP中时,为了描述所述位置关系,还要确定冗余帧和所对应的基本帧间的GOP关系。示例性的,确定冗余帧和所对应的基本帧是否属于同一GOP;如果不属于同一GOP,确定GOP的间隔数。
110:确定该帧所对应的基本帧的属性信息。示例性的,设prm_poc_reset_flag表示所述基本帧是否为即时刷新帧,即遇到该类型帧POC重置。
举例:
redundant_pic_info(payloadSize){
prm_poc_reset_flag
}
111:按照编码顺序,将基本帧的编码数据信息、POC信息、标示信息和冗余帧的编码数据信息、POC信息、标示信息编入码流,其中基本帧和冗余帧的先后编码顺序没有限定。
如图9所示,包含了实施例一中的一套典型的语法结构。
利用本方案进行编码,允许基本帧和所对应的冗余帧在码流中的位置保持一定的间隔,降低了基本帧和所对应的冗余帧同时丢失的可能性,增强了传输的鲁棒性,并且解码端对于解码基本帧和冗余帧的次序不再 有要求,提高了传输的灵活性。
实施例二
本实施例提供的视频数据解码的方法,与上述视频数据编码的方法对应。如图2所示,包括:
基本帧的解码顺序在所对应的冗余帧之前,基本帧未缺失,当前待解码帧为基本帧的情况。
201:从待解码码流中确定一待解码帧。
202:解析该帧属于基本帧还是冗余帧的标志。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值A,则该帧属于基本帧,具体举例与步骤104对应。
203:根据码流信息,可选的,解析该帧与该帧所对应的冗余帧之间的位置关系,特殊情况,当允许基本帧和所对应的冗余帧位于不同的GOP中时,为了描述所述位置关系,还要确定基本帧和所对应的冗余帧间的GOP关系,与步骤105对应。本步骤所获得的信息可以作为额外信息供特殊的解码要求使用。
204:解析该帧的POC,与步骤103对应。
205:按照视频压缩编码标准,解析该帧的编码数据信息,与步骤102对应。
206:按照解析该帧码流得到的信息,重建该解码帧。
207:在POC指定的顺序,输出该已解码帧。
实施例三
本实施例提供的视频数据解码的方法,与实施例一中视频数据编码的方法对应。如图3所示,包括:
基本帧的解码顺序在所对应的冗余帧之前,基本帧未缺失,当前待解码帧为冗余帧的情况。
301:从待解码码流中确定一待解码帧。
302:解析该帧属于基本帧还是冗余帧的标志。示例性的,可以解 析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值B,则该帧属于冗余帧,具体举例与步骤108对应。
303:解析该帧与该帧所对应的基本帧之间的位置关系,特殊情况,当允许冗余帧和所对应的基本帧位于不同的GOP中时,为了描述所述位置关系,还要确定冗余帧和所对应的基本帧间的GOP关系,与步骤109对应。该步骤可以确定该帧所对应的基本帧的位置。
304:检查步骤303中获得的位置是否有基本帧已经生成。
305:如果有基本帧已经生成,舍弃该解码帧的所有信息。
实施例四
本实施例提供的视频数据解码的方法,与实施例一中视频数据编码的方法对应。如图4所示,包括:
基本帧的解码顺序在所对应的冗余帧之前,基本帧缺失,当前待解码帧为冗余帧的情况。
401:从待解码码流中确定一待解码帧。
402:解析该帧属于基本帧还是冗余帧的标志。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值B,则该帧属于冗余帧,具体举例与步骤108对应。
403:解析该帧与该帧所对应的基本帧之间的位置关系,特殊情况,当允许冗余帧和所对应的基本帧位于不同的GOP中时,为了描述所述位置关系,还要确定冗余帧和所对应的基本帧间的GOP关系,与步骤109对应。该步骤可以确定该帧所对应的基本帧的位置。
404:检查步骤303中获得的位置是否有基本帧已经生成。
405:如果基本帧未生成,则解析该帧所对应的基本帧的属性信息,与步骤110对应。该属性信息将作为该解码帧的属性信息。
406:解析该帧的POC,与步骤107对应。该POC将作为该解码帧的POC。
407:按照视频压缩编码标准,解析该帧的编码数据信息,与步骤106对应。
408:按照解析该帧码流得到的信息,重建该解码帧。
409:在POC指定的顺序,输出该已解码帧。
实施例五
本实施例提供的视频数据解码的方法,与实施例一中视频数据编码的方法对应。如图5所示,包括:
冗余帧的解码顺序在所对应的基本帧之前,当前待解码帧为冗余帧的情况。
501:从待解码码流中确定一待解码帧。
502:解析该帧属于基本帧还是冗余帧的标志。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值B,则该帧属于冗余帧,具体举例与步骤108对应。
503:解析该帧与该帧所对应的基本帧之间的位置关系,特殊情况,当允许冗余帧和所对应的基本帧位于不同的GOP中时,为了描述所述位置关系,还要确定冗余帧和所对应的基本帧间的GOP关系,与步骤109对应。该步骤可以确定该帧所对应的基本帧的位置。
504:检查步骤503中获得的位置是否有基本帧已经生成。
505:如果基本帧未生成,则解析该帧所对应的基本帧的属性信息,与步骤110对应。该属性信息将作为该解码帧的属性信息。
506:解析该帧的POC,与步骤107对应。该POC将作为该解码帧的POC。
507:按照视频压缩编码标准,解析该帧的编码数据信息,与步骤106对应。
508:按照解析该帧码流得到的信息,重建该解码帧。
509:在POC指定的顺序,存储该解码帧。
510:在指定的时延之后,没有解析到该解码帧所对应的基本帧数据,则在POC指定的顺序,输出该已解码帧。
实施例六
本实施例提供的视频数据解码的方法,与上述视频数据编码的方法对应。如图6所示,包括:
冗余帧的解码顺序在所对应的基本帧之前,当前待解码帧为基本帧的情况。
601:从待解码码流中确定一待解码帧。
602:解析该帧属于基本帧还是冗余帧的标志。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值A,则该帧属于基本帧,具体举例与步骤104对应。
603:根据码流信息,可选的,解析该帧与该帧所对应的冗余帧之间的位置关系,特殊情况,当允许基本帧和所对应的冗余帧位于不同的GOP中时,为了描述所述位置关系,还要确定基本帧和所对应的冗余帧间的GOP关系,与步骤105对应。本步骤所获得的信息可以作为额外信息供特殊的解码要求使用。
604:解析该帧的POC,与步骤103对应。
605:按照视频压缩编码标准,解析该帧的编码数据信息,与步骤102对应。
606:按照解析该帧码流得到的信息,重建该解码帧。
607:在POC指定的顺序,输出该已解码帧。
与现有方案相比实施例二到六提供的解码方法,由于码流中携带了基本帧和所对应的冗余帧之间的位置关系信息,允许基本帧和所对应的冗余帧在码流中的位置保持一定的间隔,降低了基本帧和所对应的冗余帧同时丢失的可能性,增强了传输的鲁棒性,并且解码端对于解码基本帧和冗余帧的次序不再有要求,提高了传输的灵活性。
实施例七
如图7所示,为本发明实施例提供的一种视频数据编码的装置1110,具体的,该装置可以包括一种通用处理器(例如CPU),或者为一专用处理器(例如GPU),用以执行图1所示的视频数据编码的方法,该装置1110包括处理器1111,发射电路1114,存储器1112,总线1113。 具体的,发射电路可以用于将编码后得到的码流向外发送,存储器用于存储处理过程中得到的数据,总线用于连接各装置以承载通信,该处理器1111可以配置为:
用于从待编码编码序列中确定一待编码帧;
还用于依照视频压缩编码标准的规定步骤对所述待编码帧进行处理,一般包括预测、变换、量化、熵编码、滤波等,视频压缩标准可以为H.264、H.265或者SVC等,生成基本帧的编码数据信息,包括预测模式信息、分块模式信息、变换模式信息、量化参数信息、滤波参数以及残差信息等。
还用于为该帧确定POC。POC代表了编码帧在视频序列中显示顺序的先后,由于基本帧和冗余帧对应了同一个编码帧,为了避免它们的POC相同,示例性的,如果每一个基本帧最多只有一个相对应的冗余帧,不妨把基本帧的POC限制为连续偶数,冗余帧的POC限制为奇数,具体的,冗余帧的POC可以设定为所对应的基本帧的POC加一。
还用于为该帧确定基本帧的标志。示例性的,可以在PREFIX_SEI_NUT中添加一标志位,如果写入数值A,则该帧为基本帧,如果写入数值B,则该帧为冗余帧。
可选的,还用于为该帧确定与该帧所对应的冗余帧之间的位置关系。示例性的,设当前基本帧的POC表示为currPicOrderCntVal,所对应的冗余帧的POC表示为rdnPicOrderCntVal,两帧之间的POC差值表示为pic_order_cnt_delta。如果所述冗余帧已经已经生成,则位置关系pic_order_cnt_delta=rdnPicOrderCntVal–currPicOrderCntVal。pic_order_cnt_delta可以为正值,也可以为负值,代表基本帧与所对应冗余帧的先后顺序关系,取值的绝对值可以为0~256。如果所述冗余帧未生成,则可以根据实际需要设定位置关系,不妨设为1。
特殊情况,当允许基本帧和所对应的冗余帧位于不同的GOP中时,为了描述所述位置关系,还要确定基本帧和所对应的冗余帧间的GOP关系。示例性的,确定基本帧和所对应的冗余帧是否属于同一GOP;如果不属于同一GOP,确定GOP的间隔数。
可选的,还用于依照视频压缩编码标准的规定步骤对所述待编码帧进行处理,一般包括预测、变换、量化、熵编码、滤波等,视频压缩标准可以为H.264、H.265或者SVC等,但一般与压缩相对应的基本帧使 用相同的压缩标准,生成冗余帧的编码数据信息,包括预测模式信息、分块模式信息、变换模式信息、量化参数信息、滤波参数以及残差信息等,和相对应的基本帧的生成信息可以相同或者不同。
还用于为该帧确定POC,POC的确定方法与步骤103保持一致。
还用于为该帧确定冗余帧的标志。示例性的,可以在PREFIX_SEI_NUT中添加一标志位,如果写入数值A,则该帧为基本帧,如果写入数值B,则该帧为冗余帧,冗余帧标志的确定方式与步骤104保持一致。
还用于为该帧确定与该帧所对应的基本帧之间的位置关系。示例性的,如果所述基本帧已经已经生成,则位置关系pic_order_cnt_delta=currPicOrderCntVal–rdnPicOrderCntVal。pic_order_cnt_delta可以为正值,也可以为负值,代表冗余帧与所对应基本帧的先后顺序关系,取值的绝对值可以为0~256。如果所述基本帧未生成,则可以根据实际需要设定位置关系,不妨设为1。
特殊情况,当允许冗余帧和所对应的基本帧位于不同的GOP中时,为了描述所述位置关系,还要确定冗余帧和所对应的基本帧间的GOP关系。示例性的,确定冗余帧和所对应的基本帧是否属于同一GOP;如果不属于同一GOP,确定GOP的间隔数。
还用于确定该帧所对应的基本帧的属性信息。示例性的,设prm_poc_reset_flag表示所述基本帧是否为即时刷新帧,即遇到该类型帧POC重置。
还用于按照编码顺序,将基本帧的编码数据信息、POC信息、标示信息和冗余帧的编码数据信息、POC信息、标示信息编入码流,其中基本帧和冗余帧的先后编码顺序没有限定。
本发明实施例提供的视频数据编码的装置,允许基本帧和所对应的冗余帧在码流中的位置保持一定的间隔,降低了基本帧和所对应的冗余帧同时丢失的可能性,增强了传输的鲁棒性,并且解码端对于解码基本帧和冗余帧的次序不再有要求,提高了传输的灵活性。
实施例八
如图8所示,为本发明实施例提供的一种视频数据解码的装置1000,具体的,该装置可以包括一种通用处理器(例如CPU),或者为 一专用处理器(例如GPU),用以执行图2所示的视频数据解码的方法,该装置1000包括处理器1001,接收电路1004,存储器1002,总线1003。具体的,接收电路可以用于接收已经编码的码流,存储器用于存储处理过程中得到的数据,总线用于连接各装置以承载通信,上述装置用以执行图2所示的视频数据解码的方法,该处理器1001可以配置为:
用于从待解码码流中确定一待解码帧。
还用于确定该帧属于基本帧还是冗余帧。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值A,则该帧属于基本帧。
还用于根据码流信息,可选的,用于确定该帧与该帧所对应的冗余帧之间的位置关系,特殊情况,当允许基本帧和所对应的冗余帧位于不同的GOP中时,为了描述所述位置关系,还要确定基本帧和所对应的冗余帧间的GOP关系。
还用于确定该帧的POC。
还用于按照视频压缩编码标准,解析该帧的编码数据信息。
还用于按照解析该帧码流得到的信息,重建该解码帧。
还用于在POC指定的顺序,输出该已解码帧。
实施例九
本发明实施例提供的一种视频数据解码的装置,包括处理器,用以执行图3所示的视频数据解码的方法,该处理器具体配置为:
用于从待解码码流中确定一待解码帧。
还用于确定该帧属于基本帧还是冗余帧。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值B,则该帧属于冗余帧。
还用于确定该帧与该帧所对应的基本帧之间的位置关系,特殊情况,当允许冗余帧和所对应的基本帧位于不同的GOP中时,为了描述所述位置关系,还要确定冗余帧和所对应的基本帧间的GOP关系。
还用于判断上述获得的位置是否有基本帧已经生成。
还用于如果有基本帧已经生成,用于舍弃该解码帧的所有信息。
实施例十
本发明实施例提供的一种视频数据解码的装置,包括处理器,用以执行图4所示的视频数据解码的方法,该处理器具体配置为::
用于从待解码码流中确定一待解码帧。
还用于确定该帧属于基本帧还是冗余帧。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值B,则该帧属于冗余帧。
还用于确定该帧与该帧所对应的基本帧之间的位置关系,特殊情况,当允许冗余帧和所对应的基本帧位于不同的GOP中时,为了描述所述位置关系,还要确定冗余帧和所对应的基本帧间的GOP关系。
还用于判断上述获得的位置是否有基本帧已经生成。
如果基本帧未生成,用于确定该帧所对应的基本帧的属性信息。
还用于确定该帧的POC。
还用于按照视频压缩编码标准,解析该帧的编码数据信息。
第二处理单元1008,用于按照解析该帧码流得到的信息,重建该解码帧。
还用于在POC指定的顺序,输出该已解码帧。
实施例十一
本发明实施例提供的一种视频数据解码的装置,包括处理器,用以执行图5所示的视频数据解码的方法,该处理器被具体配置为:
用于从待解码码流中确定一待解码帧。
还用于确定该帧属于基本帧还是冗余帧。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值B,则该帧属于冗余帧。
还用于确定该帧与该帧所对应的基本帧之间的位置关系,特殊情况,当允许冗余帧和所对应的基本帧位于不同的GOP中时,为了描述所述位置关系,还要确定冗余帧和所对应的基本帧间的GOP关系。
还用于判断上述位置是否有基本帧已经生成。
如果基本帧未生成,用于确定该帧所对应的基本帧的属性信息。
还用于确定该帧的POC。
还用于按照视频压缩编码标准,解析该帧的编码数据信息。
还用于按照解析该帧码流得到的信息,重建该解码帧。
还用于在POC指定的顺序,存储该解码帧。
还用于在指定的时延之后,没有解析到该解码帧所对应的基本帧数据,则在POC指定的顺序,输出该已解码帧。
实施例十二
本发明实施例提供的一种视频数据解码的装置,包括处理器,用以执行图6所示的视频数据解码的方法,该处理器被具体配置为:
用于从待解码码流中确定一待解码帧。
还用于确定该帧属于基本帧还是冗余帧。示例性的,可以解析nal_unit_type,如果nal_unit_type为PREFIX_SEI_NUT,则解析payloadType,如果payloadType为数值A,则该帧属于基本帧。
根据码流信息,可选的,第三确定单元1203,用于确定该帧与该帧所对应的冗余帧之间的位置关系,特殊情况,当允许基本帧和所对应的冗余帧位于不同的GOP中时,为了描述所述位置关系,还要确定基本帧和所对应的冗余帧间的GOP关系。
还用于确定该帧的POC。
还用于按照视频压缩编码标准,解析该帧的编码数据信息。
还用于按照解析该帧码流得到的信息,重建该解码帧。
还用于在POC指定的顺序,输出该已解码帧。
本发明实施例二到六提供的解码装置,由于可以解码基本帧和所对应的冗余帧之间的位置关系信息,允许基本帧和所对应的冗余帧在码流中的位置保持一定的间隔,降低了基本帧和所对应的冗余帧同时丢失的可能性,增强了传输的鲁棒性,并且解码端对于解码基本帧和冗余帧的次序不再有要求,提高了传输的灵活性。
需要另外说明的是,在本发明实施例中,在编码过程中,生成与所 述待编码信息组对应的基本信息组和生成与所述待编码信息组对应的冗余信息组的步骤没有先后顺序,本发明实施例并不特别限定生成与所述待编码信息组对应的基本信息组一定要早于生成与所述待编码信息组对应的冗余信息组的步骤没有先后顺序。相应的,在解码过程中,本发明实施例也不限定解析得到与所述待解码信息组对应的基本信息组和解析得到与所述待解码信息组对应的冗余信息组的先后顺序。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理包括,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM(Read-Only Memory,只读存储器)、RAM(Random Access Memory,随机存取存储器)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非 对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (60)

  1. 一种视频数据的编码方法,其特征在于,包括:
    确定待编码视频序列中的一待编码信息组;
    生成与所述待编码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;
    生成与所述待编码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息;
    将所述基本信息组和所述冗余信息组编入码流。
  2. 根据权利要求1所述的方法,其特征在于,
    所述基本信息组的位置信息,包括:所述基本信息组在码流中的位置,或者在编码过程中的顺序,或者图像显示顺序;
    所述冗余信息组的位置信息,包括:所述冗余信息组在码流中的位置,或者在编码过程中的顺序,或者图像显示顺序。
  3. 根据权利要求2所述的方法,其特征在于,所述位置关系信息包括:所述冗余信息组与所述基本信息组的位置差的绝对值和先后顺序,
    所述位置差的绝对值和先后顺序包括,所述基本信息组或者所述冗余信息组在码流中的位置差的绝对值和先后顺序,或者在编码过程中的顺序差的绝对值和先后顺序,或者图像显示顺序差的绝对值和先后顺序。
  4. 根据权利要求3所述的方法,其特征在于,所述位置关系信息还包括:
    表示所述冗余信息组的位置信息与所述基本信息组的位置信息是否属于同一个图片组的标示信息。
  5. 根据权利要求4所述的方法,其特征在于,当所述冗余信息组的位置信息与所述基本信息组的位置信息不属于同一个图片组时,所述位置关系信息还包括所述冗余信息组与所述基本信息组间隔的图片组的个数。
  6. 根据权利要求3所述的方法,其特征在于,所述位置关系信息还包括:表示所述冗余信息组与所述基本信息组间隔的图片组的个数。
  7. 根据权利要求1-6任一项所述的方法,其特征在于,所述生成与所述待编码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗 余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息,包括:
    确定所述基本信息组是否已经生成;
    如果所述基本信息组未生成,则设定一预设位置关系信息作为所述冗余信息组与所述基本信息组的位置关系信息,并生成所述第二数据信息,所述冗余信息组的位置信息;
    如果所述基本信息组已经生成,则计算所述冗余信息组与所述基本信息组的所述位置关系信息作为所述冗余信息组与所述基本信息组的位置关系信息,并生成所述第二数据信息,所述冗余信息组的位置信息。
  8. 根据权利要求1-6任一项所述的方法,其特征在于,所述生成与所述待编码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息,包括:
    确定所述冗余信息组是否已经生成;
    如果所述冗余信息组未生成,则设定一预设基本信息组与所述冗余信息组所述位置关系信息作为所述冗余信息组与所述基本信息组的位置关系信息,并生成所述第一数据信息,所述基本信息组的位置信息;
    如果所述冗余信息组已经生成,则计算所述冗余信息组与所述基本信息组的所述位置关系信息作为所述冗余信息组与所述基本信息组的位置关系信息,并生成所述第一数据信息,所述基本信息组的位置信息。
  9. 根据权利要求2所述的方法,其特征在于,如果所述所述位置信息为图像显示顺序,在所述生成与所述待编码信息组对应的基本信息组和所述生成与所述待编码信息组对应的冗余信息组时,
    对所述基本信息组与所述冗余信息组的图像显示顺序按照预设规则进行设置,以使得所述基本信息组和所述冗余信息组的图像显示顺序不相同。
  10. 根据权利要求9所述的方法,其特征在于,所述对所述基本信息组与所述冗余信息组的图像显示顺序按照预设规则进行设置,以使得所述基本信息组和所述冗余信息组的图像显示顺序不相同,包括:
    将所述基本信息组的图像显示顺序设置为连续偶数,所述冗余信息组的图像显示顺序设置为所对应的基本信息组的图像显示顺序加1。
  11. 根据权利要求1-10任一项所述的方法,其特征在于,所述基本信息组还包括:
    所述冗余信息组与所述基本信息组的位置关系信息。
  12. 根据权利要求1-11任一项所述的方法,其特征在于,所述冗余信息组还包括:
    所述冗余信息组所对应的所述基本信息组的属性信息。
  13. 根据权利要求12所述的方法,其特征在于,所述基本信息组的属性信息,包括以下信息中的至少一种:
    表征所述基本信息组是否属于即时刷新帧的信息,表征所述基本信息组是否可以被参考的信息,表征所述基本信息组是否在解码端显示的信息,表征所述基本信息组是否可以被丢弃的信息。
  14. 根据权利要求1-13任一项所述的方法,其特征在于,所述待编码信息组,包括:图像、帧、条带、片,基本编码单元的集合的任意一种或多种。
  15. 根据权利要求1-14任一项所述的方法,其特征在于,所述位置关系信息位于补充增强信息,网络抽象层单元头,条带头,帧头,片头,图像参数集至少一者之中。
  16. 根据权利要求12或13所述的方法,其特征在于,所述表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组所对应的所述基本信息组的属性信息位于补充增强信息,网络抽象层单元头,条带头,帧头,片头,图像参数集至少一者之中。
  17. 一种视频数据的解码方法,其特征在于,包括:
    获取待解码码流,确定一待解码信息组;
    解析得到与所述待解码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;
    解析得到与所述待解码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息,所述所述冗余信息组与所述基本信息组的位置关系信息用于推导所述基本信息组的位置信息;
    基于所述解析得到的基本信息组或者所述解析得到的冗余信息组获取所述已解码信息组,所述已解码信息组用于已编码视频序列的重建。
  18. 根据权利要求17所述的解码方法,其特征在于,
    所述基本信息组的位置信息,包括:所述基本信息组在码流中的位置,或者在编码过程中的顺序,或者图像显示顺序;
    所述冗余信息组的位置信息,包括:所述冗余信息组在码流中的位置,或者在编码过程中的顺序,或者图像显示顺序。
  19. 根据权利要求18所述的解码方法,其特征在于,
    所述位置关系信息包括:所述冗余信息组与所述基本信息组的位置差的绝对值和先后顺序,
    所述位置差的绝对值和先后顺序包括,所述基本信息组或者所述冗余信息组在码流中的位置差的绝对值和先后顺序,或者在编码过程中的顺序差的绝对值和先后顺序,或者图像显示顺序差的绝对值和先后顺序。
  20. 根据权利要求19所述的解码方法,其特征在于,所述位置关系信息还包括:
    表示所述冗余信息组的位置信息与所述基本信息组的位置信息是否属于同一个图片组的标示信息。
  21. 根据权利要求20所述的解码方法,其特征在于,当所述冗余信息组的位置信息与所述基本信息组的位置信息不属于同一个图片组时,所述位置关系信息还包括所述冗余信息组与所述基本信息组间隔的图片组的个数。
  22. 根据权利要求19所述的解码方法,其特征在于,所述位置关系信息还包括:表示所述冗余信息组与所述基本信息组间隔的图片组的个数。
  23. 根据权利要求17-22任一项所述的解码方法,其特征在于,所述解析得到与所述待解码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息,所述所述冗余信息组与所述基本信息组的位置关系信息用于推导所述基本信息组的位置信息,包括:
    确定所述基本信息组是否被正确解析;
    如果所述基本信息组被正确解析,则停止解析所述待解码信息组,不用再解析得到与所述待解码信息组对应的冗余信息组,并基于所述解析得到的基本信息组获取所述已解码信息组,所述已解码信息组用于已编码视频序列的重建;
    如果所述基本信息组未被正确解析,则继续解析得到与所述待解码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息,所述所述冗余信息组与所述基本信息组的位置关系信息用于推导所述基本信息组的位置信息,并基 于所述解析得到的冗余信息组获取所述已解码信息组,所述已解码信息组用于已编码视频序列的重建。
  24. 根据权利要求18所述的解码方法,其特征在于,如果所述所述位置信息为图像显示顺序,在所述生成与所述待解码信息组对应的基本信息组和所述生成与所述待解码信息组对应的冗余信息组时,
    根据按照预设规则进行设置的所述基本信息组与所述冗余信息组的图像显示顺序确认所述基本信息组与所述冗余信息组的图像显示顺序,所述基本信息组和所述冗余信息组的图像显示顺序不相同。
  25. 根据权利要求24所述的解码方法,其特征在于,所述基本信息组的图像显示顺序被设置为连续偶数,所述冗余信息组的图像显示顺序被设置为所对应的基本信息组的图像显示顺序加1。
  26. 根据权利要求17-25任一项所述的解码方法,其特征在于,所述冗余信息组还包括:
    所述冗余信息组所对应的所述基本信息组的属性信息。
  27. 根据权利要求26任一项所述的解码方法,其特征在于,所述基本信息组的属性信息,包括以下信息中的至少一种:
    表征所述基本信息组是否属于即时刷新帧的信息,表征所述基本信息组是否可以被参考的信息,表征所述基本信息组是否在解码端显示的信息,表征所述基本信息组是否可以被丢弃的信息。
  28. 根据权利要求17-27任一项所述的解码方法,其特征在于,所述待解码信息组,包括:图像、帧、条带、片,基本编码单元的集合的任意一种或多种。
  29. 根据权利要求17-28任一项所述的解码方法,其特征在于,所述位置关系信息位于补充增强信息,网络抽象层单元头,条带头,帧头,片头,图像参数集至少一者之中。
  30. 根据权利要求26或者27所述的解码方法,其特征在于,所述表示所述待解码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组所对应的所述基本信息组的属性信息位于补充增强信息,网络抽象层单元头,条带头,帧头,片头,图像参数集至少一者之中。
  31. 一种视频数据编码的装置,其特征在于,包括处理器,所述处理器被配置为:
    确定待编码视频序列中的一待编码信息组;
    生成与所述待编码信息组对应的基本信息组,基本信息组包括第一数据 信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;
    生成与所述待编码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息;
    将所述基本信息组和所述冗余信息组编入码流。
  32. 根据权利要求31所述的装置,其特征在于,所述基本信息组的位置信息,包括:所述基本信息组在码流中的位置,或者在编码过程中的顺序,或者图像显示顺序;
    所述冗余信息组的位置信息,包括:所述冗余信息组在码流中的位置,或者在编码过程中的顺序,或者图像显示顺序。
  33. 根据权利要求32所述的装置,其特征在于,所述位置关系信息包括:所述冗余信息组与所述基本信息组的位置差的绝对值和先后顺序,
    所述位置差的绝对值和先后顺序包括,所述基本信息组或者所述冗余信息组在码流中的位置差的绝对值和先后顺序,或者在编码过程中的顺序差的绝对值和先后顺序,或者图像显示顺序差的绝对值和先后顺序。
  34. 根据权利要求33所述的装置,其特征在于,所述位置关系信息还包括:
    表示所述冗余信息组的位置信息与所述基本信息组的位置信息是否属于同一个图片组的标示信息。
  35. 根据权利要求34所述的装置,其特征在于,当所述冗余信息组的位置信息与所述基本信息组的位置信息不属于同一个图片组时,所述位置关系信息还包括所述冗余信息组与所述基本信息组间隔的图片组的个数。
  36. 根据权利要求33所述的装置,其特征在于,所述位置关系信息还包括:表示所述冗余信息组与所述基本信息组间隔的图片组的个数。
  37. 根据权利要求31-36任一项所述的装置,其特征在于,所述处理器进一步配置为,
    确定所述基本信息组是否已经生成;
    如果所述基本信息组未生成,则设定一预设位置关系信息作为所述冗余信息组与所述基本信息组的位置关系信息,并生成所述第二数据信息,所述冗余信息组的位置信息;
    如果所述基本信息组已经生成,则计算所述冗余信息组与所述基本信息 组的所述位置关系信息作为所述冗余信息组与所述基本信息组的位置关系信息,并生成所述第二数据信息,所述冗余信息组的位置信息。
  38. 根据权利要求31-36任一项所述的装置,其特征在于,所述处理器进一步配置为,
    确定所述冗余信息组是否已经生成;
    如果所述冗余信息组未生成,则设定一预设基本信息组与所述冗余信息组所述位置关系信息作为所述冗余信息组与所述基本信息组的位置关系信息,并生成所述第一数据信息,所述基本信息组的位置信息;
    如果所述冗余信息组已经生成,则计算所述冗余信息组与所述基本信息组的所述位置关系信息作为所述冗余信息组与所述基本信息组的位置关系信息,并生成所述第一数据信息,所述基本信息组的位置信息。
  39. 根据权利要求32所述的装置,其特征在于,所述处理器进一步配置为,
    如果所述所述位置信息为图像显示顺序,在所述生成与所述待编码信息组对应的基本信息组和所述生成与所述待编码信息组对应的冗余信息组时,
    对所述基本信息组与所述冗余信息组的图像显示顺序按照预设规则进行设置,以使得所述基本信息组和所述冗余信息组的图像显示顺序不相同。
  40. 根据权利要求39所述的装置,其特征在于,所述处理器进一步配置为,
    将所述基本信息组的图像显示顺序设置为连续偶数,所述冗余信息组的图像显示顺序设置为所对应的基本信息组的图像显示顺序加1。
  41. 根据权利要求31-40任一项所述的装置,其特征在于,所述基本信息组还包括:
    所述冗余信息组与所述基本信息组的位置关系信息。
  42. 据权利要求31-41任一项所述的装置,其特征在于,所述冗余信息组还包括:
    所述冗余信息组所对应的所述基本信息组的属性信息。
  43. 根据权利要求42所述的装置,其特征在于,所述基本信息组的属性信息,包括以下信息中的至少一种:
    表征所述基本信息组是否属于即时刷新帧的信息,表征所述基本信息组是否可以被参考的信息,表征所述基本信息组是否在解码端显示的信息,表征所述基本信息组是否可以被丢弃的信息。
  44. 根据权利要求31-33任一项所述的装置,其特征在于,所述待编码 信息组,包括:图像、帧、条带、片,基本编码单元的集合的任意一种或多种。
  45. 根据权利要求31-34任一项所述的装置,其特征在于,其特征在于,所述位置关系信息位于补充增强信息,网络抽象层单元头,条带头,帧头,片头,图像参数集至少一者之中。
  46. 根据权利要求42或43所述的装置,其特征在于,所述表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组所对应的所述基本信息组的属性信息位于补充增强信息,网络抽象层单元头,条带头,帧头,片头,图像参数集至少一者之中。
  47. 一种视频数据解码的装置,其特征在于,包括处理器,所述处理器被配置为:
    获取待解码码流,确定一待解码信息组;
    解析得到与所述待解码信息组对应的基本信息组,基本信息组包括第一数据信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述基本信息组的位置信息;
    解析得到与所述待解码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息,所述所述冗余信息组与所述基本信息组的位置关系信息用于推导所述基本信息组的位置信息;
    基于所述解析得到的基本信息组或者所述解析得到的冗余信息组获取所述已解码信息组,所述已解码信息组用于已编码视频序列的重建。
  48. 根据权利要求47所述的装置,其特征在于,
    所述基本信息组的位置信息,包括:所述基本信息组在码流中的位置,或者在编码过程中的顺序,或者图像显示顺序;
    所述冗余信息组的位置信息,包括:所述冗余信息组在码流中的位置,或者在编码过程中的顺序,或者图像显示顺序。
  49. 根据权利要求48所述的装置,其特征在于,
    所述位置关系信息包括:所述冗余信息组与所述基本信息组的位置差的绝对值和先后顺序,
    所述位置差的绝对值和先后顺序包括,所述基本信息组或者所述冗余信息组在码流中的位置差的绝对值和先后顺序,或者在编码过程中的顺序差的绝对值和先后顺序,或者图像显示顺序差的绝对值和先后顺序。
  50. 根据权利要求49所述的装置,其特征在于,所述位置关系信息还包括:
    表示所述冗余信息组的位置信息与所述基本信息组的位置信息是否属于同一个图片组的标示信息。
  51. 根据权利要求50所述的装置,其特征在于,当所述冗余信息组的位置信息与所述基本信息组的位置信息不属于同一个图片组时,所述位置关系信息还包括所述冗余信息组与所述基本信息组间隔的图片组的个数。
  52. 根据权利要求48所述的装置,其特征在于,所述位置关系信息还包括:表示所述冗余信息组与所述基本信息组间隔的图片组的个数。
  53. 根据权利要求47-52任一项所述的装置,其特征在于,所述处理器被进一步配置为:
    确定所述基本信息组是否被正确解析;
    如果所述基本信息组被正确解析,则停止解析所述待解码信息组,不用再解析得到与所述待解码信息组对应的冗余信息组,并基于所述解析得到的基本信息组获取所述已解码信息组,所述已解码信息组用于已编码视频序列的重建;
    如果所述基本信息组未被正确解析,则继续解析得到与所述待解码信息组对应的冗余信息组,冗余信息组包含第二数据信息,所述冗余信息组的位置信息,表示所述待编码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组与所述基本信息组的位置关系信息,所述所述冗余信息组与所述基本信息组的位置关系信息用于推导所述基本信息组的位置信息,并基于所述解析得到的冗余信息组获取所述已解码信息组,所述已解码信息组用于已编码视频序列的重建。
  54. 根据权利要求48所述的装置,其特征在于,所述处理器被进一步配置为,
    如果所述所述位置信息为图像显示顺序,在所述生成与所述待解码信息组对应的基本信息组和所述生成与所述待解码信息组对应的冗余信息组时,
    根据按照预设规则进行设置的所述基本信息组与所述冗余信息组的图像显示顺序确认所述基本信息组与所述冗余信息组的图像显示顺序,所述基本信息组和所述冗余信息组的图像显示顺序不相同。
  55. 根据权利要求54所述的装置,其特征在于,所述处理器被记你一部配置为,
    所述基本信息组的图像显示顺序被设置为连续偶数,所述冗余信息组的 图像显示顺序被设置为所对应的基本信息组的图像显示顺序加1。
  56. 根据权利要求47-55任一项所述的装置,其特征在于,所述冗余信息组还包括:
    所述冗余信息组所对应的所述基本信息组的属性信息。
  57. 根据权利要求56所述的装置,其特征在于,所述基本信息组的属性信息,包括以下信息中的至少一种:
    表征所述基本信息组是否属于即时刷新帧的信息,表征所述基本信息组是否可以被参考的信息,表征所述基本信息组是否在解码端显示的信息,表征所述基本信息组是否可以被丢弃的信息。
  58. 根据权利要求47-57任一项所述的装置,其特征在于,所述待解码信息组,包括:图像、帧、条带、片,基本编码单元的集合的任意一种或多种。
  59. 根据权利要求47-58任一项所述的装置,其特征在于,所述位置关系信息位于补充增强信息,网络抽象层单元头,条带头,帧头,片头,图像参数集至少一者之中。
  60. 根据权利要求47或57所述的装置,其特征在于,所述表示所述待解码信息组是基本信息组还是冗余信息组的指示信息和所述冗余信息组所对应的所述基本信息组的属性信息位于补充增强信息,网络抽象层单元头,条带头,帧头,片头,图像参数集至少一者之中。
PCT/CN2015/074421 2014-03-18 2015-03-17 一种视频数据编码、解码的方法和装置 WO2015139624A1 (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020167024055A KR101959319B1 (ko) 2014-03-18 2015-03-17 비디오 데이터 인코딩 및 디코딩 방법 및 장치
BR112016021321-1A BR112016021321B1 (pt) 2014-03-18 2015-03-17 Métodos e aparelhos de codificação e decodificação de dados de vídeo
JP2016556710A JP6268559B2 (ja) 2014-03-18 2015-03-17 映像データの符号化および復号方法ならびに装置
EP15765911.1A EP3096521A4 (en) 2014-03-18 2015-03-17 Video data encoding and decoding methods and apparatuses
US15/258,450 US10313703B2 (en) 2014-03-18 2016-09-07 Video data encoding and decoding methods and apparatuses

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410100869.3A CN104935944B (zh) 2014-03-18 2014-03-18 一种视频数据编码、解码的方法和装置
CN201410100869.3 2014-03-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/258,450 Continuation US10313703B2 (en) 2014-03-18 2016-09-07 Video data encoding and decoding methods and apparatuses

Publications (1)

Publication Number Publication Date
WO2015139624A1 true WO2015139624A1 (zh) 2015-09-24

Family

ID=54122858

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2015/074421 WO2015139624A1 (zh) 2014-03-18 2015-03-17 一种视频数据编码、解码的方法和装置

Country Status (6)

Country Link
US (1) US10313703B2 (zh)
EP (1) EP3096521A4 (zh)
KR (1) KR101959319B1 (zh)
CN (1) CN104935944B (zh)
BR (1) BR112016021321B1 (zh)
WO (1) WO2015139624A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10645404B2 (en) 2014-03-24 2020-05-05 Qualcomm Incorporated Generic use of HEVC SEI messages for multi-layer codecs
CN106713927B (zh) * 2016-11-14 2019-08-13 珠海格力电器股份有限公司 一种图像输出装置、方法及解码器
CA3132582A1 (en) * 2019-03-07 2020-09-10 Digitalinsights Inc. Image encoding/decoding method and apparatus
JPWO2020255771A1 (zh) * 2019-06-20 2020-12-24
AU2020396705A1 (en) * 2019-12-06 2022-07-28 Lg Electronics Inc. Method and apparatus for encoding/decoding image on basis of picture header including information relating to co-located picture, and method for transmitting bitstream
WO2021252541A1 (en) 2020-06-09 2021-12-16 Bytedance Inc. Signaling non-scalable-bested hypothetical reference video decoder information
WO2021252457A1 (en) 2020-06-09 2021-12-16 Bytedance Inc. Subpicture level information signaling in video coding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1115951A (zh) * 1992-06-19 1996-01-31 通用电气公司 在噪声通信信道上安排传输已压缩视频数据的方法
CN101695134A (zh) * 2009-10-15 2010-04-14 中兴通讯股份有限公司 一种弱信号环境下提高终端播放性能的终端、系统及方法
WO2011023776A1 (fr) * 2009-08-28 2011-03-03 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'égalisation de la taille des paquets de données par blocs d'un flux multimedia
CN102438152A (zh) * 2011-12-29 2012-05-02 中国科学技术大学 可伸缩视频编码容错传输方法、编码器、装置和系统
CN103501441A (zh) * 2013-09-11 2014-01-08 北京交通大学长三角研究院 一种基于人类视觉系统的多描述视频编码方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1722570B1 (en) 2005-05-11 2020-04-29 Beijing Xiaomi Mobile Software Co., Ltd. Method of transmitting video data
WO2007081150A1 (en) 2006-01-09 2007-07-19 Electronics And Telecommunications Research Institute Method defining nal unit type and system of transmission bitstream and redundant slice coding
JPWO2007099637A1 (ja) 2006-03-02 2009-07-16 富士通マイクロエレクトロニクス株式会社 画像送信装置、画像受信装置、および画像送受信システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1115951A (zh) * 1992-06-19 1996-01-31 通用电气公司 在噪声通信信道上安排传输已压缩视频数据的方法
WO2011023776A1 (fr) * 2009-08-28 2011-03-03 Commissariat à l'énergie atomique et aux énergies alternatives Procédé d'égalisation de la taille des paquets de données par blocs d'un flux multimedia
CN101695134A (zh) * 2009-10-15 2010-04-14 中兴通讯股份有限公司 一种弱信号环境下提高终端播放性能的终端、系统及方法
CN102438152A (zh) * 2011-12-29 2012-05-02 中国科学技术大学 可伸缩视频编码容错传输方法、编码器、装置和系统
CN103501441A (zh) * 2013-09-11 2014-01-08 北京交通大学长三角研究院 一种基于人类视觉系统的多描述视频编码方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3096521A4 *

Also Published As

Publication number Publication date
BR112016021321A2 (pt) 2018-06-26
BR112016021321B1 (pt) 2023-12-05
CN104935944A (zh) 2015-09-23
EP3096521A4 (en) 2017-03-08
CN104935944B (zh) 2018-03-13
JP2017513313A (ja) 2017-05-25
US20160381394A1 (en) 2016-12-29
EP3096521A1 (en) 2016-11-23
US10313703B2 (en) 2019-06-04
KR101959319B1 (ko) 2019-03-18
KR20160114717A (ko) 2016-10-05

Similar Documents

Publication Publication Date Title
WO2015139624A1 (zh) 一种视频数据编码、解码的方法和装置
US10972755B2 (en) Method and system of NAL unit header structure for signaling new elements
US10602156B2 (en) Devices and methods for identifying a leading picture
US9774927B2 (en) Multi-layer video stream decoding
KR102652871B1 (ko) 네트워크 장치 및 오류 처리
AU2010231805B2 (en) Image signal decoding device, image signal decoding method, image signal encoding device, image signal encoding method, and program
US20200413042A1 (en) Multi-Layer Video Stream Encoding and Decoding
US10674171B2 (en) Decoders and methods thereof for managing pictures in video decoding process
US10827170B2 (en) Method and device for coding POC, method and device for decoding POC, and electronic equipment
EP4152730A1 (en) Method for receiving media contents in a multimedia system
US20230421805A1 (en) Decoder and encoder and methods for coding of a video sequence
US9264737B2 (en) Error resilient transmission of random access frames and global coding parameters
US20130272619A1 (en) Devices for identifying a leading picture
US20160316211A1 (en) Video Data Coding and Decoding Methods and Apparatuses
US10536708B2 (en) Efficient frame loss recovery and reconstruction in dyadic hierarchy based coding
JP2023533680A (ja) V3c/v-pccのための復号タイルハッシュseiメッセージ
WO2016161678A1 (zh) 一种视频编码和解码的方法、装置和处理系统
US20130251022A1 (en) Signaling of end of slices
US20190007691A1 (en) Arrangements and methods thereof for processing video
RU2610286C2 (ru) Декодирование многослойного видеопотока
JP6268559B2 (ja) 映像データの符号化および復号方法ならびに装置
RU2787711C1 (ru) Управление буфером декодированных изображений для кодирования видеосигналов
Zou et al. An efficient video-based geometry compression system for 3D meshes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15765911

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015765911

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015765911

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20167024055

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2016556710

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: IDP00201606587

Country of ref document: ID

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112016021321

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112016021321

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20160915