WO2012096147A1 - 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム - Google Patents

映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム Download PDF

Info

Publication number
WO2012096147A1
WO2012096147A1 PCT/JP2012/000046 JP2012000046W WO2012096147A1 WO 2012096147 A1 WO2012096147 A1 WO 2012096147A1 JP 2012000046 W JP2012000046 W JP 2012000046W WO 2012096147 A1 WO2012096147 A1 WO 2012096147A1
Authority
WO
WIPO (PCT)
Prior art keywords
inter
size
decoding
encoding
target
Prior art date
Application number
PCT/JP2012/000046
Other languages
English (en)
French (fr)
Inventor
健太 先崎
裕三 仙田
慶一 蝶野
啓史 青木
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US13/979,592 priority Critical patent/US10841590B2/en
Priority to ES12734225T priority patent/ES2864874T3/es
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to KR1020147036708A priority patent/KR20150020622A/ko
Priority to BR122020018527-9A priority patent/BR122020018527B1/pt
Priority to BR112013017799-3A priority patent/BR112013017799B1/pt
Priority to EP15155199.1A priority patent/EP2899976B1/en
Priority to BR122020018528-7A priority patent/BR122020018528B1/pt
Priority to EP12734225.1A priority patent/EP2665272B1/en
Priority to KR1020167014704A priority patent/KR101738322B1/ko
Priority to KR1020137016923A priority patent/KR20130098420A/ko
Priority to PL15155199T priority patent/PL2899976T3/pl
Priority to KR1020157017185A priority patent/KR101843624B1/ko
Priority to JP2012552667A priority patent/JP5673693B2/ja
Priority to KR1020157012839A priority patent/KR101829515B1/ko
Priority to BR122015024083-2A priority patent/BR122015024083B1/pt
Priority to PL12734225T priority patent/PL2665272T3/pl
Priority to BR122015017257-8A priority patent/BR122015017257B1/pt
Priority to EP21163286.4A priority patent/EP3860125A1/en
Priority to EP21153890.5A priority patent/EP3833026B1/en
Priority to CN201280005386.4A priority patent/CN103329535B/zh
Publication of WO2012096147A1 publication Critical patent/WO2012096147A1/ja
Priority to US14/877,453 priority patent/US9712826B2/en
Priority to US17/066,136 priority patent/US11582461B2/en
Priority to US18/099,020 priority patent/US11943449B2/en
Priority to US18/420,036 priority patent/US20240163448A1/en
Priority to US18/420,902 priority patent/US20240163449A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S348/00Television
    • Y10S348/91Flicker reduction

Definitions

  • the present invention relates to a video encoding device, a video decoding device, a video encoding method, a video decoding method, and a program using a hierarchical encoding unit.
  • Non-Patent Document 1 discloses a general video encoding method and video decoding method.
  • the video encoding device described in Non-Patent Document 1 is configured as shown in FIG.
  • the video encoding device shown in FIG. 15 is referred to as a general video encoding device.
  • a container 15 includes a transform / quantizer 101, an entropy encoder 102, an inverse transform / inverse quantizer 103, a buffer 104, a predictor 105, a multiplexer 106, and a coding control.
  • a container 108 is provided.
  • the video encoding apparatus shown in FIG. 15 divides a frame into blocks of 16 ⁇ 16 pixel size called macro blocks (MB) and encodes each MB in order from the upper left of the frame.
  • MB macro blocks
  • FIG. 16 is an explanatory diagram showing an example of block division when the spatial resolution of the frame is QCIF (Quarter Common Intermediate Format).
  • QCIF Quadrater Common Intermediate Format
  • the input video divided into blocks is subtracted from the prediction signal supplied from the predictor 105, becomes a prediction error image, and is input to the transform / quantizer 101.
  • prediction signals There are two types of prediction signals, intra prediction signals and inter prediction signals.
  • the inter prediction signal is also referred to as an inter-frame prediction signal.
  • the intra prediction signal is a prediction signal generated based on an image of a reconstructed picture having the same display time as the current picture stored in the buffer 104.
  • Intra_4 ⁇ 4 and Intra_8 ⁇ 8 are intra predictions of 4 ⁇ 4 block size and 8 ⁇ 8 block size, respectively, with reference to (a) and (c) of FIG.
  • circles ( ⁇ ) in the drawing are reference pixels used for intra prediction, that is, pixels of a reconstructed picture having the same display time as the current picture.
  • Intra_4 ⁇ 4 intra prediction the reconstructed neighboring pixels are used as reference pixels as they are, and prediction signals are formed by padding (extrapolating) reference pixels in nine types of directions shown in FIG.
  • Intra_8 ⁇ 8 intra prediction the peripheral pixels of the reconstructed picture image are smoothed by the low-pass filter (1/2, 1/4, 1/2) described under the right arrow in FIG. A prediction signal is formed by extrapolating the reference pixel in nine types of directions shown in FIG.
  • Intra — 16 ⁇ 16 is an intra prediction of 16 ⁇ 16 block size with reference to FIG.
  • circles ( ⁇ ) in the drawing are reference pixels used for intra prediction, that is, pixels of a reconstructed picture having the same display time as the current picture.
  • Intra_16 ⁇ 16 intra prediction the surrounding pixels of the reconstructed picture image are directly used as reference pixels, and prediction signals are formed by extrapolating reference pixels in four types of directions shown in FIG.
  • an MB and a block encoded using an intra prediction signal are referred to as an intra MB and an intra block, respectively.
  • the block size of intra prediction is called intra prediction block size.
  • the extrapolation direction is referred to as an intra prediction direction. Note that the intra prediction block size and the intra prediction direction are prediction parameters related to intra prediction.
  • the inter prediction signal is a prediction signal generated from an image of a reconstructed picture having a display time different from that of the current picture stored in the buffer 104.
  • MBs and blocks encoded using inter prediction signals are referred to as inter MBs and inter blocks, respectively.
  • 16 ⁇ 16, 16 ⁇ 8, 8 ⁇ 16, 8 ⁇ 8, 8 ⁇ 4, 4 ⁇ 8, and 4 ⁇ 4 can be selected as the inter prediction block size (inter prediction block size).
  • FIG. 19 is an explanatory diagram illustrating an example of inter prediction using a block size of 16 ⁇ 16 as an example.
  • the motion vector MV (mv x , mv y ) illustrated in FIG. 19 is an inter prediction prediction parameter indicating the amount of translation of the inter prediction block (inter prediction signal) of the reference picture with respect to the current block.
  • a reference picture index for identifying a reference picture used for inter prediction of the encoding target block Is also a prediction parameter for inter prediction. This is because in AVC, a plurality of reference pictures stored in the buffer 104 can be used for inter prediction.
  • FIG. 20 is an explanatory diagram illustrating luminance signal interpolation processing in motion compensation prediction.
  • A is a pixel signal at an integer pixel position
  • b, c, and d are pixel signals at a decimal pixel position with 1/2 pixel accuracy
  • e 1 , e 2 , and e 3 are decimal pixel positions with 1/4 pixel accuracy.
  • the pixel signal b is generated by applying a 6-tap filter to pixels at integer pixel positions in the horizontal direction.
  • the pixel signal c is generated by applying a 6-tap filter to pixels at integer pixel positions in the vertical direction.
  • the pixel signal d is generated by applying a 6-tap filter to a pixel at a decimal pixel position with 1/2 pixel accuracy in the horizontal or vertical direction.
  • the 6-tap filter coefficient is represented by [1, -5, 20, 20, -5, 1] / 32.
  • the pixel signals e 1 , e 2 , and e 3 are generated by applying a 2-tap filter [1, 1] / 2 to the pixels at neighboring integer pixel positions or decimal pixel positions, respectively.
  • a picture encoded with only intra MB is called an I picture.
  • a picture coded including not only an intra MB but also an inter MB is called a P picture.
  • a picture that is encoded including inter MBs that use two reference pictures at the same time as well as one reference picture for inter prediction is called a B picture.
  • the reference picture of the inter prediction signal with respect to the encoding target picture of the encoding target block is the forward prediction for the past inter prediction
  • the reference picture of the inter prediction signal for the encoding target picture of the encoding target block Inter-prediction in which the direction of the future is called backward prediction, and inter-prediction using two reference pictures including the past and the future at the same time is called bidirectional prediction.
  • the inter prediction direction is a prediction parameter for inter prediction.
  • the predictor 105 compares the input video signal and the prediction signal in accordance with an instruction from the encoding controller 108, and determines a prediction parameter that minimizes the energy of the prediction error image block.
  • the encoding controller 108 supplies the determined prediction parameter to the entropy encoder 102.
  • the transform / quantizer 101 performs frequency conversion on the image (prediction error image) from which the prediction signal is reduced to obtain a frequency conversion coefficient.
  • the transform / quantizer 101 quantizes the frequency transform coefficient with a predetermined quantization step width Qs.
  • the quantized frequency transform coefficient is referred to as a transform quantization value.
  • the entropy encoder 102 entropy encodes the prediction parameter and the transform quantization value.
  • the prediction parameter is information related to MB and block prediction, such as the above-described prediction mode (intra prediction, inter prediction), intra prediction block size, intra prediction direction, inter prediction block size, and motion vector.
  • the inverse transform / inverse quantizer 103 inversely quantizes the transform quantization value with the quantization step width Qs. Further, the inverse transform / inverse quantizer 103 performs inverse frequency transform on the frequency transform coefficient obtained by inverse quantization. The reconstructed prediction error image subjected to the inverse frequency conversion is supplied with the prediction signal and supplied to the buffer 104.
  • the buffer 104 stores the supplied reconstructed image.
  • a reconstructed image for one frame is called a reconstructed picture.
  • the multiplexer 106 multiplexes and outputs the output data of the entropy encoder 102 and the encoding parameter.
  • the multiplexer 106 in the video encoding device Based on the above-described operation, the multiplexer 106 in the video encoding device generates a bit stream.
  • Non-Patent Document 1 The video decoding device described in Non-Patent Document 1 is configured as shown in FIG.
  • the video decoding device shown in FIG. 21 is referred to as a general video decoding device.
  • the video decoding apparatus shown in FIG. 21 includes a demultiplexer 201, an entropy decoder 202, an inverse transform / inverse quantizer 203, a predictor 204, and a buffer 205.
  • the demultiplexer 201 demultiplexes the input bit stream and extracts an entropy-encoded video bit stream.
  • the entropy decoder 202 entropy decodes the video bitstream.
  • the entropy decoder 202 entropy-decodes MB and block prediction parameters and transform quantization values, and supplies them to the inverse transform / inverse quantizer 203 and the predictor 204.
  • the inverse transform / inverse quantizer 203 inversely quantizes the transform quantization value with the quantization step width. Further, the inverse transform / inverse quantizer 203 performs inverse frequency transform on the frequency transform coefficient obtained by inverse quantization.
  • the predictor 204 After the inverse frequency conversion, the predictor 204 generates a prediction signal using the reconstructed picture image stored in the buffer 205 based on the entropy-decoded MB and block prediction parameters.
  • the reconstructed prediction error image subjected to the inverse frequency transform by the inverse transform / inverse quantizer 203 is added with the prediction signal supplied from the predictor 204 and is supplied to the buffer 205 as a reconstructed image.
  • the reconstructed picture stored in the buffer 205 is output as a decoded image (decoded video).
  • a general video decoding device Based on the above-described operation, a general video decoding device generates a decoded image.
  • Non-Patent Document 2 discloses a Test Model Consideration method (TMuC method). Unlike the method disclosed in Non-Patent Document 1, the TMuC method uses a coding unit (Coding Tree Block (CTB)) having a hierarchical structure shown in FIG. In this specification, a block of CTB is called Coding Unit (CU: Coding Unit).
  • CTB Coding Tree Block
  • PU Prediction Unit
  • FIG. 23 a concept of Prediction Unit (PU) (see FIG. 23) is introduced as a prediction unit for the CU.
  • PU is a basic unit of prediction, and is shown in FIG. 23, which are 8 types ⁇ 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, N ⁇ N, 2N ⁇ nU, 2N ⁇ nD, nL ⁇ 2N, nR ⁇ 2N ⁇ .
  • the PU partition type is defined.
  • a PU using inter prediction is called an inter PU
  • a PU using intra prediction is called an intra PU.
  • a PU partition in which inter prediction is used is called an inter PU partition
  • a PU partition in which intra prediction is used is called an intra PU partition.
  • the intra PU partition supports only 2N ⁇ 2N and N ⁇ N squares among the shapes shown in FIG.
  • the lengths of one side of CU and PU are referred to as CU size and PU size, respectively.
  • a filter with a maximum of 12 taps can be used to obtain a predicted image with decimal precision.
  • the relationship between the pixel position and the filter coefficient is as follows.
  • a and E are pixels at integer pixel positions.
  • b is a pixel at the 1/4 pixel position
  • c is a pixel at the 1/2 pixel position
  • d is a pixel at the 3/4 pixel position. The same applies to the vertical direction.
  • the pixel b or the pixel c shown in FIG. 20 is generated by applying the horizontal or vertical 1 ⁇ 2 pixel position filter once. Pixels e 1 is produced by applying one filter for quarter-pixel positions.
  • the decimal pixel generation is performed when the pixel positions are both in the horizontal and vertical positions, and at least one of them is the 1/4 pixel position.
  • pixel A is a pixel at an integer pixel position
  • pixel c is a pixel at a decimal pixel position to be obtained.
  • the pixel b is first generated by applying a vertical pixel position filter.
  • pixel c is generated by applying a horizontal 3/4 pixel position filter to fractional pixel b.
  • 8.3 Interpolation Methods in Non-Patent Document 2 describes a more detailed description of decimal pixel generation.
  • the syntax indicating the PU partition type in the PU headers of CUs of all layers (according to the notation of 4.1.10 Prediction unit syntax ⁇ in Non-Patent Document 2) Embedded in the output bitstream.
  • intra_split_flag syntax is referred to as intra PU partition type syntax
  • inter_partitioning_idc syntax is referred to as inter PU partition type syntax.
  • TMuC TMuC
  • the size of the inter PU partition is smaller, there is a problem that memory access to the reference picture increases and the memory bandwidth is compressed.
  • a fractional pixel is generated using a 12-tap filter, so that the memory band is further pressed.
  • FIG. 26 is an explanatory diagram for explaining a memory access area when a 12-tap filter is used.
  • FIG. 26A shows the memory access area of one inter PU partition when the N ⁇ N PU partition type is selected
  • FIG. 26B shows the case when the 2N ⁇ 2N inter PU partition type is selected. Represents a memory access area.
  • the memory access amount is about 2.5 times.
  • An object of the present invention is to reduce the memory bandwidth per predetermined area.
  • a video encoding apparatus is a video encoding apparatus that performs video encoding using inter prediction, and is based on a predetermined minimum inter PU size and a CU size of an encoding target CU. And an encoding control means for controlling the inter-PU partition type.
  • a video decoding apparatus is a video decoding apparatus that performs video decoding using inter prediction, and controls an inter PU partition of a decoding target CU based on a predetermined minimum inter PU size and the size of a decoding target CU.
  • the decoding control means is provided.
  • a video encoding method is a video encoding method that performs video encoding using inter prediction, and is based on a predetermined minimum inter PU size and a CU size of an encoding target CU. It is characterized by controlling the inter PU partition type.
  • a video decoding method is a video decoding method that performs video decoding using inter prediction, and controls an inter PU partition of a decoding target CU based on a predetermined minimum inter PU size and the size of a decoding target CU. It is characterized by doing.
  • the video encoding program according to the present invention allows a computer that performs video encoding using inter prediction to generate an inter PU partition type of an encoding target CU based on a predetermined minimum inter PU size and an encoding target CU size. It is characterized in that a process for controlling is executed.
  • the video decoding program executes a process of controlling an inter PU partition of a decoding target CU based on a predetermined minimum inter PU size and a size of a decoding target CU, on a computer that performs video decoding using inter prediction. It is characterized by making it.
  • the memory bandwidth can be reduced by restricting the use of a small inter PU partition.
  • an inter-PU partition based on the depth (that is, CU size) of a CU is used in video coding characterized by using a hierarchical coding unit.
  • the problem is solved by restricting.
  • the problem is solved by limiting the CU size that can be used by inter-PU partitions other than 2N ⁇ 2N.
  • the problem is solved by limiting inter-PU partition type syntax transmission of the PU header. According to the above example of the present invention, it is possible to suppress the memory band while improving the quality of the compressed video by suppressing the rate of the number of bits of the inter PU partition type syntax included in the bitstream.
  • Embodiment 1 shows a video encoding device comprising means for embedding information about a minimum inter PU size in a bitstream.
  • the available CU sizes are 128, 64, 32, 16, and 8 (that is, the LCU size is 128 and the SCU size is 8), and the minimum inter PU size (minInterPredUnitSize) is 8.
  • min_inter_pred_unit_hierarchy_depth information (min_inter_pred_unit_hierarchy_depth) related to the minimum inter PU size
  • the video encoding apparatus of the present embodiment is similar to the general video encoding apparatus shown in FIG. 15 in that a transform / quantizer 101, an entropy encoder 102, an inverse transform / An inverse quantizer 103, a buffer 104, a predictor 105, a multiplexer 106, and an encoding controller 107 are provided.
  • the minInterPredUnitSize uses the encoding controller 107 to transmit the inter PU partition type syntax with a CU size larger than minInterPredUnitSize. Has been supplied to. Further, the minInterPredUnitSize is also supplied to the multiplexer 106 in order to signal the minInterPredUnitSize to the video decoding apparatus.
  • the coding controller 107 causes the predictor 105 to calculate the cost (Rate-Distortion cost: RD cost) calculated from the coding distortion (energy of the error image of the input signal and the reconstructed picture) and the generated bit amount.
  • the encoding controller 107 determines the CU partition shape (the partition shape determined by split_coding_unit_flag as shown in FIG. 22) and the prediction parameter of each CU that minimize the RD cost.
  • the encoding controller 107 supplies the determined split_coding_unit_flag and the prediction parameter of each CU to the predictor 105 and the entropy encoder 102.
  • the prediction parameter is information related to prediction of the encoding target CU, such as a prediction mode (pred_mode), an intra PU partition type (intra_split_flag), an intra prediction direction, an inter PU partition type (inter_partitioning_idc), and a motion vector.
  • pred_mode a prediction mode
  • intra_split_flag an intra PU partition type
  • intra_partitioning_idc an intra prediction direction
  • motion vector a motion vector.
  • the encoding controller 107 selects an optimal PU partition type as a prediction parameter for a CU having a CU size larger than minInterPredUnitSize, and ⁇ 2N ⁇ 2N, N ⁇ N ⁇ for intra prediction, Select from a total of 10 types of inter prediction ⁇ 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, N ⁇ N, 2N ⁇ nU, 2N ⁇ nD, nL ⁇ 2N, nR ⁇ 2N ⁇ .
  • the encoding controller 107 sets ⁇ 2N ⁇ 2N, N ⁇ N ⁇ for intra prediction and ⁇ 2N ⁇ 2N ⁇ for inter prediction as the optimal PU partition type as a prediction parameter for a CU having a CU size equal to minInterPredUnitSize. Select from a total of three types. The encoding controller 107 selects an optimal PU partition type as a prediction parameter for a CU having a CU size less than minInterPredUnitSize from a total of two types of intra prediction ⁇ 2N ⁇ 2N, N ⁇ N ⁇ .
  • FIG. 2 is a flowchart showing the operation of the encoding controller 107 of the present embodiment regarding determination of PU partition type candidates.
  • the encoding controller 107 determines in step S101 that the CU size of the encoding target CU is larger than minInterPredUnitSize
  • the PU partition type candidate is intra-predicted ⁇ 2N ⁇ 2N. , N ⁇ N ⁇ and inter prediction ⁇ 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, N ⁇ N, 2N ⁇ nU, 2N ⁇ nD, nL ⁇ 2N, nR ⁇ 2N ⁇
  • a prediction parameter is determined based on the RD cost.
  • step S101 determines in step S101 that the CU size of the encoding target CU is equal to or smaller than minInterPredUnitSize, the process proceeds to step S103.
  • step S104 the PU partition type candidate is inter-predicted with intra prediction ⁇ 2N ⁇ 2N, N ⁇ N ⁇ .
  • step S106 three types of ⁇ 2N ⁇ 2N ⁇ are set, and the prediction parameter is determined based on the RD cost in step S106.
  • the PU partition type candidate is set to ⁇ 2N ⁇ 2N, N ⁇ N ⁇ for intra prediction. Two types are set in total, and the optimum PU partition type is determined as a prediction parameter based on the RD cost in step S106.
  • the predictor 105 selects a prediction signal corresponding to the prediction parameter of each CU determined by the encoding controller 107.
  • the input video of each CU having the shape determined by the encoding controller 107 is a prediction error image obtained by subtracting the prediction signal supplied from the predictor 105 and is input to the transform / quantizer 101.
  • the transform / quantizer 101 performs frequency conversion on the prediction error image to obtain a frequency conversion coefficient.
  • the transform / quantizer 101 quantizes the frequency transform coefficient with the quantization step width Qs to obtain a transform quantized value.
  • the entropy encoder 102 entropy-encodes the split_coding_unit_flag (see FIG. 22) supplied from the encoding controller 107, the prediction parameter, and the transform quantization value supplied from the transform / quantizer 101.
  • the inverse transform / inverse quantizer 103 inversely quantizes the transform quantization value with the quantization step width Qs. Further, the inverse transform / inverse quantizer 103 performs inverse frequency transform on the frequency transform coefficient obtained by inverse quantization. The reconstructed prediction error image subjected to the inverse frequency conversion is supplied with the prediction signal and supplied to the buffer 104.
  • the multiplexer 106 multiplexes and outputs the information on the minimum inter PU size (min_inter_pred_unit_hierarchy_depth ⁇ ⁇ ) and the output data of the entropy encoder 103.
  • the multiplexer 106 follows the log2_min_coding_unit_size_minus3 syntax and the max_coding_unit_hierarchy_depth syntax of the sequence parameter set as shown in the list shown in FIG.
  • Min_inter_pred_unit_hierarchy_depth syntax (log (logarithm) with 0 as the base of “2” of the value obtained by dividing minInterPredUnitSize by SCU size, 0 in this embodiment) is multiplexed.
  • the log2_min_coding_unit_size_minus3 syntax and max_coding_unit_hierarchy_depth syntax are information for determining the SCU size (minCodingUnitSize) and the LCU size (maxCodingUnitSize), respectively. minCodingUnitSize and maxCodingUnitSize are respectively calculated as follows.
  • MinCodingUnitSize 1 ⁇ (log2_min_coding_unit_size_minus3 + 3)
  • MaxCodingUnitSize 1 ⁇ (log2_min_coding_unit_size_minus3 + 3 + max_coding_unit_hierarchy_depth)
  • min_inter_pred_unit_hierarchy_depth syntax and minCodingUnitSize have the following relationship.
  • min_inter_pred_unit_hierarchy_depth log 2 (minInterPredUnitSize / minCodingUnitSize)
  • the video encoding device of the invention Based on the above-described operation, the video encoding device of the invention generates a bitstream.
  • the video encoding apparatus performs inter PU of the encoding target CU based on the predetermined minimum inter PU size and the CU size of the encoding target CU so that an inter PU less than the minimum inter PU size does not appear. Control the partition.
  • Memory bandwidth is reduced by preventing the appearance of inter PUs smaller than the minimum inter PU size.
  • the number of inter PU partition type syntax signaled is reduced by preventing an inter PU less than the minimum inter PU size from appearing, the rate of the code amount of the PU header in the bit stream is reduced, and the video Improves the quality.
  • the encoding control means in the video encoding apparatus of the present embodiment controls the inter PU partition based on a predetermined minimum inter PU size set externally. As an example, control is performed so that an inter PU partition type other than 2N ⁇ 2N is used only in a CU having a CU size larger than a predetermined size. Therefore, the probability of occurrence of a 2N ⁇ 2N inter PU partition is increased and the entropy is decreased, so that the efficiency of entropy coding is increased. Therefore, the quality of the compressed video can be maintained while reducing the memory bandwidth.
  • the video encoding apparatus embeds information related to a predetermined minimum inter PU size that is externally set in the bit stream so that the inter PU partition type syntax can be read from the bit stream in the same manner for video decoding. Is provided. Therefore, a predetermined size is signaled to the video decoding device, and interoperability between the video encoding device and the video decoding device can be improved.
  • Embodiment 2 The video encoding apparatus according to the second embodiment controls an inter PU partition type based on a predetermined minimum inter PU size set externally, and uses an inter PU partition based on the predetermined minimum inter PU size.
  • Coding control means for controlling entropy coding of type syntax, and means for embedding information on the minimum inter PU size in the bitstream for signaling information on the minimum inter PU size to the video decoding apparatus.
  • the CU size of the CU that transmits the inter PU partition type syntax is larger than the minimum inter PU size (minInterPredUnitSize).
  • the available CU sizes are 128, 64, 32, 16, and 8 (that is, the LCU size is 128 and the SCU size is 8), and the minInterPredUnitSize is 8. Therefore, in this embodiment, the CU sizes for embedding the inter PU partition type syntax in the bitstream are 128, 64, 32, and 16.
  • min_inter_pred_unit_hierarchy_depth information (min_inter_pred_unit_hierarchy_depth) related to the minimum inter PU size
  • the configuration of the video encoding device of the present embodiment is the same as the configuration of the video encoding device of the first embodiment shown in FIG.
  • the minInterPredUnitSize performs encoding control in order to transmit the inter PU partition type syntax with a CU size larger than minInterPredUnitSize. Is supplied to the vessel 107. Further, the minInterPredUnitSize is also supplied to the multiplexer 106 in order to signal the minInterPredUnitSize to the video decoding apparatus.
  • the coding controller 107 causes the predictor 105 to calculate the RD cost calculated from the coding distortion (energy of the error image of the input signal and the reconstructed picture) and the generated bit amount.
  • the encoding controller 107 determines the CU partition shape (the partition shape determined by split_coding_unit_flag as shown in FIG. 22) and the prediction parameter of each CU that minimize the RD cost.
  • the encoding controller 107 supplies the determined split_coding_unit_flag and the prediction parameter of each CU to the predictor 105 and the entropy encoder 102.
  • the prediction parameter is information related to prediction of the encoding target CU, such as a prediction mode (pred_mode), an intra PU partition type (intra_split_flag), an intra prediction direction, an inter PU partition type (inter_partitioning_idc), and a motion vector.
  • pred_mode a prediction mode
  • intra_split_flag an intra PU partition type
  • intra_partitioning_idc an intra prediction direction
  • motion vector a motion vector.
  • the encoding controller 107 selects an optimal PU partition type as a prediction parameter for a CU having a CU size larger than minInterPredUnitSize, and ⁇ 2N ⁇ 2N, N ⁇ N ⁇ and ⁇ 2N ⁇ 2N, 2N ⁇ N, N ⁇ 2N, N ⁇ N, 2N ⁇ nU, 2N ⁇ nD, nL ⁇ 2N, nR ⁇ 2N ⁇ of inter prediction are selected.
  • the encoding controller 107 sets ⁇ 2N ⁇ 2N, N ⁇ N ⁇ for intra prediction and ⁇ 2N ⁇ 2N ⁇ for inter prediction as the optimal PU partition type as a prediction parameter for a CU having a CU size equal to minInterPredUnitSize. Select from a total of three types. The encoding controller 107 selects an optimal PU partition type as a prediction parameter from ⁇ 2N ⁇ 2N, N ⁇ N ⁇ for intra prediction for a CU having a CU size less than minInterPredUnitSize.
  • the encoding controller 107 of the present embodiment does not entropy code so that inter_partitioning_idc is not entropy encoded.
  • the controller 102 is controlled.
  • the predictor 105 selects a prediction signal corresponding to the prediction parameter of each CU determined by the encoding controller 107.
  • the input video of each CU having the shape determined by the encoding controller 107 is a prediction error image obtained by subtracting the prediction signal supplied from the predictor 105 and is input to the transform / quantizer 101.
  • the transform / quantizer 101 performs frequency conversion on the prediction error image to obtain a frequency conversion coefficient.
  • the transform / quantizer 101 quantizes the frequency transform coefficient with the quantization step width Qs to obtain a transform quantized value.
  • the entropy encoder 102 entropy-encodes the split_coding_unit_flag (see FIG. 22) supplied from the encoding controller 107, the prediction parameter, and the transform quantization value supplied from the transform / quantizer 101.
  • the entropy encoder 102 encodes inter_partitioning_idc if the prediction mode of the entropy encoding target CU is inter prediction and the CU size is equal to or smaller than minInterPredUnitSize. do not do.
  • the inverse transform / inverse quantizer 103 inversely quantizes the transform quantization value with the quantization step width Qs. Further, the inverse transform / inverse quantizer 103 performs inverse frequency transform on the frequency transform coefficient obtained by inverse quantization. The reconstructed prediction error image subjected to the inverse frequency conversion is supplied with the prediction signal and supplied to the buffer 104.
  • the multiplexer 106 multiplexes and outputs the information on the minimum inter PU size (min_inter_pred_unit_hierarchy_depth) and the output data of the entropy encoder 102.
  • the multiplexer 106 follows the log2_min_coding_unit_size_minus3 syntax and the max_coding_unit_hierarchy_depth syntax of the sequence parameter set as shown in the list shown in FIG.
  • Min_inter_pred_unit_hierarchy_depth syntax (log (logarithm) with 0 as the base of “2” obtained by dividing minInterPredUnitSize by SCU size, 0 in this embodiment) is multiplexed.
  • the log2_min_coding_unit_size_minus3 syntax and max_coding_unit_hierarchy_depth syntax are information for determining the SCU size (minCodingUnitSize) and the LCU size (maxCodingUnitSize), respectively. minCodingUnitSize and maxCodingUnitSize are respectively calculated as follows.
  • MinCodingUnitSize 1 ⁇ (log2_min_coding_unit_size_minus3 + 3)
  • MaxCodingUnitSize 1 ⁇ (log2_min_coding_unit_size_minus3 + 3 + max_coding_unit_hierarchy_depth)
  • min_inter_pred_unit_hierarchy_depth syntax and minCodingUnitSize have the following relationship.
  • min_inter_pred_unit_hierarchy_depth log 2 (minInterPredUnitSize / minCodingUnitSize)
  • the video encoding device of this embodiment Based on the above-described operation, the video encoding device of this embodiment generates a bit stream.
  • inter-PU partition type syntax writing which is a feature of this embodiment, will be described with reference to the flowchart of FIG.
  • the entropy encoder 102 entropy-encodes split_coding_unit_flag in step S201.
  • the entropy encoder 102 performs entropy encoding on the prediction mode. That is, the pred_mode syntax is entropy encoded. If it is determined in step S203 that the prediction mode of the encoding target CU is inter prediction, and it is determined in step S204 that the CU size is equal to or smaller than minInterPredUnitSize, the encoding controller 107 performs entropy encoding. Control is performed so as to skip the entropy coding of the inter_partitioning_idc syntax in the device 102.
  • step S203 If it is determined in step S203 that the CU to be encoded is intra prediction, or if it is determined in step S204 that the CU size is larger than minInterPredUnitSize, the encoding controller 107 selects an entropy code in step S205.
  • the encoder 102 performs entropy encoding on the PU partition type information of the encoding target CU.
  • the pred_mode syntax and the inter_partitioning_idc syntax described above are signaled as shown in the list shown in FIG. 5 according to 4.1.10 Prediction unit syntax of Non-Patent Document 2.
  • the feature of this embodiment is that the inter_partitioning_idc syntax is signaled only in the PU header of a CU having a size larger than minInterPredUnitSize under the condition “if (currPredUnitSize> minInterPredUnitSize)”.
  • the video encoding apparatus of the present embodiment reduces the number of signaled inter PU partition type syntaxes.
  • the inter-PU partition type syntax of the PU header layer is not entropy encoded.
  • the video encoding apparatus of the present embodiment when the CU size of the encoding target CU exceeds a predetermined minimum inter PU size so that an inter PU less than the minimum inter PU size does not appear,
  • the inter-PU partition type syntax of the PU header layer is set to a predetermined inter-PU partition type and entropy-coded. Since no inter PU less than the minimum inter PU size appears, the memory bandwidth is reduced.
  • FIG. The video decoding device according to the third embodiment decodes the bitstream generated by the video encoding device according to the second embodiment.
  • the video decoding apparatus includes means for demultiplexing the minimum inter PU size information multiplexed into the bitstream, and a predetermined CU size for reading out the inter PU partition type based on the demultiplexed minimum inter PU size information.
  • CU size determining means for determining the inter PU partition type from the bit stream with the CU size determined by the CU size determining means.
  • the video decoding apparatus includes a demultiplexer 201, an entropy decoder 202, an inverse transform / inverse quantizer 203, a predictor 204, a buffer 205, and a decoding controller 206. .
  • the demultiplexer 201 demultiplexes the input bit stream, and extracts the minimum inter PU size information and the entropy-encoded video bit stream.
  • the demultiplexer 201 demultiplexes the min_inter_pred_unit_hierarchy_depth syntax following the log2_min_coding_unit_size_minus3 syntax and the max_coding_unit_hierarchy_depth syntax in the sequence parameter, as shown in the list shown in FIG. 3. Further, the demultiplexer 201 determines the minimum inter PU size (minInterPredUnitSize) in which the inter PU partition type syntax (inter_partitioning_idc syntax) is transmitted using the demultiplexed syntax value as follows.
  • MinInterPredUnitSize 1 ⁇ (log2_min_coding_unit_size_minus3 + 3 + min_inter_pred_unit_hierarchy_depth)
  • the demultiplexer 201 of the present embodiment also plays a role of determining the CU size for reading the inter PU partition type syntax based on the demultiplexed minimum inter PU size information.
  • the demultiplexer 201 supplies the minimum inter PU size to the decoding controller 206.
  • the entropy decoder 202 entropy decodes the video bitstream.
  • the entropy decoder 202 supplies the transform quantization value subjected to entropy decoding to the inverse transform / inverse quantizer 203.
  • the entropy decoder 202 supplies the entropy-decoded split_coding_unit_flag and the prediction parameter to the decoding controller 206.
  • the decoding controller 206 of the present embodiment sends the inter PU partition type syntax of the decoding target CU to the entropy decoder 202. To skip entropy decoding. Furthermore, the inter PU partition type of the decoding target CU is set to 2N ⁇ 2N. Note that when the decoding target CU size is less than minInterPredUnitSize, the prediction mode of the CU is only intra prediction.
  • the inverse transform / inverse quantizer 203 inversely quantizes the transform quantization values of luminance and color difference with the quantization step width. Further, the inverse transform / inverse quantizer 203 performs inverse frequency transform on the frequency transform coefficient obtained by inverse quantization.
  • the predictor 204 After the inverse frequency conversion, the predictor 204 generates a prediction signal using the reconstructed picture image stored in the buffer 205 based on the prediction parameter supplied from the decoding controller 206.
  • the reconstructed prediction error image subjected to inverse frequency transform by the inverse transform / inverse quantizer 203 is added with the prediction signal supplied from the predictor 204 and supplied to the buffer 205 as a reconstructed picture.
  • the reconstructed picture stored in the buffer 205 is output as a decoded image.
  • the video decoding apparatus Based on the above-described operation, the video decoding apparatus according to the present embodiment generates a decoded image.
  • the entropy decoder 202 entropy decodes the split_coding_unit_flag in step S301 to determine the size of the CU.
  • the entropy decoder 202 entropy-decodes the prediction mode. That is, the entropy decoder 202 entropy decodes the pred_mode syntax.
  • step S303 If it is determined in step S303 that the prediction mode is intra prediction, or if it is determined in step S304 that the determined CU size is larger than minInterPredUnitSize, the decoding controller 206 determines in step S306 that the entropy decoder Control is performed so that the entropy decoding of the PU partition type of the decoding target CU in 202 is not skipped, and the PU partition type of the CU is set to the PU partition type of the entropy decoding result.
  • the video encoding apparatus uses the list shown in FIG. 8 and the list shown in FIG. 9 as the minimum inter PU size information (min_inter_pred_unit_hierarchy_depth) used in the first embodiment. As shown in Fig. 4, multiplexing can be performed in a picture parameter set and a slice header. Similarly, the video decoding apparatus according to the present embodiment can demultiplex the min_inter_pred_unit_hierarchy_depth syntax from the picture parameter set and slice header.
  • the video encoding apparatus is configured to log “2”, which is a value obtained by dividing the min_inter_pred_unit_hierarchy_depth syntax by the LCU size (maxCodingUnitSize) by the minimum inter PU size (minInterPredUnitSize). It may be (logarithm). That is, the following formula may be used.
  • Min_inter_pred_unit_hierarchy_depth log 2 (maxCodingUnitSize / minInterPredUnitSize)
  • the video decoding apparatus can calculate the minimum inter PU size based on the min_inter_pred_unit_hierarchy_depth syntax as follows.
  • MinInterPredUnitSize 1 ⁇ (log2_min_coding_unit_size_minus3 + 3 + max_coding_unit_hierarchy_depth-min_inter_pred_unit_hierarchy_depth)
  • the memory bandwidth is reduced.
  • Embodiment 4 The video decoding apparatus according to the fourth embodiment decodes the bitstream generated by the video encoding apparatus according to the first embodiment.
  • the video decoding apparatus includes means for demultiplexing the minimum inter PU size information multiplexed in the bit stream, and a bit stream including the decoding target CU based on the demultiplexed minimum inter PU size information.
  • An error detecting means for detecting an error in the access unit is provided.
  • the access unit is a unit for storing encoded data for one picture as defined in 3.1 [access] unit of Non-Patent Document 1.
  • An error means a violation of a constraint based on the number of motion vectors allowed per predetermined area.
  • the video decoding apparatus includes a demultiplexer 201, an entropy decoder 202, an inverse transform / inverse quantizer 203, a predictor 204, a buffer 205, and an error detector 207. .
  • the demultiplexer 201 operates in the same manner as the demultiplexer 201 in the third embodiment, demultiplexes the input bitstream, and obtains the minimum inter PU size information and the entropy encoded video bitstream. To extract. Further, the minimum inter PU size is obtained, and the minimum inter PU size is supplied to the error detector 207.
  • the entropy decoder 202 entropy decodes the video bitstream.
  • the entropy decoder 202 supplies the transform quantization value subjected to entropy decoding to the inverse transform / inverse quantizer 203.
  • the entropy decoder 202 supplies the entropy-decoded split_coding_unit_flag and the prediction parameter to the error detector 207.
  • the error detector 207 detects an error of the prediction parameter supplied from the entropy decoder 202 based on the minimum inter PU size supplied from the demultiplexer 201, and supplies the prediction parameter to the predictor 204. The error detection operation will be described later. Note that the error detector 207 also serves as the decoding controller 206 in the third embodiment.
  • the inverse transform / inverse quantizer 203 operates in the same manner as the inverse transform / inverse quantizer 203 in the third embodiment.
  • the predictor 204 generates a prediction signal using the reconstructed picture image stored in the buffer 205 based on the prediction parameter supplied from the error detector 207.
  • the buffer 205 operates in the same manner as the buffer 205 in the third embodiment.
  • the video decoding apparatus Based on the above-described operation, the video decoding apparatus according to the present embodiment generates a decoded image.
  • step S401 the error detector 207 determines the CU size, prediction mode, and PU partition type.
  • step S402 the error detector 207 determines the prediction mode of the PU of the decoding target CU. If the prediction mode is intra prediction, the process ends. When the prediction mode is inter prediction, the process proceeds to step S403.
  • step S403 the error detector 207 compares the PU size of the decoding target CU with the minimum inter PU size. If the PU size of the decoding target CU is equal to or larger than the minimum inter PU size, the process ends. If the PU size of the decoding target CU is less than the minimum inter PU size, the process proceeds to step S404.
  • step S404 the error detector 207 determines that there is an error and notifies the error to the outside. For example, the address of the decoding target CU in which an error has occurred is output.
  • the error detector 207 detects an error in the access unit of the bit stream including the decoding target CU.
  • the information processing system illustrated in FIG. 12 includes a processor 1001, a program memory 1002, a storage medium 1003 for storing video data, and a storage medium 1004 for storing a bitstream.
  • the storage medium 1003 and the storage medium 1004 may be separate storage media, or may be storage areas composed of the same storage medium.
  • a magnetic storage medium such as a hard disk can be used as the storage medium.
  • the program memory 1002 stores a program for realizing the function of each block (except for the buffer block) shown in each of FIG. 1, FIG. 6, and FIG. Is done.
  • the processor 1001 implements the functions of the video encoding device or the video decoding device shown in FIG. 1, FIG. 6, or FIG. 10 by executing processing according to the program stored in the program memory 1002. .
  • FIG. 13 is a block diagram showing the main part of the video encoding apparatus according to the present invention.
  • a video encoding apparatus according to the present invention is a video encoding apparatus that performs video encoding using inter prediction, and includes a predetermined minimum inter PU size (PA) and encoding target CUs.
  • Coding control means 11 (for example, the coding controller 107 shown in FIG. 1) is provided that controls the inter PU partition type of the coding target CU based on the CU size (PB).
  • FIG. 14 is a block diagram showing the main part of the video decoding apparatus according to the present invention.
  • the video decoding apparatus according to the present invention is a video decoding apparatus that performs video decoding using inter prediction, and has a predetermined minimum inter PU size (PA) and the size (PB) of a decoding target CU.
  • a decoding control means 21 (for example, the decoding controller 207 shown in FIGS. 6 and 10) that controls the inter PU partition of the decoding target CU based on the above.
  • DESCRIPTION OF SYMBOLS 11 Coding control means 21 Decoding control means 101 Transformer / quantizer 102 Entropy coder 103 Inverse transform / dequantizer 104 Buffer 105 Predictor 106 Multiplexer 107,108 Encoding controller 201 Demultiplexer 202 Entropy decoder 203 Inverse transform / inverse quantizer 204 Predictor 205 Buffer 206 Decoding control unit 207 Error detector 1001 Processor 1002 Program memory 1003 Storage medium 1004 Storage medium

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 映像符号化装置は、インター予測を用いて映像符号化を行う映像符号化装置であって、所定の最小インターPUサイズ(PA)と、符号化対象CUのCUサイズ(PB)とに基づいて符号化対象CUのインターPUパーティションタイプを制御する符号化制御手段11を備える。映像復号装置は、所定の最小インターPUサイズ(PA)と、復号対象CUのサイズ(PB)とに基づいて復号対象CUのインターPUパーティションを制御する復号制御手段を備える。

Description

映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム
 本発明は、階層構造の符号化ユニットを用いる映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラムに関する。
 非特許文献1は、一般的な映像符号化方式及び映像復号方式を開示している。
 非特許文献1に記載されている映像符号化装置は、図15に示すように構成される。以下、図15に示される映像符号化装置を一般的な映像符号化装置と呼ぶ。
 図15を参照して、ディジタル化された映像の各フレームを入力としてビットストリームを出力する、一般的な映像符号化装置の構成と動作を説明する。
 図15に示された映像符号化装置は、変換/量子化器101、エントロピー符号化器102、逆変換/逆量子化器103、バッファ104、予測器105、多重化器106、及び符号化制御器108を備える。
 図15に示す映像符号化装置は、フレームをマクロブロック(MB:Macro Block )と呼ばれる16×16画素サイズのブロックに分割し、フレームの左上から順に各MBを符号化する。
 図16は、フレームの空間解像度がQCIF(Quarter Common Intermediate Format)の場合のブロック分割の例を示す説明図である。以下、説明の簡略化のために、輝度の画素値のみに着目して各装置の動作を説明する。
 ブロックに分割された入力映像は、予測器105から供給される予測信号が減じられて、予測誤差画像となり、変換/量子化器101に入力される。予測信号には、イントラ予測信号とインター予測信号の2種類がある。なお、インター予測信号を、フレーム間予測信号とも呼ぶ。
 それぞれの予測信号を説明する。イントラ予測信号は、バッファ104に格納された現在のピクチャと表示時刻が同一である再構築ピクチャの画像に基づいて生成される予測信号である。
 非特許文献1の8.3.1 Intra_4×4 prediction process for luma samples、8.3.2 Intra_8×8 prediction process for luma samples、及び8.3.3 Intra_16×16 prediction process for luma samplesを引用すると、3種類のブロックサイズのイントラ予測Intra_4×4、Intra_8×8、Intra_16×16がある。
 Intra_4×4とIntra_8×8は、図17の(a)と(c)を参照すると、それぞれ4×4ブロックサイズと8×8ブロックサイズのイントラ予測であることが分かる。ただし、図面の丸(○)はイントラ予測に用いる参照画素、つまり、現在のピクチャと表示時刻が同一である再構築ピクチャの画素である。
 Intra_4×4のイントラ予測では、再構築した周辺画素をそのまま参照画素として、図17の(b)に示す9種類の方向に参照画素をパディング(外挿)して予測信号が形成される。Intra_8×8のイントラ予測では、図17の(c)の右矢印の下に記載のローパスフィルタ(1/2,1/4,1/2)によって再構築ピクチャの画像の周辺画素を平滑化した画素を参照画素として、図17の(b)に示す9種類の方向に参照画素を外挿して予測信号が形成される。
 一方、Intra_16×16は、図18の(a)を参照すると、16×16ブロックサイズのイントラ予測であることが分かる。図17の場合と同様に図面の丸(○)はイントラ予測に用いる参照画素、つまり、現在のピクチャと表示時刻が同一である再構築ピクチャの画素である。Intra_16×16のイントラ予測では、再構築ピクチャの画像の周辺画素をそのまま参照画素として、図18の(b)に示す4種類の方向に参照画素を外挿して予測信号が形成される。
 以下、イントラ予測信号を用いて符号化されるMB及びブロックをそれぞれイントラMB及びイントラブロックと呼ぶ。イントラ予測のブロックサイズをイントラ予測ブロックサイズと呼ぶ。また、外挿の方向をイントラ予測方向と呼ぶ。なお、イントラ予測ブロックサイズ及びイントラ予測方向は、イントラ予測に関する予測パラメータである。
 インター予測信号は、バッファ104に格納された現在のピクチャと表示時刻が異なる再構築ピクチャの画像から生成される予測信号である。以下、インター予測信号を用いて符号化されるMB及びブロックをそれぞれインターMB及びインターブロックと呼ぶ。インター予測のブロックサイズ(インター予測ブロックサイズ)として、例えば、16×16,16×8,8×16,8×8,8×4,4×8,4×4を選択することができる。
 図19は、16×16のブロックサイズを例にしたインター予測の例を示す説明図である。図19に示す動きベクトルMV=(mvx,mvy)は、符号化対象ブロックに対する参照ピクチャのインター予測ブロック(インター予測信号)の平行移動量を示す、インター予測の予測パラメータである。AVCでは、符号化対象ブロックの符号化対象ピクチャに対するインター予測信号の参照ピクチャの方向を表すインター予測の方向に加えて、符号化対象ブロックのインター予測に用いる参照ピクチャを同定するための参照ピクチャインデックスもインター予測の予測パラメータである。AVCでは、バッファ104に格納された複数枚の参照ピクチャをインター予測に利用できるからである。
 AVCのインター予測では、1/4画素精度で動きベクトルを求めることができる。図20は、動き補償予測における輝度信号の補間処理を示す説明図である。図20において、Aは整数画素位置の画素信号、b、c、dは1/2画素精度の小数画素位置の画素信号、e、e、eは1/4画素精度の小数画素位置の画素信号を表わす。画素信号bは、水平方向の整数画素位置の画素に対して6タップのフィルタを適用して生成される。同様に、画素信号cは、垂直方向の整数画素位置の画素に対して6タップのフィルタを適用して生成される。画素信号dは、水平または垂直方向の1/2画素精度の小数画素位置の画素に対して6タップのフィルタを適用して生成される。6タップのフィルタ係数は[1, -5, 20, 20, -5, 1]/32 で表される。画素信号e、e、及び、eは、それぞれ、近傍の整数画素位置または小数画素画素位置の画素に対して2タップフィルタ[1, 1]/2を適用して生成される。
 イントラMBのみで符号化されたピクチャはIピクチャと呼ばれる。イントラMBだけでなくインターMBも含めて符号化されたピクチャはPピクチャと呼ばれる。インター予測に1枚の参照ピクチャだけでなく、さらに同時に2枚の参照ピクチャを用いるインターMBを含めて符号化されたピクチャはBピクチャと呼ばれる。また、Bピクチャにおいて、符号化対象ブロックの符号化対象ピクチャに対するインター予測信号の参照ピクチャの方向が過去のインター予測を前方向予測、符号化対象ブロックの符号化対象ピクチャに対するインター予測信号の参照ピクチャの方向が未来のインター予測を後方向予測、過去と未来を含む参照ピクチャを同時に2枚用いるインター予測を双方向予測とそれぞれ呼ぶ。なお、インター予測の方向(インター予測方向)は、インター予測の予測パラメータである。
 予測器105は、符号化制御器108の指示に応じて、入力映像の信号と予測信号とを比較して、予測誤差画像ブロックのエネルギーが最小となる予測パラメータを決定する。符号化制御器108は、決定した予測パラメータをエントロピー符号化器102に供給する。
 変換/量子化器101は、予測信号が減じられた画像(予測誤差画像)を周波数変換し、周波数変換係数を得る。
 さらに、変換/量子化器101は、所定の量子化ステップ幅Qs で、周波数変換係数を量子化する。以下、量子化された周波数変換係数を変換量子化値と呼ぶ。
 エントロピー符号化器102は、予測パラメータと変換量子化値をエントロピー符号化する。予測パラメータは、上述した予測モード(イントラ予測、インター予測)、イントラ予測ブロックサイズ、イントラ予測方向、インター予測ブロックサイズ、及び動きベクトルなど、MB及びブロックの予測に関連した情報である。
 逆変換/逆量子化器103は、量子化ステップ幅Qs で、変換量子化値を逆量子化する。さらに、逆変換/逆量子化器103は、逆量子化した周波数変換係数を逆周波数変換する。逆周波数変換された再構築予測誤差画像は、予測信号が加えられて、バッファ104に供給される。
 バッファ104は、供給される再構築画像を格納する。1フレーム分の再構築画像を再構築ピクチャと呼ぶ。
 多重化器106は、エントロピー符号化器102の出力データ、及び符号化パラメータを多重化して出力する。
 上述した動作に基づいて、映像符号化装置における多重化器106は、ビットストリームを生成する。
 非特許文献1に記載されている映像復号装置は、図21に示すように構成される。以下、図21に示される映像復号装置を一般的な映像復号装置と呼ぶ。
 図21を参照して、ビットストリームを入力として復号された映像フレームを出力する、一般的な映像復号装置の構成と動作を説明する。
 図21に示された映像復号装置は、多重化解除器201、エントロピー復号器202、逆変換/逆量子化器203、予測器204、及びバッファ205を備える。
多重化解除器201は、入力されるビットストリームを多重化解除して、エントロピー符号化された映像ビットストリームを抽出する。
 エントロピー復号器202は、映像ビットストリームをエントロピー復号する。エントロピー復号器202は、MB及びブロックの予測パラメータ及び変換量子化値をエントロピー復号し、逆変換/逆量子化器203及び予測器204に供給する。
 逆変換/逆量子化器203は、量子化ステップ幅で、変換量子化値を逆量子化する。さらに、逆変換/逆量子化器203は、逆量子化した周波数変換係数を逆周波数変換する。
 逆周波数変換後、予測器204は、エントロピー復号したMB及びブロックの予測パラメータに基づいて、バッファ205に格納された再構築ピクチャの画像を用いて予測信号を生成する。
 予測信号生成後、逆変換/逆量子化器203で逆周波数変換された再構築予測誤差画像は、予測器204から供給される予測信号が加えられて、再構築画像としてバッファ205に供給される。
 そして、バッファ205に格納された再構築ピクチャがデコード画像(デコード映像)として出力される。
 上述した動作に基づいて、一般的な映像復号装置はデコード画像を生成する。
ISO/IEC 14496-10 Advanced Video Coding "Test Model under Consideration", Document: JCTVC-B205, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 2nd Meeting: Geneva, CH, 21-28 July, 2010
 ところで、非特許文献2はTest Model under Consideration方式(TMuC方式)を開示している。TMuC方式は、非特許文献1に開示された方式とは異なり、図22に示す階層構造の符号化ユニット(Coding Tree Block (CTB))を用いる。本明細書において、CTBのブロックをCoding Unit (CU:符号化ユニット)と呼ぶ。
 なお、最大のCUをLargest Coding Unit (LCU)、最小のCUをSmallest Coding Unit(SCU)と呼ぶ。また、TMuC方式においては、CUに対する予測ユニットとしてPrediction Unit (PU)という概念(図23参照)が導入されている。PUは予測の基本単位であり、図23に示される{2N×2N、2N×N、N×2N、N×N、2N×nU、2N×nD、nL×2N、nR×2N}の8種類のPUパーティションタイプが定義されている。インター予測が用いられるPUをインターPU、イントラ予測が用いられるPUをイントラPUと呼ぶ。インター予測が用いられるPUパーティションをインターPUパーティション、イントラ予測が用いられるPUパーティションをイントラPUパーティションと呼ぶ。イントラPUパーティションは図23に示された形状のうち2N×2N、及びN×Nの正方形のみがサポートされている。以下、CU及びPUの1辺の長さをそれぞれCUサイズ及びPUサイズと呼ぶ。
 また、TMuC方式では小数精度の予測画像を求めるために最大で12タップのフィルタを用いることができる。画素位置とフィルタの係数の関係は以下のとおりである。
Figure JPOXMLDOC01-appb-T000001
 画素位置について、図24を用いて説明する。図24において、A、Eが整数画素位置の画素であるとする。このとき、bが1/4画素位置の画素、cが1/2画素位置の画素、dが3/4画素位置の画素である。垂直方向も同様となる。
 図20に示す画素bまたは画素cは、水平または垂直方向の1/2画素位置用フィルタを1回適用することによって生成される。画素eは1/4画素位置用のフィルタを1回適用することによって生成される。
 図25を参照して、画素eや画素eのように、その画素位置が水平垂直両方とも小数精度位置であり、そのうち少なくともどちらかが1/4画素位置である場合の小数画素生成の例を説明する。図25において、画素Aが整数画素位置の画素、画素cが求めたい小数画素位置の画素であるとする。このとき、まず、画素bが垂直方向の1/4画素位置用フィルタを適用することによって生成される。続いて、画素cが、小数画素bに対して、水平方向の3/4画素位置用フィルタを適用することによって生成される。なお、非特許文献2の8.3 Interpolation Methods には、小数画素生成のより詳細な説明が記載されている。
 TMuC方式ではすべての階層のCUのPUヘッダでPUパーティションタイプを示すシンタクス(非特許文献2の4.1.10 Prediction unit syntax の表記に従えば、イントラ予測の場合はintra_split_flag、インター予測の場合はinter_partitioning_idc)を出力ビットストリームに埋め込む。以後、intra_split_flagシンタクスをイントラPUパーティションタイプシンタクス、inter_partitioning_idcシンタクスをインターPUパーティションタイプシンタクスと呼ぶ。
 それぞれのLCU内に小さいサイズのCUが多く存在するとき、ビットストリームに含まれるインターPUパーティションタイプシンタクスのビット数の率が高くなり、圧縮映像の品質が低下する課題がある。
 また、TMuC方式ではインターPUパーティションのサイズが小さいほど、参照ピクチャに対するメモリアクセスが増加し、メモリ帯域を圧迫する課題がある。特に、TMuC方式では12タップのフィルタを用いて小数画素を生成するため、メモリ帯域をより圧迫する。
 図26は、12タップフィルタを用いるときのメモリアクセス領域を説明するための説明図である。図26(A)はN×NのPUパーティションタイプが選択されたときの、1つのインターPUパーティションのメモリアクセス領域、図26(B)は2N×2NのインターPUパーティションタイプが選択されたときのメモリアクセス領域を表わす。
 N×Nが選択されたとき、図26(A)における破線で囲まれたサイズのメモリアクセスを0,1,2,3のインターPUパーティションごとに計4回行うため、メモリアクセス量は、4(N+11)=4N+88N+484に参照ピクチャのビット量を乗算した値になる。2N×2NのインターPUパーティションのメモリアクセス量が(2N+11)=4N+44N+121に参照ピクチャのビット量を乗算した値であることから、N×NのインターPUパーティションのメモリアクセス量は2N×2Nのメモリアクセス量よりも大きくなる。
 例えば、N=4、片方向予測、画素値のビット精度が8bitのときの8×8 CUにおけるインターPUのメモリアクセス量を考える。2N×2NのインターPUパーティションにおけるメモリアクセス量は19×19×1×8bit = 2888bitであるのに対し、N×NのインターPUパーティションにおけるメモリアクセス量は15×15×4×8bit =7200bitとなり、約2.5倍のメモリアクセス量となる。
 さらに、LCU単位では、LCUのブロックサイズが128×128のとき、LCUを1個のインターPUパーティションで予測するときのメモリアクセス量は139×139×1×8bit=154568bitであるのに対して、LCUを全て4×4インターPUパーティションで予測するとき(すなわち、LCUを1024個のインターPUパーティションで予測するとき)のメモリアクセス量は15×15×1024×8bit=1843200bitとなり、約12倍のメモリアクセス量となる。
 本発明は、所定面積当たりのメモリ帯域を削減することを目的とする。
 本発明による映像符号化装置は、インター予測を用いて映像符号化を行う映像符号化装置であって、所定の最小インターPUサイズと、符号化対象CUのCUサイズとに基づいて符号化対象CUのインターPUパーティションタイプを制御する符号化制御手段を備えることを特徴とする。
 本発明による映像復号装置は、インター予測を用いて映像復号を行う映像復号装置であって、所定の最小インターPUサイズと、復号対象CUのサイズとに基づいて復号対象CUのインターPUパーティションを制御する復号制御手段を備えることを特徴とする。
 本発明による映像符号化方法は、インター予測を用いて映像符号化を行う映像符号化方法であって、所定の最小インターPUサイズと、符号化対象CUのCUサイズとに基づいて符号化対象CUのインターPUパーティションタイプを制御することを特徴とする。
 本発明による映像復号方法は、インター予測を用いて映像復号を行う映像復号方法であって、所定の最小インターPUサイズと、復号対象CUのサイズとに基づいて復号対象CUのインターPUパーティションを制御することを特徴とする。
 本発明による映像符号化プログラムは、インター予測を用いて映像符号化を行うコンピュータに、所定の最小インターPUサイズと、符号化対象CUのCUサイズとに基づいて符号化対象CUのインターPUパーティションタイプを制御する処理を実行させることを特徴とする。
 本発明による映像復号プログラムは、インター予測を用いて映像復号を行うコンピュータに、所定の最小インターPUサイズと、復号対象CUのサイズとに基づいて復号対象CUのインターPUパーティションを制御する処理を実行させることを特徴とする。
 本発明によれば、小さなインターPUパーティションの使用を制限してメモリ帯域を削減できる。
第1の実施形態の映像符号化装置のブロック図である。 PUパーティションタイプの候補の決定処理を示すフローチャートである。 シーケンスパラメータセットにおける最小インターPUサイズに関する情報を示すリストの説明図である。 PUヘッダ書き込みの動作を示すフローチャートである。 PUシンタクスにおけるinter_partitioning_idcシンタクスに関する情報を示すリストの説明図である。 第2の実施形態の映像復号装置のブロック図である。 PUヘッダ読み込みの動作を示すフローチャートである。 ピクチャパラメータセットにおける最小インターPUサイズに関する情報を示すリストの説明図である。 スライスヘッダにおける最小インターPUサイズに関する情報を示すリストの説明図である。 第4の実施形態の映像復号装置のブロック図である。 エラー検出の動作を示すフローチャートである。 本発明による映像符号化装置及び映像復号装置の機能を実現可能な情報処理システムの構成例を示すブロック図である。 本発明による映像符号化装置の主要部を示すブロック図である。 本発明による映像復号装置の主要部を示すブロック図である。 一般的な映像符号化装置のブロック図である。 ブロック分割の例を示す説明図である。 Intra_4×4とIntra_8×8のイントラ予測を説明するための説明図である。 Intra_16×16のイントラ予測を説明するための説明図である。 インター予測の例を示す説明図である。 動き補償予測における輝度信号の補間処理を示す説明図である。 一般的な映像復号装置のブロック図である。 CTBを説明するための説明図である。 PUを説明するための説明図である。 小数画素位置を説明するための説明図である。 TMuC方式の12タップフィルタを用いた小数画素生成方法を説明するための説明図である。 12タップフィルタを用いて小数画素を生成するときのメモリアクセス範囲を説明するための説明図である。
 上述した一般的技術の課題を解決するために、本発明では、階層構造の符号化ユニットを用いることを特徴とする映像符号化において、CUのdepth (すなわち、CUサイズ)に基づいてインターPUパーティションを制限することで課題を解決する。本発明の一例では、2N×2N以外のインターPUパーティションが使用可能なCUサイズを制限することによって課題を解決する。本発明の別の一例では、PUヘッダのインターPUパーティションタイプシンタクス伝送を制限することによって課題を解決する。本発明の上記の例によって、ビットストリームに含まれるインターPUパーティションタイプシンタクスのビット数の率が低く抑えて圧縮映像の品質を向上させつつ、メモリ帯域を抑制できる。
実施形態1.
 第1の実施形態では、外部設定される所定の最小インターPUサイズに基づいてインターPUパーティションタイプを制御する符号化制御手段、及び、最小インターPUサイズに関する情報を映像復号装置にシグナリングするための、最小インターPUサイズに関する情報をビットストリームに埋め込む手段を備える映像符号化装置を示す。
 本実施形態では、利用可能なCUサイズを128,64,32,16,8(つまり、LCUサイズが128、SCUサイズが8である)、最小インターPUサイズ(minInterPredUnitSize)を8とする。
 さらに、本実施形態では、最小インターPUサイズに関する情報(min_inter_pred_unit_hierarchy_depth )として、最小インターPUサイズ(8)をSCUサイズ(8)で割った値の”2”を底とするlog (対数)とする。よって、本実施形態では、ビットストリームに多重化されるmin_inter_pred_unit_hierarchy_depthの値は、0(=log (8/8))となる。
 図1に示すように、本実施形態の映像符号化装置は、図15に示された一般的な映像符号化装置と同様に、変換/量子化器101、エントロピー符号化器102、逆変換/逆量子化器103、バッファ104、予測器105、多重化器106、及び符号化制御器107を備える。
 図1に示す本実施形態の映像符号化装置では、図15に示す映像符号化装置とは異なり、minInterPredUnitSizeより大きいCUサイズでインターPUパーティションタイプシンタクスを伝送するために、minInterPredUnitSizeが符号化制御器107に供給されている。さらに、minInterPredUnitSizeを映像復号装置にシグナリングするために、minInterPredUnitSizeが多重化器106にも供給されている。
 符号化制御器107は、符号化歪み(入力信号と再構築ピクチャの誤差画像のエネルギー)と発生ビット量から計算されるコスト(Rate-Distortion コスト:R-D コスト)を予測器105に計算させる。符号化制御器107は、R-D コストが最小となる、CU分割形状(図22に示したように、split_coding_unit_flagによって決定する分割形状)、及び、各CUの予測パラメータを決定する。符号化制御器107は、決定したsplit_coding_unit_flag及び各CUの予測パラメータを予測器105及びエントロピー符号化器102に供給する。予測パラメータは、予測モード(pred_mode )、イントラPUパーティションタイプ(intra_split_flag)、イントラ予測方向、インターPUパーティションタイプ(inter_partitioning_idc)、及び動きベクトルなど、符号化対象CUの予測に関連した情報である。
 ただし、本実施形態の符号化制御器107は、一例として、minInterPredUnitSizeより大きいCUサイズのCUに対して、予測パラメータとして最適なPUパーティションタイプを、イントラ予測の{2N×2N、N×N}、インター予測の{2N×2N、2N×N、N×2N、N×N、2N×nU、2N×nD、nL×2N、nR×2N}の計10種類から選択する。符号化制御器107は、minInterPredUnitSizeと等しいCUサイズのCUに対して、予測パラメータとして最適なPUパーティションタイプを、イントラ予測の{2N×2N、N×N}、インター予測の{2N×2N}の計3種類から選択する。符号化制御器107は、minInterPredUnitSize未満のCUサイズのCUに対して、予測パラメータとして最適なPUパーティションタイプをイントラ予測の{2N×2N、N×N}の計2種類から選択する。
 図2は、PUパーティションタイプの候補の決定に関する本実施形態の符号化制御器107の動作を示すフローチャートである。
 図2に示すように、符号化制御器107は、ステップS101で、符号化対象CUのCUサイズがminInterPredUnitSizeより大きいと判定したとき、ステップS102で、PUパーティションタイプの候補をイントラ予測{2N×2N、N×N}とインター予測{2N×2N、2N×N、N×2N、N×N、2N×nU、2N×nD、nL×2N、nR×2N}の計10種類に設定し、ステップS106でR-D コストに基づいて予測パラメータを決定する。
 ステップS101で符号化制御器107が符号化対象CUのCUサイズがminInterPredUnitSize以下であると判定したとき、ステップS103に進む。
 符号化制御器107は、ステップS103で符号化対象CUのCUサイズがminInterPredUnitSizeと等しいと判定したとき、ステップS104で、PUパーティションタイプの候補をイントラ予測{2N×2N、N×N}とインター予測で{2N×2N}の計3種類に設定し、ステップS106でR-D コストに基づいて予測パラメータを決定する。
 符号化制御器107は、ステップS103で符号化対象CUのCUサイズがminInterPredUnitSize未満であると判定したとき、ステップS105で、PUパーティションタイプの候補をイントラ予測の{2N×2N、N×N}の計2種類と設定し、ステップS106でR-D コストに基づいて予測パラメータとして最適なPUパーティションタイプを決定する。
 予測器105は、符号化制御器107が決定した各CUの予測パラメータに対応する予測信号を選定する。
 符号化制御器107が決定した形状の各CUの入力映像は、予測器105から供給される予測信号が減じられて予測誤差画像となり、変換/量子化器101に入力される。
 変換/量子化器101は、予測誤差画像を周波数変換し、周波数変換係数を得る。
 さらに、変換/量子化器101は、量子化ステップ幅Qs で、周波数変換係数を量子化し、変換量子化値を得る。
 エントロピー符号化器102は、符号化制御器107から供給されるsplit_coding_unit_flag(図22参照)、予測パラメータ、及び変換/量子化器101から供給される変換量子化値をエントロピー符号化する。
 逆変換/逆量子化器103は、量子化ステップ幅Qs で、変換量子化値を逆量子化する。さらに、逆変換/逆量子化器103は、逆量子化した周波数変換係数を逆周波数変換する。逆周波数変換された再構築予測誤差画像は、予測信号が加えられて、バッファ104に供給される。
 多重化器106は、最小インターPUサイズに関する情報(min_inter_pred_unit_hierarchy_depth )、及びエントロピー符号化器103の出力データを多重化して出力する。非特許文献2の4.1.2 Sequence parameter set RBSP syntaxの表記に従えば、多重化器106は、図3に示すリストに表されるように、シーケンスパラメータセットのlog2_min_coding_unit_size_minus3シンタクスとmax_coding_unit_hierarchy_depth シンタクスに後続させて、min_inter_pred_unit_hierarchy_depth シンタクス(minInterPredUnitSizeをSCUサイズで割った値の”2”を底とするlog (対数)、本実施形態では0)を多重化する。ただし、log2_min_coding_unit_size_minus3シンタクス及びmax_coding_unit_hierarchy_depth シンタクスは、それぞれ、SCUサイズ(minCodingUnitSize )及びLCUサイズ(maxCodingUnitSize )を決定するための情報である。minCodingUnitSize とmaxCodingUnitSize は、それぞれ、以下のように計算される。
 minCodingUnitSize =1<<(log2_min_coding_unit_size_minus3+3)
 maxCodingUnitSize =1<<(log2_min_coding_unit_size_minus3+3+max_coding_unit_hierarchy_depth )
 また、min_inter_pred_unit_hierarchy_depth シンタクスとminCodingUnitSize には以下の関係がある。
 min_inter_pred_unit_hierarchy_depth =log (minInterPredUnitSize /minCodingUnitSize )
 上述した動作に基づいて、発明の映像符号化装置はビットストリームを生成する。
 本実施形態の映像符号化装置は、最小インターPUサイズ未満のインターPUが出現しないように、所定の最小インターPUサイズ、及び、符号化対象CUのCUサイズに基づいて符号化対象CUのインターPUパーティションを制御する。
 最小インターPUサイズ未満のインターPUが出現しないようにすることによって、メモリ帯域が削減される。また、最小インターPUサイズ未満のインターPUが出現しないようにすることによって、シグナリングされるインターPUパーティションタイプシンタクスの個数が削減されるので、ビットストリームに占めるPUヘッダの符号量の割合が小さくなり映像の品質が改善する。
 本実施形態の映像符号化装置における符号化制御手段は、外部設定される所定の最小インターPUサイズに基づいてインターPUパーティションを制御する。一例として、2N×2N以外のインターPUパーティションタイプを、所定のサイズより大きなCUサイズのCUでのみ使用するように制御する。よって、2N×2NのインターPUパーティションの発生確率が増加し、エントロピーが減少するため、エントロピー符号化の効率が上がる。よって、メモリ帯域を削減しつつ圧縮映像の品質を保持できる。
 また、本実施形態の映像符号化装置は、映像復号についても同様にインターPUパーティションタイプシンタクスをビットストリームから読み出せるように、外部設定される所定の最小インターPUサイズに関する情報をビットストリームに埋め込む手段を備える。よって、映像復号装置に所定のサイズがシグナリングされるようになり、映像符号化装置と映像復号装置の相互運用性を高めることができる。
実施形態2.
 第2の実施形態の映像符号化装置は、外部設定される所定の最小インターPUサイズに基づいてインターPUパーティションタイプを制御し、かつ、上記の所定の最小インターPUサイズに基づいて、インターPUパーティションタイプシンタクスのエントロピー符号化を制御する符号化制御手段、及び、上記の最小インターPUサイズに関する情報を映像復号装置にシグナリングするための、最小インターPUサイズに関する情報をビットストリームに埋め込む手段を備える。
 本実施形態では、インターPUパーティションタイプシンタクスを伝送するCUのCUサイズは、上記の最小インターPUサイズ(minInterPredUnitSize)より大きいとする。また、本実施形態では、利用可能なCUサイズを128,64,32,16,8(つまり、LCUサイズが128、SCUサイズが8である)、minInterPredUnitSizeを8とする。よって、本実施形態では、インターPUパーティションタイプシンタクスをビットストリームに埋め込むCUサイズは128,64,32,16になる。
 さらに、本実施形態では、最小インターPUサイズに関する情報(min_inter_pred_unit_hierarchy_depth )として、最小インターPUサイズ(8)をSCUサイズ(8)で割った値の”2”を底とするlog (対数)とする。よって、本実施形態では、ビットストリームに多重化されるmin_inter_pred_unit_hierarchy_depth の値は、0(=log (8/8))となる。
 本実施形態の映像符号化装置の構成は、図1に示された第1の実施形態の映像符号化装置の構成と同様である。
 図1に示すように、本実施形態の映像符号化装置では、図15に示す映像符号化装置とは異なり、minInterPredUnitSizeより大きいCUサイズでインターPUパーティションタイプシンタクスを伝送するためにminInterPredUnitSizeが符号化制御器107に供給されている。さらに、minInterPredUnitSizeを映像復号装置にシグナリングするために、minInterPredUnitSizeが多重化器106にも供給されている。
 符号化制御器107は、符号化歪み(入力信号と再構築ピクチャの誤差画像のエネルギー)と発生ビット量から計算されるR-D コストを予測器105に計算させる。符号化制御器107は、R-D コストが最小となる、CU分割形状(図22に示したように、split_coding_unit_flagによって決定する分割形状)、及び、各CUの予測パラメータを決定する。符号化制御器107は、決定したsplit_coding_unit_flag及び各CUの予測パラメータを予測器105及びエントロピー符号化器102に供給する。予測パラメータは、予測モード(pred_mode )、イントラPUパーティションタイプ(intra_split_flag)、イントラ予測方向、インターPUパーティションタイプ(inter_partitioning_idc)、及び動きベクトルなど、符号化対象CUの予測に関連した情報である。
 本実施形態の符号化制御器107は、第1実施形態と同様に、minInterPredUnitSizeより大きいCUサイズのCUに対しては、予測パラメータとして最適なPUパーティションタイプを、イントラ予測の{2N×2N、N×N}、インター予測の{2N×2N、2N×N、N×2N、N×N、2N×nU、2N×nD、nL×2N、nR×2N}の計10種類から選択する。符号化制御器107は、minInterPredUnitSizeと等しいCUサイズのCUに対して、予測パラメータとして最適なPUパーティションタイプを、イントラ予測の{2N×2N、N×N}、インター予測の{2N×2N}の計3種類から選択する。符号化制御器107は、minInterPredUnitSize未満のCUサイズのCUに対して、予測パラメータとして最適なPUパーティションタイプを、イントラ予測の{2N×2N、N×N}から選択する。
 ただし、本実施形態の符号化制御器107は、エントロピー符号化対象CUの予測モードがインター予測であり、かつ、そのCUサイズがminInterPredUnitSize以下である場合は、inter_partitioning_idcをエントロピー符号化しないようにエントロピー符号化器102を制御する。
 予測器105は、符号化制御器107が決定した各CUの予測パラメータに対応する予測信号を選定する。
 符号化制御器107が決定した形状の各CUの入力映像は、予測器105から供給される予測信号が減じられて予測誤差画像となり、変換/量子化器101に入力される。
 変換/量子化器101は、予測誤差画像を周波数変換し、周波数変換係数を得る。
 さらに、変換/量子化器101は、量子化ステップ幅Qs で、周波数変換係数を量子化し、変換量子化値を得る。
 エントロピー符号化器102は、符号化制御器107から供給されるsplit_coding_unit_flag(図22参照)、予測パラメータ、及び変換/量子化器101から供給される変換量子化値をエントロピー符号化する。ただし、上述したように、本実施形態のエントロピー符号化器102は、エントロピー符号化対象CUの予測モードがインター予測であり、かつ、そのCUサイズがminInterPredUnitSize以下である場合は、inter_partitioning_idcをエントロピー符号化しない。
 逆変換/逆量子化器103は、量子化ステップ幅Qs で、変換量子化値を逆量子化する。さらに、逆変換/逆量子化器103は、逆量子化した周波数変換係数を逆周波数変換する。逆周波数変換された再構築予測誤差画像は、予測信号が加えられて、バッファ104に供給される。
 多重化器106は、最小インターPUサイズに関する情報(min_inter_pred_unit_hierarchy_depth )、及びエントロピー符号化器102の出力データを多重化して出力する。非特許文献2の4.1.2 Sequence parameter set RBSP syntaxの表記に従えば、多重化器106は、図3に示すリストに表されるように、シーケンスパラメータセットのlog2_min_coding_unit_size_minus3シンタクスとmax_coding_unit_hierarchy_depth シンタクスに後続させて、min_inter_pred_unit_hierarchy_depth シンタクス(minInterPredUnitSizeをSCUサイズで割った値の”2”を底とするlog (対数)、本実施形態においては0)を多重化する。ただし、log2_min_coding_unit_size_minus3シンタクス及びmax_coding_unit_hierarchy_depth シンタクスは、それぞれ、SCUサイズ(minCodingUnitSize )及びLCUサイズ(maxCodingUnitSize )を決定するための情報である。minCodingUnitSize とmaxCodingUnitSize は、それぞれ、以下のように計算される。
 minCodingUnitSize =1<<(log2_min_coding_unit_size_minus3+3)
 maxCodingUnitSize =1<<(log2_min_coding_unit_size_minus3+3+max_coding_unit_hierarchy_depth )
 また、min_inter_pred_unit_hierarchy_depth シンタクスとminCodingUnitSize には以下の関係がある。
 min_inter_pred_unit_hierarchy_depth =log (minInterPredUnitSize /minCodingUnitSize )
 上述した動作に基づいて、本実施形態の映像符号化装置はビットストリームを生成する。
 次に、本実施形態の特徴であるインターPUパーティションタイプシンタクス書き込みの動作を図4のフローチャートを参照して説明する。
 図4に示すように、エントロピー符号化器102は、ステップS201で、split_coding_unit_flagをエントロピー符号化する。また、ステップS202で、エントロピー符号化器102は、予測モードをエントロピー符号化する。すなわち、pred_mode シンタクスをエントロピー符号化する。ステップS203で符号化対象CUの予測モードがインター予測であると判定し、かつ、ステップS204でCUサイズがminInterPredUnitSize以下のサイズであると判定した場合には、符号化制御器107は、エントロピー符号化器102におけるinter_partitioning_idcシンタクスのエントロピー符号化をスキップするように制御する。なお、ステップS203で符号化対象CUがイントラ予測であると判定した場合、又は、ステップS204でCUサイズがminInterPredUnitSizeより大きいと判定した場合には、ステップS205で、符号化制御器107は、エントロピー符号化器102が該符号化対象CUのPUパーティションタイプ情報をエントロピー符号化するように制御する。
 なお、上述したpred_mode シンタクス、及びinter_partitioning_idcシンタクスは、非特許文献2の4.1.10 Prediction unit syntax の表記に従えば、図5に示すリストに表されるようにシグナリングされる。" if(currPredUnitSize > minInterPredUnitSize )" の条件によって、minInterPredUnitSizeより大きなサイズのCUのPUヘッダのみにおいて、inter_partitioning_idcシンタクスがシグナリングされることが、本実施形態の特徴である。
 本実施形態の映像符号化装置は、シグナリングされるインターPUパーティションタイプシンタクスの個数を削減するように、符号化対象CUのCUサイズが所定の最小インターPUサイズ以下のときに、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー符号化させない。シグナリングされるインターPUパーティションタイプシンタクスの個数を削減することによって、ビットストリームを占めるPUヘッダの符号量の割合が小さくなるので、映像の品質がさらに改善する。
 また、本実施形態の映像符号化装置は、最小インターPUサイズ未満のインターPUが出現しないように、符号化対象CUのCUサイズが所定の最小インターPUサイズを越えるときに、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスを所定のインターPUパーティションタイプに設定してエントロピー符号化させる。最小インターPUサイズ未満のインターPUが出現しないことによって、メモリ帯域が削減される。
実施形態3.
 第3の実施形態の映像復号装置は、第2の実施形態の映像符号化装置が生成したビットストリームを復号する。
 本実施形態の映像復号装置は、ビットストリームに多重化された最小インターPUサイズ情報を多重化解除する手段、多重化解除した最小インターPUサイズ情報に基づいてインターPUパーティションタイプを読み出す所定のCUサイズを決定するCUサイズ決定手段、及び、CUサイズ決定手段が決定したCUサイズでインターPUパーティションタイプをビットストリームから読み出す読み出し手段を備えることを特徴とする。
 図6に示すように、本実施形態の映像復号装置は、多重化解除器201、エントロピー復号器202、逆変換/逆量子化器203、予測器204、バッファ205、及び復号制御器206を備える。
 多重化解除器201は、入力されるビットストリームを多重化解除して、最小インターPUサイズ情報、及びエントロピー符号化された映像ビットストリームを抽出する。多重化解除器201は、図3に示すリストに示されるように、シーケンスパラメータにおいて、log2_min_coding_unit_size_minus3シンタクスとmax_coding_unit_hierarchy_depth シンタクスに後続するmin_inter_pred_unit_hierarchy_depth シンタクスを多重化解除する。さらに、多重化解除器201は、多重化解除したシンタクスの値を用いて、インターPUパーティションタイプシンタクス(inter_partitioning_idcシンタクス)が伝送される最小インターPUサイズ(minInterPredUnitSize)を以下のように決定する。
 minInterPredUnitSize=1<<(log2_min_coding_unit_size_minus3+3+min_inter_pred_unit_hierarchy_depth )
 すなわち、本実施形態の多重化解除器201は、多重化解除した最小インターPUサイズ情報に基づいてインターPUパーティションタイプシンタクスを読み出すCUサイズを決定する役割も担っている。
 さらに、多重化解除器201は、最小インターPUサイズを復号制御器206に供給する。
 エントロピー復号器202は、映像ビットストリームをエントロピー復号する。エントロピー復号器202は、エントロピー復号した変換量子化値を逆変換/逆量子化器203に供給する。エントロピー復号器202は、エントロピー復号したsplit_coding_unit_flag及び予測パラメータを復号制御器206に供給する。
 ただし、本実施形態の復号制御器206は、復号対象CUの予測モードがインター予測であり、かつ、そのCUサイズがminInterPredUnitSizeであるときには、エントロピー復号器202に該復号対象CUのインターPUパーティションタイプシンタクスのエントロピー復号をスキップさせる。さらに、該復号対象CUのインターPUパーティションタイプを2N×2Nに設定する。なお、復号対象CUのCUサイズがminInterPredUnitSize未満であるとき、そのCUの予測モードはイントラ予測としかならない。
 逆変換/逆量子化器203は、量子化ステップ幅で、輝度及び色差の変換量子化値を逆量子化する。さらに、逆変換/逆量子化器203は、逆量子化した周波数変換係数を逆周波数変換する。
 逆周波数変換後、予測器204は、復号制御器206から供給される予測パラメータに基づいて、バッファ205に格納された再構築ピクチャの画像を用いて予測信号を生成する。
 逆変換/逆量子化器203で逆周波数変換された再構築予測誤差画像は、予測器204から供給される予測信号が加えられて、再構築ピクチャとしてバッファ205に供給される。
 そして、バッファ205に格納された再構築ピクチャがデコード画像として出力される。
 上述した動作に基づいて、本実施形態の映像復号装置はデコード画像を生成する。
 次に、本実施形態の特徴であるインターPUパーティションタイプシンタクス読み込みの動作を図7のフローチャートを参照して説明する。
 図7に示すように、エントロピー復号器202は、ステップS301で、split_coding_unit_flagをエントロピー復号してCUのサイズを確定する。 また、ステップS302で、エントロピー復号器202は、予測モードをエントロピー復号する。すなわち、エントロピー復号器202は、pred_mode シンタクスをエントロピー復号する。 また、ステップS303で、予測モードがインター予測であると判定し、かつ、ステップS304で、確定したCUサイズがminInterPredUnitSizeであると判定したとき、ステップS305で、復号制御器206は、エントロピー復号器202におけるインターPUパーティションタイプのエントロピー復号をスキップするように制御し、該CUのPUパーティションタイプを2N×2Nと設定するように制御する(inter_partitioning_idc=0とする)。 
 なお、ステップS303で、予測モードがイントラ予測であると判定した場合、又は、ステップS304で、確定したCUサイズがminInterPredUnitSizeより大きいと判定した場合、復号制御器206は、ステップS306で、エントロピー復号器202における該復号対象CUのPUパーティションタイプのエントロピー復号をスキップしないように制御し、該CUのPUパーティションタイプをエントロピー復号結果のPUパーティションタイプに設定する。
 また、第1の実施形態及び第2の実施形態の映像符号化装置は、第1の実施形態で利用された最小インターPUサイズ情報(min_inter_pred_unit_hierarchy_depth )を、図8に示すリストや図9に示すリストに表されているように、ピクチャパラメータセットやスライスヘッダにおいて多重化できる。同様に、本実施形態の映像復号装置は、ピクチャパラメータセットやスライスヘッダからmin_inter_pred_unit_hierarchy_depth シンタクスを多重化解除できる。
 また、第1の実施形態及び第2の実施形態の映像符号化装置は、min_inter_pred_unit_hierarchy_depth シンタクスを、LCUサイズ(maxCodingUnitSize )を最小インターPUサイズ(minInterPredUnitSize)で割った値の”2”を底とするlog (対数)としてもよい。すなわち、下式を用いてもよい。
 min_inter_pred_unit_hierarchy_depth =log 2(maxCodingUnitSize /minInterPredUnitSize )
 この場合、本実施形態の映像復号装置は、最小インターPUサイズを、min_inter_pred_unit_hierarchy_depth シンタクスに基づいて以下のように計算できる。
 minInterPredUnitSize =1<<(log2_min_coding_unit_size_minus3+3+max_coding_unit_hierarchy_depth - min_inter_pred_unit_hierarchy_depth )
 本実施形態の映像復号装置では、最小インターPUサイズ未満のインターPUが出現しないので、メモリ帯域が削減される。
実施形態4.
 第4の実施形態の映像復号装置は、第1の実施形態の映像符号化装置が生成したビットストリームを復号する。
 本実施形態の映像復号装置は、ビットストリームに多重化された最小インターPUサイズ情報を多重化解除する手段、及び、多重化解除した最小インターPUサイズ情報に基づいて復号対象CUを含むビットストリームのアクセスユニットにおけるエラーを検出するエラー検出手段を備えることを特徴とする。アクセスユニットは、非特許文献1の3.1 access unit において定義されているように、1ピクチャ分の符号化データを格納する単位である。エラーは、所定面積あたりに許容する動きベクトルの本数に基づく制約に対する違反を意味する。
 図10に示すように、本実施形態の映像復号装置は、多重化解除器201、エントロピー復号器202、逆変換/逆量子化器203、予測器204、バッファ205、及びエラー検出器207を備える。
 多重化解除器201は第3の実施形態における多重化解除器201と同様に動作し、入力されるビットストリームを多重化解除して、最小インターPUサイズ情報、及びエントロピー符号化された映像ビットストリームを抽出する。さらに最小インターPUサイズを求めて、最小インターPUサイズをエラー検出器207に供給する。
 エントロピー復号器202は、映像ビットストリームをエントロピー復号する。エントロピー復号器202は、エントロピー復号した変換量子化値を逆変換/逆量子化器203に供給する。エントロピー復号器202は、エントロピー復号したsplit_coding_unit_flag及び予測パラメータをエラー検出器207に供給する。
 エラー検出器207は、多重化解除器201から供給される最小インターPUサイズに基づいて、エントロピー復号器202から供給される予測パラメータのエラー検出を行い、予測パラメータを予測器204に供給する。エラー検出の動作は後述される。なお、エラー検出器207は、第3の実施形態における復号制御器206の役割も果たす。
 逆変換/逆量子化器203は、第3の実施形態における逆変換/逆量子化器203と同様に動作する。
 予測器204は、エラー検出器207から供給される予測パラメータに基づいて、バッファ205に格納された再構築ピクチャの画像を用いて予測信号を生成する。
 バッファ205は、第3の実施形態におけるバッファ205と同様に動作する。
 上述した動作に基づいて、本実施形態の映像復号装置はデコード画像を生成する。
 図11のフローチャートを参照して、復号対象CUを含むビットストリームのアクセスユニットのエラーを検出する、本実施形態の映像復号装置のエラー検出動作を説明する。
 ステップS401で、エラー検出器207は、CUサイズ、予測モード、PUパーティションタイプを確定する。
 ステップS402で、エラー検出器207は、復号対象CUのPUの予測モードを判定する。予測モードがイントラ予測である場合には、処理を終了する。予測モードがインター予測である場合、ステップS403に進む。
 ステップS403で、エラー検出器207は、復号対象CUのPUサイズと最小インターPUサイズとを比較する。該復号対象CUのPUサイズが最小インターPUサイズ以上の場合には、処理を終了する。該復号対象CUのPUサイズが最小インターPUサイズ未満である場合には、ステップS404に進む。
 ステップS404で、エラー検出器207は、エラーがあると判断し、エラーを外部に通知する。例えば、エラーが発生した該復号対象CUのアドレスを出力する。 
 以上の動作により、エラー検出器207は、復号対象CUを含むビットストリームのアクセスユニットのエラーを検出する。
 なお、上記の各実施形態を、ハードウェアで構成することも可能であるが、コンピュータプログラムにより実現することも可能である。
 図12に示す情報処理システムは、プロセッサ1001、プログラムメモリ1002、映像データを格納するための記憶媒体1003及びビットストリームを格納するための記憶媒体1004を備える。記憶媒体1003と記憶媒体1004とは、別個の記憶媒体であってもよいし、同一の記憶媒体からなる記憶領域であってもよい。記憶媒体として、ハードディスク等の磁気記憶媒体を用いることができる。
 図12に示された情報処理システムにおいて、プログラムメモリ1002には、図1、図6、図10のそれぞれに示された各ブロック(バッファのブロックを除く)の機能を実現するためのプログラムが格納される。そして、プロセッサ1001は、プログラムメモリ1002に格納されているプログラムに従って処理を実行することによって、図1、図6、図10のそれぞれに示された映像符号化装置または映像復号装置の機能を実現する。
 図13は、本発明による映像符号化装置の主要部を示すブロック図である。図13に示すように、本発明による映像符号化装置は、インター予測を用いて映像符号化を行う映像符号化装置であって、所定の最小インターPUサイズ(PA)と、符号化対象CUのCUサイズ(PB)とに基づいて符号化対象CUのインターPUパーティションタイプを制御する符号化制御手段11(一例として、図1に示す符号化制御器107)を備える。
 図14は、本発明による映像復号装置の主要部を示すブロック図である。図14に示すように、本発明による映像復号装置は、インター予測を用いて映像復号を行う映像復号装置であって、所定の最小インターPUサイズ(PA)と、復号対象CUのサイズ(PB)とに基づいて復号対象CUのインターPUパーティションを制御する復号制御手段21(一例として、図6及び図10に示す復号制御器207)を備える。
 以上、実施形態および実施例を参照して本発明を説明したが、本発明は上記実施形態および実施例に限定されない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2011年1月13日に出願された日本特許出願2011-4964を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 11  符号化制御手段
 21  復号制御手段
 101 変換/量子化器
 102 エントロピー符号化器
 103 逆変換/逆量子化器
 104 バッファ
 105 予測器
 106 多重化器
 107,108 符号化制御器
 201 多重化解除器
 202 エントロピー復号器
 203 逆変換/逆量子化器
 204 予測器
 205 バッファ
 206 復号制御部
 207 エラー検出器
 1001 プロセッサ
 1002 プログラムメモリ
 1003 記憶媒体
 1004 記憶媒体

Claims (27)

  1.  インター予測を用いて映像符号化を行う映像符号化装置であって、
     所定の最小インターPUサイズと、符号化対象CUのCUサイズとに基づいて符号化対象CUのインターPUパーティションタイプを制御する符号化制御手段を備えることを特徴とする映像符号化装置。
  2.  前記所定の最小インターPUサイズをビットストリームに多重化する多重化手段を備える請求項1記載の映像符号化装置。
  3.  エントロピー符号化手段を備え、
     前記符号化制御手段は、符号化対象CUのCUサイズが前記所定の最小インターPUサイズ以下であるときに、前記エントロピー符号化手段に、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスを所定のインターPUパーティションタイプに設定してエントロピー符号化させる請求項1又は請求項2記載の映像符号化装置。
  4.  エントロピー符号化手段を備え、
     前記符号化制御手段は、符号化対象CUのCUサイズが前記所定の最小インターPUサイズ以下であるときには、前記エントロピー符号化手段に、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー符号化させず、該符号化対象CUのCUサイズが所定の最小インターPUサイズより大きいときに、前記エントロピー符号化手段に、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー符号化させる請求項1又は請求項2記載の映像符号化装置。
  5.  インター予測を用いて映像復号を行う映像復号装置であって、
     所定の最小インターPUサイズと、復号対象CUのサイズとに基づいて復号対象CUのインターPUパーティションを制御する復号制御手段を備えることを特徴とする映像復号装置。
  6.  ビットストリームに多重化された最小インターPUサイズを多重化解除する多重化解除手段を備える請求項5記載の映像復号装置。
  7.  エントロピー復号手段を備え、
     前記復号制御手段は、復号対象CUのPUがインターPUであるが復号対象CUのCUサイズが前記最小インターPUサイズ以下であるときには、前記エントロピー復号手段に、該復号CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー復号させず、該復号対象CUのPUがインターPUであり、かつ、復号対象CUのCUサイズが前記最小インターPUサイズ以下であるときに、前記エントロピー復号手段に、該復号対象CUのインターPUパーティションタイプを所定のインターPUパーティションタイプに設定させる請求項5又は請求項6記載の映像復号装置。
  8.  エントロピー復号手段を備え、
     前記復号制御手段は、復号対象CUのPUがインターPUであり、かつ、復号対象CUのCUサイズが前記最小インターPUサイズより大きいときに、該復号CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー復号させる請求項5又は請求項6記載の映像復号装置。
  9.  前記復号制御手段は、復号CUのインターPUサイズが最小インターPUサイズ未満であるときに、該復号CUを含むビットストリームのアクセスユニットにエラーがあると判断する請求項5又は請求項6記載の映像復号装置。
  10.  インター予測を用いて映像符号化を行う映像符号化方法であって、
     所定の最小インターPUサイズと、符号化対象CUのCUサイズとに基づいて符号化対象CUのインターPUパーティションタイプを制御することを特徴とする映像符号化方法。
  11.  前記所定の最小インターPUサイズをビットストリームに多重化する請求項10記載の映像符号化方法。
  12.  符号化対象CUのCUサイズが前記所定の最小インターPUサイズ以下であるときに、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスを所定のインターPUパーティションタイプに設定してエントロピー符号化する請求項10又は請求項11記載の映像符号化方法。
  13.  符号化対象CUのCUサイズが前記所定の最小インターPUサイズ以下であるときには、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー符号化せず、該符号化対象CUのCUサイズが所定の最小インターPUサイズより大きいときに、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー符号化させる請求項11又は請求項12記載の映像符号化方法。
  14.  インター予測を用いて映像復号を行う映像復号方法であって、
     所定の最小インターPUサイズと、復号対象CUのサイズとに基づいて復号対象CUのインターPUパーティションを制御することを特徴とする映像復号方法。
  15.  ビットストリームに多重化された最小インターPUサイズを多重化解除する請求項14記載の映像復号方法。
  16.  復号対象CUのPUがインターPUであるが復号対象CUのCUサイズが前記最小インターPUサイズ以下であるときには、該復号CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー復号せず、該復号対象CUのPUがインターPUであり、かつ、復号対象CUのCUサイズが前記最小インターPUサイズ以下であるときに、該復号対象CUのインターPUパーティションタイプを所定のインターPUパーティションタイプに設定する請求項14又は請求項15記載の映像復号方法。
  17.  復号対象CUのPUがインターPUであり、かつ、復号対象CUのCUサイズが前記最小インターPUサイズより大きいときに、該復号CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー復号する請求項14又は請求項15記載の映像復号方法。
  18.  復号CUのインターPUサイズが最小インターPUサイズ未満であるときに、該復号CUを含むビットストリームのアクセスユニットにエラーがあると判断する請求項14又は請求項15記載の映像復号方法。
  19.  インター予測を用いて映像符号化を行うコンピュータに、
     所定の最小インターPUサイズと、符号化対象CUのCUサイズとに基づいて符号化対象CUのインターPUパーティションタイプを制御する処理を実行させるための映像符号化プログラム。
  20.  コンピュータに、前記所定の最小インターPUサイズをビットストリームに多重化する処理を実行させる請求項19記載の映像符号化プログラム。
  21.  コンピュータに、符号化対象CUのCUサイズが前記所定の最小インターPUサイズ以下であるときに、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスを所定のインターPUパーティションタイプに設定してエントロピー符号化する処理を実行させる請求項19又は請求項20記載の映像符号化プログラム。
  22.  コンピュータに、符号化対象CUのCUサイズが前記所定の最小インターPUサイズ以下であるときには、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー符号化する処理を実行させず、該符号化対象CUのCUサイズが所定の最小インターPUサイズより大きいときに、該符号化対象CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー符号化させる処理を実行させる請求項19又は請求項20記載の映像符号化プログラム。
  23.  インター予測を用いて映像復号を行うコンピュータに、
     所定の最小インターPUサイズと、復号対象CUのサイズとに基づいて復号対象CUのインターPUパーティションを制御する処理を実行させるための映像復号プログラム。
  24.  コンピュータに、ビットストリームに多重化された最小インターPUサイズを多重化解除する処理を実行させる請求項23記載の映像復号プログラム。
  25.  コンピュータに、復号対象CUのPUがインターPUであるが復号対象CUのCUサイズが前記最小インターPUサイズ以下であるときには、該復号CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー復号する処理を実行させず、該復号対象CUのPUがインターPUであり、かつ、復号対象CUのCUサイズが前記最小インターPUサイズ以下であるときに、該復号対象CUのインターPUパーティションタイプを所定のインターPUパーティションタイプに設定する処理を実行させる請求項23又は請求項24記載の映像復号プログラム。
  26.  コンピュータに、復号対象CUのPUがインターPUであり、かつ、復号対象CUのCUサイズが前記最小インターPUサイズより大きいときに、該復号CUのPUヘッダレイヤのインターPUパーティションタイプシンタクスをエントロピー復号する処理を実行させる請求項23又は請求項24記載の映像復号プログラム。
  27.  コンピュータに、復号CUのインターPUサイズが最小インターPUサイズ未満であるときに、該復号CUを含むビットストリームのアクセスユニットにエラーがあると判断する処理を実行させる請求項23又は請求項24記載の映像復号プログラム。
PCT/JP2012/000046 2011-01-13 2012-01-05 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム WO2012096147A1 (ja)

Priority Applications (25)

Application Number Priority Date Filing Date Title
EP21153890.5A EP3833026B1 (en) 2011-01-13 2012-01-05 Video decoding device, video decoding method, and program
KR1020157017185A KR101843624B1 (ko) 2011-01-13 2012-01-05 영상 부호화 장치, 영상 복호 장치, 영상 부호화 방법, 영상 복호 방법 및 기록 매체
KR1020147036708A KR20150020622A (ko) 2011-01-13 2012-01-05 영상 부호화 장치, 영상 복호 장치, 영상 부호화 방법, 영상 복호 방법 및 프로그램
BR122020018527-9A BR122020018527B1 (pt) 2011-01-13 2012-01-05 Dispositivo de criptografia de vídeo, dispositivo de decodificação de vídeo, método de criptografia de vídeo e método de decodificação de vídeo.
BR112013017799-3A BR112013017799B1 (pt) 2011-01-13 2012-01-05 Dispositivo de decodificação de vídeo e método de decodificação de vídeo
EP15155199.1A EP2899976B1 (en) 2011-01-13 2012-01-05 Video decoding device, video decoding method, and program
BR122020018528-7A BR122020018528B1 (pt) 2011-01-13 2012-01-05 Dispositivo de decodificação de vídeo e método de decodificação de vídeo
EP12734225.1A EP2665272B1 (en) 2011-01-13 2012-01-05 Video decoding device, video decoding method, and program
KR1020167014704A KR101738322B1 (ko) 2011-01-13 2012-01-05 영상 부호화 장치, 영상 복호 장치, 영상 부호화 방법, 영상 복호 방법 및 기록 매체
KR1020137016923A KR20130098420A (ko) 2011-01-13 2012-01-05 영상 부호화 장치, 영상 복호 장치, 영상 부호화 방법, 영상 복호 방법 및 프로그램
PL15155199T PL2899976T3 (pl) 2011-01-13 2012-01-05 Urządzenie dekodujące wideo, sposób dekodowania wideo i program
US13/979,592 US10841590B2 (en) 2011-01-13 2012-01-05 Video decoding device, video decoding method, and program
JP2012552667A JP5673693B2 (ja) 2011-01-13 2012-01-05 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム
KR1020157012839A KR101829515B1 (ko) 2011-01-13 2012-01-05 영상 복호 장치, 영상 복호 방법 및 기록 매체
BR122015024083-2A BR122015024083B1 (pt) 2011-01-13 2012-01-05 Dispositivo de decodificação de vídeo e método de decodificação de vídeo
PL12734225T PL2665272T3 (pl) 2011-01-13 2012-01-05 Urządzenie dekodujące wideo, sposób dekodowania wideo i program
BR122015017257-8A BR122015017257B1 (pt) 2011-01-13 2012-01-05 Dispositivo de codificação de vídeo, dispositivo de decodificação de vídeo, método de codificação de vídeo e método de decodificação de vídeo
EP21163286.4A EP3860125A1 (en) 2011-01-13 2012-01-05 Video decoding device and video decoding method
ES12734225T ES2864874T3 (es) 2011-01-13 2012-01-05 Dispositivo, método y programa de descodificación de video
CN201280005386.4A CN103329535B (zh) 2011-01-13 2012-01-05 视频编码设备、视频解码设备、视频编码方法、视频解码方法以及程序
US14/877,453 US9712826B2 (en) 2011-01-13 2015-10-07 Video encoding device, video decoding device, video encoding method, video decoding method, and program
US17/066,136 US11582461B2 (en) 2011-01-13 2020-10-08 Video encoding device, video decoding device, video encoding method, video decoding method, and program restricts inter-prediction unit partitions based on coding unit depth
US18/099,020 US11943449B2 (en) 2011-01-13 2023-01-19 Video decoding device, and video encoding method performing entropy-decoding process for inter prediction unit partition type syntax
US18/420,036 US20240163448A1 (en) 2011-01-13 2024-01-23 Video decoding device and video encoding device using inter prediction
US18/420,902 US20240163449A1 (en) 2011-01-13 2024-01-24 Video encoding device performing entropy-encoding process for inter prediction unit partition type syntax

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011004964 2011-01-13
JP2011-004964 2011-01-13

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US13/979,592 A-371-Of-International US10841590B2 (en) 2011-01-13 2012-01-05 Video decoding device, video decoding method, and program
US14/877,453 Continuation US9712826B2 (en) 2011-01-13 2015-10-07 Video encoding device, video decoding device, video encoding method, video decoding method, and program
US17/066,136 Continuation US11582461B2 (en) 2011-01-13 2020-10-08 Video encoding device, video decoding device, video encoding method, video decoding method, and program restricts inter-prediction unit partitions based on coding unit depth

Publications (1)

Publication Number Publication Date
WO2012096147A1 true WO2012096147A1 (ja) 2012-07-19

Family

ID=46507056

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/000046 WO2012096147A1 (ja) 2011-01-13 2012-01-05 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム

Country Status (10)

Country Link
US (6) US10841590B2 (ja)
EP (4) EP2665272B1 (ja)
JP (5) JP5673693B2 (ja)
KR (5) KR101829515B1 (ja)
CN (5) CN106878730B (ja)
BR (5) BR122015017257B1 (ja)
ES (3) ES2864874T3 (ja)
HK (3) HK1208978A1 (ja)
PL (3) PL3833026T3 (ja)
WO (1) WO2012096147A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039257A (ja) * 2012-08-13 2014-02-27 Gurulogic Microsystems Oy デコーダおよび復号方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9762899B2 (en) * 2011-10-04 2017-09-12 Texas Instruments Incorporated Virtual memory access bandwidth verification (VMBV) in video coding
US9712871B2 (en) 2014-05-01 2017-07-18 Qualcomm Incorporated Determination bitstream decoding capability in video coding
WO2016153251A1 (ko) * 2015-03-23 2016-09-29 엘지전자 주식회사 비디오 신호의 처리 방법 및 이를 위한 장치
WO2017130696A1 (ja) 2016-01-29 2017-08-03 シャープ株式会社 予測画像生成装置、動画像復号装置、および動画像符号化装置
KR20180136967A (ko) * 2016-04-22 2018-12-26 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
JPWO2019069601A1 (ja) * 2017-10-03 2020-09-10 日本電気株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法およびプログラム
CN110213591B (zh) * 2018-03-07 2023-02-28 腾讯科技(深圳)有限公司 一种视频运动估计方法、装置及存储介质
US10284866B1 (en) * 2018-07-02 2019-05-07 Tencent America LLC Method and apparatus for video coding
WO2020119814A1 (zh) * 2018-12-15 2020-06-18 华为技术有限公司 图像重建方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296363A (ja) * 2008-06-05 2009-12-17 Canon Inc 動きベクトル探索装置および動きベクトル探索方法
WO2012017858A1 (ja) * 2010-08-03 2012-02-09 ソニー株式会社 画像処理装置と画像処理方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HUP0301368A3 (en) 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
JP4617644B2 (ja) * 2003-07-18 2011-01-26 ソニー株式会社 符号化装置及び方法
KR100587698B1 (ko) 2004-10-22 2006-06-08 주식회사 휴맥스 선택적 예측 부호화/복호화 방법 및 장치
KR100703748B1 (ko) 2005-01-25 2007-04-05 삼성전자주식회사 다 계층 기반의 비디오 프레임을 효율적으로 예측하는 방법및 그 방법을 이용한 비디오 코딩 방법 및 장치
KR20070024211A (ko) 2005-08-26 2007-03-02 삼성전자주식회사 영상압축장치 및 방법
KR100727969B1 (ko) 2005-08-27 2007-06-14 삼성전자주식회사 영상의 부호화 및 복호화 장치와, 그 방법, 및 이를수행하기 위한 프로그램이 기록된 기록 매체
JP4666255B2 (ja) * 2005-12-27 2011-04-06 日本電気株式会社 符号化データ選定、符号化データ設定、再符号化データ生成及び再符号化の方法及び装置
JP2009081781A (ja) * 2007-09-27 2009-04-16 Panasonic Corp 動き補償装置及び動き補償方法
KR101460608B1 (ko) * 2008-03-04 2014-11-14 삼성전자주식회사 필터링된 예측 블록을 이용한 영상 부호화, 복호화 방법 및장치
WO2009123248A1 (en) 2008-04-01 2009-10-08 Canon Kabushiki Kaisha Moving image encoding apparatus and moving image encoding method
KR101517768B1 (ko) 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8503527B2 (en) * 2008-10-03 2013-08-06 Qualcomm Incorporated Video coding with large macroblocks
JP5548397B2 (ja) 2009-06-25 2014-07-16 京楽産業.株式会社 遊技機
JP5489557B2 (ja) 2009-07-01 2014-05-14 パナソニック株式会社 画像符号化装置及び画像符号化方法
KR20110017719A (ko) * 2009-08-14 2011-02-22 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
CN101648086B (zh) 2009-09-02 2012-08-29 朱宁 快速沉淀方法及快速沉淀分离装置
KR101484280B1 (ko) * 2009-12-08 2015-01-20 삼성전자주식회사 임의적인 파티션을 이용한 움직임 예측에 따른 비디오 부호화 방법 및 장치, 임의적인 파티션을 이용한 움직임 보상에 따른 비디오 복호화 방법 및 장치
CN104618727B (zh) * 2009-12-10 2018-01-12 Sk电信有限公司 使用树形结构的解码方法
US20110194613A1 (en) * 2010-02-11 2011-08-11 Qualcomm Incorporated Video coding with large macroblocks
JP5577183B2 (ja) 2010-08-05 2014-08-20 ヤンマー株式会社 ガスエンジンの掃気運転方法
US8344917B2 (en) * 2010-09-30 2013-01-01 Sharp Laboratories Of America, Inc. Methods and systems for context initialization in video coding and decoding
US8885704B2 (en) 2010-10-01 2014-11-11 Qualcomm Incorporated Coding prediction modes in video coding
US8526495B2 (en) * 2010-11-22 2013-09-03 Mediatek Singapore Pte. Ltd. Apparatus and method of constrained partition size for high efficiency video coding
CN103698386B (zh) 2010-12-31 2016-03-09 同方威视技术股份有限公司 用于痕量探测仪的进样装置以及具有该进样装置的痕量探测仪
US9049452B2 (en) * 2011-01-25 2015-06-02 Mediatek Singapore Pte. Ltd. Method and apparatus for compressing coding unit in high efficiency video coding
MX337446B (es) * 2011-09-29 2016-03-07 Sharp Kk Dispositivo de decodificacion de imagenes, metodo de decodificacion de imagenes y dispositivo de codificacion de imagenes.

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009296363A (ja) * 2008-06-05 2009-12-17 Canon Inc 動きベクトル探索装置および動きベクトル探索方法
WO2012017858A1 (ja) * 2010-08-03 2012-02-09 ソニー株式会社 画像処理装置と画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2665272A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039257A (ja) * 2012-08-13 2014-02-27 Gurulogic Microsystems Oy デコーダおよび復号方法

Also Published As

Publication number Publication date
KR20150020622A (ko) 2015-02-26
ES2928097T3 (es) 2022-11-15
CN105187825A (zh) 2015-12-23
ES2864874T3 (es) 2021-10-14
KR101738322B1 (ko) 2017-05-19
JP2018007268A (ja) 2018-01-11
BR122015017257B1 (pt) 2022-08-02
PL2899976T3 (pl) 2021-11-22
EP2665272A1 (en) 2013-11-20
ES2882882T3 (es) 2021-12-03
BR122020018527B1 (pt) 2022-05-24
HK1219191A1 (zh) 2017-03-24
EP3860125A1 (en) 2021-08-04
PL3833026T3 (pl) 2022-11-07
CN107105260B (zh) 2021-05-07
US20130336397A1 (en) 2013-12-19
US9712826B2 (en) 2017-07-18
US20230156198A1 (en) 2023-05-18
BR112013017799B1 (pt) 2022-05-24
CN105208393B (zh) 2017-10-27
CN103329535A (zh) 2013-09-25
EP3833026A1 (en) 2021-06-09
US20160029025A1 (en) 2016-01-28
US20210029363A1 (en) 2021-01-28
BR112013017799A2 (pt) 2016-10-11
KR20150083134A (ko) 2015-07-16
KR101829515B1 (ko) 2018-02-14
HK1219190A1 (zh) 2017-03-24
JP5673693B2 (ja) 2015-02-18
JP2016226019A (ja) 2016-12-28
BR122015024083A2 (pt) 2020-05-26
EP2665272A4 (en) 2014-07-09
US11943449B2 (en) 2024-03-26
JP2014187701A (ja) 2014-10-02
JP5787002B2 (ja) 2015-09-30
CN107105260A (zh) 2017-08-29
US20240163448A1 (en) 2024-05-16
CN106878730B (zh) 2020-06-26
JP5994911B2 (ja) 2016-09-21
KR20160070161A (ko) 2016-06-17
JP2015222976A (ja) 2015-12-10
CN105187825B (zh) 2018-03-09
EP2899976A1 (en) 2015-07-29
EP3833026B1 (en) 2022-07-13
US10841590B2 (en) 2020-11-17
EP2665272B1 (en) 2021-03-24
JP6497423B2 (ja) 2019-04-10
CN106878730A (zh) 2017-06-20
KR20130098420A (ko) 2013-09-04
HK1208978A1 (en) 2016-03-18
KR101843624B1 (ko) 2018-03-29
CN103329535B (zh) 2017-04-05
US20240163449A1 (en) 2024-05-16
BR122015017257A2 (pt) 2019-08-27
BR122015024083B1 (pt) 2022-08-02
KR20150063582A (ko) 2015-06-09
BR122020018528B1 (pt) 2022-05-24
US11582461B2 (en) 2023-02-14
CN105208393A (zh) 2015-12-30
PL2665272T3 (pl) 2021-10-18
JPWO2012096147A1 (ja) 2014-06-09
EP2899976B1 (en) 2021-05-19
JP6213636B2 (ja) 2017-10-18

Similar Documents

Publication Publication Date Title
JP6497423B2 (ja) 映像復号装置、映像復号方法及びプログラム
JP6432662B2 (ja) 映像符号化装置、映像符号化方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12734225

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012552667

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012734225

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20137016923

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13979592

Country of ref document: US

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013017799

Country of ref document: BR

WWE Wipo information: entry into national phase

Ref document number: IDP00201505319

Country of ref document: ID

ENP Entry into the national phase

Ref document number: 112013017799

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20130711