WO2013001730A1 - 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法 - Google Patents

画像符号化装置、画像復号装置、画像符号化方法および画像復号方法 Download PDF

Info

Publication number
WO2013001730A1
WO2013001730A1 PCT/JP2012/003785 JP2012003785W WO2013001730A1 WO 2013001730 A1 WO2013001730 A1 WO 2013001730A1 JP 2012003785 W JP2012003785 W JP 2012003785W WO 2013001730 A1 WO2013001730 A1 WO 2013001730A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
motion
unit
prediction
encoding
Prior art date
Application number
PCT/JP2012/003785
Other languages
English (en)
French (fr)
Inventor
裕介 伊谷
関口 俊一
杉本 和夫
村上 篤道
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to EP12804149.8A priority Critical patent/EP2680588B1/en
Priority to CN201280009905.4A priority patent/CN103385004B/zh
Priority to ES12804149T priority patent/ES2862898T3/es
Priority to PL12804149T priority patent/PL2680588T3/pl
Priority to US14/000,305 priority patent/US9503718B2/en
Priority to KR1020137025216A priority patent/KR20130135925A/ko
Priority to JP2013522714A priority patent/JP5711370B2/ja
Priority to BR112013020878-3A priority patent/BR112013020878B1/pt
Publication of WO2013001730A1 publication Critical patent/WO2013001730A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Definitions

  • the present invention relates to an image encoding device, an image decoding device, an image encoding method, and an image decoding method used for image compression encoding technology, compressed image data transmission technology, and the like.
  • AVC / H.264 block data (hereinafter referred to as “brightness signal 16 ⁇ 16 pixels” and two corresponding color difference signals 8 ⁇ 8 pixels).
  • Macroblock as a unit, a compression method based on a motion compensation prediction technique and an orthogonal transform / transform coefficient quantization technique is employed.
  • motion compensated prediction a motion vector search and a prediction image are generated in units of macroblocks using a front or rear encoded picture as a reference image.
  • a picture that performs inter-frame prediction encoding with reference to only one picture is referred to as a P picture, and a picture that performs inter-frame prediction encoding with reference to two pictures simultaneously is referred to as a B picture.
  • An object of the present invention is to provide an image encoding device, an image decoding device, an image encoding method, and an image decoding method that provide a video encoding method capable of encoding and decoding the above.
  • An image coding apparatus divides a picture block of a moving picture signal into coding blocks that are predetermined coding units, and performs compression coding using motion compensation prediction for each coding block.
  • a motion compensation unit that generates a prediction image for a motion compensated prediction unit region using a motion vector selected for each motion compensated prediction unit region that is a unit obtained by dividing the coding block or the encoded block; Compressed data obtained by compressing a differential image between an input signal corresponding to a predicted image and the predicted image, and a region on the reference image that can be used for motion compensated prediction while generating a bitstream by variable-length encoding information about a motion vector
  • a variable-length encoding unit that multiplexes a reference image restriction flag indicating whether or not to limit a significant reference image area to a predetermined area in a bitstream Comprising a motion compensation unit based on the reference image restriction flag identifies the significant reference image area, when the predicted image contains significant reference image area outside the
  • a coding apparatus that detects or generates a motion vector in parallel in units of divided pictures, and a decoding apparatus that generates a motion compensated prediction image using the same, it is efficient with a small memory amount and memory access. Therefore, it is possible to perform highly efficient image encoding / decoding processing even in operation with high processing load such as high resolution video.
  • Embodiment 1 of this invention It is a block diagram which shows the case where motion information is produced
  • Embodiment 1 FIG. With reference to FIG. 1, a description will be given of parts that are characteristic of the encoding apparatus (decoding apparatus) according to Embodiment 1 of the present invention.
  • a description will be given of parts that are characteristic of the encoding apparatus (decoding apparatus) according to Embodiment 1 of the present invention.
  • w * h region where w is the horizontal size of the frame and h is the number of vertical lines of the divided region as a predetermined screen division unit.
  • the w * h area is an area where the reference image can be accessed as significant image data (hereinafter referred to as a significant reference image area).
  • the decoding device side does not execute a motion vector search process with a high load as shown in FIG. 5C, so that it is not necessary to perform screen division and perform parallel processing.
  • the significant prediction image region itself is not divided, it is possible to generate all the pixels in the prediction image block from the significant reference image data for any of the motion vectors (a) and (b). it can. That is, there is a problem in that, even when an ideal motion vector is received on the decoding device side, a predicted image can be generated without any problem, but an ideal motion vector cannot be searched on the encoding side.
  • the image encoding device and the image decoding device in Embodiment 1 will be described below.
  • each frame image of video is input, motion compensation prediction is performed between adjacent frames, and compression processing by orthogonal transformation / quantization is performed on the obtained prediction difference signal, and then variable length
  • An image encoding device that performs encoding to generate a bitstream and an image decoding device that decodes a bitstream output from the image encoding device will be described.
  • the image coding apparatus adapts to local changes in the spatial and temporal directions of a video signal, divides the video signal into regions of various sizes, and performs intraframe / interframe adaptive coding. It is characterized by performing.
  • a video signal has a characteristic that the complexity of the signal changes locally in space and time.
  • there are patterns that have uniform signal characteristics in a relatively large image area such as the sky and walls, and there are small images such as people and paintings with fine textures.
  • a pattern having a complicated texture pattern may be mixed in the region.
  • a prediction difference difference signal with a small signal power and entropy is generated by temporal and spatial prediction to reduce the entire code amount.
  • the prediction parameters are set as large as possible in the image signal region. If it can be applied uniformly, the code amount of the parameter can be reduced.
  • prediction errors increase by applying the same prediction parameter to a large image region, and the code amount of the prediction difference signal cannot be reduced.
  • the coding apparatus performs hierarchical division of the video signal starting from a predetermined maximum block size and is divided. For each region, the prediction and the encoding process of the prediction difference are adapted.
  • the video signal format to be processed by the image coding apparatus is a color in an arbitrary color space such as a YUV signal composed of a luminance signal and two color difference signals, or an RGB signal output from a digital image sensor.
  • a color in an arbitrary color space such as a YUV signal composed of a luminance signal and two color difference signals, or an RGB signal output from a digital image sensor.
  • any video signal in which the video frame is composed of a horizontal and vertical two-dimensional digital sample (pixel) sequence such as a monochrome image signal or an infrared image signal, is used.
  • the gradation of each pixel may be 8 bits, or may be gradation such as 10 bits or 12 bits.
  • the input video signal is a YUV signal, and a signal in 4: 2: 0 format in which two color difference components U and V are subsampled with respect to the luminance component Y is handled.
  • a signal in 4: 2: 0 format in which two color difference components U and V are subsampled with respect to the luminance component Y is handled.
  • the present invention can also be applied to other formats having different U and V sampling intervals (for example, 4: 2: 2 format or 4: 4: 4 format).
  • a processing data unit corresponding to each frame of a video is called a “picture”.
  • “picture” is described as a video frame signal that has been sequentially scanned (progressive scanning).
  • the video signal is an interlaced signal
  • “picture” constitutes a video frame. It may be a field image signal, which is a unit to perform.
  • FIG. 2 is a block diagram showing the configuration of the image coding apparatus according to Embodiment 1 of the present invention.
  • FIG. 3 shows a processing flow at the picture level of the image coding apparatus of FIG.
  • the encoding control unit 3 hierarchically divides the size of the maximum encoding block used for encoding the picture to be encoded (current picture) and the maximum encoding block. The upper limit of the number of layers is determined (step S1 in FIG. 3).
  • the same size may be set for all the pictures according to the resolution of the input video signal 1, or the difference in the complexity of local motion of the input video signal 1 May be quantified as a parameter to determine a small size for a picture with high motion and a large size for a picture with little motion.
  • the upper limit of the number of division layers is set such that the number of layers is deepened so that more detailed motion can be detected, and when the movement is small, the number of layers is set to be suppressed. is there.
  • the block dividing unit 2 divides the picture with the maximum coding block size determined above.
  • the encoding control unit 3 hierarchically determines the encoding block size 4 and the encoding mode 7 for each encoding block until the upper limit of the number of division layers is reached for each image area of the maximum encoding block size. .
  • the block dividing unit 2 further divides the block according to the encoded block size 4 and outputs the encoded block 5 (step S2 in FIG. 3).
  • FIG. 4 shows an example of how the maximum coding block is hierarchically divided into a plurality of coding blocks 5.
  • the maximum coding block is defined as a coding block having a size of (L 0 , M 0 ) with a luminance component indicated as “0th layer” in FIG.
  • the encoding block 5 is obtained by performing a hierarchical division to a predetermined depth determined separately in a quadtree structure with the maximum encoding block as a starting point.
  • the coding block 5 is an image area of size (L n , M n ).
  • the encoding block 5 in the nth layer is denoted by B n
  • the coding mode 7 that can be selected by B n is denoted by m (B n ).
  • the encoding mode m (B n ) 7 may be configured to use an individual mode for each color component.
  • the present invention can be applied to any video format, color component, and encoding mode.
  • the encoding mode m (B n ) 7 includes one or a plurality of intra encoding modes (generally referred to as INTRA) and one or a plurality of inter encoding modes (collectively referred to as INTER). Based on a selection method described later, the encoding control unit 3 selects an encoding mode with the highest encoding efficiency for the encoding block B n 5 from all the modes available for the picture or a subset thereof. select.
  • INTRA intra encoding modes
  • INTER inter encoding modes
  • B n is further divided into one or more prediction processing units (partitions).
  • the partition belonging to B n is hereinafter referred to as P i n (i: partition number in the nth layer). How the partitioning of B n is performed is included as information in the encoding mode m (B n ) 7. All partitions P i n are subjected to prediction processing according to the encoding mode m (B n ) 7, but individual prediction parameters can be selected for each partition.
  • the encoding control unit 3 identifies the encoding block 5 by generating a block division state as shown in FIG. 5 for the maximum encoding block, for example.
  • the shaded portion in FIG. 6A shows the distribution of the partitions after the division
  • FIG. 5B shows the situation where the encoding mode m (B n ) 7 is assigned by the hierarchical division in a quadtree graph.
  • a node surrounded by a square in (b) is a node to which the encoding mode 7 is assigned, that is, the encoding block 5.
  • Detailed processing of such layer division / encoding mode determination in the encoding control unit 3 will be described later.
  • the intra prediction parameter 10 is set in the intra prediction unit 8 in FIG. based on the intra prediction processing for each partition P i n in B n is performed, the intra prediction image 11 generated is output to the subtraction unit 12 (step S4 in FIG. 3).
  • the intra prediction parameter 10 used to generate the intra predicted image 11 is multiplexed into the bit stream 30 by the variable length encoding unit 23 in order to generate the same intra predicted image 11 on the decoding device side.
  • the intra prediction process in the first embodiment is not limited to the algorithm defined in the AVC / H.264 standard (ISO / IEC 14496-10), but the intra prediction parameters are completely different on the encoding device side and the decoding device side. It is necessary to include information necessary for generating the same intra prediction image.
  • the motion compensation prediction unit 9 in FIG. based on the inter-frame motion prediction process for each partition P i n is performed, the inter prediction image 17 generated motion vector 31 is output to the variable length coding unit 23 is outputted to the subtraction section 12 ( Step S5) in FIG.
  • the inter prediction parameter 16 used to generate the inter prediction image 17 is multiplexed into the bitstream 30 by the variable length encoding unit 23 in order to generate the exact same inter prediction image 17 on the decoding device side.
  • the inter prediction parameters used to generate the inter prediction image include Mode information describing partitioning within the coding block B n Motion vector of each partition Motion prediction frame memory 14 includes a plurality of reference images, and prediction is performed using any reference image Reference image indication index information indicating whether or not there are a plurality of motion vector prediction value candidates Index information indicating which motion vector prediction value is selected and used, or if there are a plurality of motion compensation interpolation filters Index information that indicates whether to select and use the filter ⁇ If the motion vector of the partition can indicate multiple pixel accuracy (half pixel, 1/4 pixel, 1/8 pixel, etc.), which pixel In order to generate exactly the same inter-prediction image on the decoding device side, including variable information such as selection information indicating whether to use accuracy, variable length codes The encoding unit 23 multiplexes the bit stream. Detailed processing contents of the motion compensation prediction unit 9 will be described later.
  • the subtraction unit 12 subtracts either the intra predicted image 11 or the inter predicted image 17 from the partition P i n to obtain a predicted difference signal e i n 13 (step S6 in FIG. 3).
  • the transform / quantization unit 19 performs DCT (discrete cosine transform) or a specific learning sequence in advance on the prediction difference signal e i n 13 based on the prediction difference encoding parameter 20 instructed from the encoding control unit 3.
  • the transform coefficient is calculated by performing orthogonal transform processing such as KL transform on which the base design is performed, and the transform coefficient is quantized based on the prediction difference coding parameter 20 instructed from the coding control unit 3. 3 (step S7 in FIG.
  • the compressed data 21 which is the transform coefficient after quantization is converted into an inverse quantization / inverse transform unit 22 (inverse quantization / inverse transform processing unit in step S8 in FIG. 3) and variable length coding.
  • the data is output to the unit 23 (the variable length coding unit in step S8 in FIG. 3).
  • the inverse quantization / inverse transform unit 22 inversely quantizes the compressed data 21 input from the transform / quantization unit 19 based on the prediction difference encoding parameter 20 instructed from the encoding control unit 3, and further performs inverse DCT. Then, a local decoded prediction difference signal e i n '24 of the prediction difference signal e i n 13 is generated by performing an inverse transformation process such as an inverse KL transformation, and is output to the adder 25 (step S9 in FIG. 2).
  • the prediction difference encoding parameter 20 includes information on the quantization parameter and transform block size used for encoding the prediction difference signal e i n 13 inside each area of the encoding block 5.
  • the prediction difference encoding parameter 20 is determined by the encoding control unit 3 as part of the encoding mode determination in step S2 of FIG.
  • the quantization parameter may be assigned in units of the maximum code block, and may be used in common in units of the divided encoding blocks, or expressed as a difference value from the value of the maximum encoding block for each encoding block. You may make it do.
  • the transform block size information may be expressed by quadtree partitioning starting from the coding block 5 as in the case of the division of the maximum coding block, or several selectable transform block sizes are represented as index information.
  • the transform / quantization unit 19 and the inverse quantization / inverse transform unit 22 specify the block size of the transform / quantization process based on the transform block size information and perform the process.
  • the information of the transform block size, the coding block 5 no may be configured to determine the partition P i n that divides the coded block 5 as a unit.
  • the adding unit 25 adds the local decoded prediction difference signal e i n '24 and the intra predicted image 11 or the inter predicted image 17 to add the local decoded partition image P i n 'or a local decoded encoded block image as a collection thereof.
  • B n ′ (hereinafter referred to as local decoded image) 26 is generated (step S10 in FIG. 3), the local decoded image 26 is output to the loop filter unit 27 (loop filter unit in step S11 in FIG. 3), and intra prediction is performed. (Intra prediction memory in step S11 in FIG. 3).
  • the locally decoded image 26 becomes an image signal for subsequent intra prediction.
  • the output destination is an intra prediction memory, then it is determined whether all the encoded blocks in the picture have been processed, and if the processing of all the encoded blocks has not been completed, the process proceeds to the next encoded block. The same encoding process is repeated (step S12 in FIG. 3).
  • the loop filter unit 27 When the output destination of the addition unit 25 is the loop filter unit 27, the loop filter unit 27 performs a predetermined filtering process on the local decoded image 26 output from the addition unit 25, and obtains a local decoded image 29 after the filtering process. It is stored in the motion compensated prediction frame memory 14 (step S13 in FIG. 3). The locally decoded image 29 after the filtering process becomes the reference image 15 for motion compensation prediction.
  • the filtering process by the loop filter unit 27 may be performed in units of the maximum encoded block or individual encoded blocks of the input local decoded image signal 26, or the local decoded image signal 26 corresponding to a macroblock for one screen. It may be performed for one screen after the input.
  • the variable length encoding unit 23 includes the compressed data 21 output from the transform / quantization unit 19, the encoding mode 7 (including the division state of the maximum encoding block) output from the encoding control unit 3, and intra
  • the prediction parameter 10 to the inter prediction parameter 16 and the prediction differential encoding parameter 20 are entropy-encoded to generate a bitstream 30 indicating the encoding result (step S14 in FIG. 3).
  • each division unit is referred to as a tile
  • motion compensation prediction is performed independently for each tile.
  • the size of the tile in the horizontal and vertical directions is a multiple of the size of the maximum coding block.
  • the division state of the tile may be fixedly and uniquely determined on the encoding device side (in this case, the decoding device performs decoding processing without being aware of the structure of tiles), or for processing other than motion compensation prediction.
  • a mechanism for transmitting to the decoding apparatus side via a bit stream may be provided so that the position and size of the upper left corner of each tile can be determined freely.
  • the tile may be a slice used in the conventional AVC / H.264 or the like.
  • the motion compensation prediction unit 9 executes processing for each coding block 5 in the tile. Thus, since the picture can be divided into screens and the motion compensation prediction process can be executed in parallel, the encoding process can be performed at high speed even if the input video signal is a high resolution video.
  • FIG. 7 shows the configuration of the motion compensation prediction unit 9.
  • the motion information generation unit 100 performs a motion vector search with reference to the reference image 15 or performs encoding by referring to the motion information 102 of a plurality of encoded blocks held in the motion information memory 101. motion information 103 generated for each partition P i n in the block 5, and outputs the inter prediction image generation unit 104.
  • the motion information generation unit 100 determines whether or not to limit an area on the reference image 15 (hereinafter referred to as a significant reference image area) that can be used for motion compensation prediction to a predetermined area (for example, a current tile area).
  • the motion information is generated based on the value of the reference image restriction flag 105 indicating “”.
  • the reference image restriction flag 105 is ON, that is, when the “significant reference image region is made the current tile region” (FIG. 8), when the current partition is moved by a motion vector, a part of the pixels in the moved partition Is located outside the significant reference image area, the pixel located at the end point of the significant reference image area is expanded by a predetermined method to generate a pixel that virtually becomes a predicted image.
  • a predetermined method there are a method of repeating the end point pixel, a method of performing mirroring around the end point pixel, and a method of compensating the pixel in the significant reference image area.
  • the memory of the reference picture can be limited to the size of the tile, so that there is an advantage that the used memory can be reduced. Even if the memory to be used is limited, it is possible to refer to the outside of the tile by expanding the pixels by a predetermined method, so that it is not necessary to forcibly narrow the motion vector search range as shown in FIG. Contribute to improvement.
  • the reference image restriction flag 105 is OFF, that is, “there is no restriction on the significant reference image area” (FIG. 9)
  • the motion vector generated by the motion information generation unit 100 is obtained when the current partition is moved by the motion vector.
  • the usable memory when a memory for the reference image can be secured, it is possible to refer to all the pixels in the reference image, so that there is an advantage that the encoding efficiency can be improved.
  • the search range may be determined so that the motion vector search refers only to the pixels in the tile ( In the case of FIG. 1 (b)), when generating motion information by referring to motion information of a plurality of encoded blocks, if there is a motion vector that refers to outside the tile among the motion information of the encoded blocks, May be configured to be excluded or corrected. Since it is possible to suppress the processing amount by not performing pixel expansion at the end points of the significant reference image region, the reference image restriction flag 105 is turned OFF when prediction performance does not improve even if pixel expansion is performed. It is also possible to perform control such as setting.
  • the inter prediction image generation unit 104 generates and outputs an inter prediction image 17 based on the input motion information 103, the reference image 15, and the reference image restriction flag 105.
  • the reference image restriction flag 105 is ON, regarding the partition area moved by the motion vector (motion information 103), the pixels belonging to the tile are reference image data within the tile, and the pixels outside the tile are motion
  • the inter prediction image 17 is obtained by virtually generating reference image data in the same procedure as the method used in the information generating unit 100.
  • the reference image restriction flag 105 is OFF, it is interpreted that prediction is performed for the entire picture.
  • the reference image restriction flag 105 is input to the variable length coding unit 23, entropy-coded as an upper syntax parameter such as a sequence unit, and multiplexed into the bit stream 30.
  • the inter predicted image 17 generated by the inter predicted image generation unit 104 needs to be data equivalent to the inter predicted image 72 obtained on the decoding device side.
  • FIG. 10 is a block diagram showing the configuration of the image decoding apparatus according to Embodiment 1 of the present invention.
  • FIG. 11 shows a picture level processing flow of the image decoding apparatus of FIG.
  • the operation of the image decoding apparatus according to the first embodiment will be described with reference to these drawings.
  • the variable length decoding unit 61 performs variable length decoding processing on the bitstream 30 (step S21 in FIG. 11), and from the picture of one frame or more
  • the frame size is decoded in units of sequence units or pictures.
  • the maximum coding block size and the upper limit of the number of divided layers determined by the image coding apparatus according to Embodiment 1 are determined by the same procedure as that of the coding apparatus (step S22 in FIG. 11). For example, when the maximum encoding block size is determined according to the resolution of the input video signal, the maximum encoding block size is determined based on the decoded frame size in the same procedure as the encoding apparatus.
  • the image coding apparatus When the maximum encoding block size and the upper limit of the number of divided layers are multiplexed on the bit stream 30 on the encoding device side, values decoded from the bit stream 30 are used.
  • the image coding apparatus encodes a coding mode in units of coding blocks obtained by dividing the maximum coding block into a plurality of coding blocks hierarchically starting from the maximum coding block. Or the compressed data obtained by conversion / quantization is multiplexed into the bit stream 30.
  • the variable length decoding unit 61 that has received the bit stream 30 decodes the division state of the maximum coding block included in the coding mode in the determined maximum coding block unit. Based on the decoded division state, coding blocks are identified hierarchically (step S23 in FIG. 11).
  • the encoding mode 62 assigned to the specified encoding block is decoded.
  • the prediction parameter 63 is decoded in units obtained by further dividing the encoded block into one or more prediction processing units (partitions) (step S24 in FIG. 11).
  • the intra prediction parameter 63a is decoded for each of one or more partitions included in the coding block and serving as a prediction processing unit.
  • the prediction value of the intra prediction parameter 63a of the partition P i n to be decoded is calculated on the basis of the intra prediction parameter 63a of the neighboring decoded partition in the same procedure as that of the encoding device side. Decode using the predicted value.
  • the inter prediction parameter 63b is decoded for each of one or more partitions included in the coding block and serving as a prediction processing unit.
  • the partition serving as the prediction processing unit is further divided into one or a plurality of partitions serving as the transform processing unit based on transform block size information (not shown) included in the prediction differential encoding parameter 65, and the partition serving as the transform processing unit.
  • the compressed data transformed and transformed transform coefficients
  • step S24 in FIG. 11 the compressed data (transformed and transformed transform coefficients) is decoded.
  • the output destination of the variable length decoding unit 61 is a changeover switch (changeover switch in step S25 of FIG. 11)
  • the encoding mode 62 assigned to the encoding block is an intra encoding mode (in step S26 of FIG. 11).
  • intra prediction unit 69 based on the decoded intra prediction parameter 63a, intra prediction processing is performed for each partition in the encoded block (step S27 in FIG. 11), and the generated intra predicted image 71 is added to the adding unit 73. Is output.
  • the intra prediction process based on the intra prediction parameter 63a is the same as the process in the intra prediction unit 8 on the encoding device side.
  • the motion compensation unit 70 performs coding based on the decoded inter prediction parameter 63b (including the motion vector). An inter-frame motion prediction process is performed on each partition in the block (step S28 in FIG. 11), and the generated inter predicted image 72 is output to the adding unit 73.
  • the inverse quantization / inverse transform unit 66 has a variable length.
  • the compressed data 64 input for each transform processing unit from the decoding unit 61 is inversely quantized based on the quantization parameter included in the prediction differential encoding parameter 65, and further subjected to inverse transform processing such as inverse DCT and inverse KL transform.
  • a decoded prediction difference signal 67 is generated (step S29 in FIG. 11) and output to the adder 73.
  • the adder 73 adds the decoded prediction difference signal 67 and the intra predicted image 71 or the inter predicted image 72 to generate a decoded partition image (step S30 in FIG. 11), and includes one or more included in the encoded block.
  • the decoded partition image 74 is output to the loop filter unit 78 and stored in the intra prediction memory 77.
  • the decoded partition image 74 becomes an image signal for subsequent intra prediction.
  • the loop filter unit 78 performs the same filtering process as the loop filter unit 27 on the encoding device side (Yes in step S31 in FIG. 11) after processing all the encoded blocks (step S32 in FIG. 11), and performs decoding after the filtering process.
  • the image 79 is stored in the motion compensated prediction frame memory 75.
  • the decoded image 79 becomes a reference image 76 for subsequent motion compensation processing and a reproduced image.
  • the motion compensation unit 70 that is a feature of the present invention will be described below.
  • the internal configuration of the motion compensation unit 70 is shown in FIG.
  • the motion information generation unit 200 refers to the inter prediction parameter 63b given from the variable length decoding unit 61 and the motion information 202 of a plurality of encoded blocks held in the motion information memory 201, etc. generating motion information 203 about each partition P i n comprising, input to the inter prediction image generation unit 204.
  • the inter predicted image generation unit 204 Based on the input motion information 203, the motion compensated prediction reference image 76, and the reference image restriction flag 105 decoded from the bitstream 30 in the variable length decoding unit 61, the inter predicted image generation unit 204 performs inter prediction image generation. 72 is generated and output.
  • the reference image restriction flag 105 When the reference image restriction flag 105 is ON, in the partition area moved by the motion vector, the pixels belonging to the tile are reference image data in the tile, and the pixels belonging to the outside of the tile are the motion information generation unit 100. A predicted image is obtained by virtually generating reference image data in the same procedure as that used. On the other hand, when the reference image restriction flag 105 is OFF, the use range of the reference image is not particularly limited, and a predicted image is obtained from the reference image by the same procedure as the method used in the motion information generating unit 100. As described above, the inter prediction image 72 generated by the inter prediction image generation unit 204 needs to be data equivalent to the inter prediction image 17 obtained on the encoding device side, but the reference image restriction flag 105 is set. By introducing, even if motion vector search processing is performed in parallel in units such as tiles in the encoding device, it is possible to avoid mismatch of predicted images during encoding and decoding, and stable and highly efficient encoding It can be performed.
  • FIG. 13 shows an operation in the case where the reference image restriction flag 105 is ON when the significant reference image region is expanded.
  • the parameters dx and dy that specify the significant reference image area range may be determined as fixed values in advance, such as profile and level, or may be multiplexed into the bitstream as part of the upper header such as the sequence header or picture header. Good. Since the reference area can be determined according to the performance of the apparatus by being defined by the upper header, it is possible to balance the performance and the mounting load. Even in this case, when referring to the outside of the significant reference image area, as described with reference to FIG. 8 and the like, it is possible to generate a predicted image by virtually extending the pixels.
  • motion information As an example of generating motion information from the plurality of encoded blocks, as shown in FIG. 14, on encoded peripheral blocks and reference images held in the motion information memories 101 to 201 A mode is conceivable in which the motion information (motion vector, reference image index, prediction direction, etc.) of blocks located at the same spatial position is used as it is.
  • motion information may be generated based on the reference image restriction flag 105, leaving only candidates that can be used as motion information.
  • the candidate corresponding to MV_A points outside the significant reference image region, only the candidates corresponding to MV_B and MV_C can be selected as the motion information corresponding to this mode.
  • the index has three types of 0, 1, and 2, and the amount of information encoded as the index increases. By performing the exclusion measure, there is an effect that the amount of code required for the index can be suppressed.
  • the reference image restriction flag 105 is multiplexed on the bitstream 30 as an upper header syntax such as a sequence.
  • the same effect can be obtained even if the restriction corresponding to this flag is defined by a profile, level, or the like. can get.
  • (L n + 1 , M n + 1 ) (M n , M n )
  • FIG. 17 one of the divisions shown in FIGS. 15 and 16 may be selected. If selection is possible, a flag indicating which division is selected is encoded.
  • AVC / H.264 of Non-Patent Document 1 such as 16 ⁇ 16 that is a single block can be connected horizontally, so that encoding that maintains compatibility with existing methods can be performed. Easy to do.
  • the transform block unit of the quantization / transformation unit and the inverse quantization / inverse transform unit may be uniquely determined by the transform processing unit, or may have a hierarchical structure as shown in FIG. In this case, a flag indicating whether to divide each layer is encoded.
  • the above division may be performed in units of partitions or encoded blocks.
  • the above conversion assumes a square conversion, but this may be another rectangle such as a rectangle.
  • the image encoding device, the image decoding device, the image encoding method, and the image decoding method according to the present invention perform highly efficient image encoding / decoding processing even in operation with high processing load such as high-resolution video. Therefore, it is suitable for use in an image encoding apparatus, an image decoding apparatus, an image encoding method, an image decoding method, and the like used for an image compression encoding technique, a compressed image data transmission technique, and the like.
  • 2 block division unit 3 encoding control unit, 6 changeover switch, 8 intra prediction unit, 9 motion compensation prediction unit, 12 subtraction unit, 14 motion compensation prediction frame memory, 19 transform / quantization unit, 22 inverse quantization / inverse Conversion unit, 23 variable length coding unit, 25 addition unit, 27 loop filter unit, 28 intra prediction memory, 61 variable length decoding unit, 66 dequantization / inverse conversion unit, 68 changeover switch, 69 intra prediction unit, 70 Motion compensation unit, 73 addition unit, 75 motion compensation prediction frame memory, 77 intra prediction memory, 78 loop filter unit, 100 motion information generation unit, 101 motion information memory, 104 inter prediction image generation unit, 200 motion information generation unit, 201 motion information memory, 204 inter prediction image generation unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 符号化データから符号化ブロックに係る圧縮データ、前記動き補償予測に用いることのできる参照画像上の領域である有意参照画像領域を所定の領域に限定するか否かを示す参照画像制限フラグ、動きベクトルの情報である動き情報を可変長復号する可変長復号ステップと、前記動き情報に基づいて、前記符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する動き補償予測ステップと、前記符号化ブロックに係る圧縮データから圧縮前の差分画像を生成する差分画像生成ステップと、前記差分画像と前記予測画像とを加算して復号画像を生成する復号画像生成ステップとを備え、前記動き補償ステップは、前記予測画像を生成する際、前記参照画像制限フラグに基づき、前記動き情報を用いて、前記予測画像が有意参照画像領域外の画素を含む場合、所定の拡張処理を行って予測画像を生成する。

Description

画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
 本発明は、画像圧縮符号化技術や圧縮画像データ伝送技術等に用いられる画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法に関する。
 ISO/IEC 14496-10|ITU-T H.264(以下、AVC/H.264と記す)などの従来の国際標準映像符号化方式では、輝度信号16×16画素とそれに対応する2つの色差信号8×8画素分をまとめたブロックデータ(以下、マクロブロック)を単位として、動き補償予測技術及び直交変換/変換係数量子化技術に基づいて圧縮する方法が採用されている。動き補償予測では前方または後方の符号化済みピクチャを参照画像として用いてマクロブロック単位で動きベクトル探索および予測画像の生成を行う。1枚のピクチャのみを参照して画面間予測符号化を行うピクチャをPピクチャと呼び、2枚のピクチャを同時に参照して画面間予測符号化を行うピクチャをBピクチャと呼ぶ。
MPEG-4 AVC(ISO/IEC 14496-10)/ITU-T H.264規格
 一般に、従来の符号化方式によって高解像度映像の符号化処理を行う場合には、画面1面分のメモリサイズが大きく、かつ動き探索処理の負荷が膨大となるため、フレームを一定のサイズの小領域(従来の符号化方式では、スライスという処理単位を利用することもある)の単位に画面分割して、動きベクトル探索に伴うメモリアクセス範囲を制限しつつ、並列に動きベクトル探索を処理する構成をとることがある(図19)。この際、装置構成上、各動き探索処理単位がアクセスできる参照画像メモリ領域を制限する必要が生じることがある。このような場合、最適動きベクトルが探索できないことがある。
 本発明はこのような問題を解決するためになされたものであり、メモリ量やメモリアクセス量が限られた符号化装置であっても、画面分割を行い、安定して高効率な高解像度画像の符号化、復号が可能な映像符号化方法を提供する画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法を提供することを目的とする。
 本発明に係る画像符号化装置は、動画像信号の各ピクチャの所定の符号化単位となる符号化ブロックに分割して、該符号化ブロックごとに動き補償予測を用いて圧縮符号化を行う動画像符号化装置において、該符号化ブロックないしそれを分割した単位である動き補償予測単位領域ごとに選択された動きベクトルを用いて、動き補償予測単位領域に対する予測画像を生成する動き補償部と、予測画像に対応する入力信号と予測画像との差分画像を圧縮した圧縮データ、動きベクトルに関する情報を可変長符号化してビットストリームを生成するとともに、動き補償予測に用いることのできる参照画像上の領域である有意参照画像領域を所定の領域に限定するか否かを示す参照画像制限フラグをビットストリームに多重化する可変長符号化部とを備え、動き補償部は、参照画像制限フラグに基づいて有意参照画像領域を特定し、予測画像が有意参照画像領域外の画素を含む場合、所定の拡張処理を行うものである。
 この発明によれば、ピクチャを画面分割した単位で並列に動きベクトル検出ないし生成する符号化装置と、それを使用して動き補償予測画像を生成する復号装置において、少ないメモリ量かつメモリアクセスで効率的に最適な動きベクトルを利用できるように構成したので、高解像度映像などの処理負荷の高い運用においても高能率な画像符号化・復号処理を行うことができる効果がある。
この発明の実施の形態1による画像符号化装置の特徴を説明する説明図である。 この発明の実施の形態1による画像符号化装置を示す構成図である。 この発明の実施の形態1による画像符号化装置の動作を示すフローチャートである。 最大符号化ブロックが階層的に複数の符号化ブロックへ分割される様子を説明する図面である。 最大符号化ブロックが階層的に複数の符号化ブロックへ分割された結果の例を示す図面である。 この発明の実施の形態1による動き補償予測部9の処理単位となるタイルの説明図である。 この発明の実施の形態1における動き補償予測部9を示す構成図である。 この発明の実施の形態1における参照画像制限フラグ105の説明図である。 この発明の実施の形態1における参照画像制限フラグ105の説明図である。 この発明の実施の形態1による画像復号装置を示す構成図である。 この発明の実施の形態1による画像復号装置の動作を示すフローチャートである。 この発明の実施の形態1による動き補償部70を示す構成図である。 この発明の実施の形態1におけるタイル外の参照可能エリアのカスタマイズを示す構成図である。 この発明の実施の形態1における複数の符号化済みブロックから動き情報を生成する場合を示す構成図である。 この発明の実施の形態1における階層的に複数の符号化ブロックへ分割する例を示す構成図である。 この発明の実施の形態1における階層的に複数の符号化ブロックへ分割する例を示す構成図である。 この発明の実施の形態1における階層的に複数の符号化ブロックへ分割する例を示す構成図である。 この発明の実施の形態1における階層的に複数の符号化ブロックへ分割する例を示す構成図である。 従来の符号化方式を説明する説明図である。
 以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1を用いて、本発明の実施の形態1の符号化装置(復号装置)の特徴となる部分について説明する。同図では、符号化時の動きベクトル探索を、フレーム水平サイズをw、分割領域の垂直方向ライン数をhとした w*h の領域を所定の画面分割単位として実行する例を示す。w*hの領域が有意な画像データとして参照画像をアクセスできる領域(以下、有意参照画像領域)であるとする。この際、予測画像の良さを最大限にするように動きベクトル探索を行うことを考えると、理想的には同図(a)のように、予測画像の一部が有意参照画像領域の外部を指す場合も許容することが望ましい。しかし、このような有意参照画像領域外のデータは、動きベクトル探索を行う回路にとっては存在しないため、実際には、同図(b)のように、動きベクトル探索の範囲を強制的に狭めて、有意参照画像領域にアクセスを完結させるような動きベクトルを見つける必要がある。
 一方、復号装置側では、同図(c)のように、負荷の高い動きベクトル探索処理を実行しないため、画面分割を行って並列処理を行う必要性は低い。こうした場合には、有意予測画像領域自体が分割されないため、(a),(b)のいずれの動きベクトルであっても、予測画像ブロック内の画素すべてを有意な参照画像データから生成することができる。つまり、復号装置側では理想的な動きベクトルを受信しても問題なく予測画像が生成できるにも関わらず、符号化側で理想的な動きベクトルを探索できない、という問題が生じる。
以下に実施の形態1における画像符号化装置および画像復号装置について説明する。
 本実施の形態1では、映像の各フレーム画像を入力として、近接フレーム間で動き補償予測を行い、得られた予測差分信号に対して直交変換・量子化による圧縮処理を施した後、可変長符号化を行ってビットストリームを生成する画像符号化装置と、当該画像符号化装置が出力するビットストリームを復号する画像復号装置について説明する。
 本実施の形態1の画像符号化装置は、映像信号の空間・時間方向の局所的な変化に適応して、映像信号を多様なサイズの領域に分割してフレーム内・フレーム間適応符号化を行うことを特徴とする。一般に映像信号は、空間・時間的に信号の複雑さが局所的に変化する特性を持つ。空間的に見ると、ある特定の映像フレーム上では、空や壁などのような比較的広い画像領域中で均一な信号特性を持つ絵柄もあれば、人物や細かいテクスチャを持った絵画など小さい画像領域内で複雑なテクスチャパターンを持つ絵柄も混在することがある。時間的に見ても、空や壁は局所的に時間方向の絵柄の変化は小さいが、動く人物や物体はその輪郭が時間的に剛体・非剛体の運動をするため、時間的な変化が大きい。符号化処理は、時間・空間的な予測によって信号電力やエントロピーの小さい予測差分差信号を生成して全体の符号量を削減する処理を行うが、予測のためのパラメータをできるだけ大きな画像信号領域に均一に適用できれば、当該パラメータの符号量を小さくすることができる。一方、時間的・空間的に変化の大きい画像信号パターンに対しては、同一の予測パラメータを大きな画像領域に適用することで予測の誤りが増え、予測差分信号の符号量が削減できない。そこで、そういった領域では、予測対象の領域を小さくし、予測のためのパラメータのデータ量を増やしても予測差分信号の電力・エントロピーを低減するほうが望ましい。このような映像信号の一般的な性質に適応した符号化を行うため、本実施の形態1の符号化装置は、所定の最大ブロックサイズからはじめて階層的に映像信号の領域分割を行い、分割された領域ごとに予測、およびその予測差分の符号化処理を適応化させる構成をとる。
 本実施の形態1の画像符号化装置が処理対象とする映像信号フォーマットは、輝度信号と2つの色差信号からなるYUV信号や、ディジタル撮像素子から出力されるRGB信号等の任意の色空間のカラー映像信号のほか、モノクロ画像信号や赤外線画像信号など、映像フレームが水平・垂直2次元のディジタルサンプル(画素)列から構成される任意の映像信号とする。各画素の階調は8ビットでもよいし、10ビット、12ビットなどの諧調であってもよい。ただし、以下の説明においては、特に断らない限り、入力映像信号はYUV信号とし、かつ2つの色差成分U,Vが輝度成分Yに対してサブサンプルされた4:2:0フォーマットの信号を扱う場合について述べるが、本発明はU,Vのサンプリング間隔が異なる他フォーマットにも適用できる(例えば4:2:2フォーマットや4:4:4フォーマットなど)。また、映像の各フレームに対応する処理データ単位を「ピクチャ」と呼ぶ。本実施の形態1においては、「ピクチャ」は順次走査(プログレッシブスキャン)された映像フレーム信号、として以下の説明を行うが、映像信号がインタレース信号である場合、「ピクチャ」は映像フレームを構成する単位であるフィールド画像信号であってもよい。
 図2は、この発明の実施の形態1に係る画像符号化装置の構成を示すブロック図である。
 また、図3に図2の画像符号化装置のピクチャレベルの処理フローを示す。以下、これらの図を用いて、本実施の形態1の画像符号化装置の動作を説明する。図2に示す画像符号化装置は、まず、符号化制御部3において、符号化対象となるピクチャ(カレントピクチャ)の符号化に用いる最大符号化ブロックのサイズと、最大符号化ブロックを階層分割する階層数の上限を決定する(図3のステップS1)。最大符号化ブロックのサイズの決め方としては、例えば入力映像信号1の解像度に応じてすべてのピクチャに対して同じサイズに定めてもよいし、入力映像信号1の局所的な動きの複雑さの違いをパラメータとして定量化して、動きの激しいピクチャでは小さいサイズ、動きが少ないピクチャでは大きいサイズ、のように定めてもよい。分割階層数上限は例えば入力映像信号1の動きが激しい場合は階層数を深くしてより細かい動きが検出できるように設定し、動きが少ない場合は階層数を抑えるように設定するなどの方法がある。
 次いで、ブロック分割部2において、ピクチャを上記定めた最大符号化ブロックサイズで分割する。符号化制御部3は、最大符号化ブロックサイズの画像領域ごとに、上記定めた分割階層数上限に至るまで、階層的に符号化ブロックサイズ4と各符号化ブロックに対する符号化モード7を決定する。そして、ブロック分割部2は、符号化ブロックサイズ4にしたがってさらにブロックを分割し符号化ブロック5を出力する(図3のステップS2)。
 図4に、最大符号化ブロックが階層的に複数の符号化ブロック5へ分割される様子の例を示す。最大符号化ブロックは、図4において「第0階層」と記された輝度成分で(L0, M0)のサイズをもつ符号化ブロック、として定義する。最大符号化ブロックを出発点として、4分木構造で、別途定める所定の深さまで階層的に分割を行うことによって符号化ブロック5を得る。深さnにおいては、符号化ブロック5はサイズ(Ln, Mn)の画像領域である。LnはMnと同じであってもよいし異なっていてもよいが、図4ではLn = Mnのケースを示す。
 以降、符号化ブロックサイズ4は、符号化ブロック5の輝度成分におけるサイズ(Ln, Mn)と定義する。4分木分割を行うため、常に(Ln+1, Mn+1) = (Ln/2, Mn/2)が成り立つ。なお、RGB信号など、すべての色成分が同一サンプル数をもつカラー映像信号(4:4:4フォーマット)では、すべての色成分のサイズが(Ln, Mn)になるが、4:2:0フォーマットを扱う場合、対応する色差成分の符号化ブロックサイズは(Ln/2, Mn/2)である。以降、第n階層の符号化ブロック5をBnとし、Bnで選択しうる符号化モード7をm(Bn)と記す。複数の色成分からなるカラー映像信号の場合、符号化モードm(Bn)7は各色成分ごとにそれぞれ個別のモードを用いるように構成されてもよいが、以降、特に断らない限り、YUV信号、4:2:0フォーマットの符号化ブロックの輝度成分に対する符号化モードのことを指すものとして説明を行うが、本発明は任意の映像フォーマット、色成分、符号化モードに適用できる。
 符号化モードm(Bn)7には、1つないし複数のイントラ符号化モード(総称してINTRAと呼ぶ)、1つないし複数のインター符号化モード(総称してINTERと呼ぶ)があり、符号化制御部3は、後述する選択方法に基づいて、当該ピクチャで利用可能な全てのモードないしそのサブセットの中から、符号化ブロックBn5に対して最も符号化効率のよい符号化モードを選択する。
 なお、図4に示すように、Bnはさらに1つないし複数の予測処理単位(パーティション)に分割される。Bnに属するパーティションを以降、Pi n(i: 第n階層におけるパーティション番号)と表記する。Bnのパーティション分割がどのようになされているかは符号化モードm(Bn)7の中に情報として含まれる。パーティションPi nはすべて符号化モードm(Bn)7に従って予測処理が行われるが、パーティションごとに個別の予測パラメータを選択できる。
 符号化制御部3は、最大符号化ブロックに対して、例えば図5に示すようなブロック分割状態を生成して、符号化ブロック5を特定する。同図(a)の網がけ部分は分割後のパーティションの分布を、また、(b)には階層分割によって符号化モードm(Bn)7が割り当てられる状況を4分木グラフで図示する。(b)の□で囲んだノードが、符号化モード7が割り当てられたノード、すなわち符号化ブロック5である。符号化制御部3におけるこのような階層分割・符号化モード判定の詳細な処理は後述する。
 符号化ブロック5においてイントラ符号化モードが選択された場合(m(Bn)∈INTRAの場合)は(図3のステップS3でYes)、図2のイントラ予測部8において、イントラ予測パラメータ10に基づいて、Bn内の各パーティションPi nに対するイントラ予測処理が行われ、生成されるイントラ予測画像11が減算部12へ出力される(図3のステップS4)。イントラ予測画像11の生成に用いられたイントラ予測パラメータ10は、復号装置側でまったく同じイントラ予測画像11を生成するために、可変長符号化部23によってビットストリーム30に多重化される。本実施の形態1におけるイントラ予測処理は、AVC/H.264規格(ISO/IEC 14496-10)に定められるアルゴリズムに限定されないが、イントラ予測パラメータとしては、符号化装置側と復号装置側でまったく同じイントラ予測画像を生成するために必要な情報を含む必要がある。
 符号化ブロック5においてインター符号化モードが選択された場合(m(Bn)∈INTERの場合)は(図3のステップS3でNo)、図2の動き補償予測部9において、インター予測パラメータ16に基づいて、各パーティションPi nに対するフレーム間動き予測処理が行われ、生成されるインター予測画像17が減算部12へ出力されるとともに動きベクトル31が可変長符号化部23に出力される(図3のステップS5)。インター予測画像17の生成に用いられたインター予測パラメータ16は、復号装置側でまったく同じインター予測画像17を生成するために、可変長符号化部23によってビットストリーム30に多重化される。
 インター予測画像の生成に用いられたインター予測パラメータには、
・符号化ブロックBn内のパーティション分割を記述するモード情報
・各パーティションの動きベクトル
・動き補償予測フレームメモリ14内に複数の参照画像を含む構成の場合、いずれの参照画像を用いて予測を行うかを示す参照画像指示インデックス情報
・複数の動きベクトル予測値候補がある場合にいずれの動きベクトル予測値を選択して使用するかを示すインデックス情報
・複数の動き補償内挿フィルタがある場合にいずれのフィルタを選択して使用するかを示すインデックス情報
・当該パーティションの動きベクトルが複数の画素精度(半画素、1/4画素、1/8画素など)を示すことが可能な場合、いずれの画素精度を使用するかを示す選択情報
などの情報を含み、復号装置側でまったく同じインター予測画像を生成するために、可変長符号化部23によってビットストリームに多重化される。動き補償予測部9の詳細な処理内容は後述する。
 減算部12は、イントラ予測画像11、またはインター予測画像17のいずれか一方をパーティションPi nから差し引いて、予測差分信号ei n13を得る(図3のステップS6)。変換・量子化部19は、予測差分信号ei n13に対して、符号化制御部3から指示される予測差分符号化パラメータ20に基づいて、DCT(離散コサイン変換)やあらかじめ特定の学習系列に対して基底設計がなされたKL変換等の直交変換処理を実施して変換係数を算出すると共に、その変換係数を、符号化制御部3から指示される予測差分符号化パラメータ20に基づいて量子化し(図3のステップS7)、量子化後の変換係数である圧縮データ21を逆量子化・逆変換部22(図3のステップS8で逆量子化・逆変換処理部)および可変長符号化部23(図3のステップS8で可変長符号化部)へ出力する。
 逆量子化・逆変換部22は、変換・量子化部19から入力された圧縮データ21を、符号化制御部3から指示される予測差分符号化パラメータ20に基づいて逆量子化し、さらに逆DCT、逆KL変換等の逆変換処理を実施することで予測差分信号ei n13の局所復号予測差分信号ei n'24を生成し、加算部25へ出力する(図2のステップS9)。
 予測差分符号化パラメータ20は、符号化ブロック5の領域ごとに、その内部の予測差分信号ei n13の符号化に用いる量子化パラメータ、変換ブロックサイズの情報を含む。予測差分符号化パラメータ20は、符号化制御部3において、図3のステップS2の符号化モード判定の一環として決定される。量子化パラメータは、最大符号ブロックの単位でひとつ割り当て、それらを分割した符号化ブロック単位で共通に使用する形式でもよいし、各符号化ブロックごとに最大符号化ブロックの値からの差分値として表現するようにしてもよい。変換ブロックサイズ情報は、符号化ブロック5を起点として最大符号化ブロックの分割と同様、四分木分割表現がされていてもよいし、いくつかの選択可能な変換ブロックサイズがインデックス情報として表現された形式でもよい。変換・量子化部19、逆量子化・逆変換部22は、この変換ブロックサイズの情報に基づいて変換・量子化処理のブロックサイズを特定して処理を行う。なお、この変換ブロックサイズの情報は、符号化ブロック5ではなく、符号化ブロック5を分割するパーティションPi nを単位として決定するように構成されていてもよい。
 加算部25は、局所復号予測差分信号ei n'24と、イントラ予測画像11またはインター予測画像17とを加算して局所復号パーティション画像Pi n'ないしその集まりとしての局所復号符号化ブロック画像Bn' (以下、局所復号画像)26を生成し(図3のステップS10)、この局所復号画像26をループフィルタ部27へ出力すると共に(図3のステップS11でループフィルタ部)、イントラ予測用メモリ28に格納する(図3のステップS11でイントラ予測用メモリ)。局所復号画像26が以降のイントラ予測用の画像信号となる。
出力先がイントラ予測用メモリの場合、続いて、ピクチャ中の全ての符号化ブロックを処理したかどうかを判定し、全符号化ブロックの処理が終了していなければ次の符号化ブロックへ以降して同様の符号化処理を繰り返す(図3のステップS12)。
 加算部25の出力先がループフィルタ部27の場合、ループフィルタ部27は、加算部25から出力された局所復号画像26に対し、所定のフィルタリング処理を行い、フィルタリング処理後の局所復号画像29を動き補償予測フレームメモリ14に格納する(図3のステップS13)。このフィルタリング処理後の局所復号画像29が動き補償予測用の参照画像15となる。ループフィルタ部27によるフィルタリング処理は、入力される局所復号画像信号26の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1画面分のマクロブロックに相当する局所復号画像信号26が入力された後に1画面分まとめて行ってもよい。
 可変長符号化部23は、変換・量子化部19から出力された圧縮データ21と、符号化制御部3から出力される(最大符号化ブロックの分割状態を含む)符号化モード7と、イントラ予測パラメータ10ないしインター予測パラメータ16、予測差分符号化パラメータ20とをエントロピー符号化して、それらの符号化結果を示すビットストリーム30を生成する(図3のステップS14)。
 以下、本発明のポイントとなる動き補償予測部9について述べる。本実施の形態1では、図6に示すように、ピクチャを格子状に矩形領域分割し(以下、各分割単位をタイルと呼ぶ)、タイルごとに独立に動き補償予測を行う構成をとる。タイルの水平・垂直方向のサイズは最大符号化ブロックのサイズの倍数とする。タイルの分割状態は符号化装置側で固定的・一意に定めるようにしてもよいし(この場合、復号装置ではタイルという構造は意識せずに復号処理を行う)、動き補償予測以外の処理に対しても独立の処理が行えることを想定し、各タイルの左上隅位置やサイズをそれぞれ自由に決定できるように、復号装置側にビットストリームを介して伝達する仕組みを備えるようにしてもよい。なお、タイルは、従来のAVC/H.264等で用いられているスライスであってもかまわない。動き補償予測部9は、タイル内の各符号化ブロック5に対して処理を実行する。これにより、ピクチャ内を画面分割して動き補償予測の処理を並列に実行することができるため、入力映像信号が高解像度映像であっても高速に符号化処理を行うことができる。
 図7に動き補償予測部9の構成を示す。まず、動き情報生成部100は、参照画像15を参照して動きベクトル探索を行ったり、動き情報メモリ101に保持される複数の符号化済ブロックの動き情報102を参照するなどして、符号化ブロック5内の各パーティションPi nに関する動き情報103を生成し、インター予測画像生成部104に出力する。この際、動き情報生成部100は、動き補償予測に用いることのできる参照画像15上の領域(以下、有意参照画像領域)を、所定の領域(例えばカレントのタイル領域)に限定するか否かを示す参照画像制限フラグ105の値に基づいて、動き情報の生成を行う。
 図8、9にこの様子を示す。参照画像制限フラグ105がONすなわち「有意参照画像領域をカレントのタイル領域とする」場合(図8)、カレントパーティションを動きベクトルで動かした場合に、移動させた位置のパーティション内の画素の一部が有意参照画像領域の外部に位置する場合、有意参照画像領域の端点に位置する画素を所定の方法で拡張して仮想的に予測画像となる画素を生成する処置を行う。拡張の方法には、端点画素を繰り返す方法や、端点画素を中心にミラーリングを行って有意参照画像領域内の画素を補填する方法などがある。このようにすることで、参照ピクチャのメモリはタイルのサイズ分に制限することができるため、使用メモリを削減できる利点がある。使用するメモリを制限しても、所定の方法で画素を拡張することでタイル外も参照可能となるため、図1のように動きベクトル探索の範囲を強制的に狭める必要がなく、符号化効率の改善に寄与する。
 一方、参照画像制限フラグ105がOFFすなわち「有意参照画像領域に制限が無い」場合(図9)は、動き情報生成部100によって生成される動きベクトルは、カレントパーティションを動きベクトルで動かした場合に、移動させた位置のパーティション内の全ての画素が有意参照画像領域(ピクチャ)内に存在するように決定される。使用可能なメモリに制限がない場合(参照画像分のメモリを確保できる場合)は、参照画像内すべての画素を参照可能であるため、符号化効率を向上できるという利点がある。また、参照画像制限フラグ105がOFFで、符号化装置の構成上、使用できるメモリに制限がある場合は動きベクトル探索はタイル内の画素のみを参照するように探索範囲を定めればよいし(図1(b)の場合)、複数の符号化済みブロックの動き情報を参照して動き情報を生成する場合は、符号化済みブロックの動き情報のうちタイル外を参照する動きベクトルがあればそれを除外したり、補正したりするように構成すればよい。有意参照画像領域の端点での画素拡張を行わないことで、処理量を抑制することが可能であるため、画素拡張を行っても予測性能が向上しないような場合は参照画像制限フラグ105をOFFに設定するなどの制御を行うことも可能である。
 インター予測画像生成部104は入力された動き情報103と、参照画像15、参照画像制限フラグ105とに基づいて、インター予測画像17を生成し出力する。参照画像制限フラグ105がONの場合は、動きベクトル(動き情報103)によって移動させた位置のパーティション領域について、タイル内に属する画素はタイル内の参照画像データで、タイル外に属する画素は、動き情報生成部100で用いた方法と同一の手順で仮想的に参照画像データを生成してインター予測画像17を得る。一方、参照画像制限フラグ105がOFFの場合はピクチャ全体で予測を行うものと解釈する。参照画像制限フラグ105は可変長符号化部23に入力され、シーケンス単位等の上位シンタックスパラメータとしてエントロピー符号化されビットストリーム30に多重される。なお、後述するようにインター予測画像生成部104で生成されるインター予測画像17は復号装置側で得られるインター予測画像72と等価なデータである必要がある。
 以上の構成を有する動き補償予測部9により、動き情報生成処理をタイル単位で独立に動作させる場合でも、動きベクトル探索ないし符号化済みブロックの動きベクトルから予測・生成して得られた動きベクトルを最適に生成し、それにより生成される予測画像が常に復号装置側で得られる予測画像と一致するようにできる効果がある。
 次に本実施の形態の画像符号化装置が出力するビットストリーム30を復号する画像復号装置について説明する。図10は、この発明の実施の形態1に係る画像復号装置の構成を示すブロック図である。また、図11に図10の画像復号装置のピクチャレベルの処理フローを示す。以下、これらの図を用いて、本実施の形態1の画像復号装置の動作を説明する。
 可変長復号部61は、本実施の形態1に係る画像復号装置がビットストリーム30を受け取ると、そのビットストリーム30を可変長復号処理して(図11のステップS21)、1フレーム以上のピクチャから構成されるシーケンス単位あるいはピクチャ単位にフレームサイズを復号する。本実施の形態1に係る画像符号化装置で決定された最大符号化ブロックサイズおよび分割階層数上限を符号化装置と同様の手順で決定する(図11のステップS22)。例えば最大符号化ブロックサイズが入力映像信号の解像度に応じて決められた場合には、復号したフレームサイズに基づいて、符号化装置と同様の手順で最大符号化ブロックサイズを決定する。最大符号化ブロックサイズおよび分割階層数上限が符号化装置側でビットストリーム30に多重化された場合には、ビットストリーム30から復号した値を用いる。本実施の形態1に係る画像符号化装置は、図4で示されるように最大符号化ブロックを出発点に階層的に複数の符号化ブロックへ分割して得られる符号化ブロック単位に符号化モードや変換・量子化して得られる圧縮データをビットストリーム30に多重化する。
 当該ビットストリーム30を受け取った可変長復号部61は、決定された最大符号化ブロック単位に符号化モードに含まれる最大符号化ブロックの分割状態を復号する。復号された分割状態に基づき、階層的に符号化ブロックを特定する(図11のステップS23)。
 次に特定された符号化ブロックに割り当てられた符号化モード62を復号する。復号した符号化モード62に含まれる情報に基づき、符号化ブロックをさらに1つないし複数の予測処理単位(パーティション)に分割した単位で予測パラメータ63を復号する(図11のステップS24)。
 符号化ブロックに割り当てられた符号化モード62がイントラ符号化モードの場合、符号化ブロックに含まれ、予測処理単位となる1つ以上のパーティションごとにイントラ予測パラメータ63aを復号する。イントラ予測パラメータ63aの復号は、符号化装置側と同じ手順で周辺の復号済みパーティションのイントラ予測パラメータ63aに基づき、復号対象であるパーティションPi nのイントラ予測パラメータ63aの予測値を算出し、算出した予測値を用いて復号する。
 符号化ブロックに割り当てられた符号化モード62がインター符号化モードの場合、符号化ブロックに含まれ、予測処理単位となる1つ以上パーティションごとにインター予測パラメータ63bを復号する。
 予測処理単位となるパーティションはさらに予測差分符号化パラメータ65に含まれる変換ブロックサイズ情報(図示せず)に基づき、変換処理単位となる1つないし複数のパーティションに分割され、変換処理単位となるパーティションごとに圧縮データ(変換・量子化後の変換係数)を復号する(図11のステップS24)。
 可変長復号部61の出力先が切替スイッチの場合で(図11のステップS25で切替スイッチ)、符号化ブロックに割り当てられた符号化モード62がイントラ符号化モードの場合(図11のステップS26でYes)イントラ予測部69では、復号したイントラ予測パラメータ63aに基づき、符号化ブロック内の各パーティションに対するイントラ予測処理が行われ(図11のステップS27)、生成されるイントラ予測画像71が加算部73へ出力される。イントラ予測パラメータ63aに基づくイントラ予測処理は、符号化装置側のイントラ予測部8における処理と同じである。
 符号化ブロックに割り当てられた符号化モード62がインター符号化モードの場合(図11のステップS26でNo)、動き補償部70では、復号したインター予測パラメータ63b(動きベクトルを含む)に基づき、符号化ブロック内の各パーティションに対するフレーム間動き予測処理が行われ(図11のステップS28)、生成されるインター予測画像72が加算部73へ出力される。
 一方、可変長復号部61の出力先が逆量子化・逆変換部66である場合(図11のステップS25で逆量子化・逆変換部)、逆量子化・逆変換部66は、可変長復号部61から変換処理単位ごとに入力される圧縮データ64を、予測差分符号化パラメータ65に含まれる量子化パラメータに基づいて逆量子化し、さらに逆DCT,逆KL変換等の逆変換処理を実施することで復号予測差分信号67を生成し(図11のステップS29)、加算部73へ出力する。
 加算部73は、復号予測差分信号67とイントラ予測画像71またはインター予測画像72とを加算して復号パーティション画像を生成し(図11のステップS30)、符号化ブロック内に含まれる1つないし複数の復号パーティションの集まりとして、復号パーティション画像74をループフィルタ部78へ出力するとともにイントラ予測用メモリ77に格納する。復号パーティション画像74が以降のイントラ予測用の画像信号となる。
 ループフィルタ部78は、全符号化ブロックの処理後(図11のステップS31でYes)符号化装置側のループフィルタ部27と同じフィルタリング処理を行い(図11のステップS32)、フィルタリング処理後の復号画像79を動き補償予測フレームメモリ75に格納する。この復号画像79がその後の動き補償処理用の参照画像76となるとともに再生画像となる。
 以下、本発明の特徴である動き補償部70について説明する。動き補償部70の内部構成を図12に示す。まず、動き情報生成部200が、可変長復号部61から与えられるインター予測パラメータ63bと、動き情報メモリ201に保持される複数の符号化済ブロックの動き情報202を参照するなどして、動きベクトルを含む各パーティションPi nに関する動き情報203を生成し、インター予測画像生成部204に入力する。インター予測画像生成部204は入力された動き情報203と、動き補償予測用の参照画像76、可変長復号部61においてビットストリーム30から復号された参照画像制限フラグ105とに基づいて、インター予測画像72を生成し出力する。参照画像制限フラグ105がONの場合は、動きベクトルによって移動させた位置のパーティション領域について、タイル内に属する画素はタイル内の参照画像データで、タイル外に属する画素は、動き情報生成部100で用いた方法と同一の手順で仮想的に参照画像データを生成して予測画像を得る。
 一方、参照画像制限フラグ105がOFFの場合は、参照画像の使用範囲に特に制限はなく、動き情報生成部100で用いた方法と同一の手順で参照画像から予測画像を得る。なお、前述したようにインター予測画像生成部204で生成されるインター予測画像72は、符号化装置側で得られるインター予測画像17と等価なデータである必要があるが、参照画像制限フラグ105を導入することによって、符号化装置で動きベクトル探索処理がタイルなどの単位で並列処理されていても、符号化・復号時の予測画像のミスマッチを回避することができ、安定かつ高能率な符号化を行うことができる。
 また、本実施の形態1では、参照画像制限フラグ105がONのときにタイル外の画素を仮想的に拡張して生成するように構成したが、図13のように、タイル外の参照可能エリアをカスタマイズできるように構成してもよい。図13は、有意参照画像領域を拡張した場合の、参照画像制限フラグ105がONのケースの動作を示す。有意参照画像領域範囲を指定するパラメータdx,dyはプロファイル・レベルなどであらかじめ固定の値として決めておいてもよいし、シーケンスヘッダやピクチャヘッダなど上位ヘッダの一部としてビットストリームに多重してもよい。上位ヘッダで規定されるものとすることで、装置の性能に応じて参照エリアを決められるようになるため、性能と実装負荷のバランスをとることが可能となる。この場合であっても、有意参照画像領域外を参照する場合は、図8等で説明したように、仮想的に画素を拡張して予測画像を生成することが可能である。
 なお、上記複数の符号化済みブロックから動き情報を生成する場合の例として、図14に示すように、動き情報メモリ101ないし201に保持される、符号化済みの周囲のブロック、参照画像上で空間的に同じ位置にあるブロックの動き情報(動きベクトル、参照画像インデックス,予測方向など)をそのまま継承して用いるモードが考えられる。このモードに対応する動き情報を得るためには、参照画像制限フラグ105に基づいて、動き情報として使用できる候補のみを残して動き情報を生成するようにすればよい。図14では、MV_Aに対応する候補が有意参照画像領域の外を指しているため、これを除き、MV_B、MV_Cに対応する候補のみを本モードに対応する動き情報として選択可能とする。MV_Aを除外しない場合、indexは0,1,2の3種類となり、indexとして符号化する情報量が多くなる。除外措置を行うことで、indexに要する符号量も抑制できる効果がある。
 本実施の形態1では、参照画像制限フラグ105をシーケンスなどの上位ヘッダシンタックスとしてビットストリーム30に多重するとしたが、本フラグに相当する制約をプロファイル、レベルなどで規定しても同様の効果が得られる。
 本実施の形態1では、図4に示すようなLn = Mnのケースを示したが、これはLn ≠ Mnであってもよい。例えば図15に示すように、Ln = kMnとなる場合が考えられる。次の分割では、(Ln+1, Mn+1) = (Mn, Mn)となり、以降の分割は図4と同様の分割を行ってもよいし図16に示すように、(Ln+1, Mn+1) = (Ln/2, Mn/2)であってもよい。または図17のように図15と図16の分割のどちらかを選択できるようにしてもよい。選択できるようにした場合は、どちらの分割を選択したかのフラグを符号化する。このケースは、例えば非特許文献1のAVC/H.264のような16x16を1つのブロックとするものを横に連結するだけで可能であるため、既存方式との互換性を維持した符号化がやりやすい効果がある。
 上記ではLn = kMnとしたが、これはkLn = Mnのように縦に連結したものであっても同様の考えで分割が可能であることはいうまでもない。
 量子化・変換部、逆量子化・逆変換部の変換ブロック単位は変換処理単位によって一意に決定してもよいし、図18に示すように階層構造にしてもよい。この場合、各階層では分割するかどうかのフラグを符号化する。
 上記分割は、パーティション単位で行ってもよいし符号化ブロック単位で行ってもよい。
 上記変換は正方形での変換を仮定したが、これは長方形など他の矩形であってもよい。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 以上のように、この発明に係る画像符号化装置、画像復号装置、画像符号化方法および画像復号方法は、高解像度映像などの処理負荷の高い運用においても高能率な画像符号化・復号処理を行うことができるので、画像圧縮符号化技術や圧縮画像データ伝送技術等に用いられる画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法などに用いるのに適している。
 2 ブロック分割部、3 符号化制御部、6 切替スイッチ、8 イントラ予測部、9 動き補償予測部、12 減算部、14 動き補償予測フレームメモリ、19 変換・量子化部、22 逆量子化・逆変換部、23 可変長符号化部、25 加算部、27 ループフィルタ部、28 イントラ予測用メモリ、61 可変長復号部、66 逆量子化・逆変換部、68 切替スイッチ、69 イントラ予測部、70 動き補償部、73 加算部、75 動き補償予測フレームメモリ、77 イントラ予測用メモリ、78 ループフィルタ部、100 動き情報生成部、101 動き情報メモリ、104 インター予測画像生成部、200 動き情報生成部、201 動き情報メモリ、204 インター予測画像生成部。

Claims (4)

  1.  動画像信号の各ピクチャの所定の符号化単位となる符号化ブロックに分割して、該符号化ブロックごとに動き補償予測を用いて圧縮符号化を行う動画像符号化装置において、
     該符号化ブロックないしそれを分割した単位である動き補償予測単位領域ごとに選択された動きベクトルを用いて、前記動き補償予測単位領域に対する予測画像を生成する動き補償部と、
     前記予測画像に対応する入力信号と前記予測画像との差分画像を圧縮した圧縮データ、前記動きベクトルに関する情報を可変長符号化してビットストリームを生成するとともに、前記動き補償予測に用いることのできる参照画像上の領域である有意参照画像領域を所定の領域に限定するか否かを示す参照画像制限フラグをビットストリームに多重化する可変長符号化部とを備え、
     前記動き補償部は、前記参照画像制限フラグに基づいて前記有意参照画像領域を特定し、前記予測画像が有意参照画像領域外の画素を含む場合、所定の拡張処理を行うことを特徴とする画像符号化装置。
  2.  ビットストリームに多重化されている符号化データから符号化ブロックに係る圧縮データ、前記動き補償予測に用いることのできる参照画像上の領域である有意参照画像領域を所定の領域に限定するか否かを示す参照画像制限フラグ、動きベクトルの情報である動き情報を可変長復号する可変長復号部と、
     前記動き情報に基づいて、前記符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する動き補償予測部と、
     前記符号化ブロックに係る圧縮データから生成された圧縮前の差分画像と前記予測画像とを加算して復号画像を生成する復号画像生成部とを備え、
     前記動き補償予測部は、前記予測画像を生成する際、前記参照画像制限フラグに基づき、前記動き情報を用いて、前記予測画像が有意参照画像領域外の画素を含む場合、所定の拡張処理を行って予測画像を生成することを特徴とする画像復号装置。
  3.  動画像信号の各ピクチャの所定の符号化単位となる符号化ブロックに分割して、該符号化ブロックごとに動き補償予測を用いて圧縮符号化を行う動画像符号化方法において、
     該符号化ブロックないしそれを分割した単位である動き補償予測単位領域ごとに選択された動きベクトルを用いて、前記動き補償予測単位領域に対する予測画像を生成する動き補償ステップと、
     前記予測画像に対応する入力信号と前記予測画像との差分画像を圧縮した圧縮データ、前記動きベクトルに関する情報を可変長符号化してビットストリームを生成するとともに、前記動き補償予測に用いることのできる参照画像上の領域である有意参照画像領域を所定の領域に限定するか否かを示す参照画像制限フラグをビットストリームに多重化する可変長符号化ステップとを備え、
     前記動き補償ステップは、前記参照画像制限フラグに基づいて前記有意参照画像領域を特定し、前記予測画像が有意参照画像領域外の画素を含む場合、所定の拡張処理を行うことを特徴とする画像符号化方法。
  4.  ビットストリームに多重化されている符号化データから符号化ブロックに係る圧縮データ、前記動き補償予測に用いることのできる参照画像上の領域である有意参照画像領域を所定の領域に限定するか否かを示す参照画像制限フラグ、動きベクトルの情報である動き情報を可変長復号する可変長復号ステップと、
     前記動き情報に基づいて、前記符号化ブロックに対する動き補償予測処理を実施して予測画像を生成する動き補償予測ステップと、
     前記符号化ブロックに係る圧縮データから生成された圧縮前の差分画像と前記予測画像とを加算して復号画像を生成する復号画像生成ステップとを備え、
     前記動き補償予測ステップは、前記予測画像を生成する際、前記参照画像制限フラグに基づき、前記動き情報を用いて、前記予測画像が有意参照画像領域外の画素を含む場合、所定の拡張処理を行って予測画像を生成することを特徴とする画像復号方法。
PCT/JP2012/003785 2011-06-30 2012-06-11 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法 WO2013001730A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP12804149.8A EP2680588B1 (en) 2011-06-30 2012-06-11 Image encoding apparatus, image decoding apparatus, image encoding method and image decoding method
CN201280009905.4A CN103385004B (zh) 2011-06-30 2012-06-11 图像编码装置、图像解码装置、图像编码方法以及图像解码方法
ES12804149T ES2862898T3 (es) 2011-06-30 2012-06-11 Aparato de codificación de imágenes, aparato de decodificación de imágenes, método de codificación de imágenes y método de decodificación de imágenes
PL12804149T PL2680588T3 (pl) 2011-06-30 2012-06-11 Urządzenie do kodowania obrazu, urządzenie do dekodowania obrazu, sposób kodowania obrazu i sposób dekodowania obrazu
US14/000,305 US9503718B2 (en) 2011-06-30 2012-06-11 Image coding device, image decoding device, image coding method, and image decoding method
KR1020137025216A KR20130135925A (ko) 2011-06-30 2012-06-11 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법 및 화상 복호 방법
JP2013522714A JP5711370B2 (ja) 2011-06-30 2012-06-11 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
BR112013020878-3A BR112013020878B1 (pt) 2011-06-30 2012-06-11 Dispositivos e métodos de codificação e decodificação de imagem

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-145572 2011-06-30
JP2011145572 2011-06-30

Publications (1)

Publication Number Publication Date
WO2013001730A1 true WO2013001730A1 (ja) 2013-01-03

Family

ID=47423662

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003785 WO2013001730A1 (ja) 2011-06-30 2012-06-11 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法

Country Status (9)

Country Link
US (1) US9503718B2 (ja)
EP (1) EP2680588B1 (ja)
JP (4) JP5711370B2 (ja)
KR (1) KR20130135925A (ja)
CN (1) CN103385004B (ja)
BR (1) BR112013020878B1 (ja)
ES (1) ES2862898T3 (ja)
PL (1) PL2680588T3 (ja)
WO (1) WO2013001730A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014107565A1 (en) * 2013-01-04 2014-07-10 Qualcomm Incorporated Bitstream constraints and motion vector restriction for inter-view or inter-layer reference pictures
JP2014527316A (ja) * 2011-08-25 2014-10-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化方法、符号化装置、復号方法、および復号装置
JP2015015666A (ja) * 2013-07-08 2015-01-22 ルネサスエレクトロニクス株式会社 動画像符号化装置およびその動作方法
CN104702954A (zh) * 2013-12-05 2015-06-10 华为技术有限公司 视频编码方法及装置
CN105519117A (zh) * 2013-09-06 2016-04-20 三菱电机株式会社 动态图像编码装置、动态图像转码装置、动态图像编码方法、动态图像转码方法以及动态图像流传输系统
JP2016534649A (ja) * 2013-08-26 2016-11-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated イントラブロックコピー実行時の領域決定
JPWO2014148310A1 (ja) * 2013-03-21 2017-02-16 ソニー株式会社 画像符号化装置および方法、並びに、画像復号装置および方法
JP2017513437A (ja) * 2014-03-28 2017-05-25 ソニー株式会社 データ符号化及び復号化

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5711370B2 (ja) * 2011-06-30 2015-04-30 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法
WO2015169230A1 (en) * 2014-05-06 2015-11-12 Mediatek Inc. Video processing method for determining position of reference block of resized reference frame and related video processing apparatus
US9626733B2 (en) * 2014-11-24 2017-04-18 Industrial Technology Research Institute Data-processing apparatus and operation method thereof
WO2017220164A1 (en) * 2016-06-24 2017-12-28 Huawei Technologies Co., Ltd. Devices and methods for video coding using segmentation based partitioning of video coding blocks
CN117176948A (zh) * 2016-10-04 2023-12-05 有限公司B1影像技术研究所 图像编码/解码方法、记录介质和传输比特流的方法
EP4375917A3 (en) * 2017-10-19 2024-10-09 Panasonic Intellectual Property Corporation of America Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
WO2020004349A1 (ja) * 2018-06-29 2020-01-02 シャープ株式会社 動画像符号化装置および動画像復号装置
JP7005480B2 (ja) * 2018-12-27 2022-01-21 Kddi株式会社 画像復号装置、画像符号化装置、プログラム及び画像処理システム
MX2021011619A (es) 2019-04-01 2021-10-13 Beijing Bytedance Network Tech Co Ltd Uso de filtros de interpolacion para la prediccion de vector de movimiento basada en historia.
BR112022002480A2 (pt) 2019-08-20 2022-04-26 Beijing Bytedance Network Tech Co Ltd Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador armazenado em uma mídia legível por computador não transitória

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346217A (ja) * 2000-05-30 2001-12-14 Alcatel 動きの予測によるセグメント画像の符号化
JP2004297566A (ja) * 2003-03-27 2004-10-21 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP2007259149A (ja) * 2006-03-23 2007-10-04 Sanyo Electric Co Ltd 符号化方法
WO2009037726A1 (ja) * 2007-09-18 2009-03-26 Fujitsu Limited 動画像符号化装置および動画像復号装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG116400A1 (en) 1997-10-24 2005-11-28 Matsushita Electric Ind Co Ltd A method for computational graceful degradation inan audiovisual compression system.
JP3544852B2 (ja) 1998-03-12 2004-07-21 株式会社東芝 映像符号化装置
JP4511842B2 (ja) * 2004-01-26 2010-07-28 パナソニック株式会社 動きベクトル検出装置及び動画撮影装置
JP5115498B2 (ja) * 2009-03-05 2013-01-09 富士通株式会社 画像符号化装置、画像符号化制御方法およびプログラム
JPWO2012120840A1 (ja) * 2011-03-07 2014-07-17 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置および画像符号化装置
JP5711370B2 (ja) * 2011-06-30 2015-04-30 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法および画像復号方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346217A (ja) * 2000-05-30 2001-12-14 Alcatel 動きの予測によるセグメント画像の符号化
JP2004297566A (ja) * 2003-03-27 2004-10-21 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP2007259149A (ja) * 2006-03-23 2007-10-04 Sanyo Electric Co Ltd 符号化方法
WO2009037726A1 (ja) * 2007-09-18 2009-03-26 Fujitsu Limited 動画像符号化装置および動画像復号装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014527316A (ja) * 2011-08-25 2014-10-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化方法、符号化装置、復号方法、および復号装置
US10021414B2 (en) 2013-01-04 2018-07-10 Qualcomm Incorporated Bitstream constraints and motion vector restriction for inter-view or inter-layer reference pictures
WO2014107565A1 (en) * 2013-01-04 2014-07-10 Qualcomm Incorporated Bitstream constraints and motion vector restriction for inter-view or inter-layer reference pictures
CN104885458A (zh) * 2013-01-04 2015-09-02 高通股份有限公司 用于视图间或层间参考图片的位流约束和运动向量限制
CN104885458B (zh) * 2013-01-04 2019-05-28 高通股份有限公司 用于视图间或层间参考图片的位流约束和运动向量限制
JPWO2014148310A1 (ja) * 2013-03-21 2017-02-16 ソニー株式会社 画像符号化装置および方法、並びに、画像復号装置および方法
US12113976B2 (en) 2013-03-21 2024-10-08 Sony Corporation Image encoding device and method and image decoding device and method
JP2015015666A (ja) * 2013-07-08 2015-01-22 ルネサスエレクトロニクス株式会社 動画像符号化装置およびその動作方法
JP2016534649A (ja) * 2013-08-26 2016-11-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated イントラブロックコピー実行時の領域決定
CN105519117A (zh) * 2013-09-06 2016-04-20 三菱电机株式会社 动态图像编码装置、动态图像转码装置、动态图像编码方法、动态图像转码方法以及动态图像流传输系统
EP3043560A4 (en) * 2013-09-06 2017-03-01 Mitsubishi Electric Corporation Video encoding device, video transcoding device, video encoding method, video transcoding method and video stream transmission system
CN104702954A (zh) * 2013-12-05 2015-06-10 华为技术有限公司 视频编码方法及装置
CN104702954B (zh) * 2013-12-05 2017-11-17 华为技术有限公司 视频编码方法及装置
JP2017513437A (ja) * 2014-03-28 2017-05-25 ソニー株式会社 データ符号化及び復号化

Also Published As

Publication number Publication date
JP6615287B2 (ja) 2019-12-04
JP2015130689A (ja) 2015-07-16
EP2680588A1 (en) 2014-01-01
US9503718B2 (en) 2016-11-22
JPWO2013001730A1 (ja) 2015-02-23
CN103385004A (zh) 2013-11-06
JP6381724B2 (ja) 2018-08-29
BR112013020878A2 (pt) 2016-09-27
JP2018186569A (ja) 2018-11-22
EP2680588B1 (en) 2021-02-17
BR112013020878B1 (pt) 2022-05-10
PL2680588T3 (pl) 2021-09-06
ES2862898T3 (es) 2021-10-08
JP6391500B2 (ja) 2018-09-19
EP2680588A4 (en) 2015-04-29
JP5711370B2 (ja) 2015-04-30
US20130343460A1 (en) 2013-12-26
CN103385004B (zh) 2016-12-28
KR20130135925A (ko) 2013-12-11
JP2017121089A (ja) 2017-07-06

Similar Documents

Publication Publication Date Title
JP6615287B2 (ja) 画像復号装置
JP6863669B2 (ja) 画像符号化装置、画像符号化方法、画像復号装置および画像復号方法
JP6716836B2 (ja) 動画像符号化データ
KR101728285B1 (ko) 화상 부호화 장치, 화상 부호화 방법, 화상 복호 장치, 화상 복호 방법 및 기억 매체
US11350120B2 (en) Image coding device, image decoding device, image coding method, and image decoding method
WO2013065402A1 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
US20160050421A1 (en) Color image encoding device, color image decoding device, color image encoding method, and color image decoding method
JP2012080213A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
US20150271502A1 (en) Video encoding device, video decoding device, video encoding method, and video decoding method
WO2012176387A1 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12804149

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013522714

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14000305

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20137025216

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012804149

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112013020878

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112013020878

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20130815