WO2015011752A1 - 動画像符号化装置およびその動作方法 - Google Patents

動画像符号化装置およびその動作方法 Download PDF

Info

Publication number
WO2015011752A1
WO2015011752A1 PCT/JP2013/069753 JP2013069753W WO2015011752A1 WO 2015011752 A1 WO2015011752 A1 WO 2015011752A1 JP 2013069753 W JP2013069753 W JP 2013069753W WO 2015011752 A1 WO2015011752 A1 WO 2015011752A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
moving image
quantization
prediction
frequency conversion
Prior art date
Application number
PCT/JP2013/069753
Other languages
English (en)
French (fr)
Inventor
亮司 橋本
憲一 岩田
一志 秋江
Original Assignee
ルネサスエレクトロニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ルネサスエレクトロニクス株式会社 filed Critical ルネサスエレクトロニクス株式会社
Priority to CN201380078187.0A priority Critical patent/CN105379284B/zh
Priority to PCT/JP2013/069753 priority patent/WO2015011752A1/ja
Priority to EP13889853.1A priority patent/EP3026906B1/en
Priority to US14/906,901 priority patent/US10356437B2/en
Priority to KR1020167001472A priority patent/KR102167350B1/ko
Priority to JP2015528022A priority patent/JP6100904B2/ja
Priority to TW103116513A priority patent/TWI626842B/zh
Publication of WO2015011752A1 publication Critical patent/WO2015011752A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements

Definitions

  • the present invention relates to a moving image encoding device and an operation method thereof, and more particularly to a technique effective for reducing an increase in the code amount of an encoded bit stream generated from a moving image encoding device in padding processing.
  • MPEG is an abbreviation for Moving
  • the MPEG-2 standard prescribes only the bitstream syntax (compression coding data string rules or coding data bitstream configuration method) and decoding process, so that satellite broadcasting and services, cable television, etc. It is flexible enough to be used in various situations such as interactive television and the Internet.
  • the video signal is sampled and quantized to define the color and luminance components of each pixel of the digital video.
  • Values indicating color and luminance components are stored in a structure known as a macroblock.
  • the color and luminance values stored in the macroblock are converted into frequency values using discrete cosine transform (DCT).
  • DCT discrete cosine transform
  • the transform coefficients obtained by DCT have different frequencies depending on the brightness and color of the picture.
  • the quantized DCT transform coefficients are encoded by variable length coding (VLC) that further compresses the video stream.
  • VLC variable length coding
  • I frame Intra-coded
  • P frame unidirectional prediction
  • B frame bi-directionally (predictive-coded) frame.
  • the MPEG-2 moving image encoder includes a frame memory, a motion vector detection unit, a motion compensation unit, a subtraction unit, a DCT conversion unit, a quantization unit, an inverse quantization unit, an inverse DCT conversion unit, and a variable. It is composed of a long encoding unit.
  • the encoded video signal is stored in the frame memory to detect the B frame encoding and motion vector, and then read out from the frame memory.
  • the motion compensated prediction signal from the motion compensation unit is received by the subtraction unit. Subtraction is performed, and DCT conversion processing and quantization processing are executed by the DCT conversion unit and the quantization unit, respectively.
  • the quantized DCT transform coefficient is subjected to variable length coding processing by the variable length coding unit, and after the local decoding processing is performed by the inverse quantization unit and the inverse DCT transform unit, the local decoding processing result is motion compensated. Is supplied to the subtracting unit via the unit.
  • a moving picture decoding apparatus (Decoder) of MPEG-2 includes a buffer memory, a variable length decoding unit, an inverse quantization unit, an inverse DCT conversion unit, a motion compensation unit, an addition unit, and a frame memory.
  • the variable length decoding unit, the inverse quantization unit, and the inverse DCT conversion unit perform variable length decoding processing, inverse quantization processing, and inverse DCT conversion processing, respectively. Executed. These processing results are added to a reference image generated based on the motion vector subjected to variable length decoding processing by the adding unit, and a reproduced image signal is generated from the output of the adding unit. This reproduced image signal is stored in the frame memory and used for prediction of other frames.
  • a general video compression method according to the MPEG-4 standard (H.263) standardized by the international standard ISO / IEC 14496 for low-rate encoding of videophones, etc.
  • the compression method based on the MPEG-4 (H.263) standard is called “hybrid type” using inter-frame prediction and discrete cosine transform, similar to MPEG-2, and is further divided in half-pixel units. Motion compensation was introduced.
  • this compression method uses Huffman coding as entropy coding, but introduces a new technology called three-dimensional variable length coding (three-dimensional VLC) that simultaneously encodes run, level, and last.
  • the run and level relate to the run-length coefficient, and the last indicates whether it is the last coefficient.
  • the MPEG-4 (H.263) standard includes a basic part called Baseline and an extended standard called Annex.
  • the MPEG-4 AVC (H.264) standard is an international standard ISO / IEC in order to achieve higher encoding efficiency. Standardized by 14496-10.
  • AVC is an abbreviation for Advanced Video Coding
  • the MPEG-4 AVC (H.264) standard is H.264. H.264 / AVC.
  • Standard H. Video coding by H.246 / AVC is composed of a video coding layer (Video Coding Layer) and a network abstraction layer (Network Abstraction Layer). That is, the video coding layer is designed to effectively represent the video context, and the network abstraction layer formats the VCL representation of the video and is suitable for transfer by various transport layers and storage media. Header information in a way.
  • inter coding i.e., frame
  • inter coding i.e., frame
  • I frame that uses intra coding without using correlation between frames
  • P frame that is inter-predicted from one previously coded frame
  • inter frame that is based on two previously coded frames.
  • B frames that can be predicted.
  • inter-frame predictive encoding subtraction between a moving image to be encoded and a motion-compensated reference image (predicted image) is executed, and a prediction residual by this subtraction is encoded.
  • the encoding process includes orthogonal transform such as DCT (discrete cosine transform), quantization, and variable length encoding.
  • Motion compensation motion correction
  • motion correction includes processing for spatially moving a reference frame for inter-frame prediction, and motion compensation processing is performed in units of blocks of a frame to be encoded. When there is no motion in the image content, there is no movement and the pixel at the same position as the predicted pixel is used. When there is a motion, the most similar block is searched and the movement amount is set as a motion vector.
  • the motion compensation block is a block of 16 pixels ⁇ 16 pixels / 16 pixels ⁇ 8 pixels in the MPEG-2 encoding method, and 16 pixels ⁇ 16 pixels / 16 pixels ⁇ 8 pixels / in the MPEG-4 encoding method. This is a block of 8 pixels ⁇ 8 pixels.
  • the motion compensation block is 16 pixels ⁇ 16 pixels / 16 pixels ⁇ 8 pixels / 8 pixels ⁇ 16 pixels / 8 pixels ⁇ 8 pixels / 8 pixels ⁇ 4 pixels / It is a block of 4 pixels ⁇ 8 pixels / 4 pixels ⁇ 4 pixels.
  • the encoding process described above is performed for each video screen (frame or field), and a block obtained by subdividing the screen (usually 16 pixels ⁇ 16 pixels, called a macro block (MB) in MPEG) is a processing unit. It will be. That is, for each block to be encoded, the most similar block (predicted image) is selected from the already encoded reference image, and the difference signal between the encoded image (block) and the predicted image is encoded (orthogonal transform). , Quantization, etc.). The difference between the relative positions of the block to be encoded and the prediction signal in the screen is called a motion vector.
  • the video coding layer (VCL) according to H.246 / AVC is described as following an approach called block-based hybrid video coding.
  • the VCL design is composed of macroblocks and slices. Each picture is divided into a plurality of macroblocks having a fixed size, and each macroblock has a luminance picture component of a rectangular picture area of 16 ⁇ 16 samples and 2 corresponding to it. Each of the two color difference components includes a square sample area.
  • a picture can include one or more slices. Each slice is self-inclusive in the sense that it gives an active sequence parameter set and a picture parameter set, and the slice representation can basically be decoded without using information from other slices.
  • the syntax element can be analyzed from the bit stream and the value of the sample in the picture area. However, in order to adapt the deblocking filter across slice boundaries for more complete decoding, some information from other slices is required.
  • systems that handle moving image codes include digital HDTV (High Definition Television) broadcast receivers and digital video cameras that can shoot HDTV signals, and the image size is becoming larger.
  • An image encoding apparatus and an image decoding apparatus that process these signals are required to have higher processing performance.
  • the standard H.264. H.264 / MPEG-4 AVC is a successor to the new standard H.264. H.265 (ISO / IEC 23008-2) has been proposed, and this new standard is called HEVC (High Efficiency Video Coding).
  • the HEVC standard is superior in compression efficiency by optimizing the block size and the like, and is approximately four times as high as the MPEG-2 standard.
  • the compression performance is about twice that of H.264 / AVC.
  • Patent Document 1 includes MPEG-1 / 2/4 and H.264. 261 / H. 263 / H.
  • H.264-AVC various encoding and compression standards widely adopted such as H.264-AVC
  • one macroblock consisting of 16 ⁇ 16 pixels is used as a processing unit for motion compensation and subsequent processing
  • a flexible block structure is adopted as a processing unit.
  • the unit of this flexible block structure is called a coding unit (CU), which uses a quadtree to achieve good performance starting from the maximum coding unit (LCU).
  • LCU maximum coding unit
  • the maximum coding unit (LCU) size is 64 ⁇ 64 pixels which is much larger than the macroblock size (16 ⁇ 16 pixels).
  • the maximum coding unit (LCU) described in Patent Document 1 below corresponds to a coding tree block (CTB) or a coding tree block (CTU) described in the HEVC standard.
  • FIG. 1 of Patent Document 1 and related disclosure show an example of coding unit division based on quad tree, and at the depth “zero”, the first coding unit (CU) is composed of 64 ⁇ 64 pixels.
  • the split flag “0” indicates that the current coding unit (CU) is not divided, while the split flag “1” indicates that the current coding unit (CU) is divided into four small coding units by quad tree.
  • Patent Document 1 below also describes that the divided coding unit (CU) is further subjected to quad-tree division until reaching the size of the minimum coding unit (CU) specified in advance.
  • Non-patent document 2 gives an overview of the HEVC standard.
  • the core of the coding layer of the previous standard was a macroblock containing two chromaticity samples of 16 ⁇ 16 blocks and 8 ⁇ 8 blocks of luminance samples
  • the similar structure of the HEVC standard is traditional A coding tree unit (CTU) whose size is selected by an encoder larger than a large macroblock.
  • the coding tree unit (CTU) includes a luminance coding tree block (CTB), a chromaticity coding tree block (CTB), and syntax elements.
  • the coding tree unit (CTU) quad tree syntax specifies the size and position of the coding tree block (CTB) for its luminance and chromaticity.
  • the decision whether an inter picture or an intra picture is used to encode a picture region is made at the level of the coding unit (CU).
  • the division structure of the prediction unit (PU) has its roots at the level of the coding unit (CU).
  • the luminance and chromaticity coding block (CB) can be divided in size and predicted from the luminance and chromaticity prediction block (PB).
  • the HEVC standard supports variable prediction block (PB) sizes from 64 ⁇ 64 samples to 4 ⁇ 4 samples.
  • the prediction residual is encoded by block transform, and the tree structure of the transform unit (TU) has its root at the level of the coding unit (CU).
  • the residual of the luminance coding block (CB) can be the same as that of the luminance transform block (TB), and can be divided into smaller luminance transform blocks (TB).
  • Integer-based functions similar to those of the Discrete Cosine Transform (DCT) are defined for the size of 4 ⁇ 4, 8 ⁇ 8, 16 ⁇ 16, 32 ⁇ 32 sample square transform blocks (TB) ing.
  • Non-Patent Document 2 describes the configuration of a hybrid video encoder that can generate a bitstream that complies with the HEVC standard. It is also described that a deblocking filter similar to that used in the H.264 / MPEG-4 AVC standard is included.
  • Patent Document 2 in order to efficiently encode an image of an arbitrary shape, shape information of an image signal input from the outside is supplied to padding means that fills a blank area without image data in a block.
  • the padding means Since the horizontal and vertical sizes of the input image signal need to be integral multiples of the block size for compression encoding, the padding means uses a blank area as an average value of the image area in order to encode an arbitrarily shaped image. The operation of filling in the image area or the operation of filling in by copying pixels at the end of the image area is executed.
  • Patent Document 3 when a signal whose pixel value changes discontinuously at the edge of the screen when encoding an image signal, a high frequency component is generated due to the discontinuity of the signal, and many codes are encoded.
  • An encoding device is described that solves the problem of generating quantities.
  • the weighting factor determination unit calculates the position of the image signal in the screen based on the synchronization signal, and outputs a weighting factor w that approaches 0 as the end of the screen is approached.
  • the first multiplier multiplies the input image signal by the weighting coefficient w
  • the second multiplier multiplies the output of the constant value output unit by the coefficient 1-w
  • the adder adds the output signals of the two multipliers After that, the output of the adder is encoded by the encoder. It is described that an extra code amount is not required because the image signal is smoothly set to a constant value at the edge of the screen.
  • Patent Document 4 when an operator sets information indicating an important position of an image included in a transmission image in an operation unit, the image encoding unit converts image data in the important position of the image into images at other positions.
  • a videophone device that encodes with improved image quality over data is described.
  • Patent Document 5 in order to realize an off-screen motion vector (UMV) adopted in the MPEG-4 standard (in order to use the outside of the screen boundary as a reference image), the pixel value in the screen A padding process for extrapolating to the outside of the screen is described. Furthermore, since the extrapolation start position of the padding process is not the end of the effective image area or the end of the encoded macroblock in the MPEG-4 standard, the extrapolation start position of the padding process is different between the encoder and the decoder. A method for preventing noise generated in a decoder when there is inconsistency is described.
  • UMV off-screen motion vector
  • the inventors of the present invention have decided on the current standard H.264.
  • Engaged in the development of a video encoding device Video Encoder
  • This moving image encoding apparatus is not limited to the HEVC standard, but also the current standard H.264.
  • H.264 / MPEG-4 AVC is also required to encode a moving image input signal.
  • This HEVC standard is superior in compression efficiency by optimizing the block size, etc., and is about 4 times that of the MPEG-2 standard.
  • the compression performance is about twice that of H.264 / AVC.
  • the video encoding device and video decoding device have higher processing performance. Therefore, the HEVC standard is expected to satisfy these requirements.
  • 4KTV having a display device with a size of 4096 pixels ⁇ 2160 pixels or 3840 pixels ⁇ 2160 pixels, which is about four times the pixel size of high definition HD (High pixel definition) (1920 pixels ⁇ 1080 pixels), has attracted attention.
  • HD High pixel definition
  • FIG. 10 shows the current standard H.264, which was studied by the inventors prior to the present invention.
  • 2 is a diagram illustrating a configuration of a moving image encoding apparatus 1 that can generate an encoded bit stream by encoding a moving image input signal in accordance with a selected method of H.264 and the HEVC standard.
  • the moving image encoding apparatus 1 includes a filter unit 107, a frame memory 108, a motion vector detection unit 109, a motion compensation unit 110, a buffer memory 111, an intra prediction unit 112, and a selector unit 113.
  • the moving image signal VS is supplied to the input terminal of the padding processing unit 100, and the padding processing unit 100 performs padding processing as necessary. That is, as described in Patent Document 2, when the horizontal and vertical sizes of the video signal VS supplied to the video encoding device 1 are not integer multiples of the encoding block size, The padding processing unit 100 executes the padding process so that the horizontal and vertical sizes of the moving image signal are integer multiples of the encoded block size.
  • FIG. 11 is a diagram for explaining the padding process in the padding processing unit 100 of the moving picture coding apparatus 1 examined by the inventors prior to the present invention shown in FIG.
  • FIG. 11 shows a case where the moving picture encoding apparatus 1 shown in FIG. 10 executes the encoding process of the moving picture signal VS in accordance with the HEVC standard. That is, the coding block size in this case is a coding unit CU defined by the HEVC standard. Therefore, the coding unit CU may be a maximum coding unit (LCU) composed of 64 ⁇ 64 pixels or may be generated by dividing the maximum coding unit (LCU).
  • LCU maximum coding unit
  • the padding processing unit 100 executes the padding process so that the horizontal and vertical sizes of the moving image signal after the padding process are integer multiples of the encoded block size. That is, as shown in FIG. 11, padding processing data PD is added by the padding processing of the padding processing unit 100 in the right horizontal direction and vertical down direction of the moving image signal VS.
  • the padding processing data PD can be formed, for example, by copying the pixel value itself or the average value of the pixel values of the moving image signal VS near the boundary between the moving image signal VS and the padding processing data PD. .
  • the padding process data PD is added to the moving image signal VS so that the horizontal and vertical sizes of the moving image signal after the padding process are integer multiples of the encoded block size.
  • moving picture coding processing is performed by the coding apparatus 1, it is possible to reduce high-frequency components generated by discontinuity of moving picture signals. Therefore, it is possible to reduce the code amount of the compressed video encoded bit stream CVBS generated from the variable length encoding unit 114 by reducing the high frequency component.
  • the video signal VS after the padding processing of the padding processing unit 100 shown in FIG. 11 needs to be displayed by a video decoding device (Decoder).
  • the padding processing data PD after the padding processing of the padding processing unit 100 shown in FIG. 11 is not required to be displayed by the moving picture decoding device (Decoder).
  • the moving picture encoding apparatus 1 shown in FIG. When the encoding process of the moving image signal VS is executed according to H.264, the encoding block size is a macro block (MB).
  • This macro block (MB) is a luminance component and has a size of 16 pixels ⁇ 16 pixels.
  • the padding processing unit 100 executes the padding process so that the horizontal and vertical sizes of the moving image signal after the padding process are integer multiples of the macroblock (MB) size.
  • the additional moving image signal VS + PD after the padding processing of the padding processing unit 100 is performed by one input terminal of the subtractor 101, one input terminal of the motion vector detection unit 109, and the intra prediction unit 112. It is supplied to one input terminal.
  • a prediction mode indicating inter prediction or intra prediction of each picture of a moving image is supplied from a coding control unit (not shown) to the selector unit 113 and the variable length coding unit 114.
  • the coding unit (CU) of the moving image signal VS to be inter-encoded is supplied to one input terminal of the subtractor 101.
  • the motion vector detection unit 109 generates a motion vector MV in response to the moving image signal VS after the padding processing from the padding processing unit 100 and the reference image stored in the frame memory 108.
  • the motion compensation unit 110 generates a motion compensated prediction signal in response to the generated motion vector MV and the reference image stored in the frame memory 108.
  • the motion compensation prediction signal from the motion compensation unit 110 is subtracted from the moving image signal VS by the subtraction unit 101 via the selector unit 113.
  • the frequency conversion unit 102 and the quantization unit 103 perform frequency conversion processing and quantization processing, respectively.
  • the frequency transform coefficient quantized by the quantizing unit 103 and the motion vector MV generated by the motion vector detecting unit 109 are subjected to variable length coding processing by the variable length coding unit 114, and compressed video is transmitted via the video buffer 115.
  • An encoded bitstream CVBS is generated.
  • the frequency transform coefficient quantized by the quantizing unit 103 is subjected to local decoding processing by the inverse quantizing unit 104, the inverse frequency converting unit 105, the adder 106, and the filter unit 107, and the result of the local decoding processing is obtained. It is stored in the frame memory 108 as a reference image.
  • the filter unit 107 has a function of a deblocking filter for reducing block distortion in accordance with the MPEG-4 AVC (H.264) standard. Furthermore, the filter unit 107 has a filter function called sample adaptive offset (SAO) after the deblocking filter process in order to comply with the HEVC standard. This filter function reconstructs the original signal amplitude satisfactorily by using a look-up table described by additional parameters determined by frequency distribution analysis of a coding control unit (not shown) of the moving picture coding apparatus 1. Is.
  • the moving image signal VS after the padding processing from the padding processing unit 100 is supplied to one input terminal of the intra prediction unit 112. Since the buffer memory 111 stores the reference image encoded by the intra prediction and generated by the local decoding process, the reference image read from the buffer memory 111 is the other input terminal of the intra prediction unit 112. Has been supplied to. Therefore, when the intra prediction unit 112 intra-codes the coding unit (CU) of the moving image signal VS supplied to one input terminal, the intra prediction unit 112 has already been supplied from the buffer memory 111 to the other input terminal. An optimal coding unit is selected from a plurality of neighboring coding units (CUs) included in the reference image, and spatial information of the selected optimal coding unit is generated. As a result, the intra prediction unit 112 supplies the intra prediction information including the optimal intra-predicted coding unit (CU) and the corresponding spatial prediction mode to the selector unit 113.
  • CU neighboring coding units
  • the padding processing unit 100 uses the side of the additional video signal VS + PD after the padding process and Padding processing is performed so that the vertical size is an integral multiple of the coding block size. Therefore, even when the horizontal and vertical sizes of the moving image signal VS supplied to the moving image encoding device 1 are not integer multiples of the encoded block size, the padding process data PD is added, so that the moving image It is possible to reduce high frequency components generated by signal discontinuity. Therefore, it is possible to reduce the code amount of the compressed video encoded bit stream CVBS generated from the variable length encoding unit 114 by reducing the high frequency component.
  • the moving picture encoding apparatus 1 shown in FIG. 10 reduces the amount of code of the encoded bitstream CVBS by reducing the high frequency components generated by the discontinuity of the moving picture signal by the padding processing of the padding processing unit 100. It becomes possible.
  • the problem that the code amount of the encoded bit stream CVBS increases by the amount of padding processing data PD added to the moving image signal VS has been clarified by the study by the present inventors prior to the present invention.
  • the padding processing data PD added to the moving image signal VS is, for example, the pixel value itself or the average value of the pixel values of the moving image signal VS near the boundary between the moving image signal VS and the padding processing data PD. Formed by copying. As a result, the pixel value of the padding process data PD becomes a non-zero value. Accordingly, since the padding process data PD is also encoded, the encoded bit stream CVBS includes data different from the moving image signal VS, so that the code amount of the encoded bit stream CVBS increases.
  • the moving picture coding apparatus (1) executes a moving picture coding process of a syntax element related to a moving picture signal (VS) to be coded to produce a coded bit stream (CVBS). ).
  • the moving picture coding apparatus Prior to the moving picture coding process, the moving picture coding apparatus (1) executes a padding process (100) in which padding process data (PD) is added to the moving picture signal (VS).
  • a padding process 100 in which padding process data (PD) is added to the moving picture signal (VS).
  • the horizontal and vertical sizes of the additional moving image signal to which the padding processing data (PD) is added by the padding processing are set to integer multiples of the coding block size of the moving image coding processing.
  • the moving picture coding apparatus (1) determines whether the coding block of the syntax element belongs to the moving picture signal (VS) or the padding processing data (PD).
  • the moving image code is formed so that the encoded bit stream having a first code amount is formed. Control is controlled.
  • the encoded bitstream having a second code amount smaller than the first code amount is formed.
  • the moving image encoding process is controlled (see FIG. 1).
  • the moving image encoding device it is possible to reduce an increase in the amount of code of the encoded bit stream generated from the moving image encoding device during the padding process.
  • FIG. 1 is a diagram showing a configuration of a moving picture encoding apparatus 1 according to the first embodiment.
  • FIG. 2 is a diagram for explaining operations of the quantization output adjustment unit 116 and the quantization output control unit 117 included in the moving picture coding apparatus 1 according to the first embodiment.
  • FIG. 3 is a diagram for explaining the configuration and operation of the motion vector detection control unit 118 and the motion vector detection unit 109 included in the video encoding device 1 according to the first embodiment.
  • FIG. 4 is a diagram for explaining the configuration and operation of the intra prediction control unit 119 and the intra prediction unit 112 included in the video encoding device 1 of the first embodiment.
  • FIG. 5 is a diagram for explaining the configuration and operation of the frequency conversion control unit 120 included in the video encoding device 1 of the first embodiment.
  • FIG. 6 is a diagram illustrating the configuration and operation of the quantization parameter control unit 121 included in the video encoding device 1 according to the first embodiment.
  • FIG. 7 is a diagram illustrating the configuration and operation of the filter unit 107 and the filter control unit 122 for realizing low power consumption in the deblocking filter in the video encoding device 1 according to the first embodiment.
  • FIG. 8 is a diagram illustrating how a coding unit (CU) is adaptively divided from a maximum coding unit (LCU).
  • FIG. 9 is a diagram illustrating a configuration of a moving image encoding apparatus according to Embodiment 2 that executes parallel processing at a slice level or a tile level.
  • FIG. 10 shows the current standard H.264 studied by the present inventors prior to the present invention.
  • FIG. 2 is a diagram illustrating a configuration of a moving image encoding apparatus 1 that can generate an encoded bit stream by encoding a moving image input signal in accordance with a selected method of H.264 and the HEVC standard.
  • FIG. 11 is a diagram for explaining the padding processing in the padding processing unit 100 of the moving image encoding apparatus 1 studied by the present inventors prior to the present invention shown in FIG.
  • a moving picture encoding apparatus (1) performs a moving picture encoding process of syntax elements related to a moving picture signal (VS) to be encoded, thereby encoding bits.
  • a stream (CVBS) is formed (see FIG. 1).
  • the moving picture coding apparatus Prior to the moving picture coding process, the moving picture coding apparatus (1) executes a padding process (100) in which padding process data (PD) is added to the moving picture signal (VS).
  • a padding process 100 in which padding process data (PD) is added to the moving picture signal (VS).
  • the horizontal and vertical sizes of the additional moving image signal to which the padding processing data (PD) is added by the padding processing are set to integer multiples of the coding block size of the moving image coding processing.
  • the moving picture coding apparatus (1) determines whether the coding block of the syntax element related to the moving picture signal belongs to the moving picture signal (VS) or the padding processing data (PD). Is done.
  • the first code amount is set to The moving image encoding process is controlled according to the determination in the first case so that the encoded bit stream is formed.
  • the first The moving image encoding process is controlled by the determination in the second case so that the encoded bit stream having the second code amount smaller than the code amount is formed.
  • the moving picture encoding device (1) defined in [1] includes a padding processing unit, a motion vector detecting unit, a motion compensating unit, a subtracter, a frequency converting unit, and a quantizing unit.
  • Unit an inverse quantization unit, an inverse frequency conversion unit, a memory (108, 111), an intra prediction unit, a selector unit, and a variable length coding unit.
  • the padding processing unit (100) generates the additional moving image signal by executing the padding processing, and sends it to the subtracter (101), the motion vector detection unit (109), and the intra prediction unit (112). Supply.
  • the motion vector detection unit (109) generates a motion vector (MV) from the additional moving image signal and the inter reference image stored in the memory (108).
  • the motion compensation unit (110) is responsive to the motion vector (MV) generated from the motion vector detection unit (109) and the inter reference image stored in the memory (108). Is generated.
  • the intra prediction unit (112) generates an intra prediction signal from the additional moving image signal and the intra reference image stored in the memory (111).
  • the selector unit (113) outputs a selected prediction signal selected from the motion compensation prediction signal generated from the motion compensation unit (110) and the intra prediction signal generated from the intra prediction unit (112). To do.
  • the additional moving image signal is supplied to one input terminal of the subtracter (101), and the selection prediction signal output from the selector unit (113) is supplied to the other input terminal of the subtracter (101). And a prediction residual is generated from the output terminal of the subtracter (101).
  • the frequency conversion unit (102) and the quantization unit (103) perform frequency conversion processing and quantization processing, respectively.
  • the result of the frequency conversion process of the frequency conversion unit (102) quantized by the quantization unit (103) is locally decoded by the inverse quantization unit (104) and the inverse frequency conversion unit (105). Processing is executed, and the result of the local decoding processing is stored in the memory (108, 111) as the inter reference image and the intra reference image.
  • the result of the frequency conversion processing of the frequency conversion unit (102) quantized by the quantization unit (103) is encoded by the variable length encoding unit (114), and the variable length encoding unit
  • the coded bitstream (CVBS) is generated from (114).
  • the syntax element related to the moving image signal is at least one of the following information (A) to (D) (see FIG. 1).
  • the video encoding device (1) defined in [2] includes an output terminal of the quantization unit (103) and the variable length encoding unit (114).
  • a quantized output adjusting unit (116) connected between the input terminal of the dequantizing unit (104) and the input terminal of the inverse quantizing unit (104), and a quantized output control unit connected to the quantized output adjusting unit (116) (117).
  • the quantization output control unit (117) performs the frequency conversion process of the frequency conversion unit (102) quantized by the quantization unit (103) which is the syntax element related to the moving image signal. It is determined whether the information belongs to the moving image signal (VS) or the padding processing data (PD).
  • the quantized output adjustment unit (116) has a quantized output signal (201) generated by the quantizing process of the quantizing unit (103) and a data amount smaller than the quantized output signal (201).
  • the adjustment signal (200) and the determination result generated from the quantization output control unit (117) are supplied.
  • the quantization output adjustment unit (116) In response to the determination result of the quantization output control unit (117) that the information of the frequency conversion process belongs to the video signal (VS), the quantization output adjustment unit (116) The quantized output signal (201) generated from (103) is supplied to the input terminal of the variable length coding unit (114) and the input terminal of the inverse quantization unit (104).
  • the quantization output adjustment unit (116) 200 is supplied to the input terminal of the variable length coding unit (114) and the input terminal of the inverse quantization unit (104) (see FIGS. 1 and 2).
  • the moving picture encoding device (1) defined in [2] includes a motion vector detection control unit (118) connected to the motion vector detection unit (109). ).
  • the motion vector detection unit (109) includes a motion vector search unit (1091), a prediction vector generation unit (1092), and a motion vector selector unit (1093).
  • the motion vector search unit (1091) generates a search motion vector (MV) by performing a motion vector search operation on the encoded block included in the additional moving image signal and encoded by inter prediction.
  • MV search motion vector
  • the prediction vector generation unit (1092) includes a standard H.264 standard for the encoded block included in the additional moving image signal and encoded by inter prediction. H.264 or standard H.264 A motion vector prediction method defined in H.265 is executed to generate a prediction vector (PMV).
  • PMV prediction vector
  • the motion vector detection control unit (118) includes the encoded block encoded by inter prediction that is the syntax element included in the additional moving image signal and related to the moving image signal. It is determined whether the signal (VS) or the padding processing data (PD) belongs.
  • the motion vector selector unit (1093) includes the search motion vector (MV) generated by the motion vector search unit (1091) and the prediction vector (PMV) generated by the prediction vector generation unit (1092). And a determination result generated from the motion vector detection control unit (118).
  • the motion vector selector unit (1093) In response to the determination result of the motion vector detection control unit (118) that the encoded block encoded by the inter prediction belongs to the video signal (VS), the motion vector selector unit (1093) The search motion vector (MV) generated by the motion vector search unit (1091) is supplied to the motion compensation unit (110) as the motion vector (MV).
  • the motion vector selector unit is generated by the prediction vector generation unit
  • the prediction vector (PMV) is supplied to the motion compensation unit (110) as the motion vector (MV) (see FIGS. 1 and 3).
  • the video encoding device (1) defined in [2] further includes an intra prediction control unit (119) connected to the intra prediction unit (112). To do.
  • the intra prediction unit (112) includes an intra prediction direction determination unit (1121), a neighborhood prediction direction generation unit (1122), a prediction direction selector unit (1123), and an intra prediction processing unit (1124).
  • the intra prediction direction determination unit (1121) performs an intra prediction operation on the encoded block included in the additional moving image signal and encoded by intra prediction to generate a prediction direction (PD).
  • the neighborhood prediction direction generation unit (1122) includes a standard H.264 standard for the encoded block included in the additional moving image signal and encoded by intra prediction. H.264 or standard H.264
  • the near direction prediction method defined in H.265 is executed to generate a near direction prediction (NPD).
  • the intra prediction control unit (119) includes the encoded block that is encoded by intra prediction that is the syntax element included in the additional moving image signal and is related to the moving image signal. It is determined whether it belongs to (VS) or the padding processing data (PD).
  • the prediction direction selector unit (1123) includes the prediction direction (PD) generated by the intra prediction direction determination unit (1121) and the vicinity prediction direction (1122) generated by the vicinity prediction direction generation unit (1122). NPD) and a determination result generated from the intra prediction control unit (119).
  • the prediction direction selector unit (1123) In response to a determination result of the intra prediction control unit (119) that the encoded block encoded by the intra prediction belongs to the video signal (VS), the prediction direction selector unit (1123) The prediction direction (PD) generated by the intra prediction direction determination unit (1121) is supplied to the intra prediction processing unit (1124).
  • the intra prediction processing unit (1124) includes the selector unit (113) based on the prediction direction (PD) generated by the intra prediction direction determination unit (1121) and the intra reference image stored in the memory (111).
  • the intra prediction signal to be supplied to is generated.
  • the prediction direction selector unit (1123) In response to the determination result of the intra prediction control unit (119) that the encoded block encoded by the intra prediction belongs to the padding process data (PD), the prediction direction selector unit (1123) The neighborhood prediction direction (NPD) generated by the neighborhood prediction direction generation unit (1122) is supplied to the intra prediction processing unit (1124).
  • the intra prediction signal supplied to the selector unit (113) is generated from a reference image (see FIGS. 1 and 4).
  • the video encoding device (1) defined in [3] includes a frequency conversion control unit (120) connected to the frequency conversion unit (102). In addition.
  • the frequency conversion control unit (120) sets a frequency conversion size (TS) for the frequency conversion process executed by the frequency conversion unit (102).
  • an encoded block processed by the frequency conversion process executed by the frequency conversion unit includes the moving image signal and the padding processing data.
  • the partition operation of the coded block in the frequency conversion unit (102) is determined (see FIGS. 1 and 5).
  • the frequency conversion control unit (120) is a frequency conversion size determination unit (1201).
  • the frequency conversion size determination unit (1201) is a standard H.264 standard. H.264 or standard H.264
  • One selected frequency transform size (TS) is selected from a plurality of types of frequency transform size (TS) candidates defined in H.265 and supplied to one input terminal of the frequency transform size selector unit (1204).
  • the region determination unit (1203) determines whether or not a coding block having the one selected frequency transform size (TS) crosses over a boundary between the moving image signal and the padding processing data.
  • the non-crossover frequency transform size determining unit (1202) is configured to perform non-crossover frequency transform so that an encoded block processed by the frequency transform processing does not cross over the boundary between the moving image signal and the padding processing data.
  • a size (NTS) is generated and supplied to the other input terminal of the frequency conversion size selector unit (1204).
  • the frequency transform size selector unit In response to the determination result of the region determining unit (1203) that the encoded block having the one selected frequency transform size does not cross over the boundary, the frequency transform size selector unit (1204) The selected frequency conversion size is supplied to the frequency conversion unit (102) as the frequency conversion size (TS) for the frequency conversion processing.
  • the frequency conversion size selector unit sets the non-crossover frequency conversion size to the frequency.
  • the frequency conversion unit supplies the frequency conversion size to the frequency conversion unit (see FIGS. 1 and 5).
  • the moving picture encoding device (1) defined in [2] includes a quantization parameter control unit (121) connected to the quantization unit (103). Is further provided.
  • the quantization parameter control unit (121) includes a quantization parameter generation unit (1211), a quantization parameter register unit (1212), a region determination unit (1213), and a quantization parameter selector unit (1214).
  • the quantization parameter generation unit (1211) generates a quantization parameter (QP) corresponding to a code amount of the coded bit stream (CVBS) generated from the variable length coding unit (114), and The data is supplied to one input terminal of the quantization parameter selector unit (1214) and the input terminal of the quantization parameter register unit (1212).
  • QP quantization parameter
  • the quantization parameter (QP) generated at the output terminal of the quantization parameter register unit (1212) is supplied to the other input terminal of the quantization parameter selector unit (1214).
  • the region determination unit (1213) includes a coding block quantized by the quantization unit (103) that is the syntax element related to the moving image signal, the moving image signal (VS) and the padding It is determined to which of the processing data (PD) it belongs.
  • the quantization parameter selector unit (1214) supplies the quantization parameter (QP) supplied from the quantization parameter generation unit (1211) to the one input terminal to the quantization unit (103).
  • the quantization parameter selector unit In response to a determination result of the region determination unit that the coding block quantized by the quantization unit belongs to the padding processing data (PD), the quantization parameter selector unit is configured to store the quantization parameter register.
  • the quantization parameter (QP) supplied from the output terminal of the unit (1212) to the other input terminal is supplied to the quantization unit (103) (see FIGS. 1 and 6).
  • the video encoding device (1) defined in any one of [2] to [8] includes a filter connected to the memory (108).
  • a unit (107) and a filter controller (122) are further provided.
  • the filter unit (107) performs a deblocking filter process on the result of the local decoding process performed by the inverse quantization unit (104) and the inverse frequency transform unit (105), and the deblocking filter
  • the result of the processing is stored in the memory (108).
  • the filter control unit (122) is configured such that the result of the local decoding process in which the deblocking filter process is performed by the filter unit (107) is a result of the video signal (VS) and the padding process data (PD). It is determined to which one it belongs.
  • the motion vector detection unit, the motion compensation unit, and the subtraction are one semiconductor integrated circuit. Integrated on a chip (see FIG. 1).
  • the encoding block of the video encoding process The size is either a macroblock having a size of 16 pixels ⁇ 16 pixels or a coding unit that can be formed from a maximum coding unit having a size of 64 pixels ⁇ 64 pixels (see FIG. 1).
  • the video encoding device (1) defined in any one of [2] to [8] is a standard H.264 standard. H.264 and standard H.264.
  • the moving image encoding process of the moving image signal (VS) is executed to form the encoded bit stream (CVBS) (FIG. 1). reference).
  • the moving picture encoding device defined in any one of [2] to [8] includes an image dividing unit (301) and a plurality of moving picture encodings. And processing units (1A, 1B, 1C, 1D).
  • the image dividing unit (301) generates a plurality of divided moving image signals by dividing the moving image signal (VS).
  • the plurality of divided moving image signals generated by the image dividing unit are processed in parallel by the plurality of moving image encoding processing units (1A, 1B, 1C, 1D).
  • Each of the moving image encoding processing units of the plurality of moving image encoding processing units (1A, 1B, 1C, 1D) includes the motion vector detecting unit, the motion compensating unit, the subtractor, the frequency converting unit, and the quantum converting unit. And an inverse-frequency transform unit, an intra-prediction unit, a selector unit, and a variable-length coding unit (see FIG. 9).
  • the image dividing unit (301) and the plurality of moving image encoding processing units (1A, 1B, 1C) 1D) is characterized by being integrated on one semiconductor chip of a semiconductor integrated circuit (see FIG. 9).
  • An embodiment according to another aspect is a moving image that forms a coded bitstream (CVBS) by executing a moving picture coding process of syntax elements related to a moving picture signal (VS) to be coded.
  • CVBS coded bitstream
  • VS moving picture signal
  • the moving picture coding apparatus Prior to the moving picture coding process, the moving picture coding apparatus (1) executes a padding process (100) in which padding process data (PD) is added to the moving picture signal (VS).
  • a padding process 100 in which padding process data (PD) is added to the moving picture signal (VS).
  • the horizontal and vertical sizes of the additional moving image signal to which the padding processing data (PD) is added by the padding processing are set to integer multiples of the coding block size of the moving image coding processing.
  • the moving picture coding apparatus (1) determines whether the coding block of the syntax element related to the moving picture signal belongs to the moving picture signal (VS) or the padding processing data (PD). Is done.
  • the first code amount is set to The moving image encoding process is controlled according to the determination in the first case so that the encoded bit stream is formed.
  • the first The moving image encoding process is controlled by the determination in the second case so that the encoded bit stream having the second code amount smaller than the code amount is formed.
  • FIG. 1 is a diagram showing a configuration of a moving picture encoding apparatus 1 according to the first embodiment.
  • the moving picture encoding apparatus 1 is the same as the moving picture encoding apparatus 1 shown in FIG. H.264 and the HEVC standard can be used to generate a coded bitstream by coding a moving image input signal in accordance with any method selected.
  • the moving image encoding apparatus 1 includes a padding processing unit 100, a subtracter 101, a frequency conversion unit 102, a quantization unit 103, an inverse quantization unit 104, an inverse frequency conversion unit 105, an adder 106, and a variable length. It comprises an encoding unit 114 and a video buffer 115. Furthermore, the moving image encoding apparatus 1 includes a filter unit 107, a frame memory 108, a motion vector detection unit 109, a motion compensation unit 110, a buffer memory 111, an intra prediction unit 112, and a selector unit 113.
  • the moving image coding apparatus 1 includes a quantization output adjustment unit 116 and a quantization output that are not included in the moving image coding apparatus 1 illustrated in FIG.
  • the control unit 117, the motion vector detection control unit 118, the intra prediction control unit 119, the frequency conversion control unit 120, and the quantization parameter control unit 121 are configured.
  • the moving picture encoding apparatus 1 according to the first embodiment includes a filter control unit 122 that controls the deblocking filter of the filter unit 107 in order to realize low power consumption.
  • the moving picture coding apparatus 1 forms a coded bitstream CVBS by executing a moving picture coding process of syntax elements related to a moving picture signal VS to be coded. is there.
  • the moving picture encoding apparatus 1 executes a padding process in which padding process data PD is added to the moving picture signal VS.
  • the horizontal and vertical sizes of the additional moving image signal to which the padding processing data PD has been added by the padding processing are set to integer multiples of the coding block size of the moving image coding processing.
  • the moving picture coding apparatus 1 determines whether the coding block of the syntax element related to the moving picture signal VS belongs to the moving picture signal VS or the padding processing data PD.
  • the first The moving image encoding process is controlled by the determination in the first case so that the encoded bit stream CVBS having a code amount is formed.
  • the first example of the syntax element related to the video signal VS to be encoded is the frequency conversion of the frequency conversion unit 102 quantized by the quantization unit 103 Processing information.
  • a second example of a syntax element related to the moving image signal VS to be encoded is information on a coding block encoded by inter prediction using a motion vector and a motion compensated prediction signal.
  • a third example of the syntax element related to the moving image signal VS to be encoded is information on a coding block encoded by intra prediction using an intra reference image.
  • a fourth example of the syntax element related to the moving image signal VS to be encoded is information on a coding block that is quantized by the quantization unit 103.
  • the frequency conversion processing information of the frequency conversion unit 102 quantized by the quantization unit 103 is supplied to the input terminal of the quantization output adjustment unit 116.
  • the coding block inter-coded by the motion compensation unit 110 using the motion vector MV formed from the motion vector detection unit 109 is either the moving image signal VS or the padding processing data PD.
  • the motion vector detection unit 109 itself controls the partition operation of the encoded block in the motion vector detection unit 109 so as to include only one of them.
  • intra prediction is performed so that a coding block that is intra-coded by the intra prediction unit 112 using the intra prediction direction includes only one of the video signal VS and the padding processing data PD.
  • the partition operation of the encoded block in the unit 112 is controlled by the intra prediction unit 112 itself.
  • the quantization unit 103 when the quantization unit 103 quantizes the frequency conversion coefficient of the frequency conversion unit 102, the frequency conversion coefficient that is a coding block is either the moving image signal VS or the padding processing data PD.
  • the quantization unit 103 itself controls the partition operation of the coding block in the quantization unit 103 so as to include only one of them.
  • At least one of the first to fourth examples described above is selected and executed, so that in the padding process, the code of the encoded bitstream CVBS It becomes possible to reduce the increase in the amount.
  • the moving picture encoding apparatus 1 according to the first embodiment, at least a plurality of the first example to the fourth example described above are selected and executed, so that in the padding process, the encoded bit stream CVBS is selected. It is possible to further reduce the increase in the amount of codes.
  • the amount of code of the encoded bitstream CVBS during the padding process can be greatly reduced.
  • the local decoding processing result which is an encoded block subjected to the deblocking filter processing by the filter unit 107, is converted into the video signal VS.
  • the partition operation of the encoded block in the filter unit 107 is controlled by the filter unit 107 itself so as to include only one of the padding processing data PD.
  • FIG. 2 is a diagram for explaining operations of the quantization output adjustment unit 116 and the quantization output control unit 117 included in the moving picture coding apparatus 1 according to the first embodiment.
  • the coding unit (CU) of the moving image signal VS to which the padding processing data PD is added is supplied to one input terminal of the subtractor 101, and the motion compensated prediction signal from the motion compensation unit 110 or
  • the intra prediction information from the intra prediction unit 12 is supplied to the other input terminal of the subtractor 101 via the selector unit 113, so that a prediction residual is generated from the output terminal of the subtractor 101.
  • the frequency conversion unit 102 and the quantization unit 103 perform frequency conversion processing and quantization processing, respectively.
  • the quantized frequency conversion coefficient 201 of the frequency conversion unit 102 is generated from the output terminal of the quantization unit 103.
  • the frequency transform unit 102 performs integer-based discrete cosine transform (DCT: Discrete Cosine Transform) or discrete sine transform (DST: Discrete Sine Transform) that outputs only integer transform coefficients that do not include decimals.
  • DCT Discrete Cosine Transform
  • DST discrete sine transform
  • the frequency conversion coefficient 201 shown in FIG. 2 includes three integer non-zero coefficients (“5”, “ ⁇ 1”, “2”) and thirteen zero coefficients (“0”). Yes.
  • the frequency conversion coefficient 201 is supplied to one input terminal of the quantization output adjustment unit 116 configured by the selector SEL.
  • 16 zeros are connected to the other input terminal of the quantization output adjustment unit 116 configured by the selector SEL so that the encoded bit stream CVBS having a small code amount is generated from the variable length encoding unit 114.
  • An adjusted frequency conversion coefficient 200 including a coefficient (“0”) is supplied.
  • the output terminal of the quantization output control unit 117 is connected to the selection control terminal of the quantization output adjustment unit 116 constituted by the selector SEL.
  • Size information Size_Inf indicating the horizontal and vertical pixel sizes of the coding unit (CU) supplied to one input terminal of the subtractor 101 is supplied to one input terminal of the quantization output control unit 117, while the subtractor Position information Position_Inf of the coding unit (CU) supplied to one input terminal 101 is supplied to the other input terminal of the quantization output control unit 117.
  • This position information Position_Inf is the raster scan start address (X, Y) at the upper left of the coding unit (CU).
  • FIG. 8 is a diagram illustrating a state where the coding unit (CU) is adaptively divided from the maximum coding unit (LCU). Therefore, at least one of the raster scan start address at the upper left of the maximum coding unit (LCU) and the raster scan start address at the upper left of the coding unit (CU) inside the maximum coding unit (LCU) is quantized as position information Position_Inf. It is supplied to the output control unit 117.
  • the quantization output control unit 117 is supplied with the size information Size_Inf and the position information Position_Inf of the coding unit (CU), and the coding unit (CU) belongs to either the moving image signal VS or the padding processing data PD. Is determined.
  • the quantization output control unit 117 determines that the coding unit (CU) belongs to the video signal VS, for example, a high-level “1” selection output signal is generated from the output terminal of the quantization output control unit 117.
  • the quantization output adjustment unit 116 is supplied to one input terminal in response to the high level “1” selection output signal generated from the output terminal of the quantization output control unit 117.
  • the frequency conversion coefficient 201 including 13 non-zero coefficients and 13 zero coefficients is selected and output to the output terminal. Therefore, the frequency transform coefficient 201 including three non-zero coefficients and thirteen zero coefficients output to the output terminal of the quantization output adjustment unit 116 is the same as the input terminal of the variable length coding unit 114 and the inverse quantization unit.
  • variable length coding unit 114 forms a coded bitstream CVBS having a relatively large code amount as the first code amount. Therefore, in this case, the video decoding device (Video Decoder) to which the encoded bit stream CVBS is supplied can reproduce the video signal VS with high image quality.
  • the quantization output control unit 117 determines that the coding unit (CU) belongs to the padding process data PD, for example, a low level “0” selection output signal is output from the output terminal of the quantization output control unit 117. Generated. As a result, the quantization output adjustment unit 116 responds to the low level “0” selection output signal generated from the output terminal of the quantization output control unit 117, and supplies the 16 output signals supplied to the other input terminal. The adjustment frequency conversion coefficient 200 including the zero coefficient is selected and output to the output terminal.
  • the adjusted frequency transform coefficient 200 including 16 zero coefficients output to the output terminal of the quantization output adjustment unit 116 is supplied to the input terminal of the variable length encoding unit 114 and the input terminal of the inverse quantization unit 104. Is done.
  • the variable length coding unit 114 forms a coded bitstream CVBS having a second code amount smaller than the first code amount. Therefore, in this case, it is possible to reduce an increase in the code amount of the encoded bitstream CVBS by the padding process of the padding processing unit 100.
  • the encoded bit stream CVBS is stored on a recording disk having a certain video storage capacity such as a nonvolatile memory or a DVD, the saved amount and the recording time can be lengthened, or the saved amount can be improved. It becomes possible.
  • the frequency conversion coefficient 201 or the adjusted frequency conversion coefficient 200 output to the output terminal of the quantization output adjustment unit 116 is: This is supplied to the input terminal of the variable length coding unit 114 and the input terminal of the inverse quantization unit 104. Therefore, a moving picture decoding apparatus (Video decoder) to which a result of local decoding executed by the inverse quantization unit 104, the inverse frequency conversion unit 105, the adder 106, the filter unit 107, and the frame memory 108 and the encoded bit stream CVBS is supplied It is possible to prevent a mismatch between the reproduced image of Decoder).
  • Video decoder Video decoder
  • the moving image encoding apparatus 1 includes a quantization output adjusting unit 116, an output terminal of the quantization unit 103, an input terminal of the variable length encoding unit 114, and an inverse quantum. Connected to the input terminal of the conversion unit 104.
  • two quantization output adjustment units 116 are used, and the first quantization output adjustment unit 116 is provided between the output terminal of the quantization unit 103 and the input terminal of the variable length encoding unit 114. It is also possible to connect the second quantization output adjustment unit 116 between the output terminal of the quantization unit 103 and the input terminal of the inverse quantization unit 104.
  • a single quantization output control unit 117 controls the first quantization output adjustment unit 116 and the second quantization output adjustment unit 116 in common, and the coding unit (CU) pads the video signal VS and padding. It is possible to determine to which of the processing data PD belongs. Also in this other embodiment, it is possible to reduce an increase in the code amount of the encoded bitstream CVBS due to the padding processing of the padding processing unit 100, and the above-mentioned local decoding processing result and moving picture decoding apparatus described above It is possible to prevent the occurrence of mismatch with the reproduced image.
  • the moving picture encoding apparatus 1 of the first embodiment is the current standard H.264.
  • a coded bit stream CVBS is generated by encoding a moving image input signal in accordance with H.264
  • a macroblock having a luminance component size of 16 pixels ⁇ 16 pixels instead of the above-described coding unit (CU).
  • MB is to be processed.
  • the frequency conversion coefficient 201, the adjustment frequency conversion coefficient 200, and the like are output from the output terminal of the quantization output adjustment unit 116. Is output.
  • FIG. 3 is a diagram for explaining the configuration and operation of the motion vector detection control unit 118 and the motion vector detection unit 109 included in the video encoding device 1 according to the first embodiment.
  • the motion vector detection unit 109 includes a motion vector search unit 1091, a prediction vector generation unit 1092, and a motion vector selector unit 1093.
  • the motion vector search unit 1091 generates a motion vector MV by executing a general motion vector search operation according to the MPEG-2 and MPEG-4 standards, and the generated motion vector MV is the motion vector selector 1093. It is supplied to one input terminal.
  • a general motion vector search operation executed by the motion vector search unit 1091 is performed by inter prediction with reference to a motion vector MV of a coding unit (CU) in the vicinity of a coding unit (CU) encoded by inter prediction.
  • the motion vector MV of the coding unit (CU) to be converted is searched and generated.
  • Prediction vector generation unit 1092 is the current standard H.264.
  • the prediction vector PMV is generated by executing a prediction method defined by H.264 and the HEVC standard, and the generated prediction vector PMV is supplied to the other input terminal of the motion vector selector unit 1093.
  • a motion vector candidate list that can be a prediction value is generated for a coding unit (CU) encoded by inter prediction, and a motion vector candidate list is encoded from the motion vectors included in the list.
  • a method is adopted in which the optimal prediction candidate is selected by the conversion side, and the index of the optimal prediction candidate is encoded and transmitted to the decoding side.
  • the motion vector MV can be encoded by selecting the prediction vector PMV as the prediction value with the smallest prediction difference.
  • the other input terminal of the motion vector detection control unit 118 is supplied with position information Position_Inf of the macroblock (MB) or coding unit (CU) encoded by inter prediction.
  • Position_Inf is the raster scan start address (X, Y) at the upper left of the macroblock (MB) or coding unit (CU).
  • the motion vector detection control unit 118 is supplied with the size information Size_Inf and the position information Position_Inf of the macroblock (MB) or the coding unit (CU), and the macroblock (MB) or the coding unit (CU) is the moving image. It is determined whether the signal VS or the padding processing data PD belongs.
  • the motion vector selector unit 1093 is supplied from the motion vector search unit 1091 to one of its input terminals in response to a high level “1” selection output signal generated from the output terminal of the motion vector detection control unit 118.
  • Motion vector MV to be selected and output to its output terminal.
  • the motion vector MV generated from the motion vector search unit 1091 of the motion vector detection unit 109 is supplied to the motion compensation unit 110 via the motion vector selector unit 1093.
  • the motion compensation unit 110 in response to the motion vector MV generated from the motion vector search unit 1091 of the motion vector detection unit 109 and the reference image stored in the frame memory 108, the motion compensation unit 110 generates a motion compensated prediction signal.
  • the variable length encoding unit 114 encodes a difference vector (MVD: Motion Vector Difference) which is ⁇ PMV).
  • the moving picture decoding apparatus to which the encoded bit stream CVBS is supplied can obtain the difference vector related to the moving picture signal VS.
  • the variable length coding unit 114 has a coded bit stream having a relatively large code amount as the first code amount. CVBS is formed.
  • the moving picture decoding apparatus to which the encoded bit stream CVBS having a relatively large code amount is supplied can reproduce the moving picture signal VS with high image quality.
  • the motion vector selector unit 1093 responds to the generated low level “0” selection output signal, and the prediction vector PMV supplied from the prediction vector generation unit 1092 of the motion vector detection unit 109 to the other input terminal. Select and output to the output terminal. Therefore, in the case of inter prediction of the padding process data PD, the prediction vector PMV generated from the prediction vector generation unit 1092 is output from the motion vector selector unit 1093 of the motion vector detection unit 109.
  • the prediction vector PMV as the motion vector MV generated from the motion vector selector 1093 of the motion vector detection unit 109 and the prediction vector PMV generated from the prediction vector generation unit 1092 of the motion vector detection unit 109 The difference vector (MVD) which is the difference (MV ⁇ PMV) is substantially zero.
  • the variable length coding unit 114 codes the difference vector (MVD) having a value of substantially zero.
  • the variable length encoding unit 114 in response to the difference vector (MVD) having a value of substantially zero, the variable length encoding unit 114 generates an encoded bitstream CVBS having a second code amount smaller than the first code amount.
  • the information of the padding processing data PD encoded by the variable length encoding unit 114 greatly affects the image quality of the moving image signal VS reproduced by the moving image decoding device. is not. Therefore, in this case, it is possible to reduce an increase in the code amount of the encoded bitstream CVBS due to the padding processing of the padding processing unit 100.
  • the encoded bit stream CVBS is stored in a recording disk having a certain video storage capacity, it is possible to lengthen the saving time and the recording time, or to improve the image quality by the saving amount.
  • FIG. 4 is a diagram for explaining the configuration and operation of the intra prediction control unit 119 and the intra prediction unit 112 included in the video encoding device 1 of the first embodiment.
  • the intra prediction unit 112 includes an intra prediction direction determination unit 1121, a neighborhood prediction direction generation unit 1122, a prediction direction selector unit 1123, and an intra prediction processing unit 1124.
  • Intra prediction direction determination unit 1121 is MPEG-4, H.264, etc. H.264, H.H.
  • a prediction direction PD is generated by executing a general intra prediction operation according to the H.265 standard, and the generated prediction direction PD is supplied to one input terminal of the prediction direction selector unit 1123.
  • a general intra prediction operation executed by the intra prediction direction determination unit 1121 is as follows. That is, in MPEG-4, there are two prediction directions PD, the horizontal direction and the vertical direction. H. In H.264, the prediction directions PD of nine directions described in Non-Patent Document 1 are described, and in the HEVC standard, the prediction directions PD of 34 modes described in Non-Patent Document 2 are described.
  • the neighborhood prediction direction generation unit 1122 is similar to the prediction vector generation unit 1092 described in FIG.
  • the prediction method defined by H.264 and the HEVC standard is executed to generate a neighborhood prediction direction NPD, and the generated neighborhood prediction direction NPD is supplied to the other input terminal of the prediction direction selector unit 1123.
  • the other input terminal of the intra prediction control unit 119 is supplied with position information Position_Inf of the macroblock (MB) or coding unit (CU) encoded by the intra prediction.
  • Position_Inf is the raster scan start address (X, Y) at the upper left of the macroblock (MB) or coding unit (CU).
  • the size information Size_Inf and the position information Position_Inf of the macro block (MB) or the coding unit (CU) are supplied to the intra prediction control unit 119, and the macro block (MB) or the coding unit (CU) receives the video signal. It is determined whether the data belongs to VS or padding processing data PD.
  • the intra prediction control unit 119 determines that a macroblock (MB) or coding unit (CU) encoded by intra prediction belongs to the moving image signal VS, for example, a high-level “1” selection output signal is output. It is generated from the output terminal of the intra prediction control unit 119. Therefore, the prediction direction selector unit 1123 is supplied from the intra prediction direction determination unit 1121 to one of its input terminals in response to the selection output signal of high level “1” generated from the output terminal of the intra prediction control unit 119. Predictive direction PD to be output to the output terminal. As a result, the prediction direction PD generated from the intra prediction direction determination unit 1121 is supplied to the intra prediction processing unit 1124 via the prediction direction selector unit 1123.
  • MB macroblock
  • CU coding unit
  • the intra prediction processing unit 1124 is supplied with the coding unit (CU) of the moving image signal VS to which the padding processing data PD is added from the padding processing unit 100 and the intra-coded reference image from the buffer memory 111. Accordingly, the intra prediction processing unit 1124 uses the prediction direction PD, the coding unit (CU), and the intra-encoded reference image to supply the selector unit 113 with the optimal intra-predicted coding unit (CU). In the case of this intra prediction, the difference (PD) between the prediction direction PD generated from the prediction direction selector unit 1123 of the intra prediction unit 112 and the near prediction direction NPD generated from the near prediction direction generation unit 1122 of the intra prediction unit 112.
  • the variable length encoding unit 114 encodes a difference prediction direction (PDD: Prediction Direction Difference) which is ⁇ NPD). Since the encoded information by the variable length encoding unit 114 in the difference prediction direction (PDD) is included in the encoded bit stream CVBS, the moving picture decoding apparatus to which the encoded bit stream CVBS is supplied is the difference regarding the moving picture signal VS. By decoding the information of the prediction direction (PDD), the moving image signal VS can be reproduced. Thus, in the case of intra prediction of the video signal VS, in response to the difference prediction direction (PDD), the variable length coding unit 114 has coded bits having a relatively large code amount as the first code amount. A stream CVBS is formed. As a result, the moving picture decoding apparatus to which the encoded bit stream CVBS having a relatively large code amount is supplied can reproduce the moving picture signal VS with high image quality.
  • PDD Prediction Direction Difference
  • the prediction direction selector unit 1123 responds to the generated low level “0” selection output signal, and the neighborhood prediction direction supplied from the neighborhood prediction direction generation unit 1122 of the intra prediction control unit 119 to the other input terminal. Select NPD and output to its output terminal. Therefore, in the case of intra prediction of the padding process data PD, the neighborhood prediction direction NPD generated from the neighborhood prediction direction generation unit 1122 is output from the prediction direction selector unit 1123 of the intra prediction unit 112.
  • the neighborhood prediction direction NPD as the prediction direction PD generated by the prediction direction selector unit 1123 of the intra prediction unit 112 and the neighborhood prediction direction NPD generated from the neighborhood prediction direction generation unit 1122 of the intra prediction unit 112 The difference prediction direction (PDD), which is the difference (PD ⁇ NPD), is substantially zero.
  • the variable length encoding unit 114 encodes the differential prediction direction (PDD) having a value of substantially zero.
  • the variable length encoding unit 114 has an encoded bitstream CVBS having a second code amount smaller than the first code amount.
  • the information of the padding processing data PD encoded by the variable length encoding unit 114 greatly affects the image quality of the moving image signal VS reproduced by the moving image decoding device. is not. Therefore, in this case, it is possible to reduce an increase in the code amount of the encoded bitstream CVBS due to the padding processing of the padding processing unit 100.
  • the encoded bit stream CVBS is stored in a recording disk having a certain video storage capacity, it is possible to lengthen the saving time and the recording time, or to improve the image quality by the saving amount.
  • FIG. 5 is a diagram for explaining the configuration and operation of the frequency conversion control unit 120 included in the video encoding device 1 of the first embodiment.
  • one coding unit (CU) has a moving picture signal as shown in FIG. Assume that the pixel value of VS and the pixel value of padding processing data PD are included at the same time. As shown in FIG. 11, one coding unit (CU) including the pixel value of the moving image signal VS and the pixel value of the padding processing data PD simultaneously includes a region of the moving image signal VS and a region of the padding processing data PD. Exists at the boundary between.
  • the quantization output adjustment unit 116 determines that it belongs to the moving image signal VS. As described above, the quantization output adjustment unit 116 operates. Therefore, with respect to one coding unit (CU) that simultaneously includes the pixel value of the moving image signal VS and the pixel value of the padding processing data PD, the variable length encoding unit 114 forms an encoded bit stream CVBS having a large code amount. To do.
  • the moving image signal VS included in one coding unit (CU) that simultaneously includes the pixel value of the moving image signal VS and the pixel value of the padding processing data PD is converted into a high image quality by a moving image decoding device (Video Decoder). It can be played back with.
  • a moving image decoding device Video Decoder
  • H.C. In the case of H.264, even for one macroblock (MB) that simultaneously includes the pixel value of the moving image signal VS and the pixel value of the padding processing data PD, this one macroblock (MB) When it belongs to VS, it is necessary to determine mixing.
  • this one macroblock (MB) or coding unit (CU) needs to be determined to belong to the moving image signal VS as well in the motion vector detection control unit 118 in FIG. 3 and the intra prediction control unit 119 in FIG.
  • the same necessity is the same for the quantization parameter control unit 121 described below using FIG. 6 and the filter control unit 122 described below using FIG.
  • the padding processing data PD included in one mixed coding unit (CU) or macroblock (MB) is also included in the filter unit 107. Since the function of the deblocking filter is activated, there may be a problem that the effect of reducing power consumption is reduced.
  • the frequency conversion control unit 120 shown in FIG. 5 is configured such that one coding unit (CU) is a video signal VS in the frequency conversion process in the frequency conversion unit 102 included in the video encoding device 1 of the first embodiment.
  • the partition operation is executed so as not to include the pixel value and the pixel value of the padding process data PD at the same time. That is, one coding unit (CU) includes only one of the pixel value of the moving image signal VS and the pixel value of the padding processing data PD by the partition operation of the coding unit (CU) in the frequency conversion unit 102. It will be a thing. In other words, one coding unit (CU) does not cross over the boundary between the moving image signal VS and the padding processing data PD. In other words, the boundary of one coding unit (CU) coincides with the boundary between the moving image signal VS and the padding processing data PD.
  • the frequency conversion control unit 120 includes a frequency conversion size determination unit 1201, a non-crossover frequency conversion size determination unit 1202, a region determination unit 1203, and a frequency conversion size selector unit 1204.
  • a size In the HEVC standard, in the frequency conversion of one coding unit (CU) that can be divided from one maximum coding unit (LCU) having a luminance component size of 64 pixels ⁇ 64 pixels, 32 pixels ⁇ 32 pixels are converted. There are four types of frequency conversion sizes that can be used: a size, a size of 16 pixels ⁇ 16 pixels, a size of 8 pixels ⁇ 8 pixels, and a size of 4 pixels ⁇ 4 pixels.
  • One frequency conversion size TS is selected from two frequency conversion sizes of the H.264 standard or four frequency conversion sizes of the HEVC standard, and this one frequency conversion size TS is input to one of the frequency conversion size selector section 1204. Supply to the terminal.
  • This one frequency transform size TS is determined, for example, at a timing when a motion compensated prediction signal is generated from the motion compensation unit 110 or at a timing when an intra prediction signal is generated from the intra prediction unit 112. That is, in the portion where the pixel value of the image signal of the motion compensation prediction signal or the intra prediction signal changes monotonously, the frequency conversion size determination unit 1201 selects the frequency conversion size TS as a relatively large size.
  • the frequency conversion size determination unit 1201 selects the frequency conversion size TS as a relatively small size. Further, the frequency transform size determination unit 1201 determines the size information Size_Inf and the position information Position_Inf at the same time as determining the frequency transform size TS of one macroblock (MB) or one coding unit (CU). To do.
  • the size information Size_Inf and the position information Position_Inf are supplied to the region determination unit 1203.
  • one macroblock (MB) or one coding unit (CU) having the size information Size_Inf and the position information Position_Inf crosses the boundary between the moving image signal VS and the padding processing data PD. It is determined whether or not to do.
  • the region determination unit 1203 When the determination result of the region determination unit 1203 is “NO”, the region determination unit 1203 generates a selection output signal of high level “1” and supplies it to the selection control signal of the frequency conversion size selector unit 1204.
  • the frequency conversion size selector unit 1204 receives the frequency supplied from the frequency conversion size determination unit 1201 to one input terminal thereof. A conversion size TS is selected and output to its output terminal.
  • the frequency conversion unit 102 included in the moving picture coding apparatus 1 according to Embodiment 1 performs frequency conversion of one coding unit (CU) or one macroblock (MB) 1 according to the frequency conversion size TS. Execute the process.
  • the region determination unit 1203 when the determination result of the region determination unit 1203 is “YES”, the region determination unit 1203 generates a selection output signal of low level “0” and uses it as the selection control signal of the frequency transform size selector unit 1204. Supply.
  • the frequency conversion size selector unit 1204 responds to the low level “0” selection output signal generated from the output terminal of the region determination unit 1203 to the non-crossover frequency conversion size determination unit 1202 at the other input terminal.
  • the non-crossover frequency conversion size NTS supplied from is selected and output to its output terminal.
  • the non-crossover frequency transform size determining unit 1202 responds to the size information Size_Inf and position information Position_Inf of one macroblock (MB) or one coding unit (CU) supplied from the frequency transform size determining unit 1201.
  • the non-crossover frequency conversion size NTS is generated and supplied to the other input terminal of the frequency conversion size selector unit 1204.
  • the frequency transform unit 102 included in the moving picture coding apparatus 1 performs one coding according to the non-crossover frequency transform size TS generated by the non-crossover frequency transform size determination unit 1202.
  • the frequency conversion process of a unit (CU) or one macro block (MB) 1 is executed.
  • FIG. 6 is a diagram illustrating the configuration and operation of the quantization parameter control unit 121 included in the video encoding device 1 according to the first embodiment.
  • the quantization parameter control unit 121 includes a quantization parameter generation unit 1211, a quantization parameter register unit 1212, a region determination unit 1213, and a quantization parameter selector unit 1214.
  • Control is executed by adjusting the quantization parameter QP used in the quantization process of the quantization unit 103.
  • the quantization parameter control unit 121 connected to the quantization unit 103 performs adjustment control of the quantization parameter QP for bit rate control. Therefore, the quantization parameter generation unit 1211 uses the compressed video encoded bitstream CVBS generated from the variable length encoding unit 114 based on, for example, the data sufficiency of the video buffer 115 connected to the output of the variable length encoding unit 114. Grasp the amount of codes. When the code amount is large, the quantization parameter generation unit 1211 sets the quantization parameter QP to a large value.
  • the quantization unit 103 reduces the number of bits of the frequency transform coefficient to be quantized, and thus the code amount of the compressed video encoded bit stream CVBS becomes excessive. It becomes possible to prevent.
  • the quantization parameter generation unit 1211 sets the quantization parameter QP to a small value.
  • the quantization unit 103 increases the number of bits of the frequency transform coefficient to be quantized, so that the code amount of the compressed video encoded bitstream CVBS can be increased. It is possible to generate a compressed video encoded bitstream CVBS with high image quality.
  • the variable length coding unit 114 includes a differential quantization parameter (QPD: Quantization Parameter Difference which is a temporal change of the quantization parameter QP of the quantization unit 103. ) As a syntax element.
  • QPD Quantization Parameter Difference
  • the moving picture decoding apparatus (Decoder) also uses the differential quantization parameter ( It is possible to execute an accurate video decoding processing operation using QPD).
  • the quantization unit 103 includes the pixel value of the moving image signal VS among the information to be quantized, which is necessary for the high-quality moving image decoding operation in the moving image decoding apparatus.
  • the pixel value does not greatly affect the image quality of the moving image signal VS reproduced by the moving image decoding apparatus.
  • the quantization parameter control unit 121 has the macroblock (MB) or coding unit (CU) quantized by the quantization unit 103 as the moving image signal VS and the padding data.
  • An area determination unit 1213 for determining which of the PDs belongs to is included.
  • the area determination unit 1213 is supplied with size information Size_Inf and position information Position_Inf of the macroblock (MB) or coding unit (CU) to be quantized by the quantization unit 103.
  • a high-level “1” selection output signal is output from the region determination unit. 1213 is generated from the output terminal.
  • the quantization parameter selector unit 1214 is supplied from the quantization parameter generation unit 1211 to one of its input terminals in response to the high-level “1” selection output signal generated from the output terminal of the region determination unit 1213.
  • the quantization parameter QP to be selected is selected and output to its output terminal.
  • the quantization unit 103 performs a quantization process on the frequency conversion coefficient by the frequency conversion unit 102 of the macroblock (MB) or coding unit (CU) belonging to the moving image signal VS. is there.
  • the quantization parameter QP generated from the quantization parameter selector unit 1214 of the quantization parameter control unit 121 and the quantization immediately before being generated from the quantization parameter register unit 1212 and stored in the quantization parameter register unit 1212
  • the variable length encoding unit 114 encodes a differential quantization parameter (QPD) that is a difference between parameters PQP (QP ⁇ PQP).
  • the moving picture decoding apparatus to which the coded information by the variable length coding unit 114 of the difference quantization parameter (QPD) is included in the coded bit stream CVBS and the coded bit stream CVBS is supplied is the difference quantum for the moving picture signal VS.
  • the variable length coding unit 114 performs coding having a relatively large code amount as the first code amount.
  • a bit stream CVBS is formed.
  • the low-level “0” selection output signal is a region. It is generated from the output terminal of the determination unit 1213.
  • the quantization parameter selector unit 1214 supplies the other input terminal from the quantization parameter register unit 1212 in response to the low level “0” selection output signal generated from the output terminal of the region determination unit 1213.
  • the quantization parameter PQP immediately before being selected is selected and output to its output terminal.
  • the quantization unit 103 performs a quantization process on the frequency conversion coefficient by the frequency conversion unit 102 of the macroblock (MB) or coding unit (CU) belonging to the padding processing data PD.
  • the quantization parameter QP generated from the quantization parameter selector unit 1214 of the quantization parameter control unit 121 and the previous quantization parameter stored in the quantization parameter register unit 1212 and generated from the prediction vector generation unit 1092
  • the differential quantization parameter (QPD) that is the difference of PQP (QP ⁇ PQP) is substantially zero.
  • the variable length encoding unit 114 encodes the differential quantization parameter (QPD) having a value of substantially zero.
  • the variable-length encoding unit 114 in response to the differential quantization parameter (QPD) having a value of substantially zero, the variable-length encoding unit 114 has an encoded bitstream having a second code amount smaller than the first code amount.
  • CVBS is formed.
  • the information of the padding processing data PD encoded by the variable length encoding unit 114 greatly affects the image quality of the moving image signal VS reproduced by the moving image decoding device. is not.
  • the encoded bit stream CVBS is stored in a recording disk having a certain video storage capacity, it is possible to lengthen the saving time and the recording time, or to improve the image quality by the saving amount.
  • FIG. 7 is a diagram illustrating the configuration and operation of the filter unit 107 and the filter control unit 122 for realizing low power consumption in the deblocking filter in the video encoding device 1 according to the first embodiment. .
  • the filter unit 107 included in the video encoding device 1 of the first embodiment is the H.264 standard. According to the H.264 standard, it has a function of a deblocking filter for reducing block distortion.
  • the result of local decoding processing by the inverse quantization unit 104, the inverse frequency conversion unit 105, and the adder 106 is subjected to filter processing by the function of the deblocking filter of the filter unit 107.
  • information filtered by the function of the deblocking filter of the filter unit 107 may belong to the moving image signal VS or to the padding processing data PD.
  • the local decoding processing result belonging to the moving image signal VS is filtered by the function of the deblocking filter of the filter unit 107, so that block distortion of the reference image stored in the frame memory 108 and used for intra prediction is reduced. It becomes possible. However, even if the local decoding processing result belonging to the padding processing data PD is filtered by the filter unit 107, it is impossible to reduce the block distortion of the reference image stored in the frame memory 108 and used for intra prediction. .
  • the filter unit 107 and the filter control unit 122 according to Embodiment 1 shown in FIG. 7 are configured so that when the deblocking filter processing target information supplied from the adder 106 to the filter unit 107 belongs to the moving image signal VS, The deblocking filter processing of this information is executed. However, when the deblocking filter processing target information supplied from the adder 106 to the filter unit 107 belongs to the padding processing data PD, the filter unit 107 and the filter control unit 122 according to Embodiment 1 shown in FIG. The execution of the deblocking filter processing of this information is stopped.
  • the size information Size_Inf and the position information Position_Inf of the deblocking filter processing target information supplied from the adder 106 to the filter unit 107 are supplied to the filter control unit 122 shown in FIG.
  • the filter control unit 122 determines that the deblocking filter processing target information belongs to the moving image signal VS, for example, a high level “1” operation selection signal is generated from the output terminal of the filter control unit 122. Accordingly, the function of the deblocking filter of the filter unit 107 is activated in response to the high level “1” operation output signal generated from the output terminal of the filter control unit 122. As a result, the function of the deblocking filter of the filter unit 107 executes a deblocking filter process for information belonging to the moving image signal VS.
  • the filter control unit 122 determines that the deblocking filter processing target information belongs to the padding processing data PD, for example, a low level “1” non-operation selection signal is generated from the output terminal of the filter control unit 122. Therefore, the function of the deblocking filter of the filter unit 107 is deactivated in response to the low level “1” non-operation selection signal generated from the output terminal of the filter control unit 122. As a result, the function of the deblocking filter of the filter unit 107 is to stop the execution of the deblocking filter process for the information belonging to the padding process data PD. In this way, according to the filter unit 107 and the filter control unit 122 according to Embodiment 1 shown in FIG. 7, it is possible to reduce the power consumption of the deblocking filter.
  • ⁇ Semiconductor integrated circuit of moving picture coding apparatus Most of the moving picture coding apparatus 1 according to the first embodiment is integrated in one semiconductor chip of a semiconductor integrated circuit except for the frame memory 108, the buffer memory 111, and the video buffer 115.
  • this semiconductor integrated circuit is a large-scale semiconductor integrated circuit called a system LSI or system on chip (SOC) manufactured by a state-of-the-art semiconductor manufacturing process.
  • the padding processing unit 100, the subtractor 101, the frequency conversion unit 102, the quantization unit 103, the inverse quantization unit 104, the inverse frequency conversion unit 105, and the adder 106 The variable length encoding unit 114 is integrated on one semiconductor chip of the semiconductor integrated circuit. Further, the filter unit 107, the frame memory 108, the motion vector detection unit 109, the motion compensation unit 110, the buffer memory 111, the intra prediction unit 112, and the selector unit 113 are also integrated on this one semiconductor chip.
  • the quantization output adjustment unit 116, the quantization output control unit 117, the motion vector detection control unit 118, the intra prediction control unit 119, the frequency conversion control unit 120, the quantization parameter control unit 121, and the filter control unit 122 are also the same. Further, it is integrated in this single semiconductor chip.
  • the frame memory 108, the buffer memory 111, and the video buffer 115 are integrated on a semiconductor chip of this single semiconductor chip and another synchronous dynamic random access memory (SDRAM).
  • SDRAM synchronous dynamic random access memory
  • FIG. 9 is a diagram illustrating a configuration of a moving image encoding apparatus according to Embodiment 2 that executes parallel processing at a slice level or a tile level.
  • the slice is encoded and decoded independently of the other slices of the picture, so that the slice can be used for parallel processing.
  • tiles can be processed in parallel, and tiles are formed by dividing a picture into rectangular areas.
  • the moving picture coding apparatus includes an image dividing unit 301, an image construction unit 302, and a plurality of moving picture coding processing units 1A, 1B, 1C, and 1D. .. And the frame memory 108 and the buffer memory 111.
  • the image dividing unit 301 is supplied with the moving image signal VS, and generates a plurality of slices or a plurality of tiles by dividing it.
  • the plurality of slices or the plurality of tiles generated by the image dividing unit 301 are respectively supplied to the plurality of moving image encoding processing units 1A, 1B, 1C, and 1D.
  • each moving image encoding processing unit includes a padding processing unit 100, a subtractor 101, a frequency conversion unit 102, a quantization unit 103, an inverse quantization unit 104, an inverse frequency conversion unit 105, an adder 106, and variable length encoding. Part 114. Further, each moving image encoding processing unit includes a motion vector detection unit 109, a motion compensation unit 110, a buffer memory 111, an intra prediction unit 112, and a selector unit 113.
  • each moving image encoding processing unit includes a quantization output adjustment unit 116, a quantization output control unit 117, a motion vector detection control unit 118, an intra prediction control unit 119, a frequency conversion control unit 120, and a quantization parameter control unit. 121 and a filter control unit 122 are included.
  • the plurality of moving image encoding processing results generated from the plurality of moving image encoding processing units 1A, 1B, 1C, and 1D are supplied to the image construction unit 302.
  • the image construction unit 302 generates a compressed video encoded bit stream CVBS from a plurality of moving image encoding processing results of the plurality of moving image encoding processing units 1A, 1B, 1C, and 1D.
  • Most of the moving picture coding apparatus according to the second embodiment is integrated in one semiconductor chip of a semiconductor integrated circuit except for the frame memory 108, the buffer memory 111, and the video buffer 115.
  • This semiconductor integrated circuit is also a large-scale semiconductor integrated circuit called a system LSI or system on chip (SOC) manufactured by a state-of-the-art semiconductor manufacturing process.
  • the main video encoding processing apparatus is the current standard H.264.
  • the present invention is not limited to generating an encoded bit stream by encoding a moving image input signal in accordance with a selected method of H.264 and HEVC standards.
  • the moving image encoding processing apparatus is not limited to the HEVC standard having a maximum coding unit (LCU) having a size of 64 ⁇ 64 pixels as a maximum processing unit, but also a maximum coding unit having a size larger than the size of 64 ⁇ 64 pixels.
  • LCU maximum coding unit
  • the present invention can also be applied to the generation of an encoded bit stream conforming to a standard that will appear in the future with (LCU) as the maximum processing unit.
  • the quantization output control unit 117 in FIG. 2, the motion vector detection control unit 118 in FIG. 3, the intra prediction control unit 119 in FIG. 4, and the quantization parameter control unit 121 in FIG. Similar to the conversion control unit 120, it is possible to execute the partition operation so that one coding unit (CU) does not include the pixel value of the moving image signal VS and the pixel value of the padding processing data PD at the same time. As a result, it is possible to reduce the code amount of the encoded bit stream CVBS.
  • one coding unit simultaneously converts the pixel value of the moving image signal VS and the pixel value of the padding processing data PD. It is possible to perform partition operations so that they are not included. As a result, it is possible to reduce the power consumption related to the function of the deblocking filter of the filter unit 107.
  • the present invention can be widely applied to a moving picture coding apparatus and an operation method thereof that reduce an increase in the amount of code of a coded bitstream during padding processing.

Abstract

 動画像符号化装置1は、符号化すべき動画像信号VSに関係するシンタックスエレメントの動画像符号化処理を実行して符号化ビットストリームCVBSを形成する。動画像符号化処理に先行して動画像信号VSにパディング処理データPDを追加するパディング処理が実行され、パディング処理データが追加された追加動画像信号の横および縦のサイズは動画像符号化処理の符号化ブロックサイズの整数倍に設定される。シンタックスエレメントの符号化ブロックが、動画像信号VSとパディング処理データPDのいずれに属するか判定される。符号化ブロックが前者に属する場合には、大きな符号量を有する符号化ビットストリームが形成される。符号化ブロックが後者に属する場合には、小さな符号量を有する符号化ビットストリームが形成される。パディング処理に際して、符号化ビットストリームの符号量の増加を軽減することが可能となる。

Description

動画像符号化装置およびその動作方法
 本発明は、動画像符号化装置およびその動作方法に関し、特にパディング処理に際して、動画像符号化装置から生成される符号化ビットストリームの符号量の増加を軽減するのに有効な技術に関する。
 良く知られているように国際規格ISO/IEC 13818-2で標準化されたMPEG-2の規格による動画像(Moving Picture)の一般的な圧縮方式は、ビデオストリームから冗長な情報を削除することによって、ビデオ記憶容量と必要な帯域幅とを削減すると言う原理に基づいている。尚、MPEGは、Moving Picture Experts Groupの略である。
 MPEG-2の規格は、ビットストリームのシンタックス(圧縮符号化データ列の規則または符号化データのビットストリームの構成方法)およびデコードプロセスのみを規定しているので、衛星放送・サービス、ケーブルテレビジョン、インターラクティブテレビジョン、インターネット等の種々の状況で十分利用可能なようにフレキシブルなものである。
 MPEG-2のエンコードプロセスでは、最初にデジタルビデオの各画素のカラーと輝度との成分を規定するために、ビデオ信号はサンプルされ量子化される。カラーと輝度との成分を示す値は、マクロブロックとして知られている構造に蓄積される。マクロブロックに蓄積されたカラーと輝度との値は、離散コサイン変換(DCT:Discrete Cosine Transform)を使用して周波数値に変換される。DCTによって得られる変換係数は、ピクチャーの輝度とカラーで異なった周波数を持つ。量子化されたDCT変換係数は、ビデオストリームを更に圧縮する可変長コーディング(VLC:Variable Length Coding)によってエンコードされる。
 MPEG-2のエンコードプロセスでは、動き圧縮技術による付加圧縮が規定されている。MPEG-2の規格では、Iフレーム、Pフレーム、Bフレームの3種類のピクチャーもしくはフレームが存在している。Iフレームは、ビデオストリームで他のいかなるピクチャーまたはフレームを参照することなく再生されるイントラ符号化されたものである。PフレームとBフレームとは、他のピクチャーまたはフレームの参照によって再生されるインター符号化されたものである。例えば、PフレームとBフレームとは、参照フレームに関して動き推定を示す動きベクトルを含む。動きベクトルの使用によって、MPEGエンコーダは特定のビデオストリームに必要な帯域幅の低減が可能となる。尚、Iフレームは独立(intra-coded)フレームと呼ばれ、Pフレームは片方向予測(predictive-coded)フレームと呼ばれ、Bフレームは両方向予測(bi-directionally predictive-coded)フレームと呼ばれる。
 従って、MPEG-2の動画像符号化装置(Encoder)は、フレームメモリと動きベクトル検出部と動き補償部と減算部とDCT変換部と量子化部と逆量子化部と逆DCT変換部と可変長符号化部によって構成される。符号化される動画像信号は、Bフレームの符号化や動きベクトルを検出するためにフレームメモリに格納された後、フレームメモリから読み出され、動き補償部からの動き補償予測信号が減算部で減算され、DCT変換部と量子化部とでそれぞれDCT変換処理と量子化処理とが実行される。量子化されたDCT変換係数は、可変長符号化部で可変長符号化処理されるとともに、逆量子化部と逆DCT変換部で局部復号処理が実行された後にこの局部復号処理結果は動き補償部を介して減算部に供給される。
 一方、MPEG-2の動画像復号装置(Decoder)は、バッファメモリと可変長復号部と逆量子化部と逆DCT変換部と動き補償部と加算部とフレームメモリによって構成される。MPEG-2の符号化ビットストリームはバッファメモリに蓄積された後、可変長復号部と逆量子化部と逆DCT変換部とで可変長復号処理と逆量子化処理と逆DCT変換処理とがそれぞれ実行される。これらの処理結果は、加算部で可変長復号処理された動きベクトルに基づき生成される参照画像と加算され、加算部の出力から再生画像信号が生成される。この再生画像信号はフレームメモリに格納され、他のフレームの予測に使用される。
 MPEG-2の規格に続いて、テレビ電話等の低レートの符号化のための国際規格ISO/IEC 14496で標準化されたMPEG-4の規格(H.263)よる動画像の一般的な圧縮方式も提案されている。MPEG-4(H.263)の規格による圧縮方式は、MPEG-2と同様にフレーム間予測と離散コサイン変換を用いた「ハイブリッド型」と呼ばれるものであり、更に半画素(ハーフペル)単位での動き補償が導入された。この圧縮方式は、MPEG-2と同様に、エントロピー符号化としてハフマン符号を使用するが、新しくランとレベルとラストとを同時に符号化する3次元可変長符号化(3次元VLC)という技術を導入して、圧縮率を大きく向上させている。尚、ランとレベルとはランレングスの係数に関するものであって、ラストとは最後の係数であるかを示すものである。更に、MPEG-4(H.263)の規格には、Baselineと呼ばれる基本部分と、Annexと呼ばれる拡張規格とがある。
 MPEG-4(H.263)の規格による圧縮方式による効率改善が十分でなかったため、より高い符号化効率を達成するために、MPEG-4 AVC(H.264)の規格が国際規格ISO/IEC 14496-10によって標準化された。尚、AVCは、Advanced Video Codingの略であり、MPEG-4 AVC(H.264)の規格は、H.264/AVCと呼ばれる。
 規格H.246/AVCによるビデオコーディングは、ビデオコーディング層(Video Coding Layer)と、ネットワーク抽象層(Network Abstraction Layer)とから構成されている。すなわち、ビデオコーディング層は、ビデオコンテキストを有効に表現するように設計されたものであり、ネットワーク抽象層は、ビデオのVCL表現をフォーマットするとともに種々の転送層や記憶媒体による転送のために適切な方法でヘッダー情報を与えるものである。
 MPEG-2、MPEG-4、MPEG-4 AVC(H.264)等の国際標準動画像符号化方法では、時間方向の相関を使って高い符号化効率を実現するために、インター符号化すなわちフレーム間予測符号化が使用されている。フレームの符号化モードには、フレーム間の相関を使わずにイントラ符号化を使用するIフレームと、過去に符号化した1フレームからインター予測するPフレームと、過去に符号化した2フレームからインター予測することができるBフレームがある。
 このフレーム間予測符号化では、符号化対象である動画像と動き補償された参照画像(予測画像)との減算が実行され、この減算による予測残差が符号化される。符号化の処理は、DCT(離散コサイン変換)等の直交変換と量子化と可変長符号化の処理を含んでいる。動き補償(動き補正)は、フレーム間予測の参照フレームを空間的に移動させる処理を含むものであり、動き補償の処理は、被符号化フレームのブロック単位で行われる。画像内容に動きが無い場合には、移動は無く被予測画素と同一位置の画素が使用される。動きが有る場合には、最も類似するブロックが探索されて、移動量が動きベクトルとされる。動き補償のブロックは、MPEG-2の符号化方法では16画素×16画素/16画素×8画素のブロックであり、MPEG-4の符号化方法では16画素×16画素/16画素×8画素/8画素×8画素のブロックである。動き補償のブロックは、MPEG-4 AVC(H.264)の符号化方法では16画素×16画素/16画素×8画素/8画素×16画素/8画素×8画素/8画素×4画素/4画素×8画素/4画素×4画素のブロックである。
 上述した符号化処理は映像画面(フレームまたはフィールド)毎に行われるものであり、画面を細分化したブロック(通常は16画素×16画素、MPEGではマクロブロック(MB)と呼ばれる)が処理単位となるものである。すなわち、符号化されるべきブロック毎に、既に符号化された参照画像から最も類似したブロック(予測画像)が選択されて、符号化画像(ブロック)と予測画像の差分信号が符号化(直交変換、量子化等)される。画面内での符号化されるブロックと予測信号の相対位置の差が、動きベクトルと呼ばれるものである。
 また、下記非特許文献1には、H.246/AVCによるビデオコーディング層(VCL)は、ブロックベースドハイブリッドビデオコーディングと呼ばれるアプローチに従っていると記載されている。VCL設計は、マクロブロック、スライスから構成されており、各ピクチャーは固定サイズの複数のマクロブロックに分割され、各マクロブロックは、輝度成分で16×16サンプルの四角形ピクチャー領域と、それに対応する2つの色差成分のそれぞれに四角形サンプル領域を含んでいる。1つのピクチャーは、1つまたはそれ以上のスライスを含むことができる。各スライスはアクティブなシーケンスパラメータセットとピクチャーパラメータセットとを与えると言う意味で自己包含的であり、スライス表現は基本的には他のスライスからの情報を使用することなくデコードされることができるので、シンタックスエレメントはビットストリームとピクチャーの領域のサンプルの値とから解析できる。しかしながら、より完全なデコーディングのために、スライス境界にわたってデブロッキングフィルタを適応するには、他のスライスからのいくつかの情報が必要となる。
 一方で、動画像符号を扱うシステムは、デジタルHDTV(High Definition Television)放送受信機やHDTV信号を撮影可能なデジタルビデオカメラなどで、画像サイズは大画面化してきている。これらの信号を処理する画像符号化装置や画像復号装置には、ますます高い処理性能が求められている。
 このような背景から、規格H.264/MPEG-4 AVCの後続規格である新規格H.265(ISO/IEC 23008-2)が提案され、この新規格はHEVC(High Efficiency Video Coding)と呼ばれている。HEVC規格は、ブロックサイズの適正化等により圧縮効率が優れたものであり、MPEG-2の規格に比較して約4倍、規格H.264/AVCに比較して約2倍圧縮性能を有するとしている。
 一方、下記特許文献1には、MPEG-1/2/4とH.261/H.263/H.264-AVC等の広く採用される種々の符号化圧縮規格では、16×16画素からなる1つのマクロブロックが動き補償と後続処理の処理単位として使用されているのに対し、HEVC規格では、よりフレキシブルなブロック構造が処理単位として採用されると記載されている。このフレキシブルなブロック構造の単位は、コーディングユニット(CU)と呼ばれ、コーディングユニットは最大コーディングユニット(LCU)から出発して良好な性能を達成するために、クアッド・トリー(quadtree)を使用した小さなブロックに適応的に分割される。最大コーディングユニット(LCU)のサイズは、マクロブロックのサイズ(16×16画素)よりもずっと大きな64×64画素である。尚、下記特許文献1に説明された最大コーディングユニット(LCU)は、HEVC規格で説明されたコーディングトリーブロック(CTB)またはコーディングトリーブロック(CTU)に相当するものである。下記特許文献1の図1とそれに関係する開示には、クアッド・トリーに基づくコーディングユニット分割の例が示され、その深さ“ゼロ”では最初のコーディングユニット(CU)は64×64画素からなる最大コーディングユニット(LCU)である。スプリットフラグ“0”は、その時点のコーディングユニット(CU)が分割されないことを示す一方、スプリットフラグ“1”は、その時点のコーディングユニット(CU)がクアッド・トリーによって4つの小さなコーディングユニットに分割されることを示す。分割後のコーディングユニット(CU)は、予め特定された最小コーディングユニット(CU)のサイズに到達するまで、更にクアッド・トリー分割されることも、下記特許文献1に記載されている。
 下記非特許文献2には、HEVCの規格の概観が記載されている。以前の規格のコーディングレイヤーのコアが、輝度サンプルの16×16ブロックと8×8ブロックの2つの色度サンプルを含むマクロブロックであったのに対して、HEVCの規格の類似構成は、伝統的なマクロブロックよりも大きくエンコーダによってサイズが選択されるコーディングトリーユニット(CTU)である。コーディングトリーユニット(CTU)は、輝度コーディングトリーブロック(CTB)と色度コーディングトリーブロック(CTB)とシンタックス要素とによって構成される。コーディングトリーユニット(CTU)のクアッド・トリー・シンタックスは、その輝度と色度のコーディングトリーブロック(CTB)の大きさと位置とを指定する。ピクチャー領域を符号化するために、インター・ピクチャーまたはイントラ・ピクチャーが使用されるか否かの決定は、コーディングユニット(CU)のレベルでなされる。プレディクションユニット(PU)の分割構造は、コーディングユニット(CU)のレベルにその根源を持っている。基本的なプレディクションタイプの決定に依存して、輝度と色度のコーディングブロック(CB)はサイズの分割が可能で、輝度と色度のプレディクションブロック(PB)からの予測が可能である。HEVC規格は、64×64サンプルから4×4サンプルまでの可変のプレディクションブロック(PB)のサイズをサポートする。予測残差はブロック変換によって符号化されて、トランスフォームユニット(TU)のトリー構造は、コーディングユニット(CU)のレベルにその根源を持つものである。輝度のコーディングブロック(CB)の残差は、輝度のトランスフォームブロック(TB)と同一とすることが可能であり、更に小さな輝度のトランスフォームブロック(TB)への分割が可能である。これは、色度のトランスフォームブロック(TB)でも同様である。離散コサイン変換(DCT)の関数と類似した整数ベースの関数が、4×4、8×8、16×16、32×32サンプルの四角型のトランスフォームブロック(TB)のサイズのために定義されている。
 更に下記非特許文献2には、HEVCの規格に準拠するビットストリームを生成可能なハイブリットビデオエンコーダの構成が記載され、そのインター・ピクチャー予測ループ中に、H.264/MPEG-4 AVCの規格で使用されるものと類似したデブロッキングフィルタが含まれることも記載されている。
 下記特許文献2には、任意形状の画像を効率良く符号化するために、ブロック内の画像データの無い空白領域を埋めるパディング手段に、外部より入力される画像信号の形状情報を供給することが記載されている。入力画像信号の横及び縦のサイズが圧縮符号化のためのブロックサイズの整数倍である必要があるので、パディング手段は任意形状の画像を符号化するために、空白領域を画像領域の平均値で埋める動作、または画像領域の端の画素をコピーするなどして埋める動作を実行するものである。
 下記特許文献3には、画像信号を符号化する際に、画面の端の部分で画素値が不連続に変化する信号を符号化すると、信号の不連続性により高周波成分が生じ、多くの符号量を発生すると言う問題を解決する符号化装置が記載されている。重み係数判定器は、同期信号を基に画像信号の画面内の位置を計算し、画面の端に近づくほど0に近づく重み係数wを出力する。第1乗算器は入力画像信号に重み係数wを乗算して、第2乗算器は一定値出力器の出力に係数1-wを乗算して、加算器は2つの乗算器の出力信号を加算した後、加算器の出力は符号化器によって符号化される。画面の端では画像信号を滑らかに一定値にしているので、余計な符号量が必要とならないと記載されている。
 下記特許文献4には、送信画像に含まれる画像の重要位置を示す情報を操作者が操作部に設定すると、画像符号化部は画像の重要位置内の画像データを、それ以外の位置の画像データよりも画質を向上して符号化するテレビ電話装置が記載されている。
 下記特許文献5には、MPEG-4規格で採用された画面外動きベクトル(UMV:Unrestricted Motion Vector)を実現するために(画面境界外部を参照画像として使用するために)、画面内の画素値を、画面外に外挿するパディング処理が記載されている。更に、パディング処理の外挿開始位置が有効画像領域の端か符号化マクロブロックの端なのかがMPEG-4規格で不統一であるので、このパディング処理の外挿開始位置がエンコータとデコータとで不統一である場合にデコータで発生するノイズを防止する方法が記載されている。
米国公開特許 US2012/0106652A1 明細書 特開平10-23404号 公報 特開平5-91333号 公報 特開平7-203434号 公報 特開2009-100041 公報
GARY J. SULLIVAN et al,"Video Compression-From Concept to the H.264/AVC Standard" , PROCEEDING OF THE IEEE, VOL.93、 No.1, JANUARY 2005、PP.18-31. Gary J. Sullivan et al, "Overview of the High Efficiency Video Coding (HEVC) Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNNOLOGY, VOL.22,NO.12, DECEMBER 2012, PP.1649-1668.
 本発明者等は、本発明に先立ち現行規格H.264/MPEG-4 AVCの後続規格としてのHEVC規格に準拠し、動画像入力信号の符号化によって符号化ビットストリームを生成することが可能な動画像符号化装置(Video Encoder)の開発に従事した。この動画像符号化装置は、HEVC規格だけではなく、現行規格H.264/MPEG-4 AVCに準拠して動画像入力信号を符号化することも要求されたものである。
 このHEVC規格は、ブロックサイズの適正化等により圧縮効率が優れたものであり、MPEG-2の規格と比較して約4倍、規格H.264/AVCと比較して約2倍の圧縮性能を有するとされている。デジタルHDTV(High Definition Television)放送受信機や、HDTV信号を撮影可能なデジタルビデオカメラ等における画像サイズの大画面化に伴って、動画像符号化装置や動画像復号装置には更に高い処理性能が求められており、HEVC規格は、これらの要求を満足するものと期待されている。
 一方、近年、高精細HD(High Definition)の画素サイズ(1920画素×1080画素)の約4倍の4096画素×2160画素または3840画素×2160画素の大きさの表示装置を有する4KTVが、注目されている。例えば、日本においては、2014年7月から4Kテレビ放送を開始するとの総務省の方針が発表されている。このように、4KTVの表示装置の表示画面に相当する1枚のフレーム(ピクチャー)の動画像信号の符号化または復号を実行する動画像符号化装置または動画像復号装置にも、高い処理性能が要求される。
 図10は、本発明に先立って本発明者等によって検討された現行規格H.264とHEVC規格との選択された方式に準拠して動画像入力信号の符号化によって符号化ビットストリームを生成することが可能な動画像符号化装置1の構成を示す図である。
 図10に示した動画像符号化装置1は、パディング処理部100と減算器101と周波数変換部102と量子化部103と逆量子化部104と逆周波数変換部105と加算器106と可変長符号化部114とビデオバッファ115によって構成される。更に動画像符号化装置1は、フィルタユニット107とフレームメモリ108と動きベクトル検出部109と動き補償部110とバッファメモリ111とイントラ予測部112とセレクタ部113によって構成される。
 動画像信号VSは、パディング処理部100の入力端子に供給され、パディング処理部100は必要に応じてパディング処理を実行する。すなわち、上記特許文献2に記載されたように、動画像符号化装置1に供給される動画像信号VSの横および縦のサイズが符号化ブロックサイズの整数倍でない場合には、パディング処理後の動画像信号の横および縦のサイズが符号化ブロックサイズの整数倍となるよう、パディング処理部100はパディング処理を実行するものである。
 図11は、図10に示した本発明に先立って本発明者等によって検討された動画像符号化装置1のパディング処理部100におけるパディング処理を説明する図である。
 図11では、図10に示した動画像符号化装置1がHEVC規格に準拠して動画像信号VSの符号化処理を実行する場合を示している。すなわち、この場合の符号化ブロックサイズは、HEVC規格により定義されたコーディングユニットCUである。従って、このコーディングユニットCUは、64×64画素からなる最大コーディングユニット(LCU)である場合と、最大コーディングユニット(LCU)の分割で生成されたものである場合とがある。
 図11に示すように動画像符号化装置1に供給される動画像信号VSの横および縦のサイズが、符号化ブロックサイズであるコーディングユニットCUの整数倍となっていない。従って、パディング処理部100は、パディング処理後の動画像信号の横および縦のサイズが符号化ブロックサイズの整数倍となるようにパディング処理を実行する。すなわち、図11に示すように、動画像信号VSの右横方向と縦下方向とに、パディング処理部100のパディング処理によって、パディング処理データPDが追加されている。パディング処理データPDは、例えば、動画像信号VSとパディング処理データPDとの境界近傍の動画像信号VSの画素値自体もしくは画素値の平均値をコピーすることなどによって、形成することが可能である。その結果、パディング処理後の動画像信号の横および縦のサイズが符号化ブロックサイズの整数倍となるように、動画像信号VSにパディング処理データPDが追加されるので、図10に示す動画像符号化装置1による動画像符号化処理に際して、動画像信号の不連続性によって発生する高周波成分を低減することが可能となる。従って、高周波成分の低減によって、可変長符号化部114から生成される圧縮ビデオ符号化ビットストリームCVBSの符号量の低減が可能となる。
 尚、図11に示すパディング処理部100のパディング処理後の動画像信号VSは、動画像復号装置(Decoder)によって表示される必要がある。それに対して、図11に示したパディング処理部100のパディング処理後のパディング処理データPDは、動画像復号装置(Decoder)による表示の必要性が無いものである。
 また図10に示した動画像符号化装置1が現行規格H.264に準拠して動画像信号VSの符号化処理を実行する場合は、符号化ブロックサイズは、マクロブロック(MB)となる。このマクロブロック(MB)は、輝度成分で16画素×16画素のサイズを有するものである。この場合に、パディング処理部100は、パディング処理後の動画像信号の横および縦のサイズがマクロブロック(MB)サイズの整数倍となるようにパディング処理を実行するものである。
 図10に示すように、パディング処理部100のパディング処理後の追加動画像信号VS+PDは、減算器101の一方の入力端子と、動きベクトル検出部109の一方の入力端子と、イントラ予測部112の一方の入力端子とに供給される。
 図10に図示されていないが、動画像の各ピクチャーのインター予測もしくはイントラ予測を示す予測モードが、図示しない符号化制御ユニットからセレクタ部113と可変長符号化部114に供給される。まずインター符号化される動画像信号VSのコーディングユニット(CU)は、減算器101の一方の入力端子に供給される。その一方、動きベクトル検出部109は、パディング処理部100からのパディング処理後の動画像信号VSとフレームメモリ108に格納された参照画像とに応答して、動きベクトルMVを生成する。そして、動き補償部110は、生成された動きベクトルMVとフレームメモリ108に格納された参照画像とに応答して、動き補償予測信号を生成する。その結果、動き補償部110からの動き補償予測信号が、セレクタ部113を介して減算部101で動画像信号VSから減算される。減算部101の減算出力信号である予測残差に関して、周波数変換部102と量子化部103とでそれぞれ周波数変換処理と量子化処理とが実行される。量子化部103で量子化された周波数変換係数と、動きベクトル検出部109から生成された動きベクトルMVは、可変長符号化部114で可変長符号化処理され、ビデオバッファ115を介して圧縮ビデオ符号化ビットストリームCVBSが生成される。その一方、量子化部103で量子化された周波数変換係数は、逆量子化部104と逆周波数変換部105と加算器106とフィルタユニット107とによって局部復号処理が実行され、局部復号処理結果が参照画像としてフレームメモリ108に格納される。このフィルタユニット107は、MPEG-4 AVC(H.264)の規格に従って、ブロック歪みを低減するためのデブロッキングフィルタの機能を有するものである。また更にフィルタユニット107は、HEVC規格に準拠するため、デブロッキングフィルタ処理の後にサンプルアダプティブオフセット(SAO)と呼ばれるフィルタ機能を有する。このフィルタ機能は、動画像符号化装置1の図示しない符号化制御ユニットの度数分布解析により決定される追加パラメータによって記述されるルックアップテーブルを使用することにより、原信号振幅を良好に再構築するものである。
 動画像信号のイントラ符号化に関して、パディング処理部100からのパディング処理後の動画像信号VSは、イントラ予測部112の一方の入力端子に供給される。バッファメモリ111には、イントラ予測によって符号化され、局部復号処理によって生成された参照画像が格納されているので、バッファメモリ111から読み出された参照画像が、イントラ予測部112の他方の入力端子に供給されている。従って、イントラ予測部112は、一方の入力端子に供給される動画像信号VSのコーディングユニット(CU)をイントラ符号化する際に、バッファメモリ111から他方の入力端子に供給される符号化済みの参照画像に含まれる複数の近隣のコーディングユニット(CU)から最適なコーディングユニットを選択して、更に選択された最適なコーディングユニットの空間情報を生成する。その結果、このイントラ予測部112は、イントラ予測された最適なコーディングユニット(CU)と対応する空間的予測モードとを含んだイントラ予測情報をセレクタ部113に供給するものである。
 以上説明したように、本発明に先立って本発明者等によって検討された、図10に示す動画像符号化装置1において、パディング処理部100は、パディング処理後の追加動画像信号VS+PDの横および縦のサイズが符号化ブロックサイズの整数倍となるよう、パディング処理を実行するものである。従って、動画像符号化装置1に供給される動画像信号VSの横および縦のサイズが、符号化ブロックサイズの整数倍となっていない場合でも、パディング処理データPDが追加されるので、動画像信号の不連続性によって発生する高周波成分を低減することが可能となる。従って、高周波成分の低減により、可変長符号化部114から生成される圧縮ビデオ符号化ビットストリームCVBSの符号量の低減が可能となる。
 しかし、図10に示す動画像符号化装置1は、パディング処理部100のパディング処理によって、動画像信号の不連続性によって発生する高周波成分を低減して符号化ビットストリームCVBSの符号量の低減が可能となる。しかしながら、動画像信号VSに追加されるパディング処理データPDの分、符号化ビットストリームCVBSの符号量が増加すると言う問題が、本発明に先立った本発明者等による検討によって明らかにされた。
 すなわち、動画像信号VSに追加されるパディング処理データPDは、上述したように、例えば動画像信号VSとパディング処理データPDとの境界近傍の動画像信号VSの画素値自体もしくは画素値の平均値をコピーすることによって形成される。その結果、パディング処理データPDの画素値は、非ゼロ値となる。従って、パディング処理データPDも符号化されるので、符号化ビットストリームCVBSには、動画像信号VSとは異なるデータが含まれるので、符号化ビットストリームCVBSの符号量が増加することになる。
 このような課題を解決するための手段等を以下に説明するが、その他の課題と新規な特徴は本明細書の記述及び添付図面から明らかになるであろう。
 本願において開示される発明のうち代表的なものについて簡単に説明すれば下記のとおりである。
 すなわち、代表的な実施の形態による動画像符号化装置(1)は、符号化すべき動画像信号(VS)に関係するシンタックスエレメントの動画像符号化処理を実行して符号化ビットストリーム(CVBS)を形成する。
 前記動画像符号化処理に先行して、前記動画像信号(VS)にパディング処理データ(PD)が追加されるパディング処理(100)を前記動画像符号化装置(1)が実行する。
 前記パディング処理により前記パディング処理データ(PD)が追加された追加動画像信号の横および縦のサイズは、前記動画像符号化処理の符号化ブロックサイズの整数倍に設定される。
 前記シンタックスエレメントの符号化ブロックが、前記動画像信号(VS)と前記パディング処理データ(PD)とのいずれに属するかが前記動画像符号化装置(1)により判定される。
 前記シンタックスエレメントの前記符号化ブロックが前記動画像信号に属すると判定される第1の場合には、第1の符号量を有する前記符号化ビットストリームが形成されるように、前記動画像符号化処理が制御される。
 前記シンタックスエレメントの前記符号化ブロックが前記パディング処理データに属すると判定される第2の場合には、前記第1の符号量よりも小さな第2の符号量を有する前記符号化ビットストリームが形成されるように、前記動画像符号化処理が制御されることを特徴とする(図1参照)。
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば下記の通りである。
 すなわち、本動画像符号化装置によれば、パディング処理に際して、動画像符号化装置から生成される符号化ビットストリームの符号量が増加するのを軽減することができる。
図1は、実施の形態1による動画像符号化装置1の構成を示す図である。 図2は、実施の形態1の動画像符号化装置1に含まれる量子化出力調整部116と量子化出力制御部117の動作を説明する図である。 図3は、実施の形態1の動画像符号化装置1に含まれる動きベクトル検出制御部118と動きベクトル検出部109の構成と動作とを説明する図である。 図4は、実施の形態1の動画像符号化装置1に含まれるイントラ予測制御部119とイントラ予測部112の構成と動作とを説明する図である。 図5は、実施の形態1の動画像符号化装置1に含まれる周波数変換制御部120の構成と動作とを説明する図である。 図6は、実施の形態1の動画像符号化装置1に含まれる量子化パラメータ制御部121の構成と動作とを説明する図である。 図7は、実施の形態1の動画像符号化装置1において、デブロッキングフィルタでの低消費電力の実現のためのフィルタユニット107とフィルタ制御部122との構成と動作とを説明する図である。 図8は、コーディングユニット(CU)が最大コーディングユニット(LCU)から適応的に分割される様子を示す図である。 図9は、スライスレベルもしくはタイルレベルの並列処理を実行する実施の形態2による動画像符号化装置の構成を示す図である。 図10は、本発明に先立って本発明者等によって検討された現行規格H.264とHEVC規格との選択された方式に準拠して動画像入力信号の符号化によって符号化ビットストリームを生成することが可能な動画像符号化装置1の構成を示す図である。 図11は、図10に示した本発明に先立って本発明者等によって検討された動画像符号化装置1のパディング処理部100におけるパディング処理を説明する図である。
1.実施の形態の概要
 先ず、本願において開示される発明の代表的な実施の形態について概要を説明する。代表的な実施の形態についての概要説明で括弧を付して参照する図面中の参照符号は、それが付された構成要素の概念に含まれるものを例示するに過ぎない。
 〔1〕代表的な実施の形態による動画像符号化装置(1)は、符号化すべき動画像信号(VS)に関係するシンタックスエレメントの動画像符号化処理を実行することによって、符号化ビットストリーム(CVBS)を形成するものである(図1参照)。
 前記動画像符号化処理に先行して、前記動画像信号(VS)にパディング処理データ(PD)が追加されるパディング処理(100)を前記動画像符号化装置(1)が実行する。
 前記パディング処理により前記パディング処理データ(PD)が追加された追加動画像信号の横および縦のサイズは、前記動画像符号化処理の符号化ブロックサイズの整数倍に設定されるものである。
 前記動画像信号に関係する前記シンタックスエレメントの符号化ブロックが、前記動画像信号(VS)と前記パディング処理データ(PD)とのいずれに属するかが前記動画像符号化装置(1)により判定される。
 前記動画像符号化装置の判定によって、前記動画像信号に関係する前記シンタックスエレメントの前記符号化ブロックが前記動画像信号に属すると判定される第1の場合には、第1の符号量を有する前記符号化ビットストリームが形成されるように、前記第1の場合の判定によって前記動画像符号化処理が制御される。
 前記動画像符号化装置の他の判定によって、前記動画像信号に関係する前記シンタックスエレメントの前記符号化ブロックが前記パディング処理データに属すると判定される第2の場合には、前記第1の符号量よりも小さな第2の符号量を有する前記符号化ビットストリームが形成されるように、前記第2の場合の判定によって前記動画像符号化処理が制御されることを特徴とする。
 前記実施の形態によれば、パディング処理に際して、動画像符号化装置から生成される符号化ビットストリームの符号量が増加するのを軽減することができる。
 〔2〕好適な実施の形態では、前記〔1〕で規定した前記動画像符号化装置(1)は、パディング処理部と動きベクトル検出部と動き補償部と減算器と周波数変換部と量子化部と逆量子化部と逆周波数変換部とメモリ(108、111)とイントラ予測部とセレクタ部と可変長符号化部とを具備する。
 前記パディング処理部(100)は、前記パディング処理を実行することによって前記追加動画像信号を生成して前記減算器(101)と前記動きベクトル検出部(109)と前記イントラ予測部(112)に供給する。
 前記動きベクトル検出部(109)は、前記追加動画像信号と前記メモリ(108)に格納されたインター参照画像とから動きベクトル(MV)を生成する。
 前記動き補償部(110)は、前記動きベクトル検出部(109)から生成される前記動きベクトル(MV)と前記メモリ(108)に格納された前記インター参照画像とに応答して動き補償予測信号を生成する。
 前記イントラ予測部(112)は、前記追加動画像信号と前記メモリ(111)に格納されたイントラ参照画像とからイントラ予測信号を生成する。
 前記セレクタ部(113)は、前記動き補償部(110)から生成される前記動き補償予測信号と前記イントラ予測部(112)から生成される前記イントラ予測信号とから選択された選択予測信号を出力する。
 前記減算器(101)の一方の入力端子には前記追加動画像信号が供給され、前記減算器(101)の他方の入力端子には前記セレクタ部(113)から出力される前記選択予測信号が供給され、前記減算器(101)の出力端子から予測残差が生成される。
 前記減算器(101)の前記出力端子から生成される前記予測残差に関し、前記周波数変換部(102)と前記量子化部(103)とでそれぞれ周波数変換処理と量子化処理とが実行される。
 前記量子化部(103)で量子化処理された前記周波数変換部(102)の前記周波数変換処理の結果は、前記逆量子化部(104)と前記逆周波数変換部(105)とによって局部復号処理が実行され、前記局部復号処理の結果は前記インター参照画像および前記イントラ参照画像として前記メモリ(108、111)に格納される。
 前記量子化部(103)で量子化処理された前記周波数変換部(102)の前記周波数変換処理の前記結果は前記可変長符号化部(114)により符号化処理され、前記可変長符号化部(114)から前記符号化ビットストリーム(CVBS)が生成される。
 前記動画像信号に関係する前記シンタックスエレメントは、下記(A)乃至下記(D)の情報の少なくとも、いずれか1つである(図1参照)。
 (A).前記量子化部(103)で量子化処理された前記周波数変換部(102)の前記周波数変換処理の情報、
 (B).前記動きベクトルと前記動き補償予測信号とを使用して、インター予測によって符号化される符号化ブロックの情報、
 (C).前記イントラ参照画像を使用してイントラ予測によって符号化される符号化ブロックの情報と、
 (D).前記量子化部(103)で量子化処理される符号化ブロックの情報。
 〔3〕他の好適な実施の形態では、前記〔2〕で規定した前記動画像符号化装置(1)は、前記量子化部(103)の出力端子と前記可変長符号化部(114)の入力端子および前記逆量子化部(104)の入力端子との間に接続された量子化出力調整部(116)と、前記量子化出力調整部(116)に接続された量子化出力制御部(117)とを更に具備する。
 前記量子化出力制御部(117)は、前記動画像信号に関係する前記シンタックスエレメントである前記量子化部(103)で量子化処理された前記周波数変換部(102)の前記周波数変換処理の前記情報が、前記動画像信号(VS)と前記パディング処理データ(PD)とのいずれに属するかを判定する。
 前記量子化出力調整部(116)には、前記量子化部(103)の量子化処理によって生成される量子化出力信号(201)と、前記量子化出力信号(201)より少ないデータ量を有する調整信号(200)と、前記量子化出力制御部(117)から生成される判定結果とが供給される。
 前記周波数変換処理の前記情報が前記動画像信号(VS)に属するとの前記量子化出力制御部(117)の判定結果に応答して、前記量子化出力調整部(116)は前記量子化部(103)から生成される前記量子化出力信号(201)を前記可変長符号化部(114)の前記入力端子と前記逆量子化部(104)の前記入力端子に供給する。
 前記周波数変換処理の前記情報が前記パディング処理データ(PD)に属するとの前記量子化出力制御部(117)の判定結果に応答して、前記量子化出力調整部(116)は前記調整信号(200)を前記可変長符号化部(114)の前記入力端子と前記逆量子化部(104)の前記入力端子に供給することを特徴とする(図1、図2参照)。
 〔4〕更に他の好適な実施の形態では、前記〔2〕で規定した前記動画像符号化装置(1)は、前記動きベクトル検出部(109)に接続された動きベクトル検出制御部(118)を更に具備する。
 前記動きベクトル検出部(109)は、動きベクトル探索部(1091)と予測ベクトル生成部(1092)と動きベクトルセレクタ部(1093)とを含む。
 前記動きベクトル探索部(1091)は、前記追加動画像信号中に含まれてインター予測によって符号化される前記符号化ブロックに関して動きベクトル探索動作を実行して探索動きベクトル(MV)を生成する。
 前記予測ベクトル生成部(1092)は、前記追加動画像信号中に含まれてインター予測によって符号化される前記符号化ブロックに関して規格H.264または規格H.265で規定された動きベクトル予測方法を実行して予測ベクトル(PMV)を生成する。
 前記動きベクトル検出制御部(118)は、前記追加動画像信号中に含まれて前記動画像信号に関係する前記シンタックスエレメントであるインター予測によって符号化される前記符号化ブロックが、前記動画像信号(VS)と前記パディング処理データ(PD)とのいずれに属するかを判定する。
 前記動きベクトルセレクタ部(1093)には、前記動きベクトル探索部(1091)によって生成される前記探索動きベクトル(MV)と、前記予測ベクトル生成部(1092)によって生成される前記予測ベクトル(PMV)と、前記動きベクトル検出制御部(118)から生成される判定結果とが供給される。
 前記インター予測によって符号化される前記符号化ブロックが前記動画像信号(VS)に属するとの前記動きベクトル検出制御部(118)の判定結果に応答して、前記動きベクトルセレクタ部(1093)は前記動きベクトル探索部(1091)によって生成される前記探索動きベクトル(MV)を、前記動きベクトル(MV)として、前記動き補償部(110)に供給する。
 前記インター予測によって符号化される前記符号化ブロックが前記パディング処理データに属するとの前記動きベクトル検出制御部の判定結果に応答して、前記動きベクトルセレクタ部は前記予測ベクトル生成部によって生成される前記予測ベクトル(PMV)を、前記動きベクトル(MV)として、前記動き補償部(110)に供給することを特徴とする(図1、図3参照)。
 〔5〕より好適な実施の形態では、前記〔2〕で規定した前記動画像符号化装置(1)は、前記イントラ予測部(112)に接続されたイントラ予測制御部(119)を更に具備する。
 前記イントラ予測部(112)は、イントラ予測方向決定部(1121)と近傍予測方向生成部(1122)と予測方向セレクタ部(1123)とイントラ予測処理部(1124)とを含む。
 前記イントラ予測方向決定部(1121)は、前記追加動画像信号中に含まれてイントラ予測によって符号化される前記符号化ブロックに関してイントラ予測動作を実行して予測方向(PD)を生成する。
 前記近傍予測方向生成部(1122)は、前記追加動画像信号中に含まれてイントラ予測によって符号化される前記符号化ブロックに関して規格H.264または規格H.265で規定された近傍方向予測方法を実行して近傍予測方向(NPD)を生成する。
 前記イントラ予測制御部(119)は、前記追加動画像信号中に含まれて前記動画像信号に関係する前記シンタックスエレメントであるイントラ予測によって符号化される前記符号化ブロックが、前記動画像信号(VS)と前記パディング処理データ(PD)とのいずれに属するかを判定する。
 前記予測方向セレクタ部(1123)には、前記イントラ予測方向決定部(1121)によって生成される前記予測方向(PD)と、前記近傍予測方向生成部(1122)によって生成される前記近傍予測方向(NPD)と、前記イントラ予測制御部(119)から生成される判定結果とが供給される。
 前記イントラ予測によって符号化される前記符号化ブロックが前記動画像信号(VS)に属するとの前記イントラ予測制御部(119)の判定結果に応答して、前記予測方向セレクタ部(1123)は前記イントラ予測方向決定部(1121)によって生成される前記予測方向(PD)を、前記イントラ予測処理部(1124)に供給する。
 前記イントラ予測処理部(1124)は、前記イントラ予測方向決定部(1121)によって生成される前記予測方向(PD)と前記メモリ(111)に格納されたイントラ参照画像から、前記セレクタ部(113)に供給される前記イントラ予測信号を生成する。
 前記イントラ予測によって符号化される前記符号化ブロックが前記パディング処理データ(PD)に属するとの前記イントラ予測制御部(119)の判定結果に応答して、前記予測方向セレクタ部(1123)は前記近傍予測方向生成部(1122)によって生成される前記近傍予測方向(NPD)を、前記イントラ予測処理部(1124)に供給する。
 前記イントラ予測処理部(1124)は、前記予測方向セレクタ部(1123)は前記近傍予測方向生成部(1122)によって生成される前記近傍予測方向(NPD)と前記メモリ(111)に格納されたイントラ参照画像から、前記セレクタ部(113)に供給される前記イントラ予測信号を生成することを特徴とする(図1、図4参照)。
 〔6〕他のより好適な実施の形態では、前記〔3〕で規定した前記動画像符号化装置(1)は、前記周波数変換部(102)に接続された周波数変換制御部(120)を更に具備する。
 前記周波数変換制御部(120)は、前記周波数変換部(102)で実行される前記周波数変換処理のための周波数変換サイズ(TS)を設定する。
 前記周波数変換制御部(120)によって設定される前記周波数変換サイズに応答して、前記周波数変換部で実行される前記周波数変換処理によって処理される符号化ブロックが前記動画像信号と前記パディング処理データとを同時に含まないように、前記周波数変換部(102)での前記符号化ブロックのパーティション動作が決定されることを特徴とする(図1、図5参照)。
 〔7〕更に他のより好適な実施の形態では、前記〔6〕で規定した前記動画像符号化装置(1)では、前記周波数変換制御部(120)は、周波数変換サイズ決定部(1201)と非クロスオーバー周波数変換サイズ決定部(1202)と領域判定部(1203)と周波数変換サイズセレクタ部(1204)とを含む。
 前記周波数変換サイズ決定部(1201)は、規格H.264または規格H.265で規定された複数の種類の周波数変換サイズ(TS)の候補から1つの選択周波数変換サイズ(TS)を選択して前記周波数変換サイズセレクタ部(1204)の一方の入力端子に供給する。
 前記領域判定部(1203)は、前記1つの選択周波数変換サイズ(TS)を有する符号化ブロックが前記動画像信号と前記パディング処理データとの境界をクロスオーバーするか否かを判定する。
 前記非クロスオーバー周波数変換サイズ決定部(1202)は、前記周波数変換処理によって処理される符号化ブロックが前記動画像信号と前記パディング処理データとの前記境界をクロスオーバーしないような非クロスオーバー周波数変換サイズ(NTS)を生成して前記周波数変換サイズセレクタ部(1204)の他方の入力端子に供給する。
 前記1つの選択周波数変換サイズを有する前記符号化ブロックが前記境界をクロスオーバーしないとの前記領域判定部(1203)の判定結果に応答して、前記周波数変換サイズセレクタ部(1204)は前記1つの選択周波数変換サイズを前記周波数変換処理のための前記周波数変換サイズ(TS)として前記周波数変換部(102)に供給する。
 前記1つの選択周波数変換サイズを有する前記符号化ブロックが前記境界をクロスオーバーするとの前記領域判定部の判定結果に応答して、前記周波数変換サイズセレクタ部は前記非クロスオーバー周波数変換サイズを前記周波数変換処理のための前記周波数変換サイズとして前記周波数変換部に供給することを特徴とする(図1、図5参照)。
 〔8〕別のより好適な実施の形態では、前記〔2〕で規定した前記動画像符号化装置(1)は、前記量子化部(103)に接続された量子化パラメータ制御部(121)を更に具備する。
 前記量子化パラメータ制御部(121)は、量子化パラメータ生成部(1211)と量子化パラメータレジスタ部(1212)と領域判定部(1213)と量子化パラメータセレクタ部(1214)とを含む。
 前記量子化パラメータ生成部(1211)は、前記可変長符号化部(114)から生成される前記符号化ビットストリーム(CVBS)の符号量に対応する量子化パラメータ(QP)を生成して前記量子化パラメータセレクタ部(1214)の一方の入力端子と前記量子化パラメータレジスタ部(1212)の入力端子とに供給する。
 前記量子化パラメータレジスタ部(1212)の出力端子に生成される前記量子化パラメータ(QP)は、前記量子化パラメータセレクタ部(1214)の他方の入力端子に供給される。
 前記領域判定部(1213)は、前記動画像信号に関係する前記シンタックスエレメントである前記量子化部(103)で量子化処理される符号化ブロックが、前記動画像信号(VS)と前記パディング処理データ(PD)とのいずれに属するかを判定する。
 前記量子化部(103)で量子化処理される前記符号化ブロックが前記動画像信号(VS)に属するとの前記領域判定部(1213)の判定結果に応答して、前記量子化パラメータセレクタ部(1214)は前記量子化パラメータ生成部(1211)から前記一方の入力端子に供給される前記量子化パラメータ(QP)を前記量子化部(103)に供給する。
 前記量子化部で量子化処理される前記符号化ブロックが前記パディング処理データ(PD)に属するとの前記領域判定部の判定結果に応答して、前記量子化パラメータセレクタ部は前記量子化パラメータレジスタ部(1212)の前記出力端子から前記他方の入力端子に供給される前記量子化パラメータ(QP)を前記量子化部(103)に供給することを特徴とする(図1、図6参照)。
 〔9〕更に別のより好適な実施の形態では、前記〔2〕乃至前記〔8〕のいずれかで規定した前記動画像符号化装置(1)は、前記メモリ(108)に接続されたフィルタユニット(107)と、フィルタ制御部(122)とを更に具備する。
 前記フィルタユニット(107)は、前記逆量子化部(104)と前記逆周波数変換部(105)によって実行される前記局部復号処理の前記結果に関してデブロッキングフィルタ処理を実行して、前記デブロッキングフィルタ処理の結果を前記メモリ(108)に格納するものである。
 前記フィルタ制御部(122)は、前記フィルタユニット(107)による前記デブロッキングフィルタ処理が実行される前記局部復号処理の前記結果が前記動画像信号(VS)と前記パディング処理データ(PD)とのいずれに属するかを判定する。
 前記フィルタユニット(107)による前記デブロッキングフィルタ処理が実行される前記局部復号処理の前記結果が前記動画像信号(VS)に属するとの前記フィルタ制御部(122)の判定結果に応答して、前記フィルタユニット(107)による前記デブロッキングフィルタ処理が実行される。
 前記フィルタユニット(107)による前記デブロッキングフィルタ処理が実行される前記局部復号処理の前記結果が前記パディング処理データ(PD)に属するとの前記フィルタ制御部(122)の判定結果に応答して、前記フィルタユニット(107)による前記デブロッキングフィルタ処理の実行が停止されることを特徴とする(図1、図7参照)。
 〔10〕具体的な実施の形態では、前記〔2〕乃至前記〔8〕のいずれかで規定した前記動画像符号化装置(1)で、前記動きベクトル検出部と前記動き補償部と前記減算器と前記周波数変換部と前記量子化部と前記逆量子化部と前記逆周波数変換部と前記イントラ予測部と前記セレクタ部と前記可変長符号化部とは、半導体集積回路の1個の半導体チップに集積化される(図1参照)。
 〔11〕他の具体的な実施の形態では、前記〔2〕乃至前記〔8〕のいずれかで規定した前記動画像符号化装置(1)では、前記動画像符号化処理の前記符号化ブロックサイズは、16画素×16画素のサイズを有するマクロブロックと64画素×64画素のサイズを有する最大コーディングユニットから形成可能なコーディングユニットとのいずれかである(図1参照)。
 〔12〕更に他の具体的な実施の形態では、前記〔2〕乃至前記〔8〕のいずれかで規定した前記動画像符号化装置(1)は、規格H.264と規格H.265とから任意に選択された方式に準拠して前記動画像信号(VS)の動画像符号化処理を実行して、前記符号化ビットストリーム(CVBS)を形成することを特徴とする(図1参照)。
 〔13〕他のより具体的な実施の形態では、前記〔2〕乃至前記〔8〕のいずれかで規定した前記動画像符号化装置は、画像分割部(301)と複数の動画像符号化処理部(1A、1B、1C、1D)とを含む。
 前記画像分割部(301)は、前記動画像信号(VS)を分割することによって複数の分割動画像信号を生成する。
 前記画像分割部によって生成された前記複数の分割動画像信号は、前記複数の動画像符号化処理部(1A、1B、1C、1D)によって並列処理されるものである。
 前記複数の動画像符号化処理部(1A、1B、1C、1D)の各動画像符号化処理部は、前記動きベクトル検出部と前記動き補償部と前記減算器と前記周波数変換部と前記量子化部と前記逆量子化部と前記逆周波数変換部と前記イントラ予測部と前記セレクタ部と前記可変長符号化部を含むことを特徴とする(図9参照)。
 〔14〕最も具体的な実施の形態では、前記〔13〕で規定した前記動画像符号化装置では、前記画像分割部(301)と前記複数の動画像符号化処理部(1A、1B、1C、1D)とは、半導体集積回路の1個の半導体チップに集積化されたことを特徴とする(図9参照)。
 〔15〕別の観点による実施の形態は、符号化すべき動画像信号(VS)に関係するシンタックスエレメントの動画像符号化処理を実行することによって、符号化ビットストリーム(CVBS)を形成する動画像符号化装置(1)の動作方法である(図1参照)。
 前記動画像符号化処理に先行して、前記動画像信号(VS)にパディング処理データ(PD)が追加されるパディング処理(100)を前記動画像符号化装置(1)が実行する。
 前記パディング処理により前記パディング処理データ(PD)が追加された追加動画像信号の横および縦のサイズは、前記動画像符号化処理の符号化ブロックサイズの整数倍に設定されるものである。
 前記動画像信号に関係する前記シンタックスエレメントの符号化ブロックが、前記動画像信号(VS)と前記パディング処理データ(PD)とのいずれに属するかが前記動画像符号化装置(1)により判定される。
 前記動画像符号化装置の判定によって、前記動画像信号に関係する前記シンタックスエレメントの前記符号化ブロックが前記動画像信号に属すると判定される第1の場合には、第1の符号量を有する前記符号化ビットストリームが形成されるように、前記第1の場合の判定によって前記動画像符号化処理が制御される。
 前記動画像符号化装置の他の判定によって、前記動画像信号に関係する前記シンタックスエレメントの前記符号化ブロックが前記パディング処理データに属すると判定される第2の場合には、前記第1の符号量よりも小さな第2の符号量を有する前記符号化ビットストリームが形成されるように、前記第2の場合の判定によって前記動画像符号化処理が制御されることを特徴とする。
 前記実施の形態によれば、パディング処理に際して、動画像符号化装置から生成される符号化ビットストリームの符号量の増加を軽減することができる。
 2.実施の形態の詳細
 実施の形態について更に詳述する。なお、発明を実施するための形態を説明するための全図において、前記の図と同一の機能を有する要素には同一の符号を付して、その繰り返しの説明を省略する。
 [実施の形態1]
 《動画像符号化装置の構成》
 図1は、実施の形態1による動画像符号化装置1の構成を示す図である。
 実施の形態1による動画像符号化装置1も、図10に示した動画像符号化装置1と同様に、現行規格H.264とHEVC規格のうち選択されたいずれかの方式に準拠して動画像入力信号の符号化によって符号化ビットストリームを生成することが可能なものである。
 実施の形態1の動画像符号化装置1は、パディング処理部100と減算器101と周波数変換部102と量子化部103と逆量子化部104と逆周波数変換部105と加算器106と可変長符号化部114とビデオバッファ115によって構成される。更に動画像符号化装置1は、フィルタユニット107とフレームメモリ108と動きベクトル検出部109と動き補償部110とバッファメモリ111とイントラ予測部112とセレクタ部113によって構成される。
 更に、実施の形態1の動画像符号化装置1は、上述した課題を解決するために、図10に示した動画像符号化装置1に含まれていない量子化出力調整部116と量子化出力制御部117と動きベクトル検出制御部118とイントラ予測制御部119と周波数変換制御部120と量子化パラメータ制御部121とによって構成される。また更に、実施の形態1の動画像符号化装置1は、低消費電力の実現のためにフィルタユニット107のデブロッキングフィルタを制御するフィルタ制御部122を含むものである。
 《動画像符号化装置の概略》
 実施の形態1による動画像符号化装置1の概略は、下記の通りである。
 すなわち、実施の形態1による動画像符号化装置1は、符号化すべき動画像信号VSに関係するシンタックスエレメントの動画像符号化処理を実行することによって、符号化ビットストリームCVBSを形成するものである。
 前記動画像符号化処理に先行して、前記動画像信号VSにパディング処理データPDが追加されるパディング処理を前記動画像符号化装置1が実行する。
 前記パディング処理により前記パディング処理データPDが追加された追加動画像信号の横および縦のサイズは、前記動画像符号化処理の符号化ブロックサイズの整数倍に設定されるものである。
 前記動画像信号VSに関係する前記シンタックスエレメントの符号化ブロックが、前記動画像信号VSと前記パディング処理データPDとのいずれに属するかが前記動画像符号化装置1により判定される。
 前記動画像符号化装置1の判定によって、前記動画像信号VSに関係する前記シンタックスエレメントの前記符号化ブロックが前記動画像信号VSに属すると判定される第1の場合には、第1の符号量を有する前記符号化ビットストリームCVBSが形成されるように前記第1の場合の判定によって前記動画像符号化処理が制御される。
 前記動画像符号化装置1の他の判定によって、前記動画像信号VSに関係する前記シンタックスエレメントの前記符号化ブロックが前記パディング処理データPDに属すると判定される第2の場合には、前記第1の符号量よりも小さな第2の符号量を有する前記符号化ビットストリームCVBSが形成されるように前記第2の場合の判定によって前記動画像符号化処理が制御される。
 実施の形態1による動画像符号化装置1において、符号化すべき動画像信号VSに関係するシンタックスエレメントの第1の例は、量子化部103で量子化処理された周波数変換部102の周波数変換処理の情報である。
 更に符号化すべき動画像信号VSに関係するシンタックスエレメントの第2の例は、動きベクトルと動き補償予測信号を使用してインター予測によって符号化される符号化ブロックの情報である。
 更に符号化すべき動画像信号VSに関係するシンタックスエレメントの第3の例は、イントラ参照画像を使用してイントラ予測によって符号化される符号化ブロックの情報である。
 更に符号化すべき動画像信号VSに関係するシンタックスエレメントの第4の例は、量子化部103で量子化処理される符号化ブロックの情報である。
 上述した第1の例においては、量子化出力調整部116の入力端子には、量子化部103で量子化処理された周波数変換部102の周波数変換処理の情報が供給されている。
 上述した第2の例においては、動きベクトル検出部109から形成される動きベクトルMVを使用して動き補償部110がインター符号化する符号化ブロックが動画像信号VSとパディング処理データPDのいずれか一方のみを含むように、動きベクトル検出部109での符号化ブロックのパーティション動作が動きベクトル検出部109自身によって制御される。
 上述した第3の例において、イントラ予測方向を使用してイントラ予測部112がイントラ符号化する符号化ブロックが動画像信号VSとパディング処理データPDとのいずれか一方のみを含むように、イントラ予測部112での符号化ブロックのパーティション動作がイントラ予測部112自身によって制御される。
 上述した第4の例において、量子化部103が周波数変換部102の周波数変換係数を量子化する際に、符号化ブロックである周波数変換係数が動画像信号VSとパディング処理データPDとのいずれか一方のみを含むように、量子化部103での符号化ブロックのパーティション動作が量子化部103自身により制御される。
 実施の形態1による動画像符号化装置1において、上述した第1の例から第4の例までのうちの少なくとも1つが選択され実行されることによって、パディング処理に際して、符号化ビットストリームCVBSの符号量が増加するのを軽減することが可能となる。
 更に、実施の形態1による動画像符号化装置1において、上述した第1の例から第4の例までのうちの少なくとも複数が選択され実行されることによって、パディング処理に際して、符号化ビットストリームCVBSの符号量が増加するのを更に軽減することが可能となる。
 更に、実施の形態1による動画像符号化装置1において、上述した第1の例から第4の例までの全てが選択され実行されることによって、パディング処理に際して、符号化ビットストリームCVBSの符号量が増加するのを大幅に軽減することが可能となる。
 また、上述した第1の例から第4の例の少なくとも1つが選択され実行される際に、フィルタユニット107によってデブロッキングフィルタ処理される符号化ブロックである局部復号処理結果が動画像信号VSとパディング処理データPDとのいずれか一方のみを含むように、フィルタユニット107での符号化ブロックのパーティション動作がフィルタユニット107自身により制御される。
 《動画像符号化装置の詳細》
 以下に、実施の形態1による動画像符号化装置1の詳細を説明する。
 《量子化出力調整部および量子化出力制御部》
 図2は、実施の形態1の動画像符号化装置1に含まれる量子化出力調整部116と量子化出力制御部117の動作を説明する図である。
 図1で説明したように、パディング処理データPDが追加された動画像信号VSのコーディングユニット(CU)が減算器101の一方の入力端子に供給され、動き補償部110からの動き補償予測信号またはイントラ予測部12からのイントラ予測情報が、セレクタ部113を経由して減算器101の他方の入力端子に供給されることにより、減算器101の出力端子から予測残差が生成される。減算部101の減算出力信号である予測残差に関して、周波数変換部102と量子化部103とでそれぞれ周波数変換処理と量子化処理とが実行される。
 従って、図2に示したように、量子化部103の出力端子からは、周波数変換部102の量子化された周波数変換係数201が生成される。周波数変換部102は、小数を含まない整数のみの変換係数を出力する整数ベースの離散コサイン変換(DCT:Discrete Cosine Transform)または離散サイン変換(DST:Discrete Sine Transform)を実行する。従って、図2に示した周波数変換係数201は、3個の整数の非ゼロ係数(“5”、“-1”、“2”)と13個のゼロ係数(“0”)とを含んでいる。この周波数変換係数201は、セレクタSELによって構成された量子化出力調整部116の一方の入力端子に供給される。
 一方、小さな符号量を有する符号化ビットストリームCVBSが可変長符号化部114から生成されるように、セレクタSELによって構成された量子化出力調整部116の他方の入力端子には、16個のゼロ係数(“0”)を含む調整周波数変換係数200が供給される。
 更に図2に示したように、セレクタSELによって構成された量子化出力調整部116の選択制御端子には、量子化出力制御部117の出力端子が接続されている。
 減算器101の一方の入力端子に供給されるコーディングユニット(CU)の横および縦の画素サイズを示すサイズ情報Size_Infが、量子化出力制御部117の一方の入力端子に供給される一方、減算器101の一方の入力端子に供給されるコーディングユニット(CU)の位置情報Position_Infが、量子化出力制御部117の他方の入力端子に供給される。この位置情報Position_Infは、コーディングユニット(CU)の左上のラスタースキャン開始アドレス(X,Y)である。
 図8は、コーディングユニット(CU)が最大コーディングユニット(LCU)から適応的に分割される様子を示す図である。従って、最大コーディングユニット(LCU)の左上のラスタースキャン開始アドレスと最大コーディングユニット(LCU)の内部のコーディングユニット(CU)の左上のラスタースキャン開始アドレスとの少なくともいずれかが、位置情報Position_Infとして量子化出力制御部117に供給される。
 このように、量子化出力制御部117に、コーディングユニット(CU)のサイズ情報Size_Infと位置情報Position_Infとが供給され、コーディングユニット(CU)が動画像信号VSとパディング処理データPDとのいずれに属するかが判定される。
 量子化出力制御部117によってコーディングユニット(CU)が動画像信号VSに属すると判定される場合には、例えばハイレベル“1”の選択出力信号が量子化出力制御部117の出力端子から生成される。その結果、量子化出力調整部116は、量子化出力制御部117の出力端子から生成されるハイレベル“1”の選択出力信号に応答して、その一方の入力端子に供給される、3個の非ゼロ係数と13個のゼロ係数とを含む周波数変換係数201を選択して、その出力端子に出力する。従って、量子化出力調整部116の出力端子に出力される3個の非ゼロ係数と13個のゼロ係数とを含む周波数変換係数201は、可変長符号化部114の入力端子と逆量子化部104の入力端子に供給される。その結果、この周波数変換係数201に応答して、可変長符号化部114は第1の符号量として比較的大きな符号量を有する符号化ビットストリームCVBSを形成するものである。従って、この場合には、符号化ビットストリームCVBSが供給される動画像復号装置(Video Decoder)は、動画像信号VSを高画質で再生することが可能となるものである。
 一方、量子化出力制御部117によってコーディングユニット(CU)がパディング処理データPDに属すると判定される場合には、例えばローレベル“0”の選択出力信号が量子化出力制御部117の出力端子から生成される。その結果、量子化出力調整部116は、量子化出力制御部117の出力端子から生成されるローレベル“0”の選択出力信号に応答して、その他方の入力端子に供給される16個のゼロ係数を含む調整周波数変換係数200を選択して、その出力端子に出力する。従って、量子化出力調整部116の出力端子に出力される、16個のゼロ係数を含む調整周波数変換係数200は、可変長符号化部114の入力端子と逆量子化部104の入力端子に供給される。その結果、この調整周波数変換係数200に応答して、可変長符号化部114は第1の符号量よりも小さな第2の符号量を有する符号化ビットストリームCVBSを形成するものである。従って、この場合には、パディング処理部100のパディング処理により、符号化ビットストリームCVBSの符号量が増大するのを軽減することが可能とされる。符号化ビットストリームCVBSが不揮発性メモリやDVD等のように一定のビデオ記憶容量を有する記録ディスクに蓄積される場合には、節約分、録画時間を長くできるか、もしくは節約分、高画質化することが可能となる。
 更に、実施の形態1の動画像符号化装置1では、図1および図2に示すように、量子化出力調整部116の出力端子に出力される周波数変換係数201もしくは調整周波数変換係数200は、可変長符号化部114の入力端子と逆量子化部104の入力端子に供給される。従って、逆量子化部104と逆周波数変換部105と加算器106とフィルタユニット107とフレームメモリ108とによって実行される局部復号処理結果と符号化ビットストリームCVBSが供給される動画像復号装置(Video Decoder)の再生画像との間のミスマッチの発生を防止することが可能となる。もし、このミスマッチが発生すると、フレームメモリ108に格納される局部復号処理結果に誤差が蓄積されるので、次のコーディングユニット(CU)の符号化処理に際して、減算部101の減算出力信号である予測残差にも誤差が発生するので、動画像符号化装置1の符号化処理の精度が低下すると言う問題が発生する。
 尚、実施の形態1の動画像符号化装置1は、図1に示すように、量子化出力調整部116は、量子化部103の出力端子と可変長符号化部114の入力端子および逆量子化部104の入力端子との間に接続されている。他の実施の形態では、量子化出力調整部116を2個使用して、第1の量子化出力調整部116は量子化部103の出力端子と可変長符号化部114の入力端子の間に接続して、第2の量子化出力調整部116は量子化部103の出力端子と逆量子化部104の入力端子の間に接続することも可能である。尚、単一の量子化出力制御部117が第1の量子化出力調整部116と第2の量子化出力調整部116を共通に制御して、コーディングユニット(CU)が動画像信号VSとパディング処理データPDとのいずれに属するかを判定することが可能である。この他の実施の形態においても、パディング処理部100のパディング処理により符号化ビットストリームCVBSの符号量が増大するのを軽減することが可能とされて、上述した局部復号処理結果と動画像復号装置の再生画像との間のミスマッチの発生を防止することが可能となる。
 尚、実施の形態1の動画像符号化装置1が、現行規格H.264に準拠して動画像入力信号の符号化によって符号化ビットストリームCVBSを生成する場合には、上述したコーディングユニット(CU)の代わりに、輝度成分で16画素×16画素のサイズを有するマクロブロック(MB)が処理されるものである。このマクロブロック(MB)が動画像信号VSとパディング処理データPDとのいずれに属するかが判定されることによって、量子化出力調整部116の出力端子から周波数変換係数201と調整周波数変換係数200とのいずれかが出力されるものである。
 《動きベクトル検出制御部および動きベクトル検出部》
 図3は、実施の形態1の動画像符号化装置1に含まれる動きベクトル検出制御部118と動きベクトル検出部109の構成と動作とを説明する図である。
 図3に示すように、動きベクトル検出部109は、動きベクトル探索部1091と予測ベクトル生成部1092と動きベクトルセレクタ部1093によって構成される。
 動きベクトル探索部1091は、MPEG-2、MPEG-4の規格で一般的な動きベクトル探索動作を実行することによって動きベクトルMVを生成して、生成される動きベクトルMVは動きベクトルセレクタ部1093の一方の入力端子に供給される。動きベクトル探索部1091によって実行される一般的な動きベクトル探索動作は、インター予測により符号化されるコーディングユニット(CU)の近傍のコーディングユニット(CU)の動きベクトルMVを参考にしてインター予測により符号化されるコーディングユニット(CU)の動きベクトルMVが探索されて生成される。
 予測ベクトル生成部1092は、現行規格H.264とHEVC規格で規定された予測方法を実行して予測ベクトルPMVを生成して、生成される予測ベクトルPMVは動きベクトルセレクタ部1093の他方の入力端子に供給される。
 現行規格H.264で規定された予測方法では、インター予測によって符号化されるマクロブロック(MB)の近傍の3個のマクロブロック(MB)の3個の動きベクトルのメディアン値が、インター予測によって符号化されるマクロブロック(MB)を符号化する際に使用する予測ベクトルPMVとされる。この予測値は動画像符号化装置と動画像復号装置との間で一意に決定された方法であるので、両装置間で予測値を指定するための符号伝送は実行されない。
 HEVC規格で規定された予測方法では、インター予測により符号化されるコーディングユニット(CU)に関して予測値となる可能性のある動きベクトルの候補リストが作成され、リストに含まれる動きベクトルの中から符号化側によって最適な予測候補が選択され、最適な予測候補のインデックスを符号化して復号側に伝達する手法が採用される。この方法によって、最も予測差分の小さくなる予測値としての予測ベクトルPMVを選択することによって、動きベクトルMVを符号化することが可能となる。
 図3に示すように、動きベクトル検出制御部118の一方の入力端子には、インター予測によって符号化されるマクロブロック(MB)またはコーディングユニット(CU)の横および縦の画素サイズを示すサイズ情報Size_Infが供給される。その一方、動きベクトル検出制御部118の他方の入力端子には、インター予測によって符号化されるマクロブロック(MB)またはコーディングユニット(CU)の位置情報Position_Infが供給されるものである。この位置情報Position_Infは、マクロブロック(MB)またはコーディングユニット(CU)の左上のラスタースキャン開始アドレス(X,Y)である。
 このように、動きベクトル検出制御部118に、マクロブロック(MB)もしくはコーディングユニット(CU)のサイズ情報Size_Infと位置情報Position_Infとが供給され、マクロブロック(MB)もしくはコーディングユニット(CU)が動画像信号VSとパディング処理データPDとのいずれに属するかが判定される。
 動きベクトル検出制御部118によってインター予測により符号化されるマクロブロック(MB)またはコーディングユニット(CU)が動画像信号VSに属すると判定される場合には、例えばハイレベル“1”の選択出力信号が動きベクトル検出制御部118の出力端子から生成される。従って、動きベクトルセレクタ部1093は、動きベクトル検出制御部118の出力端子から生成されるハイレベル“1”の選択出力信号に応答して、その一方の入力端子に動きベクトル探索部1091から供給される動きベクトルMVを選択してその出力端子に出力する。その結果、動きベクトル検出部109の動きベクトル探索部1091から生成される動きベクトルMVが、動きベクトルセレクタ部1093を経由して、動き補償部110に供給される。従って、動きベクトル検出部109の動きベクトル探索部1091から生成された動きベクトルMVとフレームメモリ108に格納された参照画像とに応答して、動き補償部110は動き補償予測信号を生成する。このインター予測の場合には、動きベクトル検出部109の動きベクトルセレクタ部1093から生成される動きベクトルMVと動きベクトル検出部109の予測ベクトル生成部1092から生成される予測ベクトルPMVとの差分(MV-PMV)である差分ベクトル(MVD:Motion Vector Difference)を、可変長符号化部114が符号化する。この差分ベクトル(MVD)の可変長符号化部114による符号化情報が符号化ビットストリームCVBSに含まれるので、符号化ビットストリームCVBSが供給される動画像復号装置は、動画像信号VSに関する差分ベクトル(MVD)の情報の復号により、動画像信号VSを再生することが可能となる。このように動画像信号VSのインター予測の場合には、この差分ベクトル(MVD)に応答して、可変長符号化部114は第1の符号量として比較的大きな符号量を有する符号化ビットストリームCVBSを形成するものである。その結果、比較的大きな符号量を有する符号化ビットストリームCVBSが供給される動画像復号装置は、動画像信号VSを高画質で再生することが可能となるものである。
 それと反対に、動きベクトル検出制御部118によってインター予測により符号化されるマクロブロック(MB)またはコーディングユニット(CU)がパディング処理データPDに属すると判定される場合には、例えばローレベル“0”の選択出力信号が動きベクトル検出制御部118の出力端子から生成される。その結果、動きベクトルセレクタ部1093は生成されたローレベル“0”の選択出力信号に応答して、その他方の入力端子に動きベクトル検出部109の予測ベクトル生成部1092から供給される予測ベクトルPMVを選択してその出力端子に出力する。従って、パディング処理データPDのインター予測の場合には、予測ベクトル生成部1092から生成される予測ベクトルPMVが動きベクトル検出部109の動きベクトルセレクタ部1093から出力されるようになる。従って、この場合には、動きベクトル検出部109の動きベクトルセレクタ部1093から生成される動きベクトルMVとしての予測ベクトルPMVと動きベクトル検出部109の予測ベクトル生成部1092から生成される予測ベクトルPMVの差分(MV-PMV)である差分ベクトル(MVD)は、実質的にゼロの値となる。この実質的にゼロの値を有する差分ベクトル(MVD)を、可変長符号化部114が符号化する。その結果、この実質的にゼロの値を有する差分ベクトル(MVD)に応答して、可変長符号化部114は第1の符号量よりも小さな第2の符号量を有する符号化ビットストリームCVBSを形成する。符号化ビットストリームCVBSの情報のうちで、可変長符号化部114により符号化されるパディング処理データPDの情報は、動画像復号装置で再生される動画像信号VSの画質に大きな影響を与えるものではない。従って、この場合には、パディング処理部100のパディング処理により符号化ビットストリームCVBSの符号量が増大するのを軽減することが可能とされる。符号化ビットストリームCVBSが一定のビデオ記憶容量を有する記録ディスクに蓄積される場合には、節約分、録画時間を長くできるか、もしくは節約分、高画質化することが可能となる。
 《イントラ予測制御部およびイントラ予測部》
 図4は、実施の形態1の動画像符号化装置1に含まれるイントラ予測制御部119とイントラ予測部112の構成と動作とを説明する図である。
 図4に示すように、イントラ予測部112は、イントラ予測方向決定部1121と近傍予測方向生成部1122と予測方向セレクタ部1123とイントラ予測処理部1124によって構成される。
 イントラ予測方向決定部1121はMPEG-4、H.264、H.265の規格で一般的なイントラ予測動作を実行することによって予測方向PDを生成して、生成される予測方向PDは予測方向セレクタ部1123の一方の入力端子に供給される。イントラ予測方向決定部1121によって実行される一般的なイントラ予測動作は、次の通りである。すなわち、MPEG-4では、水平方向と垂直方向との2方向の予測方向PDである。また、H.264では上記非特許文献1に記載された9個の方向の予測方向PDであり、更にHEVC規格では、上記非特許文献2に記載された34個のモードの予測方向PDである。
 近傍予測方向生成部1122は、図3で説明した予測ベクトル生成部1092と同様に、現行規格H.264とHEVC規格で規定された予測方法を実行して近傍予測方向NPDを生成して、生成される近傍予測方向NPDは予測方向セレクタ部1123の他方の入力端子に供給される。
 図4に示したように、イントラ予測制御部119の一方の入力端子には、イントラ予測によって符号化されるマクロブロック(MB)またはコーディングユニット(CU)の横および縦の画素サイズを示すサイズ情報Size_Infが供給される。その一方、イントラ予測制御部119の他方の入力端子には、イントラ予測によって符号化されるマクロブロック(MB)またはコーディングユニット(CU)の位置情報Position_Infが供給されるものである。この位置情報Position_Infは、マクロブロック(MB)またはコーディングユニット(CU)の左上のラスタースキャン開始アドレス(X,Y)である。
 このように、イントラ予測制御部119に、マクロブロック(MB)もしくはコーディングユニット(CU)のサイズ情報Size_Infと位置情報Position_Infとが供給され、マクロブロック(MB)またはコーディングユニット(CU)が動画像信号VSとパディング処理データPDとのいずれに属するかが判定される。
 イントラ予測制御部119によってイントラ予測により符号化されるマクロブロック(MB)またはコーディングユニット(CU)が動画像信号VSに属すると判定される場合には、例えばハイレベル“1”の選択出力信号がイントラ予測制御部119の出力端子から生成される。従って、予測方向セレクタ部1123は、イントラ予測制御部119の出力端子から生成されるハイレベル“1”の選択出力信号に応答して、その一方の入力端子にイントラ予測方向決定部1121から供給される予測方向PDを選択し、その出力端子に出力する。その結果、イントラ予測方向決定部1121から生成される予測方向PDが、予測方向セレクタ部1123を経由してイントラ予測処理部1124に供給される。イントラ予測処理部1124には、パディング処理部100からパディング処理データPDが追加された動画像信号VSのコーディングユニット(CU)とバッファメモリ111からイントラ符号化済みの参照画像が供給される。従って、イントラ予測処理部1124は予測方向PDとコーディングユニット(CU)とイントラ符号化済みの参照画像とを使用して、イントラ予測された最適なコーディングユニット(CU)をセレクタ部113に供給する。このイントラ予測の場合には、イントラ予測部112の予測方向セレクタ部1123から生成される予測方向PDとイントラ予測部112の近傍予測方向生成部1122から生成される近傍予測方向NPDとの差分(PD-NPD)である差分予測方向(PDD:Prediction Direction Difference)を、可変長符号化部114が符号化する。この差分予測方向(PDD)の可変長符号化部114による符号化情報が符号化ビットストリームCVBSに含まれるので、符号化ビットストリームCVBSが供給される動画像復号装置は、動画像信号VSに関する差分予測方向(PDD)の情報の復号により、動画像信号VSを再生することが可能となる。このように動画像信号VSのイントラ予測の場合には、この差分予測方向(PDD)に応答して、可変長符号化部114は第1の符号量として比較的大きな符号量を有する符号化ビットストリームCVBSを形成するものである。その結果、比較的大きな符号量を有する符号化ビットストリームCVBSが供給される動画像復号装置は、動画像信号VSを高画質で再生することが可能となるものである。
 それと反対に、イントラ予測制御部119によってイントラ予測で符号化されるマクロブロック(MB)もしくはコーディングユニット(CU)がパディング処理データPDに属すると判定される場合には、例えば、ローレベル“0”の選択出力信号がイントラ予測制御部119の出力端子から生成される。従って、予測方向セレクタ部1123は生成されたローレベル“0”の選択出力信号に応答して、その他方の入力端子にイントラ予測制御部119の近傍予測方向生成部1122から供給される近傍予測方向NPDを選択してその出力端子に出力する。従って、パディング処理データPDのイントラ予測の場合には、近傍予測方向生成部1122から生成される近傍予測方向NPDがイントラ予測部112の予測方向セレクタ部1123から出力されるようになる。従って、この場合には、イントラ予測部112の予測方向セレクタ部1123ら生成される予測方向PDとしての近傍予測方向NPDとイントラ予測部112の近傍予測方向生成部1122から生成される近傍予測方向NPDの差分(PD-NPD)である差分予測方向(PDD)は、実質的にゼロの値となる。この実質的にゼロの値を有する差分予測方向(PDD)を、可変長符号化部114が符号化するものである。その結果、この実質的にゼロの値を有する差分予測方向(PDD)に応答して、可変長符号化部114は第1の符号量よりも小さな第2の符号量を有する符号化ビットストリームCVBSを形成する。符号化ビットストリームCVBSの情報のうちで、可変長符号化部114により符号化されるパディング処理データPDの情報は、動画像復号装置で再生される動画像信号VSの画質に大きな影響を与えるものではない。従って、この場合には、パディング処理部100のパディング処理により符号化ビットストリームCVBSの符号量が増大するのを軽減することが可能となる。符号化ビットストリームCVBSが一定のビデオ記憶容量を有する記録ディスクに蓄積される場合には、節約分、録画時間を長くできるか、もしくは節約分、高画質化することが可能となる。
 《周波数変換制御部》
 図5は、実施の形態1の動画像符号化装置1に含まれる周波数変換制御部120の構成と動作とを説明する図である。
 図2で説明した量子化出力調整部116と量子化出力制御部117による量子化された周波数変換係数の調整動作において、1個のコーディングユニット(CU)が、図11に示すように動画像信号VSの画素値とパディング処理データPDの画素値とを同時に含む場合を想定する。動画像信号VSの画素値とパディング処理データPDの画素値とを同時に含む1個のコーディングユニット(CU)は、図11に示すように動画像信号VSの領域とパディング処理データPDの領域との間の境界に存在する。このように、動画像信号VSの画素値とパディング処理データPDの画素値とを同時に含む1個のコーディングユニット(CU)に関して、量子化出力調整部116は動画像信号VSに属すると混在判定するように、量子化出力調整部116は動作する。従って、動画像信号VSの画素値とパディング処理データPDの画素値とを同時に含む1個のコーディングユニット(CU)に関して、可変長符号化部114は大きな符号量を有する符号化ビットストリームCVBSを形成する。その結果、動画像信号VSの画素値とパディング処理データPDの画素値を同時に含む1個のコーディングユニット(CU)に含まれた動画像信号VSは、動画像復号装置(Video Decoder)によって高画質で再生されることが可能となる。更に、H.264の場合には、動画像信号VSの画素値とパディング処理データPDの画素値とを同時に含んだ1個のマクロブロック(MB)に関しても、この1個のマクロブロック(MB)は動画像信号VSに属すると混在判定される必要がある。
 このように、動画像信号VSの画素値とパディング処理データPDの画素値を同時に含む1個のマクロブロック(MB)もしくはコーディングユニット(CU)に関しても、この1個のマクロブロック(MB)またはコーディングユニット(CU)を動画像信号VSに属すると判定する必要があるのは、図3の動きベクトル検出制御部118と図4のイントラ予測制御部119でも同様である。これと同一の必要性は、図6を使用して以下に説明する量子化パラメータ制御部121、および図7を使用して以下に説明するフィルタ制御部122についても全く同様である。
 しかし、図2の量子化出力制御部117と図3の動きベクトル検出制御部118と図4のイントラ予測制御部119と図6の量子化パラメータ制御部121とが上述した混在判定方法を実行すると、混在型の1個のコーディングユニット(CU)またはマクロブロック(MB)に含まれるパディング処理データPDに関しても、大きな符号量を有する符号化ビットストリームCVBSが形成される。その結果、図2の量子化出力制御部117と、図3の動きベクトル検出制御部118と、図4のイントラ予測制御部119と、図6の量子化パラメータ制御部121とによる符号量の増加軽減の効果が小さくなると言う問題が、発生する可能性がある。また、図7のフィルタ制御部122が上述した混在判定方法を実行すると、混在型の1個のコーディングユニット(CU)またはマクロブロック(MB)に含まれるパディング処理データPDに関しても、フィルタユニット107のデブロッキングフィルタの機能が活性化されるので、低消費電力化の効果が小さくなると言う問題が、発生する可能性がある。
 図5に示した周波数変換制御部120は、実施の形態1の動画像符号化装置1に含まれた周波数変換部102における周波数変換処理において、1個のコーディングユニット(CU)が動画像信号VSの画素値とパディング処理データPDの画素値を同時に含まないように、パーティション動作を実行するものである。すなわち、周波数変換部102でのコーディングユニット(CU)のパーティション動作によって、1個のコーディングユニット(CU)が動画像信号VSの画素値とパディング処理データPDの画素値とのいずれか一方のみを含むものとなる。言い換えると、1個のコーディングユニット(CU)は、動画像信号VSとパディング処理データPDとの境界をクロスオーバーしなくなるものである。更に言い換えると、1個のコーディングユニット(CU)の境界は、動画像信号VSとパディング処理データPDとの境界に一致するようになる。
 周波数変換制御部120は、図5に示すように、周波数変換サイズ決定部1201と非クロスオーバー周波数変換サイズ決定部1202と領域判定部1203と周波数変換サイズセレクタ部1204によって構成される。
 H.264の規格では、輝度成分で16画素×16画素のサイズを有する1個のマクロブロック(MB)の周波数変換に際して、8画素×8画素のサイズと4画素×4画素のサイズの2種類の周波数変換サイズが使用可能とされている。
 HEVC規格では、輝度成分で64画素×64画素のサイズを有する1個の最大コーディングユニット(LCU)から分割が可能である1個のコーディングユニット(CU)の周波数変換に際して、32画素×32画素のサイズと16画素×16画素のサイズと8画素×8画素のサイズと4画素×4画素のサイズの4種類の周波数変換サイズが使用可能とされている。
 図5に示した周波数変換制御部120の周波数変換サイズ決定部1201は、H.264の規格の2種類の周波数変換サイズまたはHEVC規格の4種類の周波数変換サイズから1つの周波数変換サイズTSを選択して、この1つの周波数変換サイズTSを周波数変換サイズセレクタ部1204の一方の入力端子に供給する。この1つの周波数変換サイズTSは、例えば動き補償部110から動き補償予測信号が生成されるタイミング、またはイントラ予測部112からイントラ予測信号が生成されるタイミングで決定される。すなわち、動き補償予測信号またはイントラ予測信号の画像信号の画素値が単調に変化する部分では、周波数変換サイズ決定部1201により周波数変換サイズTSは比較的大きなサイズに選択される。それに対して、動き補償予測信号またはイントラ予測信号の画像信号の画素値が複雑に変化する部分では、周波数変換サイズ決定部1201により周波数変換サイズTSは比較的小さなサイズに選択される。更に、周波数変換サイズ決定部1201は、1個のマクロブロック(MB)もしくは1個のコーディングユニット(CU)の周波数変換サイズTSを決定するのと同時に、そのサイズ情報Size_Infと位置情報Position_Infとを決定する。
 このサイズ情報Size_Infと位置情報Position_Infが、領域判定部1203に供給される。領域判定部1203は、このサイズ情報Size_Infと位置情報Position_Infとを有する1個のマクロブロック(MB)または1個のコーディングユニット(CU)が動画像信号VSとパディング処理データPDとの境界をクロスオーバーするか否かを判定する。領域判定部1203の判定結果が「NO」の場合には、領域判定部1203はハイレベル“1”の選択出力信号を生成して、周波数変換サイズセレクタ部1204の選択制御信号に供給する。周波数変換サイズセレクタ部1204は、領域判定部1203の出力端子から生成されるハイレベル“1”の選択出力信号に応答して、その一方の入力端子に周波数変換サイズ決定部1201から供給される周波数変換サイズTSを選択してその出力端子に出力する。その結果、実施の形態1の動画像符号化装置1に含まれる周波数変換部102は、この周波数変換サイズTSに従って1個のコーディングユニット(CU)もしくは1個のマクロブロック(MB)1の周波数変換処理を実行する。それに対して、領域判定部1203の判定結果が「YES」の場合には、領域判定部1203はローレベル“0”の選択出力信号を生成して、周波数変換サイズセレクタ部1204の選択制御信号に供給する。従って、周波数変換サイズセレクタ部1204は、領域判定部1203の出力端子から生成されるローレベル“0”の選択出力信号に応答して、その他方の入力端子に非クロスオーバー周波数変換サイズ決定部1202から供給される非クロスオーバー周波数変換サイズNTSを選択してその出力端子に出力する。非クロスオーバー周波数変換サイズ決定部1202は、周波数変換サイズ決定部1201から供給される1個のマクロブロック(MB)もしくは1個のコーディングユニット(CU)のサイズ情報Size_Infと位置情報Position_Infに応答して、非クロスオーバー周波数変換サイズNTSを生成して周波数変換サイズセレクタ部1204の他方の入力端子に供給している。その結果、実施の形態1の動画像符号化装置1に含まれる周波数変換部102は、非クロスオーバー周波数変換サイズ決定部1202により生成されるこの非クロスオーバー周波数変換サイズTSに従って、1個のコーディングユニット(CU)もしくは1個のマクロブロック(MB)1の周波数変換処理を実行するものである。
 《量子化パラメータ制御部》
 図6は、実施の形態1の動画像符号化装置1に含まれる量子化パラメータ制御部121の構成と動作とを説明する図である。
 図6に示すように、量子化パラメータ制御部121は、量子化パラメータ生成部1211と量子化パラメータレジスタ部1212と領域判定部1213と量子化パラメータセレクタ部1214によって構成される。
 一方、実施の形態1における動画像符号化装置1に含まれた可変長符号化部114から生成される圧縮ビデオ符号化ビットストリームCVBSの符号量が過大となることを防止するために、ビットレート制御が量子化部103の量子化処理で使用される量子化パラメータQPを調整することにより実行される。
 すなわち、量子化部103に接続された量子化パラメータ制御部121は、ビットレート制御のための量子化パラメータQPの調整制御を実行するものである。従って、量子化パラメータ生成部1211は、例えば可変長符号化部114の出力に接続されたビデオバッファ115のデータ充足度等から、可変長符号化部114から生成される圧縮ビデオ符号化ビットストリームCVBSの符号量を把握する。符号量が大きい場合には、量子化パラメータ生成部1211は、量子化パラメータQPを大きな値に設定する。従って、大きな値の量子化パラメータQPに応答して、量子化部103は量子化される周波数変換係数のビット数を減少するので、圧縮ビデオ符号化ビットストリームCVBSの符号量が過大となることを防止することが可能となる。それに対して符号量が小さな場合には、量子化パラメータ生成部1211は、量子化パラメータQPを小さな値に設定するものである。その結果、小さな値の量子化パラメータQPに応答して、量子化部103は量子化される周波数変換係数のビット数を増加するので、圧縮ビデオ符号化ビットストリームCVBSの符号量を増加でき、高画質の圧縮ビデオ符号化ビットストリームCVBSを生成することが可能となる。
 ところで、実施の形態1の動画像符号化装置1では、可変長符号化部114は、量子化部103の量子化パラメータQPの時間的な変化分である差分量子化パラメータ(QPD:Quantization Parameter Difference)を、シンタックスエレメントとして符号化するものである。その結果、差分量子化パラメータ(QPD)のシンタックスエレメントが可変長符号化部114から生成される圧縮ビデオ符号化ビットストリームCVBSに含まれるので、動画像復号装置(Decoder)も差分量子化パラメータ(QPD)を使用して正確な動画像復号処理動作を実行することが可能となる。
 一方、量子化部103は量子化される情報のうち、動画像信号VSの画素値は動画像復号装置における高画質の動画像復号動作に必要のであるに対して、パディング処理データPDの情報の画素値は動画像復号装置で再生される動画像信号VSの画質に大きな影響を与えるものではない。
 従って、図6に示した実施の形態1による量子化パラメータ制御部121は、量子化部103によって量子化処理されるマクロブロック(MB)またはコーディングユニット(CU)が動画像信号VSとパディング処理データPDとのいずれに属するかを判定するための領域判定部1213を含んでいる。この領域判定部1213には、量子化部103により量子化処理されるマクロブロック(MB)またはコーディングユニット(CU)のサイズ情報Size_Infと位置情報Position_Infとが供給されている。
 量子化部103によって量子化処理されるマクロブロック(MB)またはコーディングユニット(CU)が動画像信号VSに属すると判定される場合には、例えばハイレベル“1”の選択出力信号が領域判定部1213の出力端子から生成される。その結果、量子化パラメータセレクタ部1214は、領域判定部1213の出力端子から生成されるハイレベル“1”の選択出力信号に応答して、その一方の入力端子に量子化パラメータ生成部1211から供給される量子化パラメータQPを選択してその出力端子に出力する。従って、この量子化パラメータQPに従って、量子化部103は、動画像信号VSに属するマクロブロック(MB)もしくはコーディングユニット(CU)の周波数変換部102による周波数変換係数に関して量子化処理を実行するものである。この場合は、量子化パラメータ制御部121の量子化パラメータセレクタ部1214から生成される量子化パラメータQPと量子化パラメータレジスタ部1212に格納されて量子化パラメータレジスタ部1212から生成される直前の量子化パラメータPQPの差分(QP-PQP)である差分量子化パラメータ(QPD)を、可変長符号化部114が符号化するものである。この差分量子化パラメータ(QPD)の可変長符号化部114による符号化情報が符号化ビットストリームCVBSに含まれ、符号化ビットストリームCVBSが供給される動画像復号装置は動画像信号VSに関する差分量子化パラメータ(QPD)の情報の復号により、動画像信号VSを再生することが可能となる。このように動画像信号VSの量子化処理の場合は、この差分量子化パラメータ(QPD)に応答して、可変長符号化部114は第1の符号量として比較的大きな符号量を有する符号化ビットストリームCVBSを形成するものである。その結果、比較的大きな符号量を有する符号化ビットストリームCVBSが供給される動画像復号装置は、動画像信号VSを高画質で再生することが可能となるものである。
 それと反対に、量子化部103により量子化処理されるマクロブロック(MB)またはコーディングユニット(CU)がパディング処理データPDに属すると判定される場合は、ローレベル“0”の選択出力信号が領域判定部1213の出力端子から生成される。その結果、量子化パラメータセレクタ部1214は、領域判定部1213の出力端子から生成されるローレベル“0”の選択出力信号に応答して、その他方の入力端子に量子化パラメータレジスタ部1212から供給される直前の量子化パラメータPQPを選択してその出力端子に出力する。その結果、この直前の量子化パラメータPQPに従って、量子化部103は、パディング処理データPDに属するマクロブロック(MB)もしくはコーディングユニット(CU)の周波数変換部102による周波数変換係数に関して量子化処理を実行するものである。この場合は、量子化パラメータ制御部121の量子化パラメータセレクタ部1214から生成される量子化パラメータQPと量子化パラメータレジスタ部1212に格納されて予測ベクトル生成部1092から生成される直前の量子化パラメータPQPの差分(QP-PQP)である差分量子化パラメータ(QPD)は、実質的にゼロの値となる。この実質的にゼロの値を有する差分量子化パラメータ(QPD)を、可変長符号化部114が符号化する。その結果、この実質的にゼロの値を有する差分量子化パラメータ(QPD)に応答して、可変長符号化部114は第1の符号量よりも小さな第2の符号量を有する符号化ビットストリームCVBSを形成する。符号化ビットストリームCVBSの情報のうちで、可変長符号化部114によって符号化されるパディング処理データPDの情報は、動画像復号装置で再生される動画像信号VSの画質に大きな影響を与えるものではない。その結果、この場合には、パディング処理部100のパディング処理により符号化ビットストリームCVBSの符号量が増大するのを軽減することが可能とされる。符号化ビットストリームCVBSが一定のビデオ記憶容量を有する記録ディスクに蓄積される場合は、節約分、録画時間を長くできるか、もしくは節約分、高画質化することが可能となる。
 《フィルタユニットとフィルタ制御部》
 図7は、実施の形態1の動画像符号化装置1において、デブロッキングフィルタでの低消費電力の実現のためのフィルタユニット107とフィルタ制御部122との構成と動作とを説明する図である。
 上述したように、実施の形態1の動画像符号化装置1に含まれたフィルタユニット107は、H.264の規格に従って、ブロック歪みを低減するためのデブロッキングフィルタの機能を有するものである。一方、逆量子化部104と逆周波数変換部105と加算器106とによる局部復号処理結果は、フィルタユニット107のデブロッキングフィルタの機能でフィルタ処理されるものである。しかし、フィルタユニット107のデブロッキングフィルタの機能でフィルタ処理される情報も、動画像信号VSに属する場合とパディング処理データPDに属する場合とがある。
 動画像信号VSに属する局部復号処理結果が、フィルタユニット107のデブロッキングフィルタの機能でフィルタ処理されることによって、フレームメモリ108に格納されてイントラ予測に使用される参照画像のブロック歪みを低減することが可能となる。しかし、パディング処理データPDに属する局部復号処理結果がフィルタユニット107でフィルタ処理されても、フレームメモリ108に格納されてイントラ予測に使用される参照画像のブロック歪みを低減することは不可能である。
 従って、図7に示した実施の形態1によるフィルタユニット107とフィルタ制御部122は、加算器106からフィルタユニット107に供給されるデブロッキングフィルタ処理対象情報が動画像信号VSに属する場合には、この情報のデブロッキングフィルタ処理を実行するものである。しかしながら、図7に示した実施の形態1によるフィルタユニット107とフィルタ制御部122は、加算器106からフィルタユニット107に供給されるデブロッキングフィルタ処理対象情報がパディング処理データPDに属する場合には、この情報のデブロッキングフィルタ処理の実行を停止するものである。
 すなわち、図7に示したフィルタ制御部122には、加算器106からフィルタユニット107に供給されるデブロッキングフィルタ処理対象情報のサイズ情報Size_Infと位置情報Position_Infとが供給されている。
 デブロッキングフィルタ処理対象情報が動画像信号VSに属するとフィルタ制御部122によって判定される場合には、例えばハイレベル“1”の動作選択信号がフィルタ制御部122の出力端子から生成される。従って、フィルタユニット107のデブロッキングフィルタの機能は、フィルタ制御部122の出力端子から生成されるハイレベル“1”の動作出力信号に応答して活性化される。その結果、フィルタユニット107のデブロッキングフィルタの機能は、動画像信号VSに属する情報のデブロッキングフィルタ処理を実行する。
 デブロッキングフィルタ処理対象情報がパディング処理データPDに属するとフィルタ制御部122によって判定される場合には、例えばローレベル“1”の非動作選択信号がフィルタ制御部122の出力端子から生成される。従って、フィルタユニット107のデブロッキングフィルタの機能は、フィルタ制御部122の出力端子から生成されるローレベル“1”の非動作選択信号に応答して非活性化される。その結果、フィルタユニット107のデブロッキングフィルタの機能は、パディング処理データPDに属する情報のデブロッキングフィルタ処理の実行を停止するものである。このようにして、図7に示した実施の形態1によるフィルタユニット107とフィルタ制御部122とによれば、デブロッキングフィルタの消費電力を低減することが可能となる。
 《動画像符号化装置の半導体集積回路》
 実施の形態1の動画像符号化装置1の大部分は、フレームメモリ108とバッファメモリ111とビデオバッファ115を除き、半導体集積回路の1個の半導体チップ内に集積化される。例えば、この半導体集積回路は、最先端半導体製造プロセスによって製造されるシステムLSIもしくはシステムオンチップ(SOC)と呼ばれる大規模半導体集積回路である。
 すなわち、実施の形態1の動画像符号化装置1では、パディング処理部100と減算器101と周波数変換部102と量子化部103と逆量子化部104と逆周波数変換部105と加算器106と可変長符号化部114は、半導体集積回路の1個の半導体チップに集積化される。更に、フィルタユニット107とフレームメモリ108と動きベクトル検出部109と動き補償部110とバッファメモリ111とイントラ予測部112とセレクタ部113も、この1個の半導体チップに集積化される。また更に、量子化出力調整部116と量子化出力制御部117と動きベクトル検出制御部118とイントラ予測制御部119と周波数変換制御部120と量子化パラメータ制御部121とフィルタ制御部122も、同様に、この1個の半導体チップ内に集積化される。尚、フレームメモリ108とバッファメモリ111とビデオバッファ115は、この1個の半導体チップと別の同期型ダイナミックランダムアクセスメモリ(SDRAM)の半導体チップに集積化される。
 [実施の形態2]
 《並列処理を実行する動画像符号化装置の構成》
 図9は、スライスレベルもしくはタイルレベルの並列処理を実行する実施の形態2による動画像符号化装置の構成を示す図である。
 上記非特許文献1に記載されたように、スライスはピクチャーの他のスライスと独立にエンコードされデコードされるので、スライスは並列処理に使用できるものである。また上記非特許文献2に記載されたように、タイルは並列処理を可能とするものであり、ピクチャーを四角形の領域に分割することによってタイルが形成されるものである。
 図9に示すように、並列処理を実行する実施の形態2による動画像符号化装置は、画像分割部301と画像構築部302と複数個の動画像符号化処理部1A、1B、1C、1D……とフレームメモリ108とバッファメモリ111とによって構成されている。
 画像分割部301は動画像信号VSが供給され、それを分割することによって複数個のスライスもしくは複数個のタイルを生成する。画像分割部301によって生成された複数個のスライスもしくは複数個のタイルは、複数個の動画像符号化処理部1A、1B、1C、1Dにそれぞれ供給される。
 複数個の動画像符号化処理部1A、1B、1C、1Dの各動画像符号化処理部は、実施の形態1の動画像符号化装置1と同様に構成されている。すなわち、各動画像符号化処理部は、パディング処理部100と減算器101と周波数変換部102と量子化部103と逆量子化部104と逆周波数変換部105と加算器106と可変長符号化部114とを含んでいる。更に、各動画像符号化処理部は、動きベクトル検出部109と動き補償部110とバッファメモリ111とイントラ予測部112とセレクタ部113を含んでいる。また更に、各動画像符号化処理部は、量子化出力調整部116と量子化出力制御部117と動きベクトル検出制御部118とイントラ予測制御部119と周波数変換制御部120と量子化パラメータ制御部121とフィルタ制御部122とを含んでいる。
 複数個の動画像符号化処理部1A、1B、1C、1Dから生成される複数の動画像符号化処理結果は、画像構築部302に供給される。画像構築部302は、複数個の動画像符号化処理部1A、1B、1C、1Dの複数の動画像符号化処理結果から、圧縮ビデオ符号化ビットストリームCVBSを生成する。
 複数個の動画像符号化処理部1A、1B、1C、1Dの動画像符号化処理動作は、実施の形態1の動画像符号化装置1のそれと全く同様であるので、説明を省略する。
 実施の形態2の動画像符号化装置の大部分は、フレームメモリ108とバッファメモリ111とビデオバッファ115を除き、半導体集積回路の1個の半導体チップ内に集積化される。この半導体集積回路も、最先端半導体製造プロセスによって製造されるシステムLSIまたはシステムオンチップ(SOC)と呼ばれる大規模半導体集積回路である。
 以上、本発明者によってなされた発明を実施形態に基づいて具体的に説明したが、本発明はそれに限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは言うまでもない。
 例えば、本動画像符号化処理装置は、現行規格H.264とHEVC規格の選択された方式に準拠して動画像入力信号の符号化によって符号化ビットストリームを生成することのみに限定されるものではない。
 すなわち、本動画像符号化処理装置は、64×64画素のサイズの最大コーディングユニット(LCU)を最大処理単位とするHEVC規格だけでなく、64×64画素のサイズよりも大きなサイズの最大コーディングユニット(LCU)を最大処理単位とする将来出現する規格に準拠した符号化ビットストリームを生成することに適用することも可能である。
 更に、図2の量子化出力制御部117と、図3の動きベクトル検出制御部118と、図4のイントラ予測制御部119と、図6の量子化パラメータ制御部121は、それぞれ図5の周波数変換制御部120と同様に、1個のコーディングユニット(CU)が動画像信号VSの画素値とパディング処理データPDの画素値を同時に含まないように、パーティション動作を実行することが可能である。その結果、符号化ビットストリームCVBSの符号量を低減することが、可能となる。
 また更に、図7のフィルタ制御部122も、図5の周波数変換制御部120と同様に、1個のコーディングユニット(CU)が動画像信号VSの画素値とパディング処理データPDの画素値を同時に含まないように、パーティション動作を実行することが可能である。その結果、フィルタユニット107のデブロッキングフィルタの機能に関する消費電力化を低減することが可能となる。
 本発明は、パディング処理に際して、符号化ビットストリームの符号量が増加するのを軽減する動画像符号化装置およびその動作方法に広く適用することができる。
 1…動画像符号化装置
 100…パディング処理部
 101…減算器
 102…周波数変換部
 103…量子化部
 104…逆量子化部
 105…逆周波数変換部
 106…加算器
 107…フィルタユニット
 108…フレームメモリ
 109…動きベクトル検出部
 110…動き補償部
 111…バッファメモリ
 112…イントラ予測部
 113…セレクタ部
 114…可変長符号化部
 115…ビデオバッファ
 116…量子化出力調整部
 117…量子化出力制御部
 118…動きベクトル検出制御部
 119…イントラ予測制御部
 120…周波数変換制御部
 121…量子化パラメータ制御部
 122…フィルタ制御部

Claims (20)

  1.  符号化すべき動画像信号に関係するシンタックスエレメントの動画像符号化処理を実行することによって、符号化ビットストリームを形成する動画像符号化装置であって、
     前記動画像符号化処理に先行して、前記動画像信号にパディング処理データが追加されるパディング処理を前記動画像符号化装置が実行して、
     前記パディング処理により前記パディング処理データが追加された追加動画像信号の横および縦のサイズは、前記動画像符号化処理の符号化ブロックサイズの整数倍に設定されるものであり、
     前記動画像信号に関係する前記シンタックスエレメントの符号化ブロックが、前記動画像信号と前記パディング処理データとのいずれに属するかが前記動画像符号化装置により判定され、
     前記動画像符号化装置の判定によって、前記動画像信号に関係する前記シンタックスエレメントの前記符号化ブロックが前記動画像信号に属すると判定される第1の場合には、第1の符号量を有する前記符号化ビットストリームが形成されるように、前記第1の場合の判定によって前記動画像符号化処理が制御され、
     前記動画像符号化装置の他の判定によって、前記動画像信号に関係する前記シンタックスエレメントの前記符号化ブロックが前記パディング処理データに属すると判定される第2の場合には、前記第1の符号量よりも小さな第2の符号量を有する前記符号化ビットストリームが形成されるように、前記第2の場合の判定によって前記動画像符号化処理が制御される
    動画像符号化装置。
  2.  請求項1において、
     前記動画像符号化装置は、パディング処理部と動きベクトル検出部と動き補償部と減算器と周波数変換部と量子化部と逆量子化部と逆周波数変換部とメモリとイントラ予測部とセレクタ部と可変長符号化部とを具備して、
     前記パディング処理部は、前記パディング処理を実行することによって前記追加動画像信号を生成して前記減算器と前記動きベクトル検出部と前記イントラ予測部に供給して、
     前記動きベクトル検出部は、前記追加動画像信号と前記メモリに格納されたインター参照画像とから動きベクトルを生成して、
     前記動き補償部は、前記動きベクトル検出部から生成される前記動きベクトルと前記メモリに格納された前記インター参照画像とに応答して動き補償予測信号を生成して、
     前記イントラ予測部は、前記追加動画像信号と前記メモリに格納されたイントラ参照画像とからイントラ予測信号を生成して、
     前記セレクタ部は、前記動き補償部から生成される前記動き補償予測信号と前記イントラ予測部から生成される前記イントラ予測信号とから選択された選択予測信号を出力して、
     前記減算器の一方の入力端子には前記追加動画像信号が供給され、前記減算器の他方の入力端子には前記セレクタ部から出力される前記選択予測信号が供給され、前記減算器の出力端子から予測残差が生成され、
     前記減算器の前記出力端子から生成される前記予測残差に関し、前記周波数変換部と前記量子化部とでそれぞれ周波数変換処理と量子化処理とが実行され、
     前記量子化部で量子化処理された前記周波数変換部の前記周波数変換処理の結果は、前記逆量子化部と前記逆周波数変換部とによって局部復号処理が実行され、前記局部復号処理の結果は前記インター参照画像および前記イントラ参照画像として前記メモリに格納され、
     前記量子化部で量子化処理された前記周波数変換部の前記周波数変換処理の前記結果は前記可変長符号化部により符号化処理され、前記可変長符号化部から前記符号化ビットストリームが生成され、
     前記動画像信号に関係する前記シンタックスエレメントは、下記(A)乃至(D)の情報、
     (A).前記量子化部で量子化処理された前記周波数変換部の前記周波数変換処理の情報、
     (B).前記動きベクトルと前記動き補償予測信号とを使用して、インター予測によって符号化される符号化ブロックの情報、
     (C).前記イントラ参照画像を使用してイントラ予測によって符号化される符号化ブロックの情報と、
     (D).前記量子化部で量子化処理される符号化ブロックの情報、
    の少なくとも、いずれか1つである動画像符号化装置。
  3.  請求項2において、
     前記動画像符号化装置は、前記量子化部の出力端子と前記可変長符号化部の入力端子および前記逆量子化部の入力端子との間に接続された量子化出力調整部と、前記量子化出力調整部に接続された量子化出力制御部とを更に具備して、
     前記量子化出力制御部は、前記動画像信号に関係する前記シンタックスエレメントである前記量子化部で量子化処理された前記周波数変換部の前記周波数変換処理の前記情報が、前記動画像信号と前記パディング処理データとのいずれに属するかを判定して、
     前記量子化出力調整部には、前記量子化部の量子化処理によって生成される量子化出力信号と、前記量子化出力信号より少ないデータ量を有する調整信号と、前記量子化出力制御部から生成される判定結果とが供給され、
     前記周波数変換処理の前記情報が前記動画像信号に属するとの前記量子化出力制御部の判定結果に応答して、前記量子化出力調整部は前記量子化部から生成される前記量子化出力信号を前記可変長符号化部の前記入力端子と前記逆量子化部の前記入力端子に供給して、
     前記周波数変換処理の前記情報が前記パディング処理データに属するとの前記量子化出力制御部の判定結果に応答して、前記量子化出力調整部は前記調整信号を前記可変長符号化部の前記入力端子と前記逆量子化部の前記入力端子に供給する
    動画像符号化装置。
  4.  請求項2において、
     前記動画像符号化装置は、前記動きベクトル検出部に接続された動きベクトル検出制御部を更に具備して、
     前記動きベクトル検出部は、動きベクトル探索部と予測ベクトル生成部と動きベクトルセレクタ部とを含み、
     前記動きベクトル探索部は、前記追加動画像信号中に含まれてインター予測によって符号化される前記符号化ブロックに関して動きベクトル探索動作を実行して探索動きベクトルを生成して、
     前記予測ベクトル生成部は、前記追加動画像信号中に含まれてインター予測によって符号化される前記符号化ブロックに関して規格H.264または規格H.265で規定された動きベクトル予測方法を実行して予測ベクトルを生成して、
     前記動きベクトル検出制御部は、前記追加動画像信号中に含まれて前記動画像信号に関係する前記シンタックスエレメントであるインター予測によって符号化される前記符号化ブロックが、前記動画像信号と前記パディング処理データとのいずれに属するかを判定して、
     前記動きベクトルセレクタ部には、前記動きベクトル探索部によって生成される前記探索動きベクトルと、前記予測ベクトル生成部によって生成される前記予測ベクトルと、前記動きベクトル検出制御部から生成される判定結果とが供給され、
     前記インター予測によって符号化される前記符号化ブロックが前記動画像信号に属するとの前記動きベクトル検出制御部の判定結果に応答して、前記動きベクトルセレクタ部は前記動きベクトル探索部によって生成される前記探索動きベクトルを、前記動きベクトルとして、前記動き補償部に供給して、
     前記インター予測によって符号化される前記符号化ブロックが前記パディング処理データに属するとの前記動きベクトル検出制御部の判定結果に応答して、前記動きベクトルセレクタ部は前記予測ベクトル生成部によって生成される前記予測ベクトルを、前記動きベクトルとして、前記動き補償部に供給する
    動画像符号化装置。
  5.  請求項2において、
     前記動画像符号化装置は、前記イントラ予測部に接続されたイントラ予測制御部を更に具備して、
     前記イントラ予測部は、イントラ予測方向決定部と近傍予測方向生成部と予測方向セレクタ部とイントラ予測処理部とを含み、
     前記イントラ予測方向決定部は、前記追加動画像信号中に含まれてイントラ予測によって符号化される前記符号化ブロックに関してイントラ予測動作を実行して予測方向を生成して、
     前記近傍予測方向生成部は、前記追加動画像信号中に含まれてイントラ予測によって符号化される前記符号化ブロックに関して規格H.264または規格H.265で規定された近傍方向予測方法を実行して近傍予測方向を生成して、
     前記イントラ予測制御部は、前記追加動画像信号中に含まれて前記動画像信号に関係する前記シンタックスエレメントであるイントラ予測によって符号化される前記符号化ブロックが、前記動画像信号と前記パディング処理データとのいずれに属するかを判定して、
     前記予測方向セレクタ部には、前記イントラ予測方向決定部によって生成される前記予測方向と、前記近傍予測方向生成部によって生成される前記近傍予測方向と、前記イントラ予測制御部から生成される判定結果とが供給され、
     前記イントラ予測によって符号化される前記符号化ブロックが前記動画像信号に属するとの前記イントラ予測制御部の判定結果に応答して、前記予測方向セレクタ部は前記イントラ予測方向決定部によって生成される前記予測方向を、前記イントラ予測処理部に供給して、
     前記イントラ予測処理部は、前記イントラ予測方向決定部によって生成される前記予測方向と前記メモリに格納されたイントラ参照画像から、前記セレクタ部に供給される前記イントラ予測信号を生成して、
     前記イントラ予測によって符号化される前記符号化ブロックが前記パディング処理データに属するとの前記イントラ予測制御部の判定結果に応答して、前記予測方向セレクタ部は前記近傍予測方向生成部によって生成される前記近傍予測方向を、前記イントラ予測処理部に供給して、
     前記イントラ予測処理部は、前記予測方向セレクタ部は前記近傍予測方向生成部によって生成される前記近傍予測方向と前記メモリに格納されたイントラ参照画像から、前記セレクタ部に供給される前記イントラ予測信号を生成する
    動画像符号化装置。
  6.  請求項3において、
     前記動画像符号化装置は、前記周波数変換部に接続された周波数変換制御部を更に具備して、
     前記周波数変換制御部は、前記周波数変換部で実行される前記周波数変換処理のための周波数変換サイズを設定して、
     前記周波数変換制御部によって設定される前記周波数変換サイズに応答して、前記周波数変換部で実行される前記周波数変換処理によって処理される符号化ブロックが前記動画像信号と前記パディング処理データとを同時に含まないように、前記周波数変換部での前記符号化ブロックのパーティション動作が決定される
    動画像符号化装置。
  7.  請求項6において、
     前記動画像符号化装置では、前記周波数変換制御部は、周波数変換サイズ決定部と非クロスオーバー周波数変換サイズ決定部と領域判定部と周波数変換サイズセレクタ部とを含み、
     前記周波数変換サイズ決定部は、規格H.264または規格H.265で規定された複数の種類の周波数変換サイズの候補から1つの選択周波数変換サイズを選択して前記周波数変換サイズセレクタ部の一方の入力端子に供給して、
     前記領域判定部は、前記1つの選択周波数変換サイズを有する符号化ブロックが前記動画像信号と前記パディング処理データとの境界をクロスオーバーするか否かを判定して、
     前記非クロスオーバー周波数変換サイズ決定部は、前記周波数変換処理によって処理される符号化ブロックが前記動画像信号と前記パディング処理データとの前記境界をクロスオーバーしないような非クロスオーバー周波数変換サイズを生成して前記周波数変換サイズセレクタ部の他方の入力端子に供給して、
     前記1つの選択周波数変換サイズを有する前記符号化ブロックが前記境界をクロスオーバーしないとの前記領域判定部の判定結果に応答して、前記周波数変換サイズセレクタ部は前記1つの選択周波数変換サイズを前記周波数変換処理のための前記周波数変換サイズとして前記周波数変換部に供給して、
     前記1つの選択周波数変換サイズを有する前記符号化ブロックが前記境界をクロスオーバーするとの前記領域判定部の判定結果に応答して、前記周波数変換サイズセレクタ部は前記非クロスオーバー周波数変換サイズを前記周波数変換処理のための前記周波数変換サイズとして前記周波数変換部に供給する
    動画像符号化装置。
  8.  請求項2において、
     前記動画像符号化装置は、前記量子化部に接続された量子化パラメータ制御部を更に具備して、
     前記量子化パラメータ制御部は、量子化パラメータ生成部と量子化パラメータレジスタ部と領域判定部と量子化パラメータセレクタ部とを含み、
     前記量子化パラメータ生成部は、前記可変長符号化部から生成される前記符号化ビットストリームの符号量に対応する量子化パラメータを生成して前記量子化パラメータセレクタ部の一方の入力端子と前記量子化パラメータレジスタ部の入力端子とに供給して、
     前記量子化パラメータレジスタ部の出力端子に生成される前記量子化パラメータは、前記量子化パラメータセレクタ部の他方の入力端子に供給され、
     前記領域判定部は、前記動画像信号に関係する前記シンタックスエレメントである前記量子化部で量子化処理される符号化ブロックが、前記動画像信号と前記パディング処理データとのいずれに属するかを判定して、
     前記量子化部で量子化処理される前記符号化ブロックが前記動画像信号に属するとの前記領域判定部の判定結果に応答して、前記量子化パラメータセレクタ部は前記量子化パラメータ生成部から前記一方の入力端子に供給される前記量子化パラメータを前記量子化部に供給して、
     前記量子化部で量子化処理される前記符号化ブロックが前記パディング処理データに属するとの前記領域判定部の判定結果に応答して、前記量子化パラメータセレクタ部は前記量子化パラメータレジスタ部の前記出力端子から前記他方の入力端子に供給される前記量子化パラメータを前記量子化部に供給する
    動画像符号化装置。
  9.  請求項2乃至請求項8のいずれかにおいて、
     前記動画像符号化装置は、前記メモリに接続されたフィルタユニットと、フィルタ制御部とを更に具備して、
     前記フィルタユニットは、前記逆量子化部と前記逆周波数変換部によって実行される前記局部復号処理の前記結果に関してデブロッキングフィルタ処理を実行して、前記デブロッキングフィルタ処理の結果を前記メモリに格納するものであり、
     前記フィルタ制御部は、前記フィルタユニットによる前記デブロッキングフィルタ処理が実行される前記局部復号処理の前記結果が前記動画像信号と前記パディング処理データとのいずれに属するかを判定して、
     前記フィルタユニットによる前記デブロッキングフィルタ処理が実行される前記局部復号処理の前記結果が前記動画像信号に属するとの前記フィルタ制御部の判定結果に応答して、前記フィルタユニットによる前記デブロッキングフィルタ処理が実行され、
     前記フィルタユニットによる前記デブロッキングフィルタ処理が実行される前記局部復号処理の前記結果が前記パディング処理データに属するとの前記フィルタ制御部の判定結果に応答して、前記フィルタユニットによる前記デブロッキングフィルタ処理の実行が停止される
    動画像符号化装置。
  10.  請求項2乃至請求項8のいずれかにおいて、
     前記動画像符号化装置で、前記動きベクトル検出部と前記動き補償部と前記減算器と前記周波数変換部と前記量子化部と前記逆量子化部と前記逆周波数変換部と前記イントラ予測部と前記セレクタ部と前記可変長符号化部とは、半導体集積回路の1個の半導体チップに集積化される
    動画像符号化装置。
  11.  請求項2乃至請求項8のいずれかにおいて、
     前記動画像符号化処理の前記符号化ブロックサイズは、16画素×16画素のサイズを有するマクロブロックと64画素×64画素のサイズを有する最大コーディングユニットから形成可能なコーディングユニットとのいずれかである
    動画像符号化装置。
  12.  請求項2乃至請求項8のいずれかにおいて、
     前記動画像符号化装置は、規格H.264と規格H.265とから任意に選択された方式に準拠して前記動画像信号の動画像符号化処理を実行して、前記符号化ビットストリームを形成する
    動画像符号化装置。
  13.  請求項2乃至請求項8のいずれかにおいて、
     前記動画像符号化装置は、画像分割部と複数の動画像符号化処理部とを含み、
     前記画像分割部は、前記動画像信号を分割することによって複数の分割動画像信号を生成して、
     前記画像分割部によって生成された前記複数の分割動画像信号は、前記複数の動画像符号化処理部によって並列処理されるものであり、
     前記複数の動画像符号化処理部の各動画像符号化処理部は、前記動きベクトル検出部と前記動き補償部と前記減算器と前記周波数変換部と前記量子化部と前記逆量子化部と前記逆周波数変換部と前記イントラ予測部と前記セレクタ部と前記可変長符号化部を含む
    動画像符号化装置。
  14.  請求項13において、
     前記動画像符号化装置では、前記画像分割部と前記複数の動画像符号化処理部とは、半導体集積回路の1個の半導体チップに集積化された
    動画像符号化装置。
  15.  符号化すべき動画像信号に関係するシンタックスエレメントの動画像符号化処理を実行することによって符号化ビットストリームを形成する動画像符号化装置の動作方法であって、
     前記動画像符号化処理に先行して、前記動画像信号にパディング処理データが追加されるパディング処理を前記動画像符号化装置が実行して、
     前記パディング処理により前記パディング処理データが追加された追加動画像信号の横および縦のサイズは、前記動画像符号化処理の符号化ブロックサイズの整数倍に設定されるものであり、
     前記動画像信号に関係する前記シンタックスエレメントの符号化ブロックが、前記動画像信号と前記パディング処理データとのいずれに属するかが前記動画像符号化装置により判定され、
     前記動画像符号化装置の判定によって、前記動画像信号に関係する前記シンタックスエレメントの前記符号化ブロックが前記動画像信号に属すると判定される第1の場合には、第1の符号量を有する前記符号化ビットストリームが形成されるように、前記第1の場合の判定によって前記動画像符号化処理が制御され、
     前記動画像符号化装置の他の判定によって、前記動画像信号に関係する前記シンタックスエレメントの前記符号化ブロックが前記パディング処理データに属すると判定される第2の場合には、前記第1の符号量よりも小さな第2の符号量を有する前記符号化ビットストリームが形成されるように、前記第2の場合の判定によって前記動画像符号化処理が制御される
    動画像符号化装置の動作方法。
  16.  請求項15において、
     前記動画像符号化装置は、パディング処理部と動きベクトル検出部と動き補償部と減算器と周波数変換部と量子化部と逆量子化部と逆周波数変換部とメモリとイントラ予測部とセレクタ部と可変長符号化部とを具備して、
     前記パディング処理部は、前記パディング処理を実行することによって前記追加動画像信号を生成して前記減算器と前記動きベクトル検出部と前記イントラ予測部に供給して、
     前記動きベクトル検出部は、前記追加動画像信号と前記メモリに格納されたインター参照画像とから動きベクトルを生成して、
     前記動き補償部は、前記動きベクトル検出部から生成される前記動きベクトルと前記メモリに格納された前記インター参照画像とに応答して動き補償予測信号を生成して、
     前記イントラ予測部は、前記追加動画像信号と前記メモリに格納されたイントラ参照画像とからイントラ予測信号を生成して、
     前記セレクタ部は、前記動き補償部から生成される前記動き補償予測信号と前記イントラ予測部から生成される前記イントラ予測信号とから選択された選択予測信号を出力して、
     前記減算器の一方の入力端子には前記追加動画像信号が供給され、前記減算器の他方の入力端子には前記セレクタ部から出力される前記選択予測信号が供給され、前記減算器の出力端子から予測残差が生成され、
     前記減算器の前記出力端子から生成される前記予測残差に関し、前記周波数変換部と前記量子化部とでそれぞれ周波数変換処理と量子化処理とが実行され、
     前記量子化部で量子化処理された前記周波数変換部の前記周波数変換処理の結果は、前記逆量子化部と前記逆周波数変換部とによって局部復号処理が実行され、前記局部復号処理の結果は前記インター参照画像および前記イントラ参照画像として前記メモリに格納され、
     前記量子化部で量子化処理された前記周波数変換部の前記周波数変換処理の前記結果は前記可変長符号化部により符号化処理され、前記可変長符号化部から前記符号化ビットストリームが生成され、
     前記動画像信号に関係する前記シンタックスエレメントは、下記(A)乃至(D)の情報、
     (A).前記量子化部で量子化処理された前記周波数変換部の前記周波数変換処理の情報、
     (B).前記動きベクトルと前記動き補償予測信号とを使用して、インター予測によって符号化される符号化ブロックの情報、
     (C).前記イントラ参照画像を使用してイントラ予測によって符号化される符号化ブロックの情報と、
     (D).前記量子化部で量子化処理される符号化ブロックの情報、
    の少なくとも、いずれか1つである動画像符号化装置の動作方法。
  17.  請求項16において、
     前記動画像符号化装置は、前記量子化部の出力端子と前記可変長符号化部の入力端子および前記逆量子化部の入力端子との間に接続された量子化出力調整部と、前記量子化出力調整部に接続された量子化出力制御部とを更に具備して、
     前記量子化出力制御部は、前記動画像信号に関係する前記シンタックスエレメントである前記量子化部で量子化処理された前記周波数変換部の前記周波数変換処理の前記情報が、前記動画像信号と前記パディング処理データとのいずれに属するかを判定して、
     前記量子化出力調整部には、前記量子化部の量子化処理によって生成される量子化出力信号と、前記量子化出力信号より少ないデータ量を有する調整信号と、前記量子化出力制御部から生成される判定結果とが供給され、
     前記周波数変換処理の前記情報が前記動画像信号に属するとの前記量子化出力制御部の判定結果に応答して、前記量子化出力調整部は前記量子化部から生成される前記量子化出力信号を前記可変長符号化部の前記入力端子と前記逆量子化部の前記入力端子に供給して、
     前記周波数変換処理の前記情報が前記パディング処理データに属するとの前記量子化出力制御部の判定結果に応答して、前記量子化出力調整部は前記調整信号を前記可変長符号化部の前記入力端子と前記逆量子化部の前記入力端子に供給する
    動画像符号化装置の動作方法。
  18.  請求項16において、
     前記動画像符号化装置は、前記動きベクトル検出部に接続された動きベクトル検出制御部を更に具備して、
     前記動きベクトル検出部は、動きベクトル探索部と予測ベクトル生成部と動きベクトルセレクタ部とを含み、
     前記動きベクトル探索部は、前記追加動画像信号中に含まれてインター予測によって符号化される前記符号化ブロックに関して動きベクトル探索動作を実行して探索動きベクトルを生成して、
     前記予測ベクトル生成部は、前記追加動画像信号中に含まれてインター予測によって符号化される前記符号化ブロックに関して規格H.264または規格H.265で規定された動きベクトル予測方法を実行して予測ベクトルを生成して、
     前記動きベクトル検出制御部は、前記追加動画像信号中に含まれて前記動画像信号に関係する前記シンタックスエレメントであるインター予測によって符号化される前記符号化ブロックが、前記動画像信号と前記パディング処理データとのいずれに属するかを判定して、
     前記動きベクトルセレクタ部には、前記動きベクトル探索部によって生成される前記探索動きベクトルと、前記予測ベクトル生成部によって生成される前記予測ベクトルと、前記動きベクトル検出制御部から生成される判定結果とが供給され、
     前記インター予測によって符号化される前記符号化ブロックが前記動画像信号に属するとの前記動きベクトル検出制御部の判定結果に応答して、前記動きベクトルセレクタ部は前記動きベクトル探索部によって生成される前記探索動きベクトルを、前記動きベクトルとして、前記動き補償部に供給して、
     前記インター予測によって符号化される前記符号化ブロックが前記パディング処理データに属するとの前記動きベクトル検出制御部の判定結果に応答して、前記動きベクトルセレクタ部は前記予測ベクトル生成部によって生成される前記予測ベクトルを、前記動きベクトルとして、前記動き補償部に供給する
    動画像符号化装置の動作方法。
  19.  請求項16において、
     前記動画像符号化装置は、前記イントラ予測部に接続されたイントラ予測制御部を更に具備して、
     前記イントラ予測部は、イントラ予測方向決定部と近傍予測方向生成部と予測方向セレクタ部とイントラ予測処理部とを含み、
     前記イントラ予測方向決定部は、前記追加動画像信号中に含まれてイントラ予測によって符号化される前記符号化ブロックに関してイントラ予測動作を実行して予測方向を生成して、
     前記近傍予測方向生成部は、前記追加動画像信号中に含まれてイントラ予測によって符号化される前記符号化ブロックに関して規格H.264または規格H.265で規定された近傍方向予測方法を実行して近傍予測方向を生成して、
     前記イントラ予測制御部は、前記追加動画像信号中に含まれて前記動画像信号に関係する前記シンタックスエレメントであるイントラ予測によって符号化される前記符号化ブロックが、前記動画像信号と前記パディング処理データとのいずれに属するかを判定して、
     前記予測方向セレクタ部には、前記イントラ予測方向決定部によって生成される前記予測方向と、前記近傍予測方向生成部によって生成される前記近傍予測方向と、前記イントラ予測制御部から生成される判定結果とが供給され、
     前記イントラ予測によって符号化される前記符号化ブロックが前記動画像信号に属するとの前記イントラ予測制御部の判定結果に応答して、前記予測方向セレクタ部は前記イントラ予測方向決定部によって生成される前記予測方向を、前記イントラ予測処理部に供給して、
     前記イントラ予測処理部は、前記イントラ予測方向決定部によって生成される前記予測方向と前記メモリに格納されたイントラ参照画像から、前記セレクタ部に供給される前記イントラ予測信号を生成して、
     前記イントラ予測によって符号化される前記符号化ブロックが前記パディング処理データに属するとの前記イントラ予測制御部の判定結果に応答して、前記予測方向セレクタ部は前記近傍予測方向生成部によって生成される前記近傍予測方向を、前記イントラ予測処理部に供給して、
     前記イントラ予測処理部は、前記予測方向セレクタ部は前記近傍予測方向生成部によって生成される前記近傍予測方向と前記メモリに格納されたイントラ参照画像から、前記セレクタ部に供給される前記イントラ予測信号を生成する
    動画像符号化装置の動作方法。
  20.  請求項17において、
     前記動画像符号化装置は、前記周波数変換部に接続された周波数変換制御部を更に具備して、
     前記周波数変換制御部は、前記周波数変換部で実行される前記周波数変換処理のための周波数変換サイズを設定して、
     前記周波数変換制御部によって設定される前記周波数変換サイズに応答して、前記周波数変換部で実行される前記周波数変換処理によって処理される符号化ブロックが前記動画像信号と前記パディング処理データとを同時に含まないように、前記周波数変換部での前記符号化ブロックのパーティション動作が決定される
    動画像符号化装置の動作方法。
PCT/JP2013/069753 2013-07-22 2013-07-22 動画像符号化装置およびその動作方法 WO2015011752A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201380078187.0A CN105379284B (zh) 2013-07-22 2013-07-22 动态图像编码装置及其动作方法
PCT/JP2013/069753 WO2015011752A1 (ja) 2013-07-22 2013-07-22 動画像符号化装置およびその動作方法
EP13889853.1A EP3026906B1 (en) 2013-07-22 2013-07-22 Moving image encoding apparatus and operation method thereof
US14/906,901 US10356437B2 (en) 2013-07-22 2013-07-22 Moving image encoding apparatus including padding processor for adding padding data to moving image and operation method thereof
KR1020167001472A KR102167350B1 (ko) 2013-07-22 2013-07-22 동화상 부호화 장치 및 그 동작 방법
JP2015528022A JP6100904B2 (ja) 2013-07-22 2013-07-22 動画像符号化装置およびその動作方法
TW103116513A TWI626842B (zh) 2013-07-22 2014-05-09 Motion picture coding device and its operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/069753 WO2015011752A1 (ja) 2013-07-22 2013-07-22 動画像符号化装置およびその動作方法

Publications (1)

Publication Number Publication Date
WO2015011752A1 true WO2015011752A1 (ja) 2015-01-29

Family

ID=52392838

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/069753 WO2015011752A1 (ja) 2013-07-22 2013-07-22 動画像符号化装置およびその動作方法

Country Status (7)

Country Link
US (1) US10356437B2 (ja)
EP (1) EP3026906B1 (ja)
JP (1) JP6100904B2 (ja)
KR (1) KR102167350B1 (ja)
CN (1) CN105379284B (ja)
TW (1) TWI626842B (ja)
WO (1) WO2015011752A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016209153A1 (en) * 2015-06-26 2016-12-29 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and decoding of pictures in a video
WO2017158850A1 (ja) * 2016-03-18 2017-09-21 株式会社ソシオネクスト 画像処理装置、および画像処理方法
CN111264062A (zh) * 2019-02-21 2020-06-09 深圳市大疆创新科技有限公司 编码器、编码系统和编码方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160234514A1 (en) * 2013-10-17 2016-08-11 Mediatek Inc. Data processing apparatus for transmitting/receiving compressed pixel data groups of picture and indication information of pixel data grouping setting and related data processing method
KR102365685B1 (ko) * 2015-01-05 2022-02-21 삼성전자주식회사 인코더의 작동 방법과 상기 인코더를 포함하는 장치들
CN105992000B (zh) * 2015-03-06 2019-03-22 扬智科技股份有限公司 影像流的处理方法及其影像处理装置
JP6604750B2 (ja) * 2015-06-12 2019-11-13 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
US10602157B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Variable bitrate control for distributed video encoding
US10499070B2 (en) 2015-09-11 2019-12-03 Facebook, Inc. Key frame placement for distributed video encoding
US10506235B2 (en) 2015-09-11 2019-12-10 Facebook, Inc. Distributed control of video encoding speeds
US10375156B2 (en) 2015-09-11 2019-08-06 Facebook, Inc. Using worker nodes in a distributed video encoding system
US10341561B2 (en) * 2015-09-11 2019-07-02 Facebook, Inc. Distributed image stabilization
US10063872B2 (en) 2015-09-11 2018-08-28 Facebook, Inc. Segment based encoding of video
US10602153B2 (en) 2015-09-11 2020-03-24 Facebook, Inc. Ultra-high video compression
US20170150176A1 (en) 2015-11-25 2017-05-25 Qualcomm Incorporated Linear-model prediction with non-square prediction units in video coding
FI20165256A (fi) * 2016-03-24 2017-09-25 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen
EP3657789A4 (en) 2017-07-17 2020-12-16 Industry - University Cooperation Foundation Hanyang University METHOD AND DEVICE FOR CODING / DECODING AN IMAGE
WO2019039920A1 (ko) * 2017-08-25 2019-02-28 가온미디어 주식회사 가상 현실 영상의 부호화/복호화 방법 및 그 장치
CN107959885B (zh) * 2017-12-12 2020-05-19 华中科技大学 一种加密视频的运动检测方法
US10491897B2 (en) * 2018-04-13 2019-11-26 Google Llc Spatially adaptive quantization-aware deblocking filter
JP2022543795A (ja) 2019-08-06 2022-10-14 北京字節跳動網絡技術有限公司 カラーフォーマットに基づいたビデオ領域パーティション
BR112022003656A2 (pt) 2019-09-02 2022-05-24 Beijing Bytedance Network Tech Co Ltd Método e aparelho de processamento de dados de vídeo, e, meios de armazenamento e de gravação legíveis por computador não transitórios
JP7189854B2 (ja) * 2019-09-19 2022-12-14 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
EP4018662A4 (en) 2019-09-21 2023-05-03 Beijing Bytedance Network Technology Co., Ltd. SIZE LIMITATION BASED ON CHROMA INTRA MODE
US20220368899A1 (en) * 2019-10-07 2022-11-17 Sk Telecom Co., Ltd. Method for splitting picture and decoding apparatus

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0591333A (ja) 1991-09-27 1993-04-09 Nec Corp 画像信号の符号化方法と符号化装置
JPH07203434A (ja) 1993-12-30 1995-08-04 Canon Inc 画像送信装置
JPH09322164A (ja) * 1996-05-31 1997-12-12 Nec Corp 画像信号圧縮装置および画像信号圧縮伸張装置
JPH1023404A (ja) 1996-06-28 1998-01-23 Oki Electric Ind Co Ltd 画像符号化装置
JP2002051338A (ja) * 2000-08-01 2002-02-15 Canon Inc 直交変換装置及び直交変換方法
JP2007124564A (ja) * 2005-10-31 2007-05-17 Matsushita Electric Ind Co Ltd 画像符号化装置、方法、及びプログラム
JP2009100041A (ja) 2007-10-12 2009-05-07 Toshiba Corp 画像復号装置
JP2010193401A (ja) * 2009-02-20 2010-09-02 Canon Inc 画像符号化方法及び画像符号化装置
US20120106652A1 (en) 2010-11-01 2012-05-03 Mediatek Inc. Apparatus and Method for High Efficiency Video Coding Using Flexible Slice Structure
JP2012195702A (ja) * 2011-03-15 2012-10-11 Fujitsu Ltd 画像符号化方法及び画像符号化装置
WO2012169184A1 (ja) * 2011-06-10 2012-12-13 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065239A (ja) * 2003-07-28 2005-03-10 Matsushita Electric Ind Co Ltd 動画像の復号化装置
US7822123B2 (en) 2004-10-06 2010-10-26 Microsoft Corporation Efficient repeat padding for hybrid video sequence with arbitrary video resolution
US8121197B2 (en) * 2007-11-13 2012-02-21 Elemental Technologies, Inc. Video encoding and decoding using parallel processors
KR101700358B1 (ko) 2009-12-09 2017-01-26 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
EP3101897B1 (en) 2010-04-09 2021-10-20 Xylene Holding S.A. Moving image encoding device and method, moving image decoding device and method, bitstream
CA2812242A1 (en) * 2010-10-01 2012-04-05 General Instrument Corporation Coding and decoding utilizing picture boundary padding in flexible partitioning
CN101969562B (zh) * 2010-10-27 2015-07-01 北京中星微电子有限公司 一种帧宽高为非16整数倍的视频编码方法及编码器
US9930366B2 (en) * 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0591333A (ja) 1991-09-27 1993-04-09 Nec Corp 画像信号の符号化方法と符号化装置
JPH07203434A (ja) 1993-12-30 1995-08-04 Canon Inc 画像送信装置
JPH09322164A (ja) * 1996-05-31 1997-12-12 Nec Corp 画像信号圧縮装置および画像信号圧縮伸張装置
JPH1023404A (ja) 1996-06-28 1998-01-23 Oki Electric Ind Co Ltd 画像符号化装置
JP2002051338A (ja) * 2000-08-01 2002-02-15 Canon Inc 直交変換装置及び直交変換方法
JP2007124564A (ja) * 2005-10-31 2007-05-17 Matsushita Electric Ind Co Ltd 画像符号化装置、方法、及びプログラム
JP2009100041A (ja) 2007-10-12 2009-05-07 Toshiba Corp 画像復号装置
JP2010193401A (ja) * 2009-02-20 2010-09-02 Canon Inc 画像符号化方法及び画像符号化装置
US20120106652A1 (en) 2010-11-01 2012-05-03 Mediatek Inc. Apparatus and Method for High Efficiency Video Coding Using Flexible Slice Structure
JP2012195702A (ja) * 2011-03-15 2012-10-11 Fujitsu Ltd 画像符号化方法及び画像符号化装置
WO2012169184A1 (ja) * 2011-06-10 2012-12-13 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
G.J. SULLIVAN ET AL.: "Overview of the High Efficiency Video Coding (HEVC) Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 22, no. 12, December 2012 (2012-12-01), pages 1649 - 1668, XP055284729 *
GARY J. SULLIVAN ET AL.: "Overview of the High Efficiency Video Coding (HEVC) Standard", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 22, no. 12, December 2012 (2012-12-01), pages 1649 - 1668, XP011487803, DOI: doi:10.1109/TCSVT.2012.2221191
GARY J. SULLIVAN ET AL.: "Video Compression-From Concept to the H. 264/AVC Standard", PROCEEDING OF THE IEEE, vol. 93, no. 1, January 2005 (2005-01-01), pages 18 - 31
See also references of EP3026906A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016209153A1 (en) * 2015-06-26 2016-12-29 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and decoding of pictures in a video
US10560695B2 (en) 2015-06-26 2020-02-11 Telefonaktiebolaget Lm Ericsson (Publ) Encoding and decoding of pictures in a video
WO2017158850A1 (ja) * 2016-03-18 2017-09-21 株式会社ソシオネクスト 画像処理装置、および画像処理方法
JPWO2017158850A1 (ja) * 2016-03-18 2019-01-24 株式会社ソシオネクスト 画像処理装置、および画像処理方法
CN111264062A (zh) * 2019-02-21 2020-06-09 深圳市大疆创新科技有限公司 编码器、编码系统和编码方法

Also Published As

Publication number Publication date
KR20160034903A (ko) 2016-03-30
CN105379284B (zh) 2020-02-21
KR102167350B1 (ko) 2020-10-19
CN105379284A (zh) 2016-03-02
US10356437B2 (en) 2019-07-16
US20160156926A1 (en) 2016-06-02
TWI626842B (zh) 2018-06-11
EP3026906A1 (en) 2016-06-01
EP3026906B1 (en) 2020-03-25
JPWO2015011752A1 (ja) 2017-03-02
JP6100904B2 (ja) 2017-03-22
TW201505422A (zh) 2015-02-01
EP3026906A4 (en) 2017-04-05

Similar Documents

Publication Publication Date Title
JP6100904B2 (ja) 動画像符号化装置およびその動作方法
US11647231B2 (en) Image processing device and image processing method
JP7269257B2 (ja) フレームレベル超解像ベースビデオ符号化
JP6120707B2 (ja) 動画像符号化装置およびその動作方法
US9380311B2 (en) Method and system for generating a transform size syntax element for video decoding
JP6212345B2 (ja) 動画像符号化装置およびその動作方法
US20140254660A1 (en) Video encoder, method of detecting scene change and method of controlling video encoder
EP1594320A1 (en) Method and system for dynamic selection of transform size in a video decoder based on signal content
JP6234770B2 (ja) 動画像復号処理装置、動画像符号化処理装置およびその動作方法
US11563975B2 (en) Motion compensation boundary filtering
RU2772813C1 (ru) Видеокодер, видеодекодер и соответствующие способы кодирования и декодирования
EP3751850A1 (en) Motion compensation boundary filtering

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13889853

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015528022

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20167001472

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14906901

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013889853

Country of ref document: EP