WO2006001485A1 - 動き予測補償方法及び動き予測補償装置 - Google Patents

動き予測補償方法及び動き予測補償装置 Download PDF

Info

Publication number
WO2006001485A1
WO2006001485A1 PCT/JP2005/011989 JP2005011989W WO2006001485A1 WO 2006001485 A1 WO2006001485 A1 WO 2006001485A1 JP 2005011989 W JP2005011989 W JP 2005011989W WO 2006001485 A1 WO2006001485 A1 WO 2006001485A1
Authority
WO
WIPO (PCT)
Prior art keywords
compensation
motion
motion prediction
image
prediction
Prior art date
Application number
PCT/JP2005/011989
Other languages
English (en)
French (fr)
Inventor
Toshiharu Tsuchiya
Toru Wada
Kazushi Sato
Makoto Yamada
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR20067027591A priority Critical patent/KR101182977B1/ko
Priority to CN2005800221516A priority patent/CN1977541B/zh
Priority to EP20050755615 priority patent/EP1763252B1/en
Priority to US11/629,537 priority patent/US20080037642A1/en
Priority to JP2006528760A priority patent/JP5018085B2/ja
Publication of WO2006001485A1 publication Critical patent/WO2006001485A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present invention relates to a motion prediction / compensation method and a motion prediction / compensation apparatus, for example, MPEG, H.
  • Image information (bitstream) compressed by orthogonal transformation and motion compensation such as discrete cosine transformation or Karhunen-Label transformation, such as 26x
  • network media such as satellite broadcasting, cable TV, the Internet, and mobile phones. Therefore, it is suitable for application to an image information encoding device used when processing on a storage medium such as light, a magnetic disk, or a flash memory.
  • MPEG2 ISOZlEC 13818-2
  • ISOZlEC 13818-2 is defined as a general-purpose image coding method, and is a standard that covers both interlaced and progressively scanned images, standard resolution images, and high-definition images.
  • a standard resolution interlaced scanning image with 720 x 480 pixels is 4 to 8 Mbps
  • a high resolution interlaced scanning image with 1920 x 1088 pixels is 18 to 22 Mbps.
  • MPEG2 mainly targets high-quality encoding suitable for broadcasting! Less than 1, the coding amount (bit rate), that is, higher, the compression rate had little to cope with. With the widespread use of mobile terminals, the need for such a coding scheme is expected to increase in the future, and the MPEG4 coding scheme was standardized accordingly. Regarding the image coding system, the standard was approved as an international standard in December 1998 as ISOZIEC 14496-2.
  • H. 26L ITU-T Q 6/16 VCEG
  • MPEG2 and MPEG4 the standardization power that realizes higher coding efficiency by incorporating functions not supported by H.26L based on this H.26L Sjoint Model of Enha need-Compression It is done as Video Coding.
  • H.264 and MPEG-4 Part 10 Advanced Video Coding: AVC
  • FIG. 1 shows a configuration example of an image information encoding device 100 that outputs image compression information DPC based on the AVC standard.
  • the image information encoding device 100 includes an AZD conversion device 1 to which an input image signal Sin is supplied, a screen rearrangement buffer 102 to which image data digitized by the AZD conversion device 101 is supplied, and this screen.
  • the quantization device 105 to which the output of the device 104 is supplied, the lossless encoding device 106 and the inverse quantization device 108 to which the output of the quantization device 105 is supplied, and the output of the lossless encoding device 106 are supplied.
  • the accumulation buffer 107, the inverse orthogonal transform device 109 to which the output of the inverse quantization device 108 is supplied, the deblock filter 110 to which the output of the inverse orthogonal transform device 109 is supplied, and the output of the deblock filter 110 are provided.
  • an input image signal is first converted by AZD conversion. In the device 101, it is converted into a digital signal. Next, frames are rearranged in the screen rearrangement buffer 102 in accordance with the GOP (Group of Pictures) structure of the output image compression information DPC.
  • GOP Group of Pictures
  • difference information between the input image and the pixel value generated by the intra prediction device 112 is input to the orthogonal transformation device 104, where discrete cosine transformation, Karhunen's label transformation, etc. Is subjected to orthogonal transformation.
  • the transform coefficient obtained as the output of the orthogonal transform device 104 is subjected to quantization processing in the quantization device 105.
  • the quantized transform coefficient obtained as the output of the quantizer 105 is input to the lossless transformer 106, where lossless coding such as variable length coding and arithmetic coding is performed, and then to the accumulation buffer 107. Accumulated and output as image compression information DPC.
  • the behavior of the quantizer 105 is controlled by the rate controller 114.
  • the quantized transform coefficient obtained as the output of the quantizer 105 is input to the inverse quantizer 108, and further subjected to inverse orthogonal transform processing in the inverse orthogonal transform device 109 to obtain decoded image information.
  • the information is stored in the frame memory 111.
  • the intra prediction device 112 information on the intra prediction mode applied to the block Z macroblock is transmitted to the lossless encoding device 106, and is encoded as part of the header information in the image compression information DPC.
  • image information is input to the motion prediction / compensation apparatus 113.
  • reference image information is extracted from the frame memory 111, subjected to motion prediction compensation processing, and reference image information is generated.
  • the reference image information is sent to the adder 103, where it is converted into a difference signal from the image information.
  • the motion prediction / compensation device 113 simultaneously outputs motion vector information to the lossless encoding device 106, and the information is subjected to lossless encoding processing such as variable-length encoding and arithmetic coding, so that the image compression information DPC Forms information to be inserted into the header.
  • the rest of the processing is the same as the DPC for image compression information that is subject to intra coding.
  • Fig. 2 shows a block diagram of a configuration example of an image information decoding apparatus 150 that realizes image compression by orthogonal transform such as discrete cosine transform or Karhunen's label transform and motion compensation.
  • the image information decoding device 150 includes an accumulation buffer 115 to which image compression information DPC is supplied, a lossless encoding device 116 to which image compression information DPC read from the accumulation buffer 115 is supplied, and the lossless code.
  • Inverse quantization device 117 to which the output of the quantization device 116 is supplied, an inverse orthogonal transformation device 118 to which the output of the inverse quantization device 117 is supplied, and an adder 119 to which the output of the inverse orthogonal transformation device 118 is supplied
  • the output of the adder 119 is supplied via the deblock filter 125, and the output of the screen rearrangement buffer 120 and the frame memory 122.
  • the output of the screen rearrangement buffer 120 is the output of the DZA converter 121 and the frame memory 122.
  • the motion prediction / compensation device 123 to which the force is supplied and the intra prediction device 124 are also equal.
  • input image compression information DPC is first stored in the accumulation buffer 115 and then transferred to the lossless decoding apparatus 116.
  • processing such as variable-length decoding and arithmetic decoding is performed based on the format of the defined image compression information DPC.
  • the lossless decoding device 116 also decodes the intra prediction mode information stored in the header portion of the image compression information DPC, and Information is transmitted to the intra prediction device 124.
  • the lossless decoding apparatus 116 also decodes the motion vector information stored in the header portion of the image compression information DPC, and moves the information into motion. Transfer to prediction compensation device 123.
  • the quantized transform coefficient obtained as the output of the lossless decoding device 116 is input to the inverse quantization device 117, where it is output as a transform coefficient.
  • the transform coefficient is subjected to a fourth-order inverse orthogonal transform in the inverse orthogonal transform device 118 based on a predetermined method.
  • the image information subjected to the inverse orthogonal transform process is combined with the predicted image generated in the intra prediction device 124 in the adder 119.
  • the block distortion is removed by the deblocking filter 125, it is stored in the screen rearrangement buffer 120, and is subjected to DZA conversion processing by the DZA conversion device 121 to be an output signal Sout.
  • a reference image is generated based on the motion vector information subjected to the lossless decoding process and the image information stored in the frame memory 122.
  • the image and the output of the inverse orthogonal transformer 118 are added to the adder 120. And synthesized. Other processing is the same as that of the intra-coded frame.
  • the motion prediction / compensation apparatus 112 plays an important role in order to realize high compression efficiency.
  • the AVC encoding method by introducing the following three methods, higher compression efficiency is achieved compared to conventional image encoding methods such as MPEG2'4. That is, the first method is a multiple reference frame, the second method is a variable motion prediction compensation block size, and the third method is motion compensation with 1Z4 pixel accuracy using an FIR filter. is there.
  • AVC as shown in Fig. 3, there is a reference image Fre of multiple frames for an image Forg of a certain frame, and it is possible to specify which of multiple frames of reference image Fre is used for each motion compensation block. Is possible.
  • variable block size defined by the AVC code method will be described.
  • one macroblock MB is 16 X 16, 16 X 8, 8 X 16 or 8 X 8, as shown in Fig. 4A, Fig. 4B, Fig. 4C, and Fig. 4D. It is possible to divide into any motion compensation block, and each motion compensation block can have a motion vector and a reference frame independently. Furthermore, sub-macroblock partitions are shown in FIGS. 5A, 5B, 5C, and 5D. As shown, for 8x8 motion compensation blocks, each partition is either 8x8, 8x4, 4x8 or 4x4. Can be divided into subpartitions. In each macroblock MB, each motion compensation block can have separate motion vector information.
  • a motion compensation process with 1Z4 pixel accuracy will be described with reference to FIG.
  • a 6-tap FIR (Finite Impulse Response) filter having a filter coefficient as shown in the following Equation 1 is defined to generate a pixel value with 1Z2 pixel accuracy.
  • Equation 2 For motion compensation (interpolation) for pixel values b and h shown in Fig. 6, the product-sum operation is first performed as shown in Equation 2, using the filter coefficient of Equation 1.
  • Clipl indicates clip processing between (0, 255). Also.
  • >> 5 indicates a 5-bit shift, that is, a division of 25 .
  • Equation 4 For pixel value j, pixel values aa, bb, cc, dd, ee, ff, gg, and hh are generated using the same method as b and h, and then product-sum operation is performed as shown in Equation 4. It is calculated by the clip processing as shown in Equation 5.
  • pixel values a, c, d, n, f, i, k, and q are obtained by linear interpolation of the pixel value with integer pixel accuracy and the pixel value with 1Z2 pixel accuracy, as shown in Equation 6 below.
  • a (G + b + l) >> l
  • n (M + h + l) >> l
  • the pixel values e, g, and p can be obtained by linear interpolation using pixel values with 1Z2 pixel accuracy, as shown in Equation 7 below.
  • the image information encoding apparatus 100 shown in FIG. 1 a large amount of calculation is required to search for motion vectors.
  • the key to building a device that operates in real time is how to reduce the amount of computation required for motion vector search while minimizing image quality degradation.
  • multiple reference frames, variable motion prediction compensation block sizes, and motion compensation with 1Z4 pixel accuracy are allowed.
  • the refinement process in motion prediction compensation becomes heavier.
  • a rough search is performed by hierarchical search, and then the original scale is restored to search around the vector obtained as a result of the hierarchical search.
  • an object of the present invention is to provide an image code such as AVC in view of the conventional problems as described above.
  • an image information encoding device that outputs compressed image information based on a coding method, it is intended to realize a high speed motion vector search and a reduction in memory access.
  • the present invention has a plurality of frames of reference images for each motion compensation block having a plurality of frames of reference images and dividing a target frame image to be processed among consecutive frame images.
  • a motion prediction / compensation method that specifies a reference image to be used and searches for a motion vector based on a hierarchical search, and is the highest of the pixel sizes of the motion compensation block.
  • a hierarchical layer step for generating a reduced image of a lower layer having a predetermined reduction ratio by thinning out the pixels of the motion compensation block having a large size and the pixel size, and generated in the hierarchical layer step.
  • a first motion prediction compensation step that searches for a motion vector using a reduced image, and a reduced reference image to be used in the first motion prediction compensation step is determined on the reduced image. For the reference image determination step and the image before reduction, the motion vector is searched for using the predetermined search range specified by the motion vector searched in the first motion prediction compensation step to perform motion prediction compensation. And a second motion prediction compensation step.
  • the present invention has a plurality of frame reference images, and for each motion compensation block obtained by dividing a target frame image to be processed among consecutive frame images, which of the plurality of frame reference images is used.
  • a motion prediction compensation device that searches for a motion vector based on a hierarchical search, wherein the motion compensation block having the largest pixel size to be the highest layer among the pixel sizes of the motion compensation block
  • a first layer motion prediction unit that generates a reduced image of a lower layer having a predetermined reduction ratio by thinning out the pixels, and a motion vector search using the reduced image generated by the layering unit.
  • Means for determining a reduced reference image to be used in the first motion prediction / compensation means on the reduced image, and an image before reduction.
  • a second motion prediction compensation unit that performs motion prediction compensation by searching for a motion vector using a predetermined search range specified by the motion vector searched by the first motion prediction compensation unit; It is characterized by.
  • FIG. 1 is a block diagram showing a configuration of an image information encoding device that realizes image compression by orthogonal transform such as discrete cosine transform or Karhunen's label transform and motion compensation.
  • FIG. 2 is a block diagram showing a configuration of an image information decoding apparatus that realizes image compression by orthogonal transformation such as discrete cosine transformation or Karhunen's label transformation and motion compensation.
  • FIG. 3 is a diagram showing the concept of multiple reference frames defined by the AVC encoding method.
  • FIG. 4A, FIG. 4B, FIG. 4C, and FIG. 4D are diagrams showing macroblock partitions in motion compensation processing based on variable block sizes defined by the AVC encoding method.
  • FIG. 5A, FIG. 5B, FIG. 5C, and FIG. 5D are diagrams showing sub-macroblock partitions in motion compensation processing based on variable block sizes defined by the AVC encoding method.
  • FIG. 6 is a diagram for explaining motion compensation processing with 1Z4 pixel accuracy defined by the AVC code method.
  • FIG. 7 is a block diagram showing a configuration of an image information encoding device to which the present invention is applied.
  • FIG. 8 is a diagram showing an operation principle of a thinning device in the image information encoding device.
  • FIG. 9 is a diagram for explaining eyelet sampling in a motion prediction / compensation apparatus (1ZN 2 resolution).
  • FIG. 10 is a diagram showing an example of a relationship between a reduced image and a reference image in the image information encoding device.
  • FIG. 11A and FIG. 11B are diagrams showing an example of how to divide a plurality of MB bands in the image information encoding device.
  • FIG. 12 is a flowchart showing the procedure of image processing in the image information encoding device. Yat.
  • FIG. 13 is a diagram showing how memory access is reduced.
  • the present invention is applied to, for example, an image information encoding device 20 having a configuration as shown in FIG. That is, the image information encoding device 20 shown in FIG. 7 includes an AZD conversion device 1 to which an input image signal Sin is supplied, and a screen rearrangement buffer to which image data digitized by the AZD conversion device 1 is supplied.
  • the quantization device 5 to which the output of the orthogonal transformation device 4 is supplied, the lossless encoding device 6 and the inverse quantization device 8 to which the output of the quantization device 5 is supplied, and the output of the lossless encoding device 6 are supplied.
  • the input image signal Sin is first converted into a digital signal in the AZD conversion device 101.
  • the screen rearrangement buffer 2 rearranges the frames in accordance with the GOP (Group of Pictures) structure of the image compression information DPC to be output.
  • the difference information between the input image and the pixel value generated by the intra prediction device 16 is input to the orthogonal transformation device 4, where discrete cosine transformation, Karoonen's label transformation, etc. Is subjected to orthogonal transformation.
  • the transform coefficient obtained as the output of the orthogonal transform device 4 is subjected to quantization processing in the quantization device 5.
  • the quantized transform coefficient obtained as the output of the quantizing device 5 is input to the lossless transforming device 6 where lossless coding such as variable length coding and arithmetic coding is performed and then stored in the storage buffer 7. Accumulated and output as compressed image information DPC.
  • the behavior of the quantizer 5 is controlled by the rate controller 18.
  • the quantized transform coefficient obtained as the output of the quantizing device 5 is input to the inverse quantizing device 8, and further subjected to inverse orthogonal transform processing in the inverse orthogonal transforming device 9 to become decoded image information.
  • the information is stored in the frame memory 11.
  • information on the intra prediction mode applied to the block Z macroblock is transmitted to the lossless encoding device 6 and encoded as part of the header information in the image compression information DPC. .
  • image information is input to the motion prediction / compensation device 17.
  • reference image information is extracted from the frame memory 11 and subjected to motion prediction compensation processing to generate reference image information.
  • the reference image information is sent to the adder 3, where it is converted into a difference signal from the image information.
  • the motion prediction / compensation device 17 outputs motion vector information to the lossless encoding device 6 at the same time, and the information is subjected to lossless encoding processing such as variable length encoding and arithmetic encoding, and the header portion of the image compression information DPC.
  • the information to be inserted into is formed.
  • Other processes are the same as the image compression information DP C subjected to intra coding.
  • the thinning device 12 receives the image information stored in the frame memory (full resolution) 11 as shown in FIG. 8 and inputs it into the horizontal direction and the vertical direction respectively.
  • 1ZN decimation processing is performed, and the pixel value generated thereby is stored in the frame memory (1ZN 2 resolution) 13.
  • the motion prediction / compensation device (1ZN 2 resolution) 14 uses the pixel values stored in the frame memory (1ZN 2 resolution) 1 3 and uses the pixel values of 8 X 8 blocks or 16 X 16 blocks. Searches for optimal motion vector information for the block by matching. At that time, the predicted energy is not calculated using all the pixel values. As shown in FIG. Calculation is performed using the value.
  • the thinning process shown in FIG. 8 is performed separately for the first field and the second field.
  • the motion vector information searched using the reduced image is input to the motion prediction / compensation device (full resolution) 17.
  • the motion prediction compensator (1Z4 resolution) 14 has a search unit of 8 X 8 blocks, one 16 X for one macro block MB. 16 block force If the unit of search is 16 X 16 blocks, one 16 X 16 block is obtained for four macroblocks MB, but motion prediction compensator (full resolution) In 17, all motion vector information defined in Fig. 4 and Fig. 5 is searched for a very small range centered on these 16 X 16 motion vectors. In this way, by performing motion prediction compensation for a very small search range based on motion vector information obtained on a reduced image, the amount of computation can be greatly reduced while minimizing image quality degradation. Is possible.
  • the reference frame for each motion compensation block is determined as follows.
  • the motion prediction / compensation device (1ZN 2 resolution) 14 detects motion margins for all candidate reference frames.
  • the motion prediction compensator (full resolution) 17 after performing the refinement process of the motion vector obtained for each reference frame, the reference frame that minimizes the residual or some cost function Is selected as a reference frame for the motion compensation block.
  • a rough search is performed using a hierarchical search, and then the original scale is restored to search around the motion vector obtained as a result of the hierarchical search.
  • AVC allows multiple reference frames, variable motion prediction compensation block size, and motion compensation with 1Z4 pixel accuracy, so motion prediction compensation increases as the number of candidate reference frames increases.
  • Equipment (full resolution) 17 becomes heavy even in the reference process.
  • FIG. 1 a specific example of field coding is shown in FIG.
  • the reference field is 2 fields on both the front side (ListO) and the back side (Listl), and the frame memory (1ZN 2 resolution) 13 reduction ratio N is 4.
  • ListO Listl is a list of reference image indexes. In the P picture that refers to the front side, the reference image is specified using an index list called ListO, and in the B picture that refers to the rear side, it is called Listl. The reference image is specified using the index list.
  • an optimal motion vector is derived by the motion prediction / compensation device (1ZN, 2 resolution) 14, and the motion prediction / compensation device (full resolution) 17 around the motion vector is used for all block sizes. If refinement processing is performed and the reference field is determined for each list, the refinement processing in the motion prediction / compensation device (full resolution) 17 becomes heavy, so this image information encoding device 20 determines the reference frame. In the device 15, the reference field is determined as shown in FIG. 11 and FIG.
  • 16 X 16 blocks are divided into 16 X 4 bands as shown in Fig. 11 (B), and the motion prediction compensator (1Z16 resolution) 14 performs 16 X 16 block matching. , Keeps energy (SAD) every band of 16 x 4.
  • SAD—ListX [refIdx] [Blkldx] represents the SAD stored for each Bl kldx with respect to the optimal motion vector obtained by 16 X 16 block matching for each reference image index number refl dx of ListX .
  • the reference image index number refldx is an index indicating a reference image that can be arbitrarily defined in the standard, and is normally assigned a smaller number from the nearest. Even for the same reference image, different reference image index numbers are assigned to ListO indicating the reference image on the front side and Listl indicating the reference image on the rear side.
  • the optimal motion vector MV—ListX [refldx] (MV—ListO [0], MV—ListO [l], MV—Listl [0], MV—Listl [1) is obtained by 16 X 16 block matching in each reference field. ]).
  • the reference frame determination device 56 compares the residual energies for each corresponding index number Blkldx in each List, as shown in Equation 9 below. Determined to be a reference field in 4 units.
  • the small field with the reference image index number refldx is used as the reference fino red.
  • a reference field (refldx—ListX [BlkIdx]) and a motion vector (MV_ListX [Blkldx]) are obtained for each Blkldx.
  • the index value used for comparison is the sum of absolute differences (SAD) obtained as a result of MXN block matching, but the orthogonally transformed sum of absolute differences (SATD) obtained as a result of block matching of MXN Or use the sum of squared differences (SSD).
  • the value of the reference image index number refldx which does not use only SAD, SATD, or SSD as the index value, is calculated by adding the value to SAD etc. with arbitrary weighting ( ⁇ 1). As an index value.
  • Equation 10 If the evaluation index is defined as Cost and ⁇ ⁇ name, it is expressed as in Equation 10.
  • the information amount of the motion vector may be added to the evaluation index.
  • an evaluation index generation formula is defined using weighting variable 2 as shown in Formula 11.
  • the image information encoding device 20 performs image processing according to the procedure shown in the flowchart of FIG.
  • the image information stored in the frame memory (full resolution) 136 by the thinning device 137 is input, and 1ZN thinning processing is performed on each of the horizontal direction and the vertical direction, and the generated pixel
  • the value is stored in frame memory (1ZN 2 resolution) 139 (step Sl).
  • the motion prediction / compensation device (1ZN 2 resolution) 138 searches for the optimal motion vector information for the block by block matching using the pixel values stored in the frame memory (1ZN 2 resolution) 139 (step S4). .
  • step S5 the SAD value is stored for each Blk Idx at the point where the SAD obtained as a result of the block matching becomes the minimum value.
  • the reference image index number refldx is incremented (step S7).
  • step S8 It is determined whether or not the reference image index number refldx has reached the final value (step S8). If the determination result is NO, the process returns to step S4 to return to steps S4 to S4. Repeat step S8.
  • step S8 If the determination result in step S8 is YES, a reference image index number refldx that minimizes SAD is obtained for each Blkldx in ListX (step S9).
  • step S11 it is determined whether or not it is Listl (step S11), and if the determination result is YES, the process returns to step S3 to repeat the processing from step S3 to step S11. If the determination result in step S1 is NO, the process is terminated.Refinement processing is performed only around the reference image index number refldx and motion vector obtained for each List and each Blkldx obtained as described above. By doing so, it is possible to reduce the amount of computation in refinement processing and to increase the ME speed.
  • the macro block MB By reusing previously searched memory and accessing only the newly required area ARn in the refinement window REW as shown in Fig. 13, memory access can be reduced.
  • the 4 X 1MB band was taken as an example, but when the macro block MB of MXN is used as the unit of block matching in the reduced image, ⁇ ⁇ ⁇ '( ⁇ is between 1 and ⁇ ) or ⁇ , ⁇ ⁇ ( ⁇ , is greater than or equal to 1 and less than or equal to ⁇ ) is applicable to Blkldx.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 複数フレームの参照画像を持ち、連続するフレーム画像のうち処理対象の対象フレーム画像を分割してなるそれぞれの動き補償ブロック毎に、複数フレームの参照画像のどれを用いるかを指定して、階層探索に基づく動きベクトルの探索を行うにあたり、間引き装置(12)において、上記動き補償ブロックの画素サイズのうち、最上位層とすべき最も大きい上記画素サイズでなる上記動き補償ブロックの画素を間引くことにより、所定の縮小率でなる下位層の縮小画像を生成し、参照フレーム決定装置(15)により縮小画像上で縮小参照画像を決定し、生成された縮小画像を用いて動き予測補償装置(1/N2解像度)15において動きベクトルを探索し、動き予測補償装置(フル解像度)17により、縮小前の画像について、上記動き予測補償装置(1/N2解像度)15において探索された動きベクトルにより指定される所定の検索範囲を用いて、動きベクトルを探索して動き予測補償を行う。

Description

明 細 書
動き予測補償方法及び動き予測補償装置
技術分野
[0001] 本発明は、動き予測補償方法及び動き予測補償装置に関し、例えば MPEG、 H.
26x等のように、離散コサイン変換若しくはカルーネン ·レーべ変換等の直交変換と 動き補償によって圧縮された画像情報 (ビットストリーム)を、衛星放送、ケーブル TV 、インターネット、携帯電話などのネットワークメディアを介して受信する際に、若しく は光、磁気ディスク、フラッシュメモリのような記憶メディア上で処理する際に用いられ る画像情報符号ィ匕装置に適用して好適なものである。
本出願は、日本国において 2004年 6月 29日に出願された日本特許出願番号 200 4- 191937を基礎として優先権を主張するものであり、この出願は参照することによ り、本出願に援用される。
背景技術
[0002] 例えば、特開 2004— 56827号公報等に示されているように、近年、画像情報をデ ジタルとして取り扱い、その際、効率の高い情報の伝送、蓄積を目的とし、画像情報 特有の冗長性を利用して、離散コサイン変換等の直交変換と動き補償により圧縮す る MPEGなどの方式に準拠した装置が、放送局などの情報配信、及び一般家庭に おける情報受信の双方において普及しつつある。
特に、 MPEG2 (ISOZlEC 13818— 2)は、汎用画像符号化方式として定義され ており、飛び越し走査画像及び順次走査画像の双方、並びに標準解像度画像及び 高精細画像を網羅する標準で、プロフェッショナル用途及びコンシューマー用途の 広範なアプリケーションに現在広く用いられて 、る。 MPEG2圧縮方式を用いること により、例えば 720 X 480画素を持つ標準解像度の飛び越し走査画像であれば 4〜 8Mbps, 1920 X 1088画素を持つ高解像度の飛び越し走査画像であれば 18〜22 Mbpsの符号量 (ビットレート)を割り当てることで、高い圧縮率と良好な画質の実現が 可能である。
MPEG2は主として放送用に適合する高画質符号化を対象として!/ヽたが、 MPEG 1より低 、符号量 (ビットレート)、つまりより高 、圧縮率の符号化方式には対応して ヽ なかった。携帯端末の普及により、今後そのような符号ィヒ方式のニーズは高まると思 われ、これに対応して MPEG4符号化方式の標準化が行われた。画像符号化方式 に関しては、 1998年 12月に ISOZIEC 14496— 2としてその規格が国際標準に 承認された。
更に、近年、当初テレビ会議用の画像符号ィ匕を目的として、 H. 26L (ITU-T Q 6/16 VCEG)という標準の規格化が進んでいる。 H. 26Lは MPEG2や MPEG4 といった従来の符号化方式に比べ、その符号化、復号化により多くの演算量が要求 されるものの、より高い符号ィ匕効率が実現されることが知られている。また、現在、 MP EG4の活動の一環として、この H. 26Lをベースに、 H. 26Lではサポートされない機 能をも取り入れ、より高い符号ィ匕効率を実現する標準化力 Sjoint Model of Enha need -Compression Video Codingとして行われている。標準化のスケジュール としては、 2003年 3月には H. 264及び MPEG— 4 Part 10 (Advanced Video Coding:以下 AVCと 、う) t ヽぅ名の元に国際標準となった。
AVC規格に基づいた画像圧縮情報 DPCを出力とする画像情報符号ィ匕装置 100 の構成例を図 1のブロック図に示す。
この画像情報符号ィ匕装置 100は、入力となる画像信号 Sinが供給される AZD変換 装置 1、この AZD変換装置 101によりデジタル化された画像データが供給される画 面並べ替えバッファ 102、この画面並べ替えバッファ 102から読み出された画像デー タが供給される加算器 103、イントラ予測装置 112及び動き予測補償装置 113、上 記加算器 103の出力が供給される直交変換装置 104、この直交変換装置 104の出 力が供給される量子化装置 105、この量子化装置 105の出力が供給される可逆符 号化装置 106及び逆量子化装置 108、上記 可逆符号化装置 106の出力が供給さ れる蓄積バッファ 107、上記逆量子化装置 108の出力が供給される逆直交変換装置 109、この逆直交変換装置 109の出力が供給されるデブロックフィルタ 110、このデ ブロックフィルタ 110の出力が供給されるフレームメモリ 111、上記蓄積バッファ 107 の出力が供給されるレート制御装置 114等力もなる。
この画像情報符号化装置 100において、入力となる画像信号は、まず、 AZD変換 装置 101においてデジタル信号に変換される。次に、出力となる画像圧縮情報 DPC の GOP(Group of Pictures)構造に応じ、画面並べ替えバッファ 102においてフレー ムの並べ替えが行われる。イントラ符号ィ匕が行われる画像に関しては、入力画像と、 イントラ予測装置 112により生成される画素値の差分情報が直交変換装置 104に入 力され、ここで離散コサイン変換、カルーネン 'レーべ変換等の直交変換が施される 。直交変換装置 104の出力として得られる変換係数は、量子化装置 105において量 子化処理が施される。量子化装置 105の出力として得られる量子化された変換係数 は、可逆変換装置 106に入力され、ここで可変長符号化、算術符号化等の可逆符号 化が施された後、蓄積バッファ 107に蓄積され、画像圧縮情報 DPCとして出力される 。量子化装置 105の挙動はレート制御装置 114によって制御される。同時に、量子 化装置 105の出力として得られる量子化された変換係数は、逆量子化装置 108に入 力され、更に逆直交変換装置 109において逆直交変換処理が施されて、復号化画 像情報となり、デブロックフィルタ 110においてブロック歪の除去が施された後、その 情報はフレームメモリ 111に蓄積される。イントラ予測装置 112において、当該ブロッ ク Zマクロブロックに対して適用されたイントラ予測モードに関する情報は、可逆符号 化装置 106に伝送され、画像圧縮情報 DPCにおけるヘッダ情報の一部として符号 化される。
インター符号ィ匕が行われる画像に関しては、まず、画像情報は動き予測補償装置 1 13に入力される。同時に参照となる画像情報がフレームメモリ 111より取り出され、動 き予測補償処理を施され、参照画像情報が生成される。参照画像情報は加算器 10 3に送られ、ここで当該画像情報との差分信号へ変換される。動き予測補償装置 113 は、同時に動きベクトル情報を可逆符号ィ匕装置 106に出力し、その情報は可変長符 号化、算術符号ィ匕といった可逆符号ィ匕処理が施され、画像圧縮情報 DPCのヘッダ 部に挿入される情報を形成する。その他の処理はイントラ符号化を施される画像圧縮 情報 DPCと同様である。
図 2に、離散コサイン変換若しくはカルーネン 'レーべ変換等の直交変換と動き補 償により画像圧縮を実現する画像情報復号化装置 150の構成例のブロック図を示す この画像情報復号ィ匕装置 150は、画像圧縮情報 DPCが供給される蓄積バッファ 1 15、この蓄積バッファ 115から読み出された画像圧縮情報 DPCが供給される可逆符 号化装置 116、この可逆符号化装置 116の出力が供給される逆量子化装置 117、こ の逆量子化装置 117の出力が供給される逆直交変換装置 118、この逆直交変換装 置 118の出力が供給される加算器 119、この加算器 119の出力がデブロックフィルタ 125を介して供給される画面並べ替えバッファ 120及びフレームメモリ 122、上記画 面並べ替えバッファ 120の出力が DZ A変換装置 121、上記フレームメモリ 122の出 力が供給される動き予測補償装置 123及びイントラ予測装置 124等力もなる。
この画像情報復号化装置 150において、入力となる画像圧縮情報 DPCは、まず、 蓄積バッファ 115に格納された後、可逆復号ィ匕装置 116に転送される。ここで、定め られた画像圧縮情報 DPCのフォーマットに基づき、可変長復号化、算術復号化等の 処理が行われる。同時に、当該フレーム力 Sイントラ符号ィ匕されたものである場合、可 逆復号化装置 116にお ヽては、画像圧縮情報 DPCのヘッダ部に格納されたイントラ 予測モード情報をも復号化し、その情報をイントラ予測装置 124へ伝送する。当該フ レーム力インター符号ィ匕されたものである場合、可逆復号ィ匕装置 116においては、 画像圧縮情報 DPCのヘッダ部に格納された動きベクトル情報をも復号ィ匕し、その情 報を動き予測補償装置 123へ転送する。
可逆復号ィ匕装置 116の出力として得られる量子化された変換係数は、逆量子化装 置 117に入力され、ここで変換係数として出力される。変換係数は、逆直交変換装置 118において、定められた方式に基づき、 4次の逆直交変換が施される。当該フレー ム力イントラ符号化されたものである場合には、逆直交変換処理が施された画像情報 は、イントラ予測装置 124において生成された予測画像との合成が加算器 119にお いて行われ、更に、デブロックフィルタ 125においてブロック歪の除去が施された後、 画面並べ替えバッファ 120に格納され、 DZA変換装置 121により DZA変換処理さ れて出力信号 Soutとされる。
当該フレーム力インター符号ィ匕されたものである場合には、可逆復号化処理が施さ れた動きベクトル情報、及びフレームメモリ 122に格納された画像情報を元に参照画 像が生成され、この参照画像と、逆直交変換装置 118の出力とが、加算器 120にお いて合成される。その他の処理はイントラ符号ィ匕されたフレームと同様である。
ところで、図 1に示した画像情報符号ィ匕装置において、高い圧縮効率を実現するた めに、動き予測補償装置 112が重要な役割を果たす。 AVC符号ィ匕方式においては 、以下に述べる 3つの方式を導入することで、従来の MPEG2'4等の画像符号化方 式と比較して高い圧縮効率を実現している。すなわち、第一の方式はマルチプルリフ アレンスフレーム(Multiple Reference Frame)、第二の方式は、可変動き予測補償ブ ロックサイズ、第三の方式は、 FIRフィルタを用いた、 1Z4画素精度の動き補償であ る。
まず、 AVC符号化方式で規定されて 、るマルチプルリファレンスフレームにつ 、て ベる。
AVCにおいては、図 3に示すとおり、あるフレームの画像 Forgに対し複数フレーム の参照画像 Fre 持ち、それぞれの動き補償ブロック毎に、複数フレームの参照画 像 Freのどれを用いるかを指定することが可能である。
これは、例えば、直前のフレームにおいては、ォクルージョン(occlusion)〖こより、参 照すべきブロックが存在しない場合でも、過去に遡って参照を行うことで、符号化効 率の低下を防ぐことが可能となる。すなわち、参照画で本来サーチして欲しい領域が 前景によって隠れてしまった場合にも、違う参照画ではその画が隠れていない場合、 そちらを参照すれば動き予測補償を行うことができる。
また、参照となる画像にフラッシュが存在した場合、このフレームを参照することによ り符号ィ匕効率は著しく低下するが、この場合も、過去に遡って参照を行うことで、符号 化効率の低下を防ぐことが可能となる。
次に、 AVC符号ィ匕方式で規定されている、可変ブロックサイズについて述べる。
AVC符号化方式においては、図 4A,図 4B,図 4C,図 4Dにマクロブロックパーテ イシヨンを示すように、一つのマクロブロック MBは 16 X 16, 16 X 8, 8 X 16もしくは 8 X 8のいずれかの動き補償ブロックに分割し、それぞれの動き補償ブロックで独立に 動きベクトル及び参照フレームを持つことが可能であり、更に、図 5A,図 5B,図 5C, 図 5Dにサブマクロブロックパーティションを示すように、 8 X 8動き補償ブロックに関し ては、それぞれのパーティションを 8 X 8, 8 X 4, 4 X 8もしくは 4 X 4のいずれかのサ ブパーティションに分割することが可能である。各マクロブロック MBにおいて、それ ぞれの動き補償ブロックは、別個の動きベクトル情報を持つことが可能である。
次に、 AVC符号ィ匕方式で規定されている 1Z4画素精度の動き補償処理について べる。
以下では、図 6を用いて、 1Z4画素精度の動き補償処理について説明する。 AVC符号ィ匕方式では、 1Z2画素精度の画素値を生成するため、次の式 1に示す ようなフィルタ係数を有する 6タップの FIR(Finite Impulse Response)フィルタが定義さ れている。
{1, -5, 20, 20, -5, 1} (式 1)
図 6に示す画素値 b, hに対する動き補償 (補間)に関しては、式 1のフィルタ係数を 用いて、まず式 2に示すように積和演算を行う。
b= (E— 5F+20G + 20H— 5H+J)
h= (A-5C + 20G + 20M-5R+T) (式 2)
その後式 3に示す処理を行う。
b = Clipl((b+16) >>5) (式 3)
ここで Cliplは(0, 255)間でのクリップ処理を示す。また。 >>5は、 5ビットシフト すなわち 25の除算を示す。
また、画素値 jに関しては、 b, hと同様の手法で画素値 aa, bb, cc, dd, ee, ff, gg , hhを生成した後、式 4に示すように積和演算が施され、式 5に示すようなクリップ処 理によって算出される。
る。
j = cc-5dd+20h+20m-5ee+ff
若しくは (式 4) j = aa-5bb + 20b + 20s-5gg+hh
j = Clipl ((j + 512) >> 10) (式 5)
画素値 a, c, d, n, f, i, k, qに関しては、次の式 6に示すように、整数画素精度の 画素値と、 1Z2画素精度の画素値の線形内挿により求められる。 a=(G+b + l)>>l
c=(H+b + l)>>l
d=(G+h+l)>>l
n=(M+h+l)>>l
f=(b+j + l)>>l
i=(h+j + l)>>l (式 6)
k=(j+m+l)>>l
q=(j + s + l)>>l
また、画素値 e, g, pに関しては、次の式 7に示すように、 1Z2画素精度の画素値を 用いた線形内挿により求められる。
e=(b + h+l)>>l
g=(b+m+l)>>l (式 7)
p=(h+s + l)>>l
ところで、図 1に示した画像情報符号ィ匕装置 100では、動きベクトルの探索に多くの 演算量を要する。実時間動作する装置を構築するためには、画質劣化を最小限に 抑えながら、動きベクトル探索に要する演算量を如何に削減するかが鍵となる。 し力しながら、 AVC符号ィ匕方式では、先に述べたように、マルチプルリファレンスフ レーム、可変動き予測補償ブロックサイズ、及び、 1Z4画素精度の動き補償が許さ れているため、候補参照フレームの数が増えてくると、動き予測補償におけるリファイ ンメント(Refinement)処理でも重くなつてしまう。リファインメント(Refinement)処理では 、階層サーチで荒くサーチした後、本来のスケールに戻して、階層サーチの結果得 られたベクトルの周辺をサーチする。
さらに、画像符号ィ匕装置 (HZW化)を考えた場合には、マクロブロック内の全ての ブロックサイズに対して参照フレーム毎に、動き探索処理を行うため、メモリーへのァ クセスが頻繁になるため、場合によってはメモリー帯域をあげる必要が出てくる。 発明の開示
発明が解決しょうとする課題
そこで、本発明の目的は、上述の如き従来の問題点に鑑み、 AVC等の画像符号 化方式に基づく画像圧縮情報を出力する画像情報符号ィ匕装置において、動きべ外 ル探索の高速化や、メモリアクセスの低減を実現することにある。
本発明は、上述した課題を解決するために、複数フレームの参照画像を持ち、連 続するフレーム画像のうち処理対象の対象フレーム画像を分割してなるそれぞれの 動き補償ブロック毎に、複数フレームの参照画像のどれを用いるかを指定して、階層 探索に基づく動きべ外ルの探索を行う動き予測補償方法であって、上記動き補償ブ ロックの画素サイズのうち、最上位層とすべき最も大き 、上記画素サイズでなる上記 動き補償ブロックの画素を間引くことにより、所定の縮小率でなる下位層の縮小画像 を生成する階層ィ匕ステップと、上記階層ィ匕ステップにお ヽて生成された縮小画像を 用いて動きベクトルを探索する第 1の動き予測補償ステップと、上記第 1の動き予測 補償ステップにおいて使用する縮小参照画像を縮小画像上で決定する参照画決定 ステップと、縮小前の画像について、上記第 1の動き予測補償ステップで探索された 動きベクトルにより指定される所定の検索範囲を用いて、動きベクトルを探索して動き 予測補償を行う第 2の動き予測補償ステップとを備えることを特徴とする。
また、本発明は、複数フレームの参照画像を持ち、連続するフレーム画像のうち処 理対象の対象フレーム画像を分割してなるそれぞれの動き補償ブロック毎に、複数 フレームの参照画像のどれを用いるかを指定して、階層探索に基づく動きベクトルの 探索を行う動き予測補償装置であって、上記動き補償ブロックの画素サイズのうち、 最上位層とすべき最も大きい上記画素サイズでなる上記動き補償ブロックの画素を 間引くことにより、所定の縮小率でなる下位層の縮小画像を生成する階層化手段と、 上記階層化手段により生成された縮小画像を用いて動きベクトルを探索する第 1の 動き予測補償手段と、上記第 1の動き予測補償手段において使用する縮小参照画 像を縮小画像上で決定する参照画決定手段と、縮小前の画像について、上記第 1の 動き予測補償手段により探索された動きべ外ルにより指定される所定の検索範囲を 用いて、動きべ外ルを探索して動き予測補償を行う第 2の動き予測補償手段とを備 えることを特徴とする。
本発明の更に他の目的、本発明によって得られる具体的な利点は、以下に説明さ れる実施の形態の説明から一層明らかにされる。 図面の簡単な説明
[図 1]図 1は、離散コサイン変換若しくはカルーネン 'レーべ変換等の直交変換と動き 補償により画像圧縮を実現する画像情報符号化装置の構成を示すブロック図である
[図 2]図 2は、離散コサイン変換若しくはカルーネン 'レーべ変換等の直交変換と動き 補償により画像圧縮を実現する画像情報復号化装置の構成を示すブロック図である
[図 3]図 3は、 AVC符号化方式で規定されているマルチプルリファレンスフレームの 概念を示した図である。
[図 4]図 4A,図 4B,図 4C及び図 4Dは、 AVC符号化方式で規定されている、可変 ブロックサイズに基づく動き補償処理におけるマクロブロックパーティションを示す図 である。
[図 5]図 5A,図 5B,図 5C及び図 5Dは、 AVC符号化方式で規定されている、可変 ブロックサイズに基づく動き補償処理におけるサブマクロブロックパーティションを示 す図である。
[図 6]図 6は、 AVC符号ィ匕方式で規定されている、 1Z4画素精度の動き補償処理を 説明するための図である。
[図 7]図 7は、本発明を適用した画像情報符号ィ匕装置の構成を示すブロック図である
[図 8]図 8は、上記画像情報符号化装置における間引き装置の動作原理を示した図 である。
[図 9]図 9は、動き予測補償装置(1ZN2解像度)における碁の目サンプリングを説明 するための図である。
[図 10]図 10は、上記画像情報符号化装置における縮小画と参照画の関係の一例を 示した図である。
[図 11]図 11 A及び図 11Bは、上記画像情報符号化装置における複数の MB帯の区 切り方の一例を示した図である。
[図 12]図 12は、上記画像情報符号ィ匕装置における画像処理の手順を示すフローチ ヤートである。
[図 13]図 13は、メモリアクセスの低減の様子を示した図である。
発明を実施するための最良の形態
以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、本 発明は以下の例に限定されるものではなぐ本発明の要旨を逸脱しない範囲で、任 意に変更可能であることは言うまでもない。
本発明は、例えば図 7に示すような構成の画像情報符号ィ匕装置 20に適用される。 すなわち、図 7に示す画像情報符号ィ匕装置 20は、入力となる画像信号 Sinが供給 される AZD変換装置 1、この AZD変換装置 1によりデジタル化された画像データが 供給される画面並べ替えバッファ 2、この画面並べ替えバッファ 2から読み出された画 像データが供給される加算器 3、イントラ予測装置 16及び動き予測補償装置 17、上 記加算器 3の出力が供給される直交変換装置 4、この直交変換装置 4の出力が供給 される量子化装置 5、この量子化装置 5の出力が供給される可逆符号化装置 6及び 逆量子化装置 8、上記可逆符号化装置 6の出力が供給される蓄積バッファ 7、この蓄 積バッファ 7の出力が供給されるレート制御装置 18、上記逆量子化装置 8の出力が 供給される逆直交変換装置 9、この逆直交変換装置 9の出力が供給されるデブロック フィルタ 10、このデブロックフィルタ 110の出力が供給されるフレームメモリ(フル解像 度) 11、上記フレームメモリ(フル解像度) 11の出力が供給される間引き装置 12、こ の間引き装置 12の出力が供給されるフレームメモリ(1ZN2解像度) 13、このフレー ムメモリ(1ZN2解像度) 13の出力が供給される動き予測補償装置 (フル解像度) 14 、この動き予測補償装置 (フル解像度) 14に接続された参照フレーム決定装置 15等 を備えてなる。
この画像情報符号化装置 20において、入力となる画像信号 Sinは、まず、 AZD変 換装置 101においてデジタル信号に変換される。次に、出力となる画像圧縮情報 D PCの GOP(Group of Pictures)構造に応じ、画面並べ替えバッファ 2においてフレー ムの並べ替えが行われる。イントラ符号ィ匕が行われる画像に関しては、入力画像と、 イントラ予測装置 16により生成される画素値の差分情報が直交変換装置 4に入力さ れ、ここで離散コサイン変換、カルーネン 'レーべ変換等の直交変換が施される。 直交変換装置 4の出力として得られる変換係数は、量子化装置 5において量子化 処理が施される。量子化装置 5の出力として得られる量子化された変換係数は、可逆 変換装置 6に入力され、ここで可変長符号化、算術符号化等の可逆符号化が施され た後、蓄積バッファ 7に蓄積され、画像圧縮情報 DPCとして出力される。量子化装置 5の挙動はレート制御装置 18によって制御される。同時に、量子化装置 5の出力とし て得られる量子化された変換係数は、逆量子化装置 8に入力され、更に逆直交変換 装置 9において逆直交変換処理が施されて、復号化画像情報となり、デブロックフィ ルタ 10にお 、てブロック歪の除去が施された後、その情報はフレームメモリ 11に蓄 積される。イントラ予測装置 16において、当該ブロック Zマクロブロック〖こ対して適用 されたイントラ予測モードに関する情報は、可逆符号化装置 6に伝送され、画像圧縮 情報 DPCにおけるヘッダ情報の一部として符号ィ匕される。
インター符号ィ匕が行われる画像に関しては、まず、画像情報は動き予測補償装置 1 7に入力される。同時に参照となる画像情報がフレームメモリ 11より取り出され、動き 予測補償処理を施され、参照画像情報が生成される。参照画像情報は加算器 3に送 られ、ここで当該画像情報との差分信号へ変換される。動き予測補償装置 17は、同 時に動きベクトル情報を可逆符号化装置 6に出力し、その情報は可変長符号化、算 術符号化といった可逆符号化処理が施され、画像圧縮情報 DPCのヘッダ部に挿入 される情報を形成する。その他の処理はイントラ符号化を施される画像圧縮情報 DP Cと同様である。
そして、この画像情報符号化装置 20において、間引き装置 12では、図 8に示すよう に、フレームメモリ(フル解像度) 11に格納された画像情報を入力とし、これに、水平 方向、垂直方向それぞれに対して、 1ZN間引き処理を行い、これにより生成された 画素値を、フレームメモリ(1ZN2解像度) 13に格納する。
また、動き予測補償装置(1ZN2解像度) 14では、フレームメモリ(1ZN2解像度) 1 3に格納された画素値を用い、 8 X 8ブロック、若しくは 16 X 16ブロックの画素値を用 いて、ブロックマッチングにより、当該ブロックに対する最適な動きベクトル情報の探 索を行う。その際、全ての画素値を用いて予測エネルギーを計算するのではなぐ図 9に示すように、マクロブロック MBに対して、碁の目状に指定された画素 PXの画素 値を用いて、計算を行う。
当該ピクチャをフィールド符号ィ匕する際には、図 8に示した間引き処理は、第一フィ 一ルドと第二フィールドに分けて行う。
このように、縮小画像を用いて探索された動きべ外ル情報は、動き予測補償装置( フル解像度) 17へ入力される。例えば、 N= 2のとき、動き予測補償装置(1Z4解像 度) 14において、探索の単位が 8 X 8ブロックであった場合には、一つのマクロブロッ ク MBに対して、 1つの 16 X 16ブロック力 探索の単位が 16 X 16ブロックであった場 合には、四つのマクロブロック MBに対して 1つの 16 X 16ブロックが求まっていること になるが、動き予測補償装置 (フル解像度) 17においては、これらの 16 X 16動きべ タトルを中心としたごく僅かの範囲を、図 4及び図 5において定義された全ての動きべ タトル情報の探索を行う。このように、縮小画像上で求まった動きベクトル情報を元に 、ごく僅かの探索範囲に対して動き予測補償を行うことで、画質劣化を最小限に抑え ながら、演算量を大幅に削減することが可能である。
それぞれの動き補償ブロックに対する参照フレームの決定は、以下のように行われ る。
すなわち、動き予測補償装置(1ZN2解像度) 14においては、候補となる全ての参 照フレームに対する動きべ外ルの検出を行う。動き予測補償装置 (フル解像度) 17 において、それぞれの参照フレームに対して求められた動きベクトルのリファインメン ト(Refinement)処理を行った後、残差若しくはなんらかのコスト関数を最小にするよう な参照フレームを、当該動き補償ブロックに対する参照フレームとして選択する。リフ アインメント(Refinement)処理では、階層サーチで荒くサーチした後、本来のスケー ルに戻して、階層サーチの結果得られた動きベクトルの周辺をサーチする。
ところで、 AVCでは先に述べたように、マルチプルリファレンスフレーム、可変動き 予測補償ブロックサイズ、及び 1Z4画素精度の動き補償が許されているため、候補 参照フレームの数が増えてくると、動き予測補償装置 (フル解像度) 17におけるリファ インメント処理でも重くなつてしまう。
さらに、画像符号ィ匕装置 (HZW化)を考えた場合には、マクロブロック MB内の全 てのブロックサイズに対して参照フレーム毎に、動き探索処理を行うため、メモリーへ のアクセスが頻繁になるため、場合によってはメモリー帯域をあげる必要が出てくる。 ここで、フィールドコーディングのときの具体的な例を図 10に示す。当該フィールド が Bピクチヤのボトムフィールドで、参照フィールドが前方側(ListO)、後方側(Listl) が共に 2フィールドの時、さらにフレームメモリ(1ZN2解像度) 13の縮小率 Nが 4のと きの例である。 ListO, Listlは参照画像のインデックスのリストであって、前方側を参 照する Pピクチャでは ListOと呼ばれるインデックスリストを用いて参照画像の指定が 行われ、後方側を参照する Bピクチャでは Listlと呼ばれるインデックスリストを用いて 参照画像の指定が行われる。
参照フィールドごとにブロックマッチングにより、最適な動きベクトルを動き予測補償 装置(1ZN2解像度) 14で導出し、その動きベクトルを中心に動き予測補償装置 (フ ル解像度) 17において、全てのブロックサイズに対する refinement処理を行い、参 照フィールドを List毎に決定したのでは、動き予測補償装置 (フル解像度) 17におけ る Refinement処理が重くなつてしまうので、この画像情報符号化装置 20では、参照 フレーム決定装置 15にお 、て、図 11及び図 12に示すように参照フィールドを決定 する。
図 10に示した縮小率(1Z4)では、図 11 (A)に示すように、動き予測補償装置(1 /16解像度) 57でのブロックマッチングの単位を 16 X 16にした場合、動き予測補償 装置(フル解像度) 59では 4 X 4マクロブロック(16個分)への動きベクトルが同一に 設定される。
この画像情報符号化装置 20では、図 11 (B)のように 16 X 16ブロックを 16 X 4の帯 に分割し、動き予測補償装置(1Z16解像度) 14での 16 X 16ブロックマッチングの 際に、 16 X 4の帯毎〖こ、エネルギー(SAD)を保持する。
つまり、図 11 (B)のように、帯の上からインデックス番号(Blkldx)を 0, 1, 2, 3とつ けると、参照フィールドごとに、次の式 8で表すようなエネルギー(SAD)を得ることが できる。
ListXに対して(X=0, 1)
SAD— ListX[refIdx] [Blkldx] (式 8)
(Blkldx =0〜 3) ここで、 SAD— ListX[refIdx] [Blkldx]は ListXの参照画像インデックス番号 refl dx毎に 16 X 16ブロックマッチングによって求められた最適な動きベクトルに対して Bl kldx毎に SADを格納したものを表す。参照画像インデックス番号 refldxは、規格上 の任意に定義することができる参照画像を示すインデックスであって、通常は近 ヽ方 から小さい番号が割り振られる。同じ参照画像であっても、前方側の参照画像を示す ListOと、後方側の参照画像を示す Listlでは、異なる参照画像インデックス番号が 付される。
さらに、各参照フィールドで 16 X 16ブロックマッチングにより、最適な動きベクトル MV— ListX [refldx] (MV— ListO[0]、 MV— ListO[l]、 MV— Listl [0]、 MV — Listl [1])を得ている。
ここで、参照フレーム決定装置 56では、次の式 9で表すように、各 Listの対応したィ ンデッタス番号 Blkldx毎に残差エネルギーの大小比較を行!、、エネルギーの小さ ヽ 参照フィールドを 16 X 4単位での参照フィールドであると決定する。
ListXに対して(X=0, 1)
refldx [Blkldx]
= MIN (SAD_ListX[refIdx] [Blkldx]
(Blkldx =0〜 3)
(式 9) また、決められた参照画像インデックス番号 refldx毎に動きベクトル MV—ListX[r efldx]の切り替えも行う。
エネルギーが同値の場合には、参照画像インデックス番号 refldxの小さなフィール ドを参照フィーノレドとする。
上記処理により Blkldx毎に参照フィールド (refldx— ListX[BlkIdx])および、動 きベクトル (MV_ListX [Blkldx] )を得る。
ここで、比較に用いる指標値を M X Nのブロックマッチングの結果として得られる差 分絶対値和(SAD)としたが、 M X Nのブロックマッチングの結果として得られる直交 変換された差分絶対値和 (SATD)や差分 2乗和 (SSD)を用いてもょ ヽ。 また、残差エネルギー力 求められる SAD, SATDあるは SSDだけを指標値とす るのではなぐ参照画像インデックス番号 refldxの値も任意の重み付け(λ 1)で SA D等に足し込んだ値を評価指標値としてもょ ヽ。
評価指標を Costと ヽぅ名前で定義すると式 10のように表す。
Cost = SAD + λ Xrefldx (式 10)
さらに、評価指標には、動きベクトルの情報量を加えてもよい。
具体的には、式 11のように重み付け変数え 2を用いて評価指標生成式を定義する
Cost = SAD + λ Xrefldx + λ X MV (式 11)
1 2
すなわち、この画像情報符号化装置 20では、図 12のフローチャートに示す手順に 従って、画像処理を行う。
すなわち、間引き装置 137によりフレームメモリ(フル解像度) 136に格納された画 像情報を入力とし、これに、水平方向、垂直方向それぞれに対して、 1ZN間引き処 理を行い、これにより生成された画素値を、フレームメモリ(1ZN2解像度) 139に格 納する(ステップ Sl)。
ListX(X=0)とする(ステップ S 2)。
refldx=0とする(ステップ S3)。
動き予測補償装置(1ZN2解像度) 138により、フレームメモリ(1ZN2解像度) 139 に格納された画素値を用いて、ブロックマッチングにより、当該ブロックに対する最適 な動きベクトル情報の探索を行う(ステップ S4)。
そして、ブロックマッチングの結果として得られる SADが最小値となるポイントで Blk Idx毎に SAD値を格納する(ステップ S 5)。
次に、 ListXの参照画像インデックス番号 refldx毎に 16 X 16ブロックマッチングに よって求められた最適な動きベクトルに対して Blkldx毎に SADを格納したものを表 す SAD_ListX [refldx] [Blkldx]を求める(ステップ S6)。
参照画像インデックス番号 refldxをインクリメントする(ステップ S 7)。
参照画像インデックス番号 refldxが最終値になったか否かを判定して (ステップ S8 )、その判定結果が NOである場合には上記ステップ S4に戻ってステップ S4〜ステツ プ S8の処理を繰り返し行う。
上記ステップ S8における判定結果が YESになったら、 ListXで Blkldx毎に SAD が最小値となる参照画像インデックス番号 refldxを求める(ステップ S9)。
ListX (X= 1)とする(ステップ SI 0)。
そして、 Listlであるか否かを判定して (ステップ S 11)、その判定結果が YESであ る場合には上記ステップ S3に戻ってステップ S3〜ステップ S11の処理を繰り返し行 い、また、上記ステップ S1における判定結果が NOである場合には、処理を終了する 以上のようにして得られた List毎 .Blkldx毎に求められた参照画像インデックス番 号 refldx及び動きベクトルの周りだけリファインメント処理を行うことで、リファインメント 処理の演算量を削減し、 MEの高速ィ匕を図ることができる。
また、上記処理では、 4 X 1MBの帯で参照画像インデックス番号 refldxおよび動き ベクトルが揃っているため、リファインメント処理において、動きベクトルを探索する領 域をメモリアクセスする際に、当該マクロブロック MBの前に探索したメモリーを再利用 し、図 13に示すように、リファインメントウィンドウ REW内の新たに必要な領域 ARnだ けアクセスすることでメモリアクセスの低減も可能となる。
フィールドを例にあげて説明したが、これはフレームにも同様に適用できる。
さらに、 4 X 1MBの帯を例に上げたが、 M X Nのマクロブロック MBを縮小画でのブ ロックマッチングの単位とした場合に、 Μ Χ Ν' (Ν,は 1以上 Ν以下)や、 Μ, Χ Ν (Μ, は 1以上 Μ以下)の単位を Blkldxとする場合に適用可能である。

Claims

請求の範囲
[1] 1.複数フレームの参照画像を持ち、連続するフレーム画像のうち処理対象の対象フ レーム画像を分割してなるそれぞれの動き補償ブロック毎に、複数フレームの参照画 像のどれを用いるかを指定して、階層探索に基づく動きベクトルの探索を行う動き予 測補償方法であって、
上記動き補償ブロックの画素サイズのうち、最上位層とすべき最も大き!ヽ上記画素 サイズでなる上記動き補償ブロックの画素を間引くことにより、所定の縮小率でなる下 位層の縮小画像を生成する階層ィ匕ステップと、
上記階層ィ匕ステップにお 、て生成された縮小画像を用いて動きベクトルを探索す る第 1の動き予測補償ステップと、
上記第 1の動き予測補償ステップにおいて使用する縮小参照画像を縮小画像上で 決定する参照画決定ステップと、
縮小前の画像について、上記第 1の動き予測補償ステップで探索された動きべタト ルにより指定される所定の検索範囲を用いて、動きベクトルを探索して動き予測補償 を行う第 2の動き予測補償ステップと
を備えることを特徴とする動き予測補償方法。
[2] 2.上記第 1の動き予測補償ステップでは、階層探索の単位を M X Nのマクロブロック とし、 Μ, Χ Ν' (Μ'は 1以上 M以下、 N'は 1以上 Ν以下)のブロックに分割し、 Μ Χ Ν のブロックマッチングの結果として得られる差分絶対値和(SAD)を M, X N'単位で 保持することを特徴とする請求の範囲第 1項記載の動き予測補償方法。
[3] 3.上記第 1の動き予測補償ステップでは、階層探索の単位を M X Nのマクロブロック とし、 Μ, Χ Ν' (Μ'は 1以上 M以下、 N'は 1以上 Ν以下)のブロックに分割し、 Μ Χ Ν のブロックマッチングの結果として得られる直交変換された差分絶対値和(SATD)を
Μ' Χ Ν'単位で保持することを特徴とする請求の範囲第 1項記載の動き予測補償方 法。
[4] 4.上記第 1の動き予測ネ ΐ償ステップでは、階層探索の単位を M X Νのマクロブロック とし、 Μ, Χ Ν' (Μ'は 1以上 M以下、 N'は 1以上 Ν以下)のブロックに分割し、 Μ Χ Ν のブロックマッチングの結果として得られる差分 2乗和(SSD)を Μ, X Ν,単位で保持 することを特徴とする請求の範囲第 1項記載の動き予測補償方法。
[5] 5.上記参照画決定ステップでは、参照画像ごとに M' X N'の単位で大小比較を行 い参照画像と動きベクトルを切り替えることを特徴とする請求の範囲第 2項乃至第 4項 のいずれか 1項に記載の動き予測補償方法。
[6] 6.上記参照画決定ステップでは、分割したブロックの評価指標値が各参照画像で 同値となった場合に、参照画像インデックス番号 (refldx)が小さいほうを採用するこ とを特徴とする請求の範囲第 5項記載の動き予測補償方法。
[7] 7.上記参照画決定ステップでは、ブロックマッチングの結果力も算出される評価指 標値とともに、参照画像インデックス番号 (refldx)の大きさを任意の重み付けで足し 込んだ値を評価指標とすることを特徴とする請求の範囲第 2項乃至第 4項のいずれ 力 1項に記載の動き予測補償方法。
[8] 8.上記参照画決定ステップでは、 Bピクチャの場合に、各 Listで決定された参照画 像インデックス番号 (refldx)を元に、両方向予測の評価指標算出を行い、階層画像 上で前方予測、後方予測、両方向予測の判定を行うことを特徴とする請求の範囲第
1項記載の動き予測補償方法。
[9] 9.複数フレームの参照画像を持ち、連続するフレーム画像のうち処理対象の対象フ レーム画像を分割してなるそれぞれの動き補償ブロック毎に、複数フレームの参照画 像のどれを用いるかを指定して、階層探索に基づく動きベクトルの探索を行う動き予 測補償装置であって、
上記動き補償ブロックの画素サイズのうち、最上位層とすべき最も大き!ヽ上記画素 サイズでなる上記動き補償ブロックの画素を間引くことにより、所定の縮小率でなる下 位層の縮小画像を生成する階層化手段と、
上記階層化手段により生成された縮小画像を用いて動きベクトルを探索する第 1の 動き予測補償手段と、
上記第 1の動き予測補償手段において使用する縮小参照画像を縮小画像上で決 定する参照画決定手段と、
縮小前の画像について、上記第 1の動き予測補償手段により探索された動きべタト ルにより指定される所定の検索範囲を用いて、動きベクトルを探索して動き予測補償 を行う第 2の動き予測補償手段と
を備えることを特徴とする動き予測補償装置。
[10] 10.第 1の動き予測補償手段は、階層探索の単位を M X Nのマクロブロックとし、 M,
X N,(M,は 1以上 M以下、 N,は 1以上 N以下)のブロックに分割し、 M X Nのブロッ クマッチングの結果として得られる差分絶対値和(SAD)を M, X N'単位で保持する ことを特徴とする請求の範囲第 9項記載の動き予測補償装置。
[11] 11.上記第 1の動き予測補償手段は、階層探索の単位を M X Nのマクロブロックとし 、 Μ' Χ Ν' (Μ'は 1以上 M以下、 N'は 1以上 Ν以下)のブロックに分割し、 Μ Χ Νの ブロックマッチングの結果として得られる直交変換された差分絶対値和(SATD)を
Μ' Χ Ν'単位で保持することを特徴とする請求の範囲第 9項記載の動き予測補償装 置。
[12] 12.上記第 1の動き予測補償手段は、階層探索の単位を M X Νのマクロブロックとし 、 Μ' Χ Ν' (Μ'は 1以上 M以下、 N'は 1以上 Ν以下)のブロックに分割し、 Μ Χ Νの ブロックマッチングの結果として得られる差分 2乗和(SSD)を Μ' X N'単位で保持す ることを特徴とする請求の範囲第 9項記載の動き予測補償装置。
[13] 13.上記参照画決定手段は、参照画像ごとに M' X N'の単位で大小比較を行い参 照画像と動きベクトルを切り替えることを特徴とする請求の範囲第 9項乃至第 12項の いずれか 1項に記載の動き予測補償装置。
[14] 14.上記参照画決定手段は、分割したブロックの評価指標値が各参照画画像で同 値となった場合に、参照画像インデックス番号 (refldx)が小さいほうを採用することを 特徴とする請求の範囲第 13項記載の動き予測補償装置。
[15] 15.上記参照画決定手段は、ブロックマッチングの結果力 算出される評価指標値 とともに、参照画像インデックス番号 (refldx)の大きさを任意の重み付けで足し込ん だ値を評価指標とすることを特徴とする請求の範囲第 9項乃至第 12項のいずれか 1 項に記載の動き予測補償装置。
[16] 16.上記参照画決定手段は、 Bピクチャの場合に、各 Listで決定された参照画像ィ ンデッタス番号 (refldx)を元に、両方向予測の評価指標算出を行い、階層画像上で 前方予測、後方予測、両方向予測の判定を行うことを特徴とする請求の範囲第 9項 記載の動き予測補償装置。
PCT/JP2005/011989 2004-06-29 2005-06-29 動き予測補償方法及び動き予測補償装置 WO2006001485A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR20067027591A KR101182977B1 (ko) 2004-06-29 2005-06-29 움직임 예측 보상 방법 및 움직임 예측 보상 장치
CN2005800221516A CN1977541B (zh) 2004-06-29 2005-06-29 运动补偿预测方法和运动补偿预测装置
EP20050755615 EP1763252B1 (en) 2004-06-29 2005-06-29 Motion prediction compensation method and motion prediction compensation device
US11/629,537 US20080037642A1 (en) 2004-06-29 2005-06-29 Motion Compensation Prediction Method and Motion Compensation Prediction Apparatus
JP2006528760A JP5018085B2 (ja) 2004-06-29 2005-06-29 動き予測補償方法及び動き予測補償装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004191937 2004-06-29
JP2004-191937 2004-06-29

Publications (1)

Publication Number Publication Date
WO2006001485A1 true WO2006001485A1 (ja) 2006-01-05

Family

ID=35781903

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/011989 WO2006001485A1 (ja) 2004-06-29 2005-06-29 動き予測補償方法及び動き予測補償装置

Country Status (6)

Country Link
US (1) US20080037642A1 (ja)
EP (1) EP1763252B1 (ja)
JP (1) JP5018085B2 (ja)
KR (1) KR101182977B1 (ja)
CN (1) CN1977541B (ja)
WO (1) WO2006001485A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089332A (ja) * 2007-10-03 2009-04-23 Sony Corp 動き予測方法及び動き予測装置
JP2010509850A (ja) * 2006-11-02 2010-03-25 クゥアルコム・インコーポレイテッド 映像符号化における参照フレームのサーチを軽減する装置及び方法
JP2012004710A (ja) * 2010-06-15 2012-01-05 Fujitsu Ltd 動きベクトル検出回路、動画像符号化装置及び動きベクトル検出方法
JP2015231124A (ja) * 2014-06-04 2015-12-21 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4752631B2 (ja) * 2006-06-08 2011-08-17 株式会社日立製作所 画像符号化装置、及び画像符号化方法
US8019804B2 (en) * 2007-03-26 2011-09-13 City University Of Hong Kong Method and apparatus for calculating an SSD and encoding a video signal
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
US20090086820A1 (en) * 2007-09-28 2009-04-02 Edward Hong Shared memory with contemporaneous access for use in video encoding and methods for use therewith
US8705627B2 (en) * 2008-07-25 2014-04-22 Sony Corporation Image processing apparatus and method
TWI463878B (zh) 2009-02-19 2014-12-01 Sony Corp Image processing apparatus and method
US8363722B2 (en) * 2009-03-31 2013-01-29 Sony Corporation Method and apparatus for hierarchical bi-directional intra-prediction in a video encoder
US9609342B2 (en) * 2010-02-19 2017-03-28 Skype Compression for frames of a video signal using selected candidate blocks
US20110206132A1 (en) * 2010-02-19 2011-08-25 Lazar Bivolarsky Data Compression for Video
US9078009B2 (en) * 2010-02-19 2015-07-07 Skype Data compression for video utilizing non-translational motion information
US9313526B2 (en) 2010-02-19 2016-04-12 Skype Data compression for video
US9819358B2 (en) 2010-02-19 2017-11-14 Skype Entropy encoding based on observed frequency
KR101444691B1 (ko) * 2010-05-17 2014-09-30 에스케이텔레콤 주식회사 참조영상 구성 및 인덱싱 장치 및 방법
US20120051432A1 (en) * 2010-08-26 2012-03-01 Samsung Electronics Co., Ltd Method and apparatus for a video codec with low complexity encoding
JP2012094959A (ja) * 2010-10-25 2012-05-17 Sony Corp 画像処理装置と画像処理方法およびプログラム
RU2571538C2 (ru) 2011-03-09 2015-12-20 Кабусики Кайся Тосиба Способ кодирования изображений и способ декодирования изображений
CN105933709B (zh) * 2011-03-09 2020-04-28 株式会社东芝 运动图像编码方法、装置以及运动图像解码方法、装置
JP2013034162A (ja) * 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法
KR20130090643A (ko) 2012-02-06 2013-08-14 삼성전자주식회사 정보 저장 장치 및 그것을 이용하는 사용자 장치
US20130258052A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Inter-view residual prediction in 3d video coding
JP2014093602A (ja) * 2012-11-01 2014-05-19 Toshiba Corp 画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置
JP6131652B2 (ja) * 2013-03-18 2017-05-24 富士通株式会社 符号化装置、符号化方法、および符号化プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127689A (ja) * 1990-09-19 1992-04-28 Hitachi Ltd 動画像予測符号化方式
JPH07274182A (ja) * 1994-03-31 1995-10-20 Mitsubishi Electric Corp 映像信号符号化方式
JP2003284091A (ja) * 2002-03-25 2003-10-03 Toshiba Corp 動画像符号化方法及び動画像符号化装置
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
JP2004056824A (ja) * 2002-07-18 2004-02-19 Samsung Electronics Co Ltd 階層的動きベクトルサーチを利用した動き推定法及び装置及びそれを適用した動映像符号化システム
JP2004128749A (ja) * 2002-09-30 2004-04-22 Toshiba Corp 動画像符号化方法及び復号化方法
JP2004147328A (ja) * 2002-10-22 2004-05-20 Docomo Communications Laboratories Usa Inc 動き補償予測を用いたビデオ符号化のための適応補間フィルタシステム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5719643A (en) * 1993-08-10 1998-02-17 Kokusai Denshin Denwa Kabushiki Kaisha Scene cut frame detector and scene cut frame group detector
JP3277418B2 (ja) * 1993-09-09 2002-04-22 ソニー株式会社 動きベクトル検出装置および方法
JP2671820B2 (ja) * 1994-09-28 1997-11-05 日本電気株式会社 両方向予測方法及び両方向予測装置
KR0182058B1 (ko) * 1995-05-10 1999-05-01 김광호 움직임 추정을 위한 다중 해상도 순환 탐색 장치 및 그 방법
US5761398A (en) * 1995-12-26 1998-06-02 C-Cube Microsystems Inc. Three stage hierarchal motion vector determination
US6549575B1 (en) * 1996-11-07 2003-04-15 International Business Machines Corporation. Efficient, flexible motion estimation architecture for real time MPEG2 compliant encoding
US5825930A (en) * 1997-03-05 1998-10-20 Samsung Electronics Co., Ltd. Motion estimating method
JPH11112992A (ja) * 1997-10-02 1999-04-23 Kdd 動き補償画像符号化装置
JP3711770B2 (ja) * 1998-11-27 2005-11-02 コニカミノルタホールディングス株式会社 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体
EP1201088B1 (en) * 1999-07-30 2005-11-16 Indinell Sociedad Anonima Method and apparatus for processing digital images and audio data
JP2002209213A (ja) * 2000-12-28 2002-07-26 Sony Corp 動きベクトル検出方法及び装置、並びに画像符号化装置
JP2003153279A (ja) * 2001-11-15 2003-05-23 Mitsubishi Electric Corp 動き探索装置、その方法およびそのコンピュータ・プログラム
JP4841101B2 (ja) * 2002-12-02 2011-12-21 ソニー株式会社 動き予測補償方法及び動き予測補償装置
US8194751B2 (en) * 2003-02-19 2012-06-05 Panasonic Corporation Moving picture coding method and moving picture decoding method
KR100970726B1 (ko) * 2003-10-04 2010-07-16 삼성전자주식회사 계층적 움직임 추정 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04127689A (ja) * 1990-09-19 1992-04-28 Hitachi Ltd 動画像予測符号化方式
JPH07274182A (ja) * 1994-03-31 1995-10-20 Mitsubishi Electric Corp 映像信号符号化方式
JP2003284091A (ja) * 2002-03-25 2003-10-03 Toshiba Corp 動画像符号化方法及び動画像符号化装置
JP2004023458A (ja) * 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
JP2004056824A (ja) * 2002-07-18 2004-02-19 Samsung Electronics Co Ltd 階層的動きベクトルサーチを利用した動き推定法及び装置及びそれを適用した動映像符号化システム
JP2004128749A (ja) * 2002-09-30 2004-04-22 Toshiba Corp 動画像符号化方法及び復号化方法
JP2004147328A (ja) * 2002-10-22 2004-05-20 Docomo Communications Laboratories Usa Inc 動き補償予測を用いたビデオ符号化のための適応補間フィルタシステム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
NETRAVLI ET AL., IEEE TRANSACTIONS ON CONSUMER ELECTRONICS, vol. 38, no. 3, August 1992 (1992-08-01), pages 325 - 340
See also references of EP1763252A4
YIN ET AL., PROCEEDINGS 2003 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, September 2003 (2003-09-01), pages 853 - 856

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010509850A (ja) * 2006-11-02 2010-03-25 クゥアルコム・インコーポレイテッド 映像符号化における参照フレームのサーチを軽減する装置及び方法
US8923393B2 (en) 2006-11-02 2014-12-30 Qualcomm Incorporated Apparatus and method of reduced reference frame search in video encoding
JP2009089332A (ja) * 2007-10-03 2009-04-23 Sony Corp 動き予測方法及び動き予測装置
JP2012004710A (ja) * 2010-06-15 2012-01-05 Fujitsu Ltd 動きベクトル検出回路、動画像符号化装置及び動きベクトル検出方法
JP2015231124A (ja) * 2014-06-04 2015-12-21 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化用コンピュータプログラム

Also Published As

Publication number Publication date
KR101182977B1 (ko) 2012-09-18
EP1763252B1 (en) 2012-08-08
EP1763252A4 (en) 2010-12-01
CN1977541A (zh) 2007-06-06
JPWO2006001485A1 (ja) 2008-04-17
KR20070033385A (ko) 2007-03-26
JP5018085B2 (ja) 2012-09-05
CN1977541B (zh) 2010-05-26
US20080037642A1 (en) 2008-02-14
EP1763252A1 (en) 2007-03-14

Similar Documents

Publication Publication Date Title
WO2006001485A1 (ja) 動き予測補償方法及び動き予測補償装置
US10812803B2 (en) Intra prediction method and apparatus
EP1656794B1 (en) Coding and decoding for interlaced video
JP3861698B2 (ja) 画像情報符号化装置及び方法、画像情報復号装置及び方法、並びにプログラム
US11064191B2 (en) Method for encoding video information and method for decoding video information, and apparatus using same
US20130028328A1 (en) Image encoding method and image decoding method
US20110176614A1 (en) Image processing device and method, and program
US20090103622A1 (en) Method and system for determining a macroblock partition for data transcoding
JP2009089332A (ja) 動き予測方法及び動き予測装置
JP5795525B2 (ja) 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラムおよび画像復号プログラム
KR20110115987A (ko) 영상 부호화/복호화 장치 및 방법
WO2005120077A1 (ja) 画像処理装置、そのプログラムおよびその方法
US20050276331A1 (en) Method and apparatus for estimating motion
KR20070057212A (ko) 부호화 장치, 부호화 방법, 부호화 방법의 프로그램 및부호화 방법의 프로그램을 기록한 기록 매체
WO2012098845A1 (ja) 画像符号化方法、画像符号化装置、画像復号方法及び画像復号装置
US20230209067A1 (en) Intra prediction method and apparatus
US20070133689A1 (en) Low-cost motion estimation apparatus and method thereof
JP4360093B2 (ja) 画像処理装置および符号化装置とそれらの方法
CN111010578A (zh) 一种帧内帧间联合预测的方法、装置以及存储介质
KR20110043407A (ko) 영상 부호화/복호화 장치 및 방법
CN101001383A (zh) 基于多层的视频编码/解码方法和编码器/解码器
JP4349109B2 (ja) 画像データ処理装置、その方法、および、符号化装置
Sekigucni et al. A novel video coding scheme for Super Hi-vision
JP4423968B2 (ja) 符号化装置
CN117615129B (zh) 帧间预测方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006528760

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005755615

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11629537

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020067027591

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200580022151.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005755615

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067027591

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 11629537

Country of ref document: US