WO2012081917A2 - 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 - Google Patents

움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 Download PDF

Info

Publication number
WO2012081917A2
WO2012081917A2 PCT/KR2011/009673 KR2011009673W WO2012081917A2 WO 2012081917 A2 WO2012081917 A2 WO 2012081917A2 KR 2011009673 W KR2011009673 W KR 2011009673W WO 2012081917 A2 WO2012081917 A2 WO 2012081917A2
Authority
WO
WIPO (PCT)
Prior art keywords
motion information
block
merge
current block
merging
Prior art date
Application number
PCT/KR2011/009673
Other languages
English (en)
French (fr)
Other versions
WO2012081917A3 (ko
Inventor
송진한
임정연
김해광
문주희
이영렬
한종기
전병우
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to CN201180060212.3A priority Critical patent/CN103262538B/zh
Publication of WO2012081917A2 publication Critical patent/WO2012081917A2/ko
Publication of WO2012081917A3 publication Critical patent/WO2012081917A3/ko
Priority to US13/914,910 priority patent/US9270996B2/en
Priority to US14/937,277 priority patent/US9888248B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction

Definitions

  • Embodiments of the present invention relate to a method and apparatus for generating / moving a motion information using motion information merging and an image encoding / decoding method and apparatus using the same. More specifically, the method and apparatus for generating / moving information on motion information using motion information merging to determine whether to encode motion information by merging based on already encoded information and to efficiently merge and encode motion information; A video encoding / decoding method and apparatus using the same.
  • Moving Picture Experts Group (MPEG) and Video Coding Experts Group (VCEG) have developed H.264 / AVC (Advanced Video Coding), a superior and superior video compression standard technology than the existing MPEG-4 Part 2 and H.263 standards. Since 2010, we have been developing HEVC (High Efficiency Video Coding) technology in full swing.
  • the Test Model Under Consideration (TMuC) is a method similar to the existing video compression technology that divides the image into blocks and predicts motion.
  • the TMuC of HEVC performs motion prediction using multiple reference frames, encodes a reference frame index and a motion vector as motion information, and outputs them to the bitstream.
  • the TMuC of HEVC efficiently encodes motion information using a merging method.
  • the conventional merging method generates a candidate motion information set including N merge direction motion information from the decoded neighboring image blocks for encoding motion information of the current block. If the motion information coinciding with the current motion information does not exist in the candidate motion information set, the merge flag information is set to "not merged". If motion information coinciding with the current motion information exists in the candidate motion information set, the merge flag information is set to "merged" and merge direction information indicating which motion information matches the candidate motion information set is set.
  • merge direction information is not set when the motion information of the candidate motion information set is the same.
  • the merge flag information is output to the bitstream. If the merge flag is "not merged", the current motion information is output to the bitstream. That is, when the merge flag is "merged", when the motion information of the candidate motion information sets are all the same, the merge direction information is not output to the bitstream. Otherwise, the merge direction information to be merged is output to the bitstream.
  • TMuC of HEVC configures a candidate motion information set as motion information of a block including a sample immediately above and a motion information of a block including a sample immediately to the left of the current block.
  • an embodiment of the present invention in merging and encoding motion information, determines whether to encode motion information by merging based on information that has already been encoded, and reduces motion information by reducing encoding of a merge related flag.
  • the main purpose is to improve the compression efficiency of an image by efficiently encoding the.
  • the prediction block of the current block is generated by using motion compensation and motion information is merged based on the already encoded information.
  • Generate a coded motion information of the current block by subtracting the prediction block from the current block, generate a residual block, and then transform and quantize the frequency residual block to generate a quantized frequency residual block.
  • an image decoder for reconstructing the current block by adding the predicted block generated using the reconstructed motion information and the reconstructed residual block.
  • an embodiment of the present invention in the apparatus for encoding an image, generates a prediction block of the current block by using motion compensation and based on the information already encoded
  • An inter prediction unit determining whether to encode by merging and generating code motion information of the current block according to the determination result;
  • a subtraction unit for generating a residual block by subtracting the prediction block from the current block;
  • a transform and quantizer for generating a quantized frequency residual block by frequency transforming and quantizing the residual block;
  • an encoder configured to entropy-encode the quantized frequency residual block and the code motion information to generate a bitstream.
  • the code motion information may be generated depending on whether all motion information of the merged determination block including the motion information of the neighboring blocks are similar to each other.
  • the inter prediction unit may include: a merge determination unit configured to determine whether to encode code motion information by merging according to whether all motion information of the merge determination block are similar to each other; In the merge determination unit, the merge motion is generated by merging the code motion information according to whether the motion information of the current block matches the motion information of the merge candidate block composed of the motion information of the neighboring block. An information calculation unit; And a motion information direct calculator that generates code motion information without merging when the merging decision unit determines not to encode by merging.
  • the code motion information generated by the merge means "merged". Including a merge flag, and when some of the motion information in the motion information set of the merge candidate block does not match the motion information of the current block, the code motion information generated by the merge is merge flag meaning "merged" And a merge direction flag indicating a direction of a block having motion information corresponding to the motion information of the current block among the merge candidate blocks, wherein all motion information in the motion information set of the merge candidate block matches the motion information of the current block. Otherwise, the code motion information generated by merging is "merged.” Merge flag indicating no "and may include the motion information of the current block.
  • Code motion information that is generated directly without the merging may include motion information of a current block without including the merging flag.
  • the determination of whether to encode the code motion information by merging may be performed by further determining whether the size of the current block is larger than a preset size.
  • the set of motion information of the merge determination block or the set of motion information of the merge candidate block includes the motion information of the neighboring block including the left sample of the leftmost sample of the current block and the leftmost sample of the current block.
  • Motion information of the neighboring block including the upper sample, motion information of the neighboring block including the sample located immediately above the left sample of the leftmost sample of the current block, and right above the rightmost sample of the current block At least one of motion information of a neighboring block including a sample located at may be configured.
  • the set of motion information of the merge determination block and the set of motion information of the merge candidate block may or may not coincide with each other.
  • the determination of whether the motion information is similar or identical to each other may be determined by using only the motion vector or by using the motion vector only when the reference frames are the same.
  • an embodiment of the present invention in the apparatus for decoding an image, receiving the encoded data to extract the code motion information and quantization sequence and to restore the quantized frequency residual block A decoder; An inverse quantization and inverse transform unit for inversely quantizing the quantized frequency residual block and inversely transforming the residual block; It is determined whether to restore the motion information by merging based on the already decoded information, and according to the determination result, the motion information of the current block is restored from the code motion information and the current block is predicted using the restored motion information.
  • An inter prediction unit generating a block; And an adder configured to reconstruct the current block by adding the reconstructed residual block and the prediction block.
  • the reconstructed motion information may be reconstructed according to whether all the motion information of the merged determination block including the motion information of the neighboring blocks are similar to each other.
  • the inter prediction unit may include: a merge determination unit that determines whether to restore the motion information by merging according to whether all the motion information of the merge determination block are similar to each other; When the merging decision unit determines to restore by merging, when the merging flag included in the code motion information is received and indicates that the merging flag is "merged," all the motion information information of the merging candidate blocks match. If one of the motion information information of the merge candidate block is set to the motion information of the current block, and if the motion information information of the merge candidate block does not all match, the merge direction flag is received and the merge direction flag is indicated.
  • Merging motion information decoding for setting the motion information of the block as the motion information of the current block and receiving the motion information included in the code motion information and setting the motion information of the current block when the merge flag indicates “not merged”. part; And a motion information direct decoding unit extracting motion information of a current block from the coded motion information when the merging decision unit determines not to recover by merging.
  • the block indicated by the merge direction flag may be one of a set of merge candidate blocks including motion information of neighboring blocks.
  • the set of motion information of the merge determination block or the set of motion information of the merge candidate block includes the motion information of the neighboring block including the left sample of the leftmost sample of the current block and the leftmost sample of the current block.
  • Motion information of the neighboring block including the upper sample, motion information of the neighboring block including the sample located immediately above the left sample of the leftmost sample of the current block, and right above the rightmost sample of the current block At least one of motion information of a neighboring block including a sample located at may be configured.
  • the set of motion information of the merge determination block and the set of motion information of the merge candidate block may or may not coincide with each other.
  • the determination of whether the motion information is similar to each other may be determined by using only the motion vector or by using the motion vector only when the reference frames are the same.
  • whether or not code motion information is encoded by merging according to whether all motion information of the merge determination block composed of motion information of neighboring blocks are similar to each other.
  • Merger determination unit to determine; In the merge determination unit, the merge motion is generated by merging the code motion information according to whether the motion information of the current block matches the motion information of the merge candidate block composed of the motion information of the neighboring block.
  • An information calculation unit And a motion information direct calculation unit for generating code motion information without merging when the merging decision unit determines not to encode by merging.
  • an embodiment of the present invention whether or not to restore the motion information by merging according to whether all the motion information of the merge determination block consisting of the motion information of the neighboring blocks are similar to each other.
  • Merger determination unit determine; When the merging decision unit determines to restore by merging, when the merging flag included in the code motion information is received and indicates that the merging flag is "merged," all the motion information information of the merge candidate block is the same. In this case, if any one of the motion information information of the merge candidate block is set as the motion information of the current block, and if the motion information information of the merge candidate block is not the same, a merge direction flag is received to receive the merge direction flag.
  • a merge motion information decoder configured to set motion information as motion information of a current block and to receive motion information included in the code motion information and set the motion information of the current block when the merge flag indicates “not merged”; And a motion information direct decoding unit extracting motion information of a current block from the coded motion information when the merging decision unit determines not to recover the data by merging.
  • an embodiment of the present invention in the method for encoding / decoding an image, generates a prediction block of the current block using motion compensation and moves based on the already encoded information. It is determined whether to encode the information by merging.
  • the code motion information of the current block is generated according to the determination result, the prediction block is subtracted from the current block to generate a residual block, and then frequency transformed and quantized.
  • an embodiment of the present invention in the method for encoding an image, generates a prediction block of the current block using motion compensation and based on the information already encoded
  • an encoding step of entropy encoding the quantized frequency residual block and the code motion information to generate a bitstream.
  • an embodiment of the present invention in a method for decoding an image, receiving coded data to extract the code motion information and quantization sequence and to restore the quantized frequency residual block Decoding step; Inverse quantization and inverse transformation for restoring the residual block by inverse quantizing and inversely transforming the quantized frequency residual block; It is determined whether to restore the motion information by merging based on the already decoded information, and according to the determination result, the motion information of the current block is restored from the code motion information and the current block is predicted using the restored motion information.
  • whether or not code motion information is encoded by merging according to whether all motion information of the merge determination block composed of motion information of neighboring blocks are similar to each other.
  • Merger determination step of determining In the merging decision step, merging motion for generating code motion information by merging according to whether the motion information of the current block matches the motion information of the merge candidate block composed of the motion information of the neighboring block.
  • an embodiment of the present invention whether or not to restore the motion information by merging according to whether all the motion information of the merge determination block consisting of the motion information of the neighboring blocks are similar to each other. Determining the merge step; In the case of determining that the merge flag is to be restored by merging in the merging determination step, when the merge flag included in the code motion information indicates that the merge flag is “merged”, the motion information information of the merge candidate block is the same. In this case, if any one of the motion information information of the merge candidate block is set as the motion information of the current block, and if the motion information information of the merge candidate block is not the same, a merge direction flag is received to receive the merge direction flag.
  • the motion information in merging and encoding motion information, it is determined whether to encode motion information by merging based on the already encoded information, and the motion information is reduced by reducing the amount of merging-related data.
  • the encoding efficiency can be increased, thereby improving the compression efficiency, thereby restoring the encoded data transmitted efficiently.
  • merging and encoding motion information when merging and encoding motion information, the size of a block to be encoded is checked, and when the image is determined to be a complicated region, merging is performed by merging and encoding blocks to be selectively encoded according to characteristics of the image, such as encoding without merging. There is an effect of reducing the amount of information generated, and thus reducing the amount of data and restoring the transmitted encoded data.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating the configuration of an apparatus for generating code motion information according to an embodiment of the present invention.
  • FIG 3 is a diagram illustrating (Ln, Un, ULn, URn) of a current block (Hn) and an already coded picture block that can be used to create a candidate neighbor block set.
  • FIG. 4 is a flowchart illustrating a code movement information generation method according to an embodiment of the present invention.
  • FIG. 5 is a block diagram schematically illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 6 is a block diagram schematically illustrating a motion information restoration apparatus 600 according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a motion information restoration method according to an embodiment of the present invention.
  • a video encoding apparatus (Video Encoding Apparatus), a video decoding apparatus (Video Decoding Apparatus) to be described below is a personal computer (PC), notebook computer, personal digital assistant (PDA), portable multimedia player (PMP) It may be a user terminal such as a portable multimedia player (PSP), a PlayStation Portable (PSP), a wireless communication terminal, a smart phone, a TV, or a server terminal such as an application server or a service server.
  • a communication device such as a communication modem for communicating with various devices or a wired / wireless communication network, a memory for storing various programs and data for encoding or decoding an image or inter or intra prediction for encoding or decoding, and executing a program And a microprocessor for controlling and the like. It can mean a variety of devices.
  • an image encoded by a video encoding device into a bitstream may be transmitted in real time or non-real time through a wired or wireless communication network such as the Internet, a local area wireless communication network, a wireless LAN network, a WiBro network, or a mobile communication network, or a cable or a universal serial bus.
  • the image decoding apparatus may be transmitted to a video decoding apparatus through various communication interfaces such as a universal serial bus (USB), and may be decoded by the video decoding apparatus to restore and reproduce the video.
  • USB universal serial bus
  • a video may be composed of a series of pictures, and each picture may be divided into a predetermined area such as a frame or a block.
  • the divided blocks may be classified into intra blocks and inter blocks according to an encoding method.
  • An intra block refers to a block that is encoded by using an intra prediction coding scheme. Intra prediction coding is performed by using pixels of blocks that have been previously encoded, decoded, and reconstructed in a current picture that performs current encoding. A prediction block is generated by predicting pixels of a block, and a difference value with pixels of the current block is encoded.
  • An inter block refers to a block that is encoded using inter prediction coding.
  • Inter prediction coding generates a prediction block by predicting a current block in a current picture by referring to one or more past pictures or future pictures, and then generates a current block. This is a method of encoding the difference value with.
  • a frame referred to for encoding or decoding the current picture is referred to as a reference frame.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention.
  • the image encoding apparatus 100 is an apparatus for encoding an image, and includes an intra prediction unit 110, an inter prediction unit 120, a subtractor 130, a transform and quantization unit 140,
  • the encoder 150 may be configured to include an inverse quantization and inverse transform unit 160, an adder 170, and a frame memory 180.
  • the input image to be encoded is input in units of a coding block.
  • the coding block has an M ⁇ N form, and M and N may be the same or different.
  • the coding block may be divided into prediction unit blocks of various sizes.
  • the intra prediction unit 110 generates a prediction block by using adjacent pixels to predict the current prediction unit block. That is, the intra predictor 110 generates a prediction block according to the mode of the intra predictor 110 by using neighboring pixels of the current block, which have already been encoded and reconstructed.
  • the inter prediction unit 120 generates and outputs a prediction block using a reference frame to predict the current prediction unit block. That is, the inter prediction unit 120 performs motion estimation based on the motion vector, the reference frame index, and the motion vector resolution according to the mode of the inter prediction unit 120 in the previous frame that has already been encoded and reconstructed. A prediction block is generated in the motion compensation process using the motion information. Also, the inter prediction unit 120 determines whether to encode the motion information by merging based on the already encoded information, and when it is determined that the motion information is not encoded by merging, the inter prediction unit 120 performs code motion information including the motion information in a conventional manner. If it is determined by encoding by merging, code motion information including a merge flag and merge direction flag, or merge flag and motion information is generated by a conventional merge method.
  • the inter prediction unit 120 may include a code movement information generation unit (not shown), and the code movement information generation unit may exist as an independent hardware or software module, and generate code movement information as shown in FIG. 2.
  • the device 200 may be configured. The operation of the code movement information generator will be described in detail with reference to FIG. 2 in a later process.
  • the subtraction unit 130 subtracts the prediction block from the current block to generate a residual block. That is, the subtractor 130 generates a residual block by subtracting the pixel value of the current block and the pixel value of the prediction block generated by the intra prediction unit 110 or the inter prediction unit 120.
  • the transform and quantization unit 140 converts and quantizes the residual block generated by the subtractor 130 into frequency coefficients. That is, the transform and quantization unit 140 generates a residual block having frequency coefficients from the residual coefficients of the residual block generated by the subtractor 130 and quantizes the residual blocks of the generated frequency coefficients. For example, a method of transforming an image signal in a spatial domain into a frequency domain such as a Hadamard transform or a discrete cosine transform based integer transform is used. Various quantization techniques such as Dead Zone Uniform Threshold Quantization (DZUTQ), hereinafter referred to as DZUTQ, or Quantization Weighted Matrix may be used.
  • DZUTQ Dead Zone Uniform Threshold Quantization
  • DZUTQ Quantization Weighted Matrix
  • the encoder 150 may generate encoded data (bitstream) by encoding the residual block transformed and quantized by the transform and quantizer 140.
  • an entropy encoding technique may be used, but various encoding techniques may be used without being limited thereto.
  • the encoder 150 may include not only a bit string encoding the quantized frequency coefficients but also various pieces of information necessary to decode the encoded frequency coefficient bit string, such as motion information, in the encoded data. That is, the coded data may include a first field including a coded block pattern (CBP), a delta quantization coefficient, and a bit string in which the quantization frequency coefficients are encoded, and information necessary for prediction (eg, In case of intra prediction, a second field including bits for intra prediction mode or motion information in case of inter prediction may be included.
  • CBP coded block pattern
  • a second field including bits for intra prediction mode or motion information in case of inter prediction may be included.
  • the inverse quantization and inverse transform unit 160 inverse quantizes and inverse transforms the residual block transformed and quantized by the transform and quantization unit 140 to generate a residual block.
  • Inverse quantization and inverse transformation may be performed by inversely performing a transform process and a quantization process performed by the transform and quantization unit 140. That is, the inverse quantization and inverse transform unit 160 may inverse quantize the quantized block transmitted from the transform and quantization unit 140, and inversely transform the inverse quantized frequency block to generate a residual block having a residual coefficient.
  • the adder 170 generates a reconstructed block by adding the prediction block generated by the intra prediction unit 110 or the inter prediction unit 120 and the residual block generated by the inverse quantization and inverse transform unit 160.
  • the frame memory 180 stores a block reconstructed by the adder 170 and is used as a reference block to generate a prediction block when performing intra prediction or inter prediction.
  • FIG. 2 is a block diagram schematically illustrating a configuration of an apparatus for generating code motion information according to an embodiment of the present invention.
  • the apparatus for generating code motion information 200 encodes motion information based on already encoded information by merging motion information. If it is determined whether or not to be encoded by merging, code motion information is generated by a conventional method. If it is determined by encoding by merging, code motion information by merging is generated.
  • the inter prediction unit 120 of FIG. 1 may include an apparatus 200 for generating code movement information.
  • the apparatus 200 for generating code motion information may determine whether to encode motion information by merging on the basis of the already encoded information.
  • the merge motion information calculating unit 220 generating the code motion information by the merging, and when the merging decision unit 210 determines that the encoding is not encoded by the merging, does not And a motion information direct calculation unit 230 for generating code motion information.
  • n is a symbol for identifying the current block and its neighboring video blocks.
  • Hn represents a current block for encoding motion information
  • Ln represents a left neighboring block including a left sample of the leftmost sample of Hn
  • Un represents an upper sample of the leftmost sample of the current block Hn.
  • ULn represents an upper left neighboring block that contains a sample immediately above the left sample of the leftmost sample of the current block Hn
  • URn includes a sample located immediately above and immediately above the rightmost sample of the current block Hn. The upper right neighbor block.
  • the motion information set of the merged determination block composed of the motion information of the neighboring block may be composed of motion information of one or more neighboring blocks.
  • the motion information set of the merge determination block is composed of MV_Ln and MV_Un, which are respective motion information for two neighboring blocks of Ln and Un, or various motion information of Ln, Un, ULn, and URn. It may consist of a set of motion information of a neighboring block.
  • the motion information may include a reference index, a motion vector, and a motion vector resolution.
  • the merge determination unit 210 determines the code motion information of the current block to be encoded by the merge motion information calculator 220 based on whether all the motion information of the motion information set of the merge determination block including the motion information of the neighboring blocks are similar to each other. It is determined whether to generate or to generate code motion information of the current block to be encoded by the motion information direct calculation unit 230.
  • the code movement information generating apparatus 200 merges when it is determined that the encoding possibility due to the merging of motion information is scarce based on the information of neighboring blocks already encoded by the merge determination unit 210 and the mode information of the current block. Instead of going through the motion information calculating unit 220, the motion information direct calculating unit 230 generates code motion information to be encoded, thereby reducing the encoding of the merged flag information, thereby improving compression efficiency.
  • FIG. 4 is a flowchart illustrating a method of generating code motion information according to an embodiment of the present invention, wherein all motion information of a motion information set of a merged decision block composed of motion information of a neighboring block may be encoded according to whether or not they are similar to each other.
  • FIG. 1 illustrates a flow chart for determining whether to calculate the code motion information of the current block by the merge motion information calculator 220 or the motion information direct calculator 230.
  • the motion information of the current block is generated by being merged with the motion information of the neighboring block.
  • the merge direction flag means information indicating a direction of a block having motion information that matches the motion information of Hn. In this case, for bits indicating information, one bit may be allocated, such as 0 for Ln and 1 for Un.
  • the merge determination unit 210 may refer to the motion information set of the neighbor block set (eg, ⁇ Ln, Un, ULn, URn ⁇ ) as the motion information set of the merge determination block with respect to the current block (S410).
  • the neighbor block set referenced by the merge determination unit 210 may be configured in various ways such as ⁇ Ln, Un ⁇ , ⁇ Ln, Un, ULn ⁇ , or ⁇ Ln, Un, URn ⁇ , but the present invention is not limited thereto. Do not.
  • the merge determination unit 210 may determine whether to encode the code motion information by merging by further determining whether the size of the current block is larger than the preset size.
  • the size of the current block Hn is smaller than or equal to the preset size (PXQ, for example, 4x4, 8x8) or the motion information of the neighboring block set ⁇ Ln, Un, ULn, URn ⁇ is similar to each other ( If the above condition is not satisfied, the motion of the current block and / or its neighboring blocks is determined to be a very complicated area, and code motion information is generated without merging (S430), and the size of the current block Hn is a preset size.
  • PXQ for example, 4x4, 8x8
  • code motion information is generated by merging (S440).
  • the neighboring block encoded in the intra mode is determined to have different motion information from other neighboring blocks.
  • the determination of the similarity of the motion information of the merged decision block may be determined by whether the motion vector, which is one of the elements of the motion information, is similar. In this case, the determination of whether the motion vector is similar is performed by It may be determined whether the distance is smaller than the given threshold information.
  • the distance between the motion vectors may be a two-dimensional Euclidean distance or a city distance.
  • the determination of whether the motion information is similar may be determined using only some information from the motion information, for example, a motion vector.
  • the determination of whether the motion information is similar may further determine whether the reference frames of the motion information are the same. That is, the motion information may be determined to be similar when the reference frame is the same as the motion vector.
  • the motion information merging motion information calculating unit 220 and the direct calculating unit 230 may follow the TMUC method of HEVC of the Joint Collaborative Team for Video Coding Committee (JCT-VC).
  • the merge motion information calculating unit 220 includes motion information of neighboring image blocks that have already been encoded with motion information of a current block including reference index information representing a reference frame, motion vector, and motion vector resolution. Based on the motion information of the merge candidate block, code motion information including a merge flag and / or a merge direction flag may be generated.
  • the merge motion information calculation unit 220 receives a merge candidate block set including motion information Hn and ⁇ Ln, Un ⁇ of the current block, and then moves the movement of Hn. If the information does not match any of the motion information of ⁇ Ln, Un ⁇ , the merge flag information is set to "not merged", and the motion information of Hn is any of the motion information of ⁇ Ln, Un ⁇ . If it matches with the motion information of the merge flag information is set to "merged”. When the merge flag indicates “merged”, the merge direction flag indicating which block among the motion information of the merge candidate block (Ln, Un) is matched is set, and the code motion information including the merge flag and the merge direction flag is set. To create.
  • the merge motion information calculating unit 220 when all the motion information in the motion information set of the merge candidate block does not match the motion information of the current block, the code motion information generated by the merge is "not merged" It includes a merge flag indicating and motion information of the current block.
  • the merge motion information calculator 220 When the merge flag indicates “not merged”, the merge motion information calculator 220 generates, as the code motion information, motion information including one or more of a reference index, a motion vector, and a motion resolution together with the merge flag.
  • the motion vector may generate the motion information as a differential motion vector by calculating a predicted motion vector from previously encoded space-time neighboring motion vectors, and configure the code motion information together with the merge flag.
  • the motion information direct calculation unit 230 may generate code motion information including motion information such as a reference index, a motion vector, and a motion resolution in the same manner as in the case of "not merged" without the merge flag.
  • the motion information is efficiently reduced by reducing the encoding of the merge flag information according to the characteristics of the video in merging and encoding the motion information.
  • the coding efficiency can be increased, and thereby, the compression efficiency can be improved.
  • FIG. 5 is a block diagram schematically illustrating a configuration of an image decoding apparatus according to an embodiment of the present invention.
  • the image decoding apparatus 500 includes a decoder 510, an inverse quantization and inverse transform unit 520, an intra predictor 530, an inter predictor 540, an adder 550, It may be configured to include a frame memory 560.
  • the decoder 510 decodes the encoded data (bitstream) and extracts data such as inter prediction mode, code motion information, intra prediction mode, and texture required for block decoding. That is, the decoder 510 decodes the encoded data to extract the quantized frequency coefficient sequence, and inversely scans the quantized frequency coefficient sequence by various inverse scanning methods such as inverse zigzag scan to generate a residual block having the quantized frequency coefficient. In this case, the decoder 510 may extract and decode the encoded residual block in the first field included in the encoded data, and may include an intra prediction mode, an inter prediction mode, code motion information, and the like in the second field included in the encoded data.
  • the decoded code motion information may include motion information, and in some cases, a merge flag and a merge direction flag may be included instead of the motion information, and the code motion information may also include motion information and merge flag.
  • the inverse quantization and inverse transform unit 520 inversely quantizes the quantized residual block to generate a dequantized residual block, and inversely transforms the generated inverse quantized block to generate a residual block.
  • the intra predictor 530 generates a predictive block for the current block by using information required for intra prediction transmitted from the decoder 510.
  • the inter prediction unit 540 generates a prediction block for the current block by using information required for inter prediction transmitted from the decoder 510. At this time, the inter prediction unit 540 receives the code motion information from the decoder 510, and if the motion information of the merged decision block composed of the motion information of the neighboring blocks is similar, the inter prediction unit 540 neighbors according to the merge flag included in the code motion information.
  • the motion information of the current block may be restored from the motion information set of the merge candidate block including the motion information of the block or the motion information included in the code motion information, and the predicted block of the current block may be generated using the restored motion information.
  • the inter prediction unit 540 restores the motion information of the current block by using the motion information included in the code motion information when the motion information of the merged decision block composed of the motion information of the neighboring blocks is not similar.
  • the prediction block of the current block may be generated using the motion information.
  • the inter prediction unit 540 may include a motion information restoring unit (not shown), and the motion information restoring unit may exist as an independent hardware or software module, and the motion information restoring apparatus 600 as illustrated in FIG. 6. It can be composed of). An operation of the motion information reconstruction device 600 will be described in detail with reference to FIG. 6 in the following process.
  • the adder 550 reconstructs the current block by adding the residual block and the prediction block.
  • the current block reconstructed by the adder 550 is transferred to the frame memory 560, and used by the predictor to predict another block.
  • the frame memory 560 stores the reconstructed image to enable intra and inter prediction block generation.
  • the inter prediction unit 530 may include a motion information reconstruction unit that receives coded motion information from the decoder 510, decodes the motion information, and generates a prediction block using the decoded motion information.
  • the motion information reconstruction unit may exist as an independent hardware or software module, and may be configured as a motion information reconstruction device 600 as shown in FIG. 6.
  • FIG. 6 is a block diagram schematically illustrating a motion information restoration apparatus 600 according to an embodiment of the present invention.
  • the motion information reconstruction device 600 uses the same or similar method used in the video encoding apparatus 100 to determine whether all motion information of the merged determination block composed of the motion information of the neighboring blocks are similar to each other. If the merge determination unit 610 that determines whether to restore the motion information by merging according to the merge, the merge determination unit 610 determines to decode by merging, receives the merge flag included in the code motion information, merge If the flag indicates "Merged", when the motion information information of the merge candidate block is the same, any one of the motion information information of the merge candidate block is set as the motion information of the current block, and the motion information information of the merge candidate block is all If it is not the same, the merge direction flag is received and the corresponding merge candidate block indicated by the merge direction flag.
  • the merge motion information decoder which sets the motion information of the lock as the motion information of the current block and receives the motion information included in the code motion information and sets the motion information of the current block when the merge flag indicates “not merged” ( 620 and the motion information direct decoder 630 which extracts motion information of the current block from the code motion information extracted by the decoder 510 when it is determined that the merge determination unit 210 does not encode the data by merging. .
  • the merge motion information decoder 620 generates a merge candidate block set, and when the merge flag included in the code motion information means "merge", the motion information set of the merge candidate block composed of motion information of the merge candidate block. If all of the motion information is identical among them, one of the motion information sets of the merge candidate block is generated as the motion information of the current block to be restored, and if the motion information of the motion information set of the merge candidate block does not all match, Using the merge direction flag included in the motion information, the motion information of the neighboring block indicated by the merge direction flag among the merge candidate block sets is generated as the motion information of the current block. In addition, the merge motion information decoder 620 extracts the motion information of the current block from the motion information included in the code motion information when the merge flag included in the code motion information means "not merged".
  • the motion information direct decoding unit 630 determines that the motion information is directly reconstructed by the merging decision unit 610, the motion information direct decoding unit 630 inputs motion information such as a reference index, a motion vector, and a motion resolution included in the decoded code motion information. It sets the motion information of the current block.
  • FIG. 7 is a flowchart illustrating a motion information restoration method according to an embodiment of the present invention.
  • the merge determination unit 610 may refer to the motion information of the neighbor block set ⁇ Ln, Un, ULn, Urn ⁇ as the motion information set of the merge determination block with respect to the current block (S710). .
  • the neighboring blocks constituting the merged decision block set may be different from the neighboring blocks constituting the merge candidate block set used for the actual merging.
  • the merge determination unit 610 may determine whether to encode the code motion information by merging by additionally determining whether the size of the current block is larger than the preset size.
  • the size of the current block Hn is smaller than or equal to the preset size (PXQ, for example, 4x4, 8x8) or if the motion information of the neighboring block sets ⁇ Ln, Un, ULn, Urn ⁇ are all similar to each other ( If it is determined that the above conditions are not satisfied, the motion of the current block and / or its neighboring blocks is determined to be a very complicated area, and code motion information is generated without merging (S730), and the size of the current block Hn is a preset size.
  • PXQ for example, 4x4, 8x8
  • the code motion information is generated by merging (S740).
  • the neighboring block encoded in the intra mode is determined to have different motion information from other neighboring blocks.
  • PXQ may be set to 8x8 or 4x4.
  • the determination of whether the motion vectors, which are one of the elements of the motion information of the merged determination block, are similar may be determined whether the distance between the motion vectors of neighboring blocks is smaller than the given threshold information.
  • the distance between the motion vectors may be a two-dimensional Euclidean distance or a city distance.
  • the determination of whether the motion information is similar may be determined using only some information from the motion information, for example, a motion vector.
  • the determination of whether the motion information is similar may further determine whether the reference frames of the motion information are the same. That is, the motion information may be determined to be similar when the reference frame is the same as the motion vector.
  • the image encoding / decoding apparatus uses the encoded data (bitstream) output terminal of the image encoding apparatus 100 of FIG. 1 to encode data (bitstream) of the image decoding apparatus 500 of FIG. 5. This can be achieved by connecting to the input.
  • the image encoding / decoding apparatus generates the prediction block of the current block by using motion compensation and determines whether to encode motion information by merging based on the already encoded information. According to the result, the code motion information of the current block is generated, the prediction block is subtracted from the current block to generate a residual block, and then frequency transformed and quantized to generate a quantized frequency residual block, and the code motion information and the quantized frequency residual.
  • the image encoder may be implemented by the image encoding apparatus 100 according to an embodiment of the present invention
  • the image decoder may be implemented by the image decoding apparatus 500 according to an embodiment of the present invention.
  • the image encoding method by generating the prediction block of the current block using the motion compensation and determining whether to encode the motion information by merging on the basis of the already encoded information based on the determination
  • the inter prediction step S810 corresponds to the operation of the inter prediction unit 120
  • the subtraction step S820 corresponds to the operation of the subtraction unit 130
  • the conversion and quantization step S830 is a conversion and quantization unit.
  • the encoding step (S840) corresponds to the operation of the encoder 150, detailed description thereof will be omitted.
  • the image decoding method receiving the encoded data to extract the code motion information and quantization sequence, and to decode the quantized frequency residual block (S910), the quantized frequency residual block Inverse quantization and inverse transformation step (S920) of inverse quantization and inverse transformation to restore the residual block, whether or not to restore the motion information by merging based on the already decoded information,
  • An inter prediction step of restoring motion information of a block and generating a prediction block of a current block using the restored motion information and an adding step of restoring a current block by adding a reconstructed residual block and a prediction block (S940). It includes.
  • the decoding step (S910) corresponds to the operation of the decoder 510
  • the inverse quantization and inverse transform step (S920) corresponds to the operation of the inverse quantization and inverse transform unit 520
  • the inter prediction step (S930) is inter
  • the adding step S940 corresponds to the operation of the adder 550, and thus, detailed description thereof will be omitted.
  • merging determines whether to encode code motion information by merging according to whether all motion information of a merge determination block including motion information of neighboring blocks are similar to each other.
  • the code motion information is merged according to whether the motion information of the current block matches the motion information of the merge candidate block composed of the motion information of the neighboring block.
  • Merge motion information calculation step (S1020) generated by the step, and if it is determined that the encoding is not encoded by the merge as a result of the determination includes the motion information direct calculation step (S1030) for generating code motion information without merging.
  • the merge determination step (S1010) corresponds to the operation of the merge determination unit 210
  • the merge motion information calculation step (S1020) corresponds to the operation of the merge motion information calculation unit 220
  • directly calculates the motion information ( S1030 corresponds to the operation of the motion information direct calculation unit 230, and thus a detailed description thereof will be omitted.
  • the motion information of the merge candidate block is determined. If the information is the same, any one of the motion information information of the merge candidate block is set as the motion information of the current block. If the motion information information of the merge candidate block is not the same, the merge direction flag is received by receiving a merge direction flag.
  • the merge motion information decoding step (S1120) of receiving the motion information included in the code motion information and setting the motion information of the current block is restored by merging in the merging decision step. If it is determined not to include the motion information direct decoding step (S1130) for extracting the motion information of the current block from the code motion information.
  • the merge determination step (S1110) corresponds to the operation of the merge determination unit 610
  • the merge motion information decoding step (S1120) corresponds to the operation of the merge motion information decoder 220 and directly decodes the motion information ( S1130 corresponds to the operation of the motion information direct decoding unit 630, and thus a detailed description thereof will be omitted.
  • An image encoding / decoding method may be realized by combining the image encoding method according to an embodiment of the present invention and the image decoding method according to an embodiment of the present invention.
  • the prediction block of the current block is generated by using motion compensation, and the determination is made by determining whether to encode motion information by merging based on the already encoded information.
  • the code motion information of the current block is generated, the prediction block is subtracted from the current block to generate a residual block, and then frequency transformed and quantized to generate a quantized frequency residual block, and the code motion information and the quantized frequency residual.
  • the image encoding step may be implemented by an image encoding method according to an embodiment of the present invention
  • the image decoding step may be implemented by an image decoding method according to an embodiment of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명의 실시예는 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치에 관한 것이다. 본 발명의 실시예는, 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인가를 판단하여 움직임 정보를 효율적으로 병합하여 부호화하는 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치에 관한 것이다.

Description

움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
본 발명의 실시예는 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치에 관한 것이다. 더욱 상세하게는, 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인가를 판단하여 움직임 정보를 효율적으로 병합하여 부호화하는 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 반드시 종래기술을 구성하는 것은 아니다.
MPEG(Moving Picture Experts Group)과 VCEG(Video Coding Experts Group)은 기존의 MPEG-4 Part 2와 H.263 표준안보다 더욱 우수하고 뛰어난 비디오 압축 표준 기술인 H.264/AVC(Advanced Video Coding)를 개발하였고, 2010년부터 본격적으로 HEVC(High Efficiency Video Coding)기술을 개발하고 있으며, 고려중인 테스트모델(TMuC: Test Model Under Consideration)은 기존의 동영상 압축 기술과 유사한 방법으로 영상을 블록으로 분할하여 움직임 예측 혹은 인트라 예측에 의해 잔여 블록을 주파수변환, 양자화하여 엔트로피 부호화하는 방법을 따르고 있다. HEVC의 TMuC은 다중 참조프레임을 사용하여 움직임 예측을 실시하여 참조 프레임 색인과 움직임벡터를 움직임정보로서 부호화하여 비트스트림에 출력한다.
HEVC의 TMuC은 움직임 정보를 병합 방법을 사용하여 효율적으로 부호화한다. 종래의 병합방법은 현재 블록의 움직임 정보의 부호화를 위해 복호된 이웃 영상 블록들로부터 N 개의 병합방향 움직임 정보로 구성되는 후보 움직임정보 집합을 생성한다. 현재 움직임 정보와 일치하는 움직임 정보가 후보 움직임정보 집합에 존재하지 않으면 병합플래그 정보를 "병합되지 않음"으로 설정한다. 만일, 현재 움직임 정보와 일치하는 움직임 정보가 후보 움직임정보 집합에 존재하면 병합플래그 정보를 "병합됨"으로 설정하고 후보 움직임정보 집합에서 어떤 움직임 정보와 일치하는가를 나타내는 병합방향정보를 설정한다.
병합플래그 정보가 "병합됨"이라도 후보 움직임정보 집합의 움직임 정보들이 모두 같은 경우에는 병합방향정보를 설정하지 않는다. 비트스트림에는 병합플래그 정보가 출력되며 병합플래그가 "병합되지 않음"이면 현재 움직임 정보를 비트스트림에 출력한다. 즉, 병합플래그가 "병합됨"인 경우 후보 움직임정보 집합의 움직임 정보들이 모두 같은 경우에는 병합방향정보를 비트스트림에 출력하지 않고, 그렇지 않으면 병합되는 병합방향정보를 비트스트림에 출력한다. HEVC의 TMuC은 구체적으로 현재 블록의 맨왼쪽위의 샘플을 기점으로 바로 위의 샘플을 포함하는 블록의 움직임 정보와 바로 왼쪽에 있는 샘플을 포함하는 블록의 움직임 정보로서 후보 움직임정보 집합을 구성한다. 그러나 이와 같은 방법에 의한 움직임 정보 병합은 모든 경우에 대해 병합플래그를 부호화함으로써 효율적인 부호화가 어려워진다.
따라서 움직임 정보를 병합하여 부호화하는데 있어서 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인가를 판단하여 병합플래그의 부호화를 감소함으로써 움직임 정보를 효율적으로 부호화하여 영상을 부호화, 복호화하는 방법이 필요하다.
이러한 문제점을 해결하기 위해 본 발명의 실시예는, 움직임 정보를 병합하여 부호화하는데 있어서 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인가를 판단하여 병합관련 플래그의 부호화를 감소함으로써 움직임 정보를 효율적으로 부호화하여 영상의 압축 효율을 향상시키는데 주된 목적이 있다.
전술한 목적을 달성하기 위해 본 발명의 일 실시예는, 영상을 부호화/복호화하는 장치에 있어서, 움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하고 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성한 후 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하고 상기 부호 움직임정보와 상기 양자화된 주파수 잔차블록을 엔트로피부호화하여 비트스트림을 생성하는 영상 부호화기; 및 비트스트림을 수신하여 부호 움직임정보 및 잔차블록을 복원하고 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 생성한 예측블록과 상기 복원된 잔차 블록을 가산하여 현재 블록을 복원하는 영상 복호화기를 포함하는 것을 특징으로 하는 영상 부호화/복호화 장치를 제공한다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 영상을 부호화하는 장치에 있어서, 움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하는 인터예측부; 상기 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성하는 감산부; 상기 잔차블록을 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하는 변환 및 양자화부; 상기 양자화된 주파수 잔차블록과 상기 부호 움직임정보를 엔트로피부호화하여 비트스트림을 생성하는 부호화부를 포함하는 것을 특징으로 하는 영상 부호화 장치를 제공한다.
상기 부호 움직임정보는, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 생성될 수 있다.
상기 인터예측부는, 상기 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 부호 움직임정보를 병합에 의해 부호화할 것인가를 결정하는 병합판단부; 상기 병합판단부에서 병합에 의해 부호화하는 것으로 결정하는 경우 현재블록의 움직임정보가 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보와 일치하는지 여부에 따라 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산부; 및 상기 병합판단부에서 병합에 의해 부호화하지 않는 것으로 결정하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산부를 포함할 수 있다.
이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보의 집합 중에서 어느 하나의 움직임정보가 상기 현재 블록의 움직임정보와 일치하는 경우에, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그를 포함하고, 상기 병합후보블록의 움직임정보 집합 중에서 일부의 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그와 상기 병합후보블록 중에서 현재 블록의 움직임정보와 일치하는 움직임정보를 갖는 블록의 방향을 나타내는 병합방향플래그를 포함하고, 상기 병합후보블록의 움직임정보 집합 중에서 모든 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합되지 않음"을 나타내는 병합플래그 및 현재 블록의 움직임정보를 포함할 수 있다.
상기 병합에 의하지 않고 직접 생성되는 부호 움직임정보는, 상기 병합플래그를 포함하지 않고 현재 블록의 움직임정보를 포함할 수 있다.
상기 부호 움직임정보를 병합에 의해 부호화할 것인가의 결정은, 상기 현재블록의 크기가 기설정 크기보다 큰지 여부를 추가로 판단하여 결정할 수 있다.
상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성할 수 있다.
상기 병합판단블록의 움직임정보의 집합과 상기 병합후보블록의 움직임정보의 집합은 서로 일치할 수도 또는 서로 일치하지 않을 수 있다.
상기 움직임정보가 서로 유사한지 여부 혹은 일치하는지 여부의 판단은, 움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단할 수 있다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 영상을 복호화하는 장치에 있어서, 부호화 데이터를 수신하여 부호 움직임정보 및 양자화계수열을 추출하고 양자화된 주파수 잔차블록을 복원하는 복호화부; 상기 양자화된 주파수 잔차블록을 역양자화하고 역변환하여 잔차블록을 복원하는 역양자화 및 역변환부; 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 현재 블록의 예측블록을 생성하는 인터예측부; 및 상기 복원된 잔차 블록과 상기 예측블록을 가산하여 상기 현재 블록을 복원하는 가산부를 포함하는 것을 특징으로 하는 영상 복호화 장치를 제공한다.
상기 복원된 움직임정보는, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 복원될 수 있다.
상기 인터예측부는, 상기 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단부; 상기 병합판단부에서 병합에 의해 복원하는 것으로 결정하는 경우, 상기 부호 움직임정보에 포함된 병합플래그를 수신하여 상기 병합플래그가 “병합됨”을 나타내는 경우, 상기 병합후보블록의 움직임정보 정보가 모두 일치하는 경우에는 상기 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 상기 병합후보블록의 움직임정보 정보가 모두 일치하지 않은 경우에는 병합방향 플래그를 수신하여 상기 병합방향플래그가 가리키는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 상기 병합플래그가 “병합되지 않음”을 나타내는 경우 상기 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호부; 및 상기 병합판단부에서 병합에 의해 복원하지 않는 것으로 결정하는 경우 현재 블록의 움직임정보를 상기 부호 움직임정보로부터 추출하는 움직임정보 직접복호부를 포함할 수 있다.
상기 병합방향플래그가 가리키는 블록은 이웃블록의 움직임정보로 이루어진 병합후보블록의 집합 중에서 하나일 수 있다.
상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성할 수 있다.
상기 병합판단블록의 움직임정보의 집합과 상기 병합후보블록의 움직임정보의 집합은 서로 일치할 수도 또는 서로 일치하지 않을 수 있다.
상기 움직임정보가 서로 유사한지 여부의 판단은, 움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단할 수 있다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 부호 움직임정보를 병합에 의해 부호화할 것인가를 결정하는 병합판단부; 상기 병합판단부에서 병합에 의해 부호화하는 것으로 결정하는 경우 현재블록의 움직임정보가 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보와 일치하는지 여부에 따라 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산부; 및 상기 병합판단부에서 병합에 의해 부호화하지 않는 것으로 결정하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산부를 포함하는 것을 특징으로 하는 부호움직임정보 생성장치를 제공한다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단부; 상기 병합판단부에서 병합에 의해 복원하는 것으로 결정하는 경우, 상기 부호 움직임정보에 포함된 병합플래그를 수신하여 상기 병합플래그가 “병합됨”을 나타내는 경우, 상기 병합후보블록의 움직임정보 정보가 모두 같은 경우에는 상기 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 상기 병합후보블록의 움직임정보 정보가 모두 같지 않은 경우에는 병합방향 플래그를 수신하여 상기 병합방향플래그가 가리키는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 상기 병합플래그가 “병합되지 않음”을 나타내는 경우 상기 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호부; 및 상기 병합판단부에서 병합에 의해 복원하지 않는 것으로 결정하는 경우 현재 블록의 움직임정보를 상기 부호 움직임정보로부터 추출하는 움직임정보 직접복호부를 포함하는 것을 특징으로 하는 움직임정보 복원장치를 제공한다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 영상을 부호화/복호화하는 방법에 있어서, 움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하고 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성한 후 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하고 상기 부호 움직임정보와 상기 양자화된 주파수 잔차블록을 엔트로피부호화하여 비트스트림을 생성하는 영상 부호화단계; 및 비트스트림을 수신하여 부호 움직임정보 및 잔차블록을 복원하고 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 생성한 예측블록과 상기 복원된 잔차 블록을 가산하여 현재 블록을 복원하는 영상 복호화단계를 포함하는 것을 특징으로 하는 영상 부호화/복호화 방법을 제공한다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 영상을 부호화하는 방법에 있어서, 움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하는 인터예측단계; 상기 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성하는 감산단계; 상기 잔차블록을 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하는 변환 및 양자화단계; 상기 양자화된 주파수 잔차블록과 상기 부호 움직임정보를 엔트로피부호화하여 비트스트림을 생성하는 부호화단계를 포함하는 것을 특징으로 하는 영상 부호화 방법을 제공한다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 영상을 복호화하는 방법에 있어서, 부호화 데이터를 수신하여 부호 움직임정보 및 양자화계수열을 추출하고 양자화된 주파수 잔차블록을 복원하는 복호화단계; 상기 양자화된 주파수 잔차블록을 역양자화하고 역변환하여 잔차블록을 복원하는 역양자화 및 역변환단계; 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 현재 블록의 예측블록을 생성하는 인터예측단계; 및 상기 복원된 잔차 블록과 상기 예측블록을 가산하여 상기 현재 블록을 복원하는 가산단계를 포함하는 것을 특징으로 하는 영상 복호화 방법을 제공한다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 부호 움직임정보를 병합에 의해 부호화할 것인가를 결정하는 병합판단단계; 상기 병합판단단계에서 병합에 의해 부호화하는 것으로 결정하는 경우 현재블록의 움직임정보가 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보와 일치하는지 여부에 따라 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산단계; 및 상기 병합판단단계에서 병합에 의해 부호화하지 않는 것으로 결정하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산단계를 포함하는 것을 특징으로 하는 부호움직임정보 생성방법을 제공한다.
또한, 본 발명의 다른 목적을 달성하기 위해 본 발명의 일 실시예는, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단단계; 상기 병합판단단계에서 병합에 의해 복원하는 것으로 결정하는 경우, 상기 부호 움직임정보에 포함된 병합플래그를 수신하여 상기 병합플래그가 “병합됨”을 나타내는 경우, 상기 병합후보블록의 움직임정보 정보가 모두 같은 경우에는 상기 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 상기 병합후보블록의 움직임정보 정보가 모두 같지 않은 경우에는 병합방향 플래그를 수신하여 상기 병합방향플래그가 가리키는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 상기 병합플래그가 “병합되지 않음”을 나타내는 경우 상기 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호단계; 및 상기 병합판단단계에서 병합에 의해 복원하지 않는 것으로 결정하는 경우 현재 블록의 움직임정보를 상기 부호 움직임정보로부터 추출하는 움직임정보 직접복호단계를 포함하는 것을 특징으로 하는 움직임정보 복원방법을 제공한다.
이상에서 설명한 바와 같이 본 발명의 실시예에 의하면, 움직임 정보를 병합하여 부호화하는데 있어서 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인가를 판단하여 병합관련 데이터양을 줄임으로써 움직임 정보를 효율적으로 부호화하여 부호화 효율을 높일 수 있으며, 그를 통해 압축효율을 향상시키고, 효율화되어 전송된 부호화데이터를 복원하는 효과가 있다.
또한, 움직임정보를 병합하여 부호화하는데 있어서 부호화할 블록의 크기를 확인하여 영상이 복잡한 영역으로 판단되는 경우에는 병합하지 않고 부호화하는 등 영상의 특성에 따라 선택적으로 부호화할 블록을 병합하여 부호화함으로써 병합플래그 정보의 발생량을 감소시키고, 이와 같이 데이터량이 감소되어 전송된 부호화데이터를 복원하는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 간략하게 나타낸 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 부호 움직임정보 생성장치의 구성을 간략하게 나타낸 블록 구성도이다.
도 3은 현재 블록(Hn)과, 후보이웃블럭집합을 만들기 위해 사용될 수 있는 이미 부호화된 영상블록을 (Ln, Un, ULn, URn)들을 예시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 부호움직임정보 생성방법의 흐름도를 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 복호화 장치의 구성을 간략하게 나타낸 블록 구성도이다.
도 6은 본 발명의 일 실시예에 따른 움직임정보 복원장치(600)를 간략히 나타낸 블록 구성도이다.
도 7은 본 발명의 일 실시예에 따른 움직임정보 복원방법의 흐름도를 예시한 도면이다.
이하에서 후술할 영상 부호화 장치(Video Encoding Apparatus), 영상 복호화 장치(Video Decoding Apparatus)는 개인용 컴퓨터(PC: Personal Computer), 노트북 컴퓨터, 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 플레이스테이션 포터블(PSP: PlayStation Portable), 무선 통신 단말기(Wireless Communication Terminal), 스마트폰(Smart Phone), TV 등과 같은 사용자 단말기이거나 응용 서버와 서비스 서버 등 서버 단말기일 수 있으며, 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 영상을 부호화하거나 복호화하거나 부호화 또는 복호화를 위해 인터 또는 인트라 예측하기 위한 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치를 의미할 수 있다.
또한, 영상 부호화 장치에 의해 비트스트림(부호화데이터)으로 부호화된 영상은 실시간 또는 비실시간으로 인터넷, 근거리 무선 통신망, 무선랜망, 와이브로망, 이동통신망 등의 유무선 통신망 등을 통하거나 케이블, 범용 직렬 버스(USB: Universal Serial Bus) 등과 같은 다양한 통신 인터페이스를 통해 영상 복호화 장치로 전송되어 영상 복호화 장치에서 복호화되어 영상으로 복원되고 재생될 수 있다.
통상적으로 동영상은 일련의 픽처(Picture)로 구성될 수 있으며, 각 픽처들은 프레임 또는 블록(Block)과 같은 소정의 영역으로 분할될 수 있다. 영상의 영역이 블록으로 분할되는 경우에는 분할된 블록은 부호화 방법에 따라 크게 인트라 블록(Intra Block), 인터 블록(Inter Block)으로 분류될 수 있다. 인트라 블록은 인트라 예측 부호화(Intra Prediction Coding) 방식을 사용하여 부호화되는 블록을 뜻하는데, 인트라 예측 부호화란 현재 부호화를 수행하는 현재 픽처 내에서 이전에 부호화되고 복호화되어 복원된 블록들의 화소를 이용하여 현재 블록의 화소를 예측함으로써 예측 블록을 생성하고 현재 블록의 화소와의 차분값을 부호화하는 방식이다. 인터 블록은 인터 예측 부호화(Inter Prediction Coding)를 사용하여 부호화되는 블록을 뜻하는데, 인터 예측 부호화란 하나 이상의 과거 픽처 또는 미래 픽처를 참조하여 현재 픽처 내의 현재 블록을 예측함으로써 예측 블록을 생성하고 현재 블록과의 차분값을 부호화하는 방식이다. 여기서, 현재 픽처를 부호화하거나 복호화하는데 참조되는 프레임을 참조 프레임(Reference Frame)이라고 한다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 간략하게 나타낸 블록 구성도이다.
본 발명의 일 실시예에 따른 영상 부호화 장치(100)는 영상을 부호화하는 장치로서, 인트라 예측부(110), 인터예측부(120), 감산부(130), 변환 및 양자화부(140), 부호화부(150), 역양자화 및 역변환부(160), 가산부(170), 프레임 메모리(180)를 포함하여 구성될 수 있다.
부호화하고자 하는 입력 영상은 부호화블록(Coding Block) 단위로 입력이 되는데, 본 발명에서, 부호화블록은 M×N 형태이며, M과 N이 동일하거나 다를 수 있다. 또한, 부호화블록은 다양한 크기의 예측단위블록으로 분할될 수 있다.
인트라 예측부(110)는 현재 예측단위블록을 예측하기 위하여 인접 화소를 이용하여 예측 블록을 생성한다. 즉, 인트라 예측부(110)는 이미 부호화 과정을 거치고 복원된, 현재 블록의 인접 화소들을 이용하여 인트라 예측부(110)의 모드에 따라 예측 블록을 생성한다.
인터예측부(120)는 현재 예측단위 블록을 예측하기 위하여 참조 프레임을 이용하여 예측 블록을 생성하여 출력한다. 즉, 인터예측부(120)는 이미 부호화 과정을 거치고 복원된 이전 프레임에서 인터예측부(120)의 모드에 따라 움직임 추정을 통해 움직임 벡터와 참조프레임 색인, 움직임벡터 해상도 등으로 구성되는 움직임 정보를 생성하고 움직임 정보를 이용한 움직임 보상 과정에서 예측 블록을 생성한다. 또한 인터예측부(120)는 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인가를 판단하고, 병합에 의하여 부호화하지 않는 것으로 판단하면 종래의 방법으로 움직임정보를 포함하는 부호 움직임정보를 생성하고, 병합에 의한 부호화로 판단하면 종래의 병합방법에 의해 병합 플래그 및 병합방향플래그, 혹은 병합플래그 및 움직임정보를 포함하는 부호 움직임정보를 생성한다.
인터예측부(120)는 부호움직임정보 생성부(도시하지 않음)를 포함할 수 있으며, 부호움직임정보 생성부는 독립적인 하드웨어 또는 소프트웨어 모듈로서 존재할 수 있으며, 도 2에 도시된 바와 같은 부호움직임정보 생성장치(200)로 구성될 수 있다. 부호움직임정보 생성부의 동작에 대해서는 후술하는 과정에서 도 2를 통해 상세히 설명한다.
감산부(130)는 현재 블록에서 예측 블록을 감산하여 잔차 블록(Residual Block)을 생성한다. 즉, 감산부(130)는 현재 블록의 화소값과 인트라예측부(110) 또는 인터예측부(120)에서 생성된 예측 블록의 화소값을 감산하여 잔차 블록을 생성한다.
변환 및 양자화부(140)는 감산부(130)에서 생성된 잔차 블록을 주파수 계수로 변환하고 양자화한다. 즉, 변환 및 양자화부는(140)는 감산부(130)에 의해 생성된 잔차 블록의 잔차 계수를 주파수 계수를 갖는 잔차 블록을 생성하고 생성된 주파수 계수의 잔차 블록을 양자화하는데, 이때 사용되는 변환 방식으로는 하다마드 변환(Hadamard Transform), 이산 코사인 변환 기반의 정수 변환(Discrete Cosine Transform Based Integer Transform) 등과 같은 공간 영역의 화상 신호를 주파수 영역으로 변환하는 기법이 사용되고, 양자화 방식으로는 데드존 균일 경계 양자화(DZUTQ: Dead Zone Uniform Threshold Quantization, 이하 'DZUTQ'라 칭함) 또는 양자화 가중치 매트릭스(Quantization Weighted Matrix) 등과 같은 다양한 양자화 기법을 이용할 수 있다.
부호화부(150)는 변환 및 양자화부(140)에 의해 변환되고 양자화된 잔차 블록을 부호화하여 부호화 데이터(비트스트림)를 생성할 수 있다. 이러한 부호화 기술로서는 엔트로피 부호화(Entropy Encoding) 기술이 사용될 수 있으나, 반드시 이에 한정하지 않고 다른 다양한 부호화 기술을 사용할 수 있을 것이다.
또한, 부호화부(150)는 양자화 주파수 계수들을 부호화한 비트열뿐만 아니라 움직임정보 등 부호화된 주파수계수 비트열을 복호화하는 데 필요한 다양한 정보들을 부호화 데이터에 포함시킬 수 있다. 즉, 부호화 데이터는 부호화된 블록 형태(CBP: Coded Block Pattern), 델타 양자화 계수(Delta Quantization Parameter) 및 양자화 주파수 계수가 부호화 된 비트열이 포함되는 제 1 필드와 예측에 필요한 정보(예를 들어, 인트라 예측의 경우 인트라 예측 모드 또는 인터 예측의 경우 움직임 정보 등)를 위한 비트가 포함되는 제 2 필드를 포함할 수 있다.
역양자화 및 역변환부(160)는 변환 및 양자화부(140)에 의해 변환 및 양자화된 잔차 블록을 역양자화(Inverse Quantization)하고 역변환(Inverse Transform)하여 잔차 블록을 생성한다. 역양자화와 역변환은 변환 및 양자화부(140)가 수행한 변환 과정과 양자화 과정을 역으로 수행함으로써 이루어질 수 있다. 즉, 역양자화 및 역변환부(160)는 변환 및 양자화부(140)로부터 전달되는 양자화 된 블록을 역양자화하고, 역양자화된 주파수 블록을 다시 역변환하여 잔차 계수를 갖는 잔차 블록을 생성할 수 있다.
가산부(170)는 인트라예측부(110) 또는 인터예측부(120)에서 생성된 예측 블록과 역양자화 및 역변환부(160)에 의해 생성된 잔차 블록을 가산하여 복원된 블록을 생성한다.
프레임 메모리(180)는 가산부(170)에서 복원된 블록을 저장하여 인트라 예측 혹은 인터 예측 수행 시 예측 블록을 생성하기 위해 참조블록으로 사용된다.
도 2는 본 발명의 일 실시예에 따른 부호움직임정보 생성장치의 구성을 간략하게 나타낸 블록 구성도로서, 부호움직임정보 생성장치(200)는 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인가를 판단하고, 병합에 의하여 부호화하지 않는 것으로 판단하면 종래의 방법으로 부호 움직임정보를 생성하고, 병합에 의한 부호화로 판단하면 병합에 의한 부호 움직임정보를 생성한다. 도 1의 인터예측부(120)는 부호움직임정보 생성장치(200)를 포함할 수 있다.
도 2에서 본 발명의 일 실시예에 따른 부호움직임정보 생성장치(200)는 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인가를 판단하는 병합판단부(210), 병합판단부(210)가 병합에 의해 부호화하는 것으로 판단하는 경우 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산부(220), 병합판단부(210)가 병합에 의해 부호화하지 않는 것으로 판단하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산부(230)를 포함한다.
도 3은 현재 블록(Hn)과, Hn의 움직임정보를 부호화하기 위해 사용될 수 있는 이미 부호화된 이웃 영상블록 (Ln, Un, ULn, URn)들을 예시한 도면이다. 여기서, n은 현재 블록과 그에 따른 이웃 영상 블록들을 식별하는 기호이다.
도 3에서 Hn은 움직임 정보를 부호화할 현재 블록을 나타내며, Ln은 Hn의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 왼쪽 이웃 블록을, Un은 현재 블록 Hn의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 위쪽 이웃 블록을 나타낸다. ULn은 현재 블록 Hn의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 왼쪽위 이웃 블록을 나타내며, URn은 현재 블록 Hn의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 오른쪽위 이웃 블록을 나타낸다.
도 3에서 하나의 영상이 4개의 32x32 코드 블록으로 분할되고 각각의 32x32코드 블록이 다양한 크기의 예측단위블록으로 분할되는 예를 보여준다. 본 발명의 실시예에 따르면 이웃 블록의 움직임정보로 이루어진 병합판단블록의 움직임정보 집합은 하나 이상의 이웃블록의 움직임정보로 구성될 수 있다. 본 실시예에서, 병합판단블록의 움직임정보 집합은 Ln과 Un의 두 개의 이웃 블록에 대한 각각의 움직임정보인 MV_Ln과 MV_Un로 구성되거나, Ln, Un, ULn, URn의 움직임 정보로 구성되는 등 다양한 이웃블록의 움직임정보의 집합으로 구성될 수도 있다. 여기서, 움직임정보는 참조색인, 움직임벡터, 움직임벡터 해상도를 포함할 수 있다.
병합판단부(210)는 이웃 블록의 움직임정보로 이루어진 병합판단블록의 움직임정보 집합의 모든 움직임정보가 서로 유사한지의 여부를 기반으로 병합움직임정보 계산부(220)에서 부호화할 현재 블록의 부호 움직임정보를 생성할 것인지, 아니면 움직임정보 직접계산부(230)에서 부호화할 현재 블록의 부호 움직임정보를 생성할 것인지 여부를 결정한다. 부호움직임정보 생성장치(200)는, 병합판단부(210)에 의해 이미 부호화된 이웃 블록들의 정보와 현재 블록의 모드 정보 등을 기반으로 움직임 정보의 병합에 의한 부호화 가능성이 희박하다고 판단되는 경우 병합움직임정보 계산부(220)를 통하지 않고, 움직임정보 직접계산부(230)에서 부호화할 부호 움직임정보를 생성하여 병합플래그 정보의 부호화를 감소함으로써 압축효율을 향상시킨다.
도 4는 본 발명의 일 실시예에 따른 부호움직임정보 생성방법의 흐름도를 예시한 것으로서, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 움직임정보집합의 모든 움직임정보가 서로 유사한지의 여부에 따라 부호화할 현재 블록의 부호 움직임정보를 병합움직임정보 계산부(220)에서 계산할 것인지, 아니면 움직임정보 직접계산부(230)에서 계산할 것인지 여부를 결정하는 흐름도를 예시한 도면이다.
영상에 있어서 움직임이 매우 복잡한 영역은 블록이 작게 분할되며 이웃한 블록들의 움직임벡터 등 움직임정보가 서로 유사하지 않을 가능성이 높다. 이런 조건하에서는 현재 블록의 움직임정보가 이웃 블록의 움직임정보에 병합되어 생성될 가능성이 희박하다. 또한 현재 움직임정보를 Ln 혹은 Un에 병합하여 부호화하는 경우 Ln과 Un의 움직임정보가 다르면 최소한 두 개의 정보(병합플래그 및 병합방향플래그)가 부호화될 수 있다. 여기서 병합방향플래그는 Hn의 움직임정보와 일치하는 움직임정보를 갖는 블록의 방향을 나타내는 정보를 의미한다. 여기서 방향을 나타내는 정보를 위하여 Ln은 0, Un은 1과 같이 1비트를 할당할 수 있다.
병합판단부(210)는 현재 블록에 대해 병합판단블록의 움직임정보 집합으로서 이웃블록집합(예컨대 {Ln, Un, ULn, URn})의 움직임정보집합을 참조할 수 있다(S410). 병합판단부(210)가 참조하는 이웃블록집합은 {Ln, Un}, {Ln, Un, ULn} 또는 {Ln, Un, URn} 등 다양한 방법으로 구성할 수 있으며, 본 발명이 이에 한정되지는 않는다. 또한, 병합판단부(210)는 부호 움직임정보를 병합에 의해 부호화할 것인가의 결정은 현재블록의 크기가 기설정 크기보다 큰지 여부를 추가로 판단하여 결정할 수 있다. 즉, 현재 블록 Hn의 크기가 기설정 크기(PXQ, 예컨대, 4x4, 8x8) 이하이거나 이웃블록집합 {Ln, Un, ULn, URn}의 움직임정보가 모두 서로 유사한지 여부에 대한 조건을 판단하여(S420), 상기의 조건을 만족하지 않으면 현재 블록 및/또는 그 주변블록의 움직임이 매우 복잡한 영역으로 판단하여 부호 움직임정보를 병합에 의하지 않고 생성하고(S430), 현재 블록 Hn의 크기가 기설정 크기(PXQ, 예컨대, 4x4, 8x8)보다 크고 병합판단블록에 포함되는 이웃블록집합 {Ln, Un, ULn, Urn}의 모든 움직임정보가 서로 유사한 것으로 판단하면 병합에 의해 부호 움직임정보를 생성한다(S440). 여기서, 인트라모드로 부호화된 이웃 블록은 다른 이웃 블록들과 움직임정보가 다른 것으로 판단한다. 병합판단블록의 움직임정보가 유사한가의 판단은 움직임정보의 요소 중 하나인 움직임벡터가 유사한가로 판단할 수도 있으며, 이 경우 움직임벡터가 유사한가 여부의 판단은 병합판단블록에 포함되는 이웃 블록들의 움직임벡터간의 거리가 주어진 임계값 정보보다 작은지 여부로 판단할 수 있다. 이때 움직임벡터간의 거리는 2차원 유클리디언 거리 혹은 시티 거리 등을 사용할 수 있다. 또한 움직임정보가 유사한가의 판단은 움직임정보 중에서 일부의 정보, 예컨대, 움직임벡터만을 사용하여 판단할 수도 있다. 또한 움직임정보가 유사한가의 판단은, 움직임정보의 참조프레임이 같은가를 추가로 판단할 수도 있다. 즉, 움직임벡터뿐만 아니라 참조프레임까지 같아야 움직임정보가 유사한 것으로 판단할 수도 있다.
본 발명의 일 실시예에 따른 움직임정보 병합움직임정보계산부(220)와 직접계산부(230)는 JCT-VC(Joint Collaborative Team for Video Coding Committee)의 HEVC의 TMUC 방법을 따를 수 있다.
HEVC의 TMUC에 따르면 병합움직임정보 계산부(220)는 참조프레임을 나타내는 참조색인 정보와 움직임벡터, 움직임벡터 해상도 등으로 구성되는 현재 블록의 움직임정보를 이미 부호화된 이웃 영상블록들의 움직임 정보들로 구성된 병합후보블록의 움직임정보를 기반으로 병합플래그 및/또는 병합방향플래그를 포함하는 부호 움직임정보를 생성할 수 있다.
병합움직임정보 계산부(220)는, 예를 들어 병합후보블록이 {Ln, Un}인 경우, 현재 블록의 움직임정보 Hn과 {Ln, Un}으로 구성되는 병합후보블록 집합을 입력받아 Hn의 움직임 정보가 {Ln, Un}의 움직임정보 중에서 어느 하나의 움직임 정보와도 일치하지 않으면 병합플래그 정보를 "병합되지 않음"으로 설정하고, Hn의 움직임 정보가 {Ln, Un}의 움직임정보 중에서 어느 하나의 움직임 정보와 일치하면 병합플래그 정보를 "병합됨"으로 설정한다. 병합플래그가 “병합됨”을 나타내면 병합후보블록(Ln, Un)의 움직임정보 중 어떤 블록의 움직임정보와 일치하는가를 나타내는 병합방향플래그를 설정하고, 병합플래그와 병합방향플래그를 포함하는 부호 움직임정보로 생성한다. 만일, 병합플래그 정보가 "병합됨"이라도 {Ln, Un}의 움직임정보 정보가 모두 같은 경우에는 병합방향플래그는 부호 움직임정보에 포함되지 않는다. 또한, 병합움직임정보 계산부(220)는 병합후보블록의 움직임정보 집합 중에서 모든 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합되지 않음"을 나타내는 병합플래그 및 현재 블록의 움직임정보를 포함한다. 병합움직임정보 계산부(220)는 병합플래그가 “병합되지 않음”을 나타내면 병합플래그와 함께 참조색인, 움직임벡터, 움직임해상도 중에서 하나 이상을 포함하는 움직임정보를 부호 움직임정보로 생성한다. 이때 움직임벡터는 이미 부호화된 시공간 이웃 움직임벡터들로부터 예측움직임벡터를 계산하여 차분움직임벡터로서 움직임정보를 생성하여 병합플래그와 함께 부호 움직임정보를 구성할 수 있다.
움직임정보 직접계산부(230)는 병합플래그 없이 전술한 “병합되지 않음”의 경우와 같은 방법으로 참조색인, 움직임벡터, 움직임해상도 등의 움직임정보를 포함하는 부호 움직임정보로 생성할 수 있다.
도 2 내지 도 4를 통하여 전술한 바와 같은, 부호움직임정보 생성장치(200)를 이용하면, 움직임정보를 병합하여 부호화하는데 있어서 영상의 특성에 따라 병합플래그 정보의 부호화를 감소함으로써 움직임 정보를 효율적으로 부호화하여 부호화 효율을 높일 수 있으며, 그를 통해 압축 효율을 향상시킬 수 있다.
도 5는 본 발명의 일 실시예에 따른 영상 복호화 장치의 구성을 간략하게 나타낸 블록 구성도이다.
본 발명의 일 실시예에 따른 영상 복호화 장치(500)는 복호화부(510), 역양자화 및 역변환부(520), 인트라 예측부(530), 인터 예측부(540), 가산부(550), 프레임 메모리(560)를 포함하여 구성될 수 있다.
복호화부(510)는 부호화 데이터(비트스트림)를 복호화하여 블록 복호화에 필요한 인터예측 모드, 부호 움직임정보, 인트라 예측 모드, 텍스쳐 등의 데이타를 추출한다. 즉, 복호화부(510)는 부호화 데이터를 복호화하여 양자화 주파수 계수열을 추출하고, 양자화 주파수 계수열을 역 지그재그 스캔 등 다양한 역스캐닝 방식으로 역스캐닝하여 양자화 주파수 계수를 갖는 잔차 블록을 생성한다. 이때, 복호화부(510)는 부호화 데이터에 포함된 제 1 필드에서 부호화된 잔차 블록을 추출하여 복호화할 수 있고, 부호화 데이터에 포함된 제 2 필드에서 인트라 예측모드, 인터예측 모드, 부호 움직임정보 등 예측에 필요한 정보를 추출할 수 있으며, 추출된 예측에 필요한 정보를 인트라 예측부(530) 또는 인터 예측부(540)로 전달하여, 해당 예측부가 영상 부호화 장치(100)의 해당 예측부와 동일한 방식으로 현재 블록을 예측하도록 할 수 있다. 여기서 복호되는 부호 움직임정보에는 움직임정보가 포함될 수 있으며, 경우에 따라 움직임정보 대신에 병합플래그 및 병합방향 플래그가 포함될 수 있으며, 또한 부호 움직임정보에 움직임정보와 병합플래그를 포함할 수도 있다.
역 양자화 및 역 변환부(520)는 양자화된 잔차 블록을 역양자화하여 역양자화된 잔차 블록을 생성하고 생성된 역양자화된 블록을 역 트랜스폼하여 잔차 블록을 생성한다.
인트라 예측부(530)는 복호화부(510)로부터 전달되는 인트라 예측에 필요한 정보를 이용하여 현재 블록에 대한 예측 블록을 생성한다.
인터 예측부(540)는 복호화부(510)로부터 전달되는 인터 예측에 필요한 정보를 이용하여 현재 블록에 대한 예측 블록을 생성한다. 이때, 인터 예측부(540)는 복호화부(510)로부터 부호 움직임정보를 전송받아, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 움직임정보가 모두 유사한 경우 부호 움직임정보에 포함된 병합플래그에 따라서 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보 집합 또는 부호 움직임정보에 포함된 움직임정보로부터 현재 블록의 움직임정보를 복원하고, 복원된 움직임정보를 이용하여 현재 블록의 예측블록을 생성할 수 있다. 또한, 인터 예측부(540)는 이웃 블록의 움직임정보로 이루어진 병합판단블록의 움직임정보가 모두 유사하지 않은 경우 부호 움직임정보에 포함된 움직임정보를 이용하여 현재 블록의 움직임정보를 복원하고, 복원된 움직임정보를 이용하여 현재 블록의 예측블록을 생성할 수 있다. 인터예측부(540)는 움직임정보 복원부(도시하지 않음)를 포함할 수 있으며, 움직임정보 복원부는 독립적인 하드웨어 또는 소프트웨어 모듈로서 존재할 수 있으며, 도 6에 도시된 바와 같은 움직임정보 복원장치(600)로 구성될 수 있다. 움직임정보 복원장치(600)의 동작에 대해서는 후술하는 과정에서 도 6을 통해 상세히 설명한다.
가산부(550)는 잔차 블록과 예측 블록을 가산하여 현재 블록을 복원한다. 가산부(550)에 의해 복원된 현재 블록은 프레임 메모리(560)로 전달되어, 예측부에서 다른 블록을 예측하는 데 활용될 수 있다.
프레임 메모리(560)는 복원된 영상을 저장하여 인트라 및 인터 예측 블록 생성을 가능하게 한다.
인터예측부(530)는 복호화부(510)로부터 부호 움직임정보를 전송받아, 움직임 정보를 복호하고 복호된 움직임 정보를 사용하여 예측 블록을 생성하는 움직임정보 복원부를 포함할 수 있다. 움직임정보 복원부는 독립적인 하드웨어 또는 소프트웨어 모듈로서 존재할 수 있으며, 도 6에 도시된 바와 같은 움직임정보 복원장치(600)로 구성될 수 있다.
도 6은 본 발명의 일 실시예에 따른 움직임정보 복원장치(600)를 간략히 나타낸 블록 구성도이다.
본 발명의 일 실시예에 따른 움직임정보 복원장치(600)는 영상 부호화 장치(100)에서 사용했던 것과 같거나 유사한 방법으로 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지의 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단부(610), 병합판단부(610)가 병합에 의해 복호화하는 것으로 결정하는 경우 부호 움직임정보에 포함된 병합플래그를 수신하여, 병합플래그가 “병합됨”을 나타내는 경우, 병합후보블록의 움직임정보 정보가 모두 같은 경우에는 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 병합후보블록의 움직임정보 정보가 모두 같지 않은 경우에는 병합방향 플래그를 수신하여 병합방향플래그가 가리키는 병합후보블록 중 해당하는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 병합플래그가 “병합되지 않음”을 나타내는 경우 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호부(620), 병합판단부(210)가 병합에 의해 부호화하지 않는 것으로 판단하는 경우 현재 블록의 움직임정보를 복호화부(510)가 추출한 부호 움직임정보로부터 추출하는 움직임정보 직접복호부(630)를 포함한다.
병합움직임정보 복호부(620)는 병합후보블록 집합을 생성하고, 부호 움직임정보에 포함된 병합플래그가 "병합됨"을 의미하는 경우, 병합후보블록의 움직임정보로 이루어진 병합후보블록의 움직임정보 집합 중에서 모든 움직임정보가 일치하는 경우에는 병합후보블록의 움직임정보집합 중에서 어느 하나를 복원하고자 하는 현재블록의 움직임정보로 생성하고, 병합후보블록의 움직임정보 집합의 움직임정보가 모두 일치하지 않는 경우에는 부호 움직임정보에 포함된 병합방향플래그를 이용하여 병합후보블록집합 중에서 병합방향플래그가 가리키는 이웃 블록의 움직임 정보를 현재 블록의 움직임정보로 생성한다. 또한, 병합움직임정보 복호부(620)는 부호 움직임정보에 포함된 병합플래그가 "병합되지 않음"을 의미하면, 현재 블록의 움직임정보를 부호 움직임정보에 포함된 움직임정보로부터 추출한다.
움직임정보 직접복호부(630)는 병합판단부(610)의 판단결과 움직임정보를 직접 복원하는 것으로 판단하면, 복호된 부호 움직임정보에 포함된 참조색인, 움직임벡터, 움직임해상도 등의 움직임정보를 입력받아 현재 블록의 움직임정보로 설정한다.
도 7은 본 발명의 일 실시예에 따른 움직임정보 복원방법의 흐름도를 예시한 도면이다.
도 7에 도시한 바와 같이, 병합판단부(610)는 현재 블록에 대해 병합판단블록의 움직임정보 집합으로서 이웃블록집합 {Ln, Un, ULn, Urn}의 움직임정보를 참조할 수 있다(S710). 병합판단블록집합을 구성하는 이웃블럭은 실제 병합을 위해 사용하는 병합후보블럭집합을 구성하는 이웃블록과 다를 수 있다. 또한, 병합판단부(610)는 부호 움직임정보를 병합에 의해 부호화할 것인가의 결정은 현재블록의 크기가 기설정 크기보다 큰지 여부를 추가로 판단하여 결정할 수 있다. 즉, 현재 블록 Hn의 크기가 기설정 크기(PXQ, 예컨대, 4x4, 8x8) 이하이거나 이웃블록집합 {Ln, Un, ULn, Urn}의 움직임정보가 모두 서로 유사한지의 여부에 대한 조건을 판단하여(S720), 상기의 조건을 만족하지 않으면 현재 블록 및/또는 그 주변블록의 움직임이 매우 복잡한 영역으로 판단하여 부호 움직임정보를 병합에 의하지 않고 생성하고(S730), 현재 블록 Hn의 크기가 기설정 크기(PXQ, 예컨대, 4x4, 8x8)보다 크고 이웃블록집합 {Ln, Un, ULn, Urn}의 모든 움직임정보가 서로 유사한 것으로 판단하면 병합에 의해 부호 움직임정보를 생성한다(S740). 여기서, 인트라모드로 부호화된 이웃 블록은 다른 이웃 블록들과 움직임정보가 다른 것으로 판단한다. 본 실시예에서 PXQ는 8x8 혹은 4x4 등으로 설정할 수 있다. 병합판단블록의 움직임정보의 요소 중 하나인 움직임벡터가 유사한가 여부의 판단은 이웃 블록들의 움직임벡터간의 거리가 주어진 임계값 정보보다 작은지 여부로 판단할 수 있다. 이때 움직임벡터간의 거리는 2차원 유클리디언 거리 혹은 시티 거리 등을 사용할 수 있다. 또한 움직임정보가 유사한가의 판단은 움직임정보 중에서 일부의 정보, 예컨대, 움직임벡터만을 사용하여 판단할 수도 있다. 또한 움직임정보가 유사한가의 판단은, 움직임정보의 참조프레임이 같은가를 추가로 판단할 수 있다. 즉, 움직임벡터뿐만 아니라 참조프레임까지 같아야 움직임정보가 유사한 것으로 판단할 수도 있다.
한편, 본 발명의 일 실시예에 따른 영상 부호화/복호화 장치는 도 1의 영상 부호화 장치(100)의 부호화데이터(비트스트림) 출력단을 도 5의 영상 복호화 장치(500)의 부호화 데이터(비트스트림) 입력단에 연결함으로써 구현할 수 있다.
본 발명의 일 실시예에 따른 영상 부호화/복호화 장치는, 움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하고 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성한 후 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하고 상기 부호 움직임정보와 상기 양자화된 주파수 잔차블록을 엔트로피부호화하여 비트스트림을 생성하는 영상 부호화기; 및 비트스트림을 수신하여 부호 움직임정보 및 잔차블록을 복원하고 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 생성한 예측블록과 상기 복원된 잔차 블록을 가산하여 현재 블록을 복원하는 영상 복호화기를 포함한다.
여기서 영상 부호화기는 본 발명의 일 실시예에 따른 영상 부호화 장치(100)로 구현 가능하며, 영상 복호화기는 본 발명의 일 실시예에 따른 영상 복호화 장치(500)로 구현 가능하다.
한편, 본 발명의 일 실시예에 따른 영상 부호화 방법은, 움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하는 인터예측단계(S810), 현재 블록에서 예측블록을 감산하여 잔차블록을 생성하는 감산단계(S820), 잔차블록을 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하는 변환 및 양자화단계(S830) 및 상기 부호 움직임정보와 상기 양자화된 주파수 잔차블록을 엔트로피부호화하여 비트스트림을 생성하는 부호화단계(S840)를 포함한다.
여기서, 인터예측단계(S810)는 인터예측부(120)의 동작에 대응되며, 감산단계(S820)는 감산부(130)의 동작에 대응되며, 변환 및 양자화단계(S830)는 변환 및 양자화부(140)의 동작에 대응되며, 부호화단계(S840)는 부호화부(150)의 동작에 대응되므로 상세한 설명은 생략한다.
한편, 본 발명의 일 실시예에 따른 영상 복호화 방법은, 부호화 데이터를 수신하여 부호 움직임정보 및 양자화계수열을 추출하고 양자화된 주파수 잔차블록을 복원하는 복호화단계(S910), 양자화된 주파수 잔차블록을 역양자화하고 역변환하여 잔차블록을 복원하는 역양자화 및 역변환단계(S920), 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 현재 블록의 예측블록을 생성하는 인터예측단계(S930) 및 복원된 잔차 블록과 예측블록을 가산하여 현재 블록을 복원하는 가산단계(S940)를 포함한다.
여기서, 복호화단계(S910)는 복호화부(510)의 동작에 대응되며, 역양자화 및 역변환단계(S920)는 역양자화 및 역변환부(520)의 동작에 대응되며, 인터예측단계(S930)는 인터예측부(840)의 동작에 대응되며, 가산단계(S940)는 가산부(550)의 동작에 대응되므로 상세한 설명은 생략한다.
본 발명의 일 실시예에 따른 부호움직임정보 생성방법은, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 부호 움직임정보를 병합에 의해 부호화할 것인가를 결정하는 병합판단단계(S1010), 상기 병합판단단계에서 병합에 의해 부호화하는 것으로 결정하는 경우 현재블록의 움직임정보가 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보와 일치하는지 여부에 따라 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산단계(S1020), 상기 판단의 결과 병합에 의해 부호화하지 않는 것으로 판단하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산단계(S1030)를 포함한다.
여기서, 병합판단단계(S1010)는 병합판단부(210)의 동작에 대응되며, 병합움직임정보 계산단계(S1020)는 병합움직임정보 계산부(220)의 동작에 대응되며, 움직임정보 직접계산단계(S1030)는 움직임정보 직접계산부(230)의 동작에 대응되므로 상세한 설명은 생략한다.
본 발명의 일 실시예에 따른 움직임정보 복원방법은, 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단단계(S1110), 상기 병합판단단계에서 병합에 의해 복원하는 것으로 결정하는 경우, 상기 부호 움직임정보에 포함된 병합플래그를 수신하여 상기 병합플래그가 “병합됨”을 나타내는 경우, 상기 병합후보블록의 움직임정보 정보가 모두 같은 경우에는 상기 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 상기 병합후보블록의 움직임정보 정보가 모두 같지 않은 경우에는 병합방향 플래그를 수신하여 상기 병합방향플래그가 가리키는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 상기 병합플래그가 “병합되지 않음”을 나타내는 경우 상기 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호단계(S1120), 상기 병합판단단계에서 병합에 의해 복원하지 않는 것으로 결정하는 경우 현재 블록의 움직임정보를 상기 부호 움직임정보로부터 추출하는 움직임정보 직접복호단계(S1130)를 포함한다.
여기서, 병합판단단계(S1110)는 병합판단부(610)의 동작에 대응되며, 병합움직임정보 복호단계(S1120)는 병합움직임정보 복호부(220)의 동작에 대응되며, 움직임정보 직접복호단계(S1130)는 움직임정보 직접복호부(630)의 동작에 대응되므로 상세한 설명은 생략한다.
본 발명의 일 실시예에 따른 영상 부호화/복호화 방법은, 본 발명의 일 실시예에 따른 영상 부호화 방법과 본 발명의 일 실시예에 따른 영상 복호화 방법을 결합하여 구현함으로써 실현할 수 있다.
본 발명의 일 실시예에 따른 영상 부호화/복호화 방법은, 움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하고 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성한 후 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하고 상기 부호 움직임정보와 상기 양자화된 주파수 잔차블록을 엔트로피부호화하여 비트스트림을 생성하는 영상 부호화단계; 및 비트스트림을 수신하여 부호 움직임정보 및 잔차블록을 복원하고 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 생성한 예측블록과 상기 복원된 잔차 블록을 가산하여 현재 블록을 복원하는 영상 복호화단계를 포함한다.
여기서 영상 부호화단계는 본 발명의 일 실시예에 따른 영상 부호화 방법으로 구현 가능하며, 영상 복호화단계는 본 발명의 일 실시예에 따른 영상 복호화 방법으로 구현 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
CROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2010.12.15.에 한국에 출원한 특허출원번호 제10-2010-0127985호에 대해 미국 특허법 119(a)조(35 U.S.C § 119(a))에 따라 우선권을 주장하면, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 이유로 우선권을 주장하면 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.

Claims (54)

  1. 영상을 부호화/복호화하는 장치에 있어서,
    움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하고 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성한 후 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하고 상기 부호 움직임정보와 상기 양자화된 주파수 잔차블록을 엔트로피부호화하여 비트스트림을 생성하는 영상 부호화기; 및
    비트스트림을 수신하여 부호 움직임정보 및 잔차블록을 복원하고 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 생성한 예측블록과 상기 복원된 잔차 블록을 가산하여 현재 블록을 복원하는 영상 복호화기
    를 포함하는 것을 특징으로 하는 영상 부호화/복호화 장치.
  2. 영상을 부호화하는 장치에 있어서,
    움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하는 인터예측부;
    상기 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성하는 감산부;
    상기 잔차블록을 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하는 변환 및 양자화부;
    상기 양자화된 주파수 잔차블록과 상기 부호 움직임정보를 엔트로피부호화하여 비트스트림을 생성하는 부호화부
    를 포함하는 것을 특징으로 하는 영상 부호화 장치.
  3. 제 2항에 있어서, 상기 부호 움직임정보는,
    이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 생성되는 것을 특징으로 하는 영상 부호화 장치.
  4. 제 3항에 있어서, 상기 인터예측부는,
    상기 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 부호 움직임정보를 병합에 의해 부호화할 것인가를 결정하는 병합판단부;
    상기 병합판단부에서 병합에 의해 부호화하는 것으로 결정하는 경우 현재블록의 움직임정보가 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보와 일치하는지 여부에 따라 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산부; 및
    상기 병합판단부에서 병합에 의해 부호화하지 않는 것으로 결정하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산부
    를 포함하는 것을 특징으로 하는 영상 부호화 장치.
  5. 제 4항에 있어서,
    이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보의 집합 중에서 어느 하나의 움직임정보가 상기 현재 블록의 움직임정보와 일치하는 경우에, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그를 포함하고,
    상기 병합후보블록의 움직임정보 집합 중에서 일부의 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그와 상기 병합후보블록 중에서 현재 블록의 움직임정보와 일치하는 움직임정보를 갖는 블록의 방향을 나타내는 병합방향플래그를 포함하고,
    상기 병합후보블록의 움직임정보 집합 중에서 모든 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합되지 않음"을 나타내는 병합플래그 및 현재 블록의 움직임정보를 포함하는 것을 특징으로 하는 영상 부호화 장치.
  6. 제 4항에 있어서,
    상기 병합에 의하지 않고 직접 생성되는 부호 움직임정보는,
    상기 병합플래그를 포함하지 않고 현재 블록의 움직임정보를 포함하는 것을 특징으로 하는 영상 부호화 장치.
  7. 제 4항에 있어서,
    상기 부호 움직임정보를 병합에 의해 부호화할 것인가의 결정은, 상기 현재블록의 크기가 기설정 크기보다 큰지 여부를 추가로 판단하여 결정하는 것을 특징으로 하는 영상 부호화 장치.
  8. 제 5항에 있어서,
    상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은,
    현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성된 것을 특징으로 하는 영상 부호화 장치.
  9. 제 8항에 있어서,
    상기 병합판단블록의 움직임정보의 집합과 상기 병합후보블록의 움직임정보의 집합은 서로 일치하거나 또는 서로 일치하지 않는 것을 특징으로 하는 영상 부호화 장치.
  10. 제 5항에 있어서,
    상기 움직임정보가 서로 유사한지 여부 혹은 일치하는지 여부의 판단은,
    움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단하는 것을 특징으로 하는 영상 부호화 장치.
  11. 영상을 복호화하는 장치에 있어서,
    부호화 데이터를 수신하여 부호 움직임정보 및 양자화계수열을 추출하고 양자화된 주파수 잔차블록을 복원하는 복호화부;
    상기 양자화된 주파수 잔차블록을 역양자화하고 역변환하여 잔차블록을 복원하는 역양자화 및 역변환부;
    이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 현재 블록의 예측블록을 생성하는 인터예측부; 및
    상기 복원된 잔차 블록과 상기 예측블록을 가산하여 상기 현재 블록을 복원하는 가산부
    를 포함하는 것을 특징으로 하는 영상 복호화 장치.
  12. 제 11항에 있어서, 상기 복원된 움직임정보는,
    이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 복원되는 것을 특징으로 하는 영상 복호화 장치.
  13. 제 12항에 있어서, 상기 인터예측부는,
    상기 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단부;
    상기 병합판단부에서 병합에 의해 복원하는 것으로 결정하는 경우, 상기 부호 움직임정보에 포함된 병합플래그를 수신하여 상기 병합플래그가 “병합됨”을 나타내는 경우, 상기 병합후보블록의 움직임정보 정보가 모두 일치하는 경우에는 상기 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 상기 병합후보블록의 움직임정보 정보가 모두 일치하지 않은 경우에는 병합방향 플래그를 수신하여 상기 병합방향플래그가 가리키는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 상기 병합플래그가 “병합되지 않음”을 나타내는 경우 상기 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호부; 및
    상기 병합판단부에서 병합에 의해 복원하지 않는 것으로 결정하는 경우 현재 블록의 움직임정보를 상기 부호 움직임정보로부터 추출하는 움직임정보 직접복호부
    를 포함하는 것을 특징으로 하는 영상 복호화 장치.
  14. 제 13항에 있어서,
    상기 병합방향플래그가 가리키는 블록은 이웃블록의 움직임정보로 이루어진 병합후보블록의 집합 중에서 하나인 것을 특징으로 하는 영상 복호화 장치.
  15. 제 14항에 있어서,
    상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은,
    현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성된 것을 특징으로 하는 영상 복호화 장치.
  16. 제 15항에 있어서,
    상기 병합판단블록의 움직임정보의 집합과 상기 병합후보블록의 움직임정보의 집합은 서로 일치하거나 또는 서로 일치하지 않는 것을 특징으로 하는 영상 복호화 장치.
  17. 제 13항에 있어서,
    상기 움직임정보가 서로 유사한지 여부의 판단은,
    움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단하는 것을 특징으로 하는 영상 복호화 장치.
  18. 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 부호 움직임정보를 병합에 의해 부호화할 것인가를 결정하는 병합판단부;
    상기 병합판단부에서 병합에 의해 부호화하는 것으로 결정하는 경우 현재블록의 움직임정보가 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보와 일치하는지 여부에 따라 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산부; 및
    상기 병합판단부에서 병합에 의해 부호화하지 않는 것으로 결정하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산부
    를 포함하는 것을 특징으로 하는 부호움직임정보 생성장치.
  19. 제 18항에 있어서,
    이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보의 집합 중에서 어느 하나의 움직임정보가 상기 현재 블록의 움직임정보와 일치하는 경우에, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그를 포함하고,
    상기 병합후보블록의 움직임정보 집합 중에서 일부의 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그와 상기 병합후보블록 중에서 현재 블록의 움직임정보와 일치하는 움직임정보를 갖는 블록의 방향을 나타내는 병합방향플래그를 포함하고,
    상기 병합후보블록의 움직임정보 집합 중에서 모든 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합되지 않음"을 나타내는 병합플래그 및 현재 블록의 움직임정보를 포함하는 것을 특징으로 하는 부호움직임정보 생성장치.
  20. 제 18항에 있어서,
    상기 병합에 의하지 않고 직접 생성되는 부호 움직임정보는,
    상기 병합플래그를 포함하지 않고 현재 블록의 움직임정보를 포함하는 것을 특징으로 하는 부호움직임정보 생성장치.
  21. 제 18항에 있어서,
    상기 부호 움직임정보를 병합에 의해 부호화할 것인가의 결정은, 상기 현재블록의 크기가 기설정 크기보다 큰지 여부를 추가로 판단하여 결정하는 것을 특징으로 하는 부호움직임정보 생성장치.
  22. 제 18항에 있어서,
    상기 움직임정보가 서로 유사한지 여부 혹은 일치하는지 여부의 판단은,
    움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단하는 것을 특징으로 하는 부호움직임정보 생성장치.
  23. 제 19항에 있어서,
    상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은,
    현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성된 것을 특징으로 하는 부호움직임정보 생성장치.
  24. 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단부;
    상기 병합판단부에서 병합에 의해 복원하는 것으로 결정하는 경우, 상기 부호 움직임정보에 포함된 병합플래그를 수신하여 상기 병합플래그가 “병합됨”을 나타내는 경우, 상기 병합후보블록의 움직임정보 정보가 모두 같은 경우에는 상기 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 상기 병합후보블록의 움직임정보 정보가 모두 같지 않은 경우에는 병합방향 플래그를 수신하여 상기 병합방향플래그가 가리키는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 상기 병합플래그가 “병합되지 않음”을 나타내는 경우 상기 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호부; 및
    상기 병합판단부에서 병합에 의해 복원하지 않는 것으로 결정하는 경우 현재 블록의 움직임정보를 상기 부호 움직임정보로부터 추출하는 움직임정보 직접복호부
    를 포함하는 것을 특징으로 하는 움직임정보 복원장치.
  25. 제 24항에 있어서,
    상기 병합방향플래그가 가리키는 블록은 이웃블록의 움직임정보로 이루어진 병합후보블록의 집합 중에서 하나인 것을 특징으로 하는 움직임정보 복원장치.
  26. 제 25항에 있어서,
    상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은,
    현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성된 것을 특징으로 하는 움직임정보 복원장치.
  27. 제 24항에 있어서,
    상기 움직임정보가 서로 유사한지 여부의 판단은,
    움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단하는 것을 특징으로 하는 움직임정보 복원장치.
  28. 영상을 부호화/복호화하는 방법에 있어서,
    움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하고 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성한 후 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하고 상기 부호 움직임정보와 상기 양자화된 주파수 잔차블록을 엔트로피부호화하여 비트스트림을 생성하는 영상 부호화단계; 및
    비트스트림을 수신하여 부호 움직임정보 및 잔차블록을 복원하고 이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 생성한 예측블록과 상기 복원된 잔차 블록을 가산하여 현재 블록을 복원하는 영상 복호화단계
    를 포함하는 것을 특징으로 하는 영상 부호화/복호화 방법.
  29. 영상을 부호화하는 방법에 있어서,
    움직임보상을 이용하여 현재 블록의 예측블록을 생성하고 이미 부호화된 정보를 기반으로 움직임정보를 병합에 의해 부호화할 것인지 여부를 판단하여 상기 판단결과에 따라 현재 블록의 부호 움직임정보를 생성하는 인터예측단계;
    상기 현재 블록에서 상기 예측블록을 감산하여 잔차블록을 생성하는 감산단계;
    상기 잔차블록을 주파수변환하고 양자화하여 양자화된 주파수 잔차블록을 생성하는 변환 및 양자화단계;
    상기 양자화된 주파수 잔차블록과 상기 부호 움직임정보를 엔트로피부호화하여 비트스트림을 생성하는 부호화단계
    를 포함하는 것을 특징으로 하는 영상 부호화 방법.
  30. 제 29항에 있어서, 상기 부호 움직임정보는,
    이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 생성되는 것을 특징으로 하는 영상 부호화 방법.
  31. 제 30항에 있어서, 상기 인터예측단계는,
    상기 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 부호 움직임정보를 병합에 의해 부호화할 것인가를 결정하는 병합판단단계;
    상기 병합판단부에서 병합에 의해 부호화하는 것으로 결정하는 경우 현재블록의 움직임정보가 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보와 일치하는지 여부에 따라 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산단계; 및
    상기 병합판단부에서 병합에 의해 부호화하지 않는 것으로 결정하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산단계
    를 포함하는 것을 특징으로 하는 영상 부호화 방법.
  32. 제 31항에 있어서,
    이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보의 집합 중에서 어느 하나의 움직임정보가 상기 현재 블록의 움직임정보와 일치하는 경우에, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그를 포함하고,
    상기 병합후보블록의 움직임정보 집합 중에서 일부의 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그와 상기 병합후보블록 중에서 현재 블록의 움직임정보와 일치하는 움직임정보를 갖는 블록의 방향을 나타내는 병합방향플래그를 포함하고,
    상기 병합후보블록의 움직임정보 집합 중에서 모든 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합되지 않음"을 나타내는 병합플래그 및 현재 블록의 움직임정보를 포함하는 것을 특징으로 하는 영상 부호화 방법.
  33. 제 31항에 있어서,
    상기 병합에 의하지 않고 직접 생성되는 부호 움직임정보는,
    상기 병합플래그를 포함하지 않고 현재 블록의 움직임정보를 포함하는 것을 특징으로 하는 영상 부호화 방법.
  34. 제 31항에 있어서,
    상기 부호 움직임정보를 병합에 의해 부호화할 것인가의 결정은, 상기 현재블록의 크기가 기설정 크기보다 큰지 여부를 추가로 판단하여 결정하는 것을 특징으로 하는 영상 부호화 방법.
  35. 제 32항에 있어서,
    상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은,
    현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성된 것을 특징으로 하는 영상 부호화 방법.
  36. 제 35항에 있어서,
    상기 병합판단블록의 움직임정보의 집합과 상기 병합후보블록의 움직임정보의 집합은 서로 일치하거나 또는 서로 일치하지 않는 것을 특징으로 하는 영상 부호화 방법.
  37. 제 32항에 있어서,
    상기 움직임정보가 서로 유사한지 여부 혹은 일치하는지 여부의 판단은,
    움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단하는 것을 특징으로 하는 영상 부호화 방법.
  38. 영상을 복호화하는 방법에 있어서,
    부호화 데이터를 수신하여 부호 움직임정보 및 양자화계수열을 추출하고 양자화된 주파수 잔차블록을 복원하는 복호화단계;
    상기 양자화된 주파수 잔차블록을 역양자화하고 역변환하여 잔차블록을 복원하는 역양자화 및 역변환단계;
    이미 복호화된 정보를 기반으로 움직임정보를 병합에 의해 복원할 것인지 여부를 판단하여 상기 판단결과에 따라 상기 부호 움직임정보로부터 현재 블록의 움직임정보를 복원하고 상기 복원된 움직임정보를 이용하여 현재 블록의 예측블록을 생성하는 인터예측단계; 및
    상기 복원된 잔차 블록과 상기 예측블록을 가산하여 상기 현재 블록을 복원하는 가산단계
    를 포함하는 것을 특징으로 하는 영상 복호화 방법.
  39. 제 38항에 있어서, 상기 복원된 움직임정보는,
    이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 복원되는 것을 특징으로 하는 영상 복호화 방법.
  40. 제 39항에 있어서, 상기 인터예측단계는,
    상기 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단단계;
    상기 병합판단부에서 병합에 의해 복원하는 것으로 결정하는 경우, 상기 부호 움직임정보에 포함된 병합플래그를 수신하여 상기 병합플래그가 “병합됨”을 나타내는 경우, 상기 병합후보블록의 움직임정보 정보가 모두 일치하는 경우에는 상기 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 상기 병합후보블록의 움직임정보 정보가 모두 일치하지 않은 경우에는 병합방향 플래그를 수신하여 상기 병합방향플래그가 가리키는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 상기 병합플래그가 “병합되지 않음”을 나타내는 경우 상기 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호단계; 및
    상기 병합판단부에서 병합에 의해 복원하지 않는 것으로 결정하는 경우 현재 블록의 움직임정보를 상기 부호 움직임정보로부터 추출하는 움직임정보 직접복호단계
    를 포함하는 것을 특징으로 하는 영상 복호화 방법.
  41. 제 40항에 있어서,
    상기 병합방향플래그가 가리키는 블록은 이웃블록의 움직임정보로 이루어진 병합후보블록의 집합 중에서 하나인 것을 특징으로 하는 영상 복호화 방법.
  42. 제 41항에 있어서,
    상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은,
    현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성된 것을 특징으로 하는 영상 복호화 방법.
  43. 제 42항에 있어서,
    상기 병합판단블록의 움직임정보의 집합과 상기 병합후보블록의 움직임정보의 집합은 서로 일치하거나 또는 서로 일치하지 않는 것을 특징으로 하는 영상 복호화 방법.
  44. 제 40항에 있어서,
    상기 움직임정보가 서로 유사한지 여부의 판단은,
    움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단하는 것을 특징으로 하는 영상 복호화 방법.
  45. 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 부호 움직임정보를 병합에 의해 부호화할 것인가를 결정하는 병합판단단계;
    상기 병합판단단계에서 병합에 의해 부호화하는 것으로 결정하는 경우 현재블록의 움직임정보가 이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보와 일치하는지 여부에 따라 부호 움직임정보를 병합에 의해 생성하는 병합움직임정보 계산단계; 및
    상기 병합판단단계에서 병합에 의해 부호화하지 않는 것으로 결정하는 경우 병합에 의하지 않고 부호 움직임정보를 생성하는 움직임정보 직접계산단계
    를 포함하는 것을 특징으로 하는 부호움직임정보 생성방법.
  46. 제 45항에 있어서,
    이웃 블록의 움직임정보로 이루어진 병합후보블록의 움직임정보의 집합 중에서 어느 하나의 움직임정보가 상기 현재 블록의 움직임정보와 일치하는 경우에, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그를 포함하고,
    상기 병합후보블록의 움직임정보 집합 중에서 일부의 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합됨"을 의미하는 병합플래그와 상기 병합후보블록 중에서 현재 블록의 움직임정보와 일치하는 움직임정보를 갖는 블록의 방향을 나타내는 병합방향플래그를 포함하고,
    상기 병합후보블록의 움직임정보 집합 중에서 모든 움직임정보가 현재 블록의 움직임정보와 일치하지 않는 경우에는, 병합에 의해 생성되는 부호 움직임정보는 "병합되지 않음"을 나타내는 병합플래그 및 현재 블록의 움직임정보를 포함하는 것을 특징으로 하는 부호움직임정보 생성방법.
  47. 제 45항에 있어서,
    상기 병합에 의하지 않고 직접 생성되는 부호 움직임정보는,
    상기 병합플래그를 포함하지 않고 현재 블록의 움직임정보를 포함하는 것을 특징으로 하는 부호움직임정보 생성방법.
  48. 제 45항에 있어서,
    상기 부호 움직임정보를 병합에 의해 부호화할 것인가의 결정은, 상기 현재블록의 크기가 기설정 크기보다 큰지 여부를 추가로 판단하여 결정하는 것을 특징으로 하는 부호움직임정보 생성방법.
  49. 제 45항에 있어서,
    상기 움직임정보가 서로 유사한지 여부 혹은 일치하는지 여부의 판단은,
    움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단하는 것을 특징으로 하는 부호움직임정보 생성방법.
  50. 제 46항에 있어서,
    상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은,
    현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성된 것을 특징으로 하는 부호움직임정보 생성방법.
  51. 이웃 블록의 움직임정보로 이루어진 병합판단블록의 모든 움직임정보가 서로 유사한지 여부에 따라 움직임정보를 병합에 의해 복원할 것인가를 결정하는 병합판단단계;
    상기 병합판단단계에서 병합에 의해 복원하는 것으로 결정하는 경우, 상기 부호 움직임정보에 포함된 병합플래그를 수신하여 상기 병합플래그가 “병합됨”을 나타내는 경우, 상기 병합후보블록의 움직임정보 정보가 모두 같은 경우에는 상기 병합후보블록의 움직임정보 정보 중에서 어느 하나를 현재블록의 움직임정보로 설정하고 상기 병합후보블록의 움직임정보 정보가 모두 같지 않은 경우에는 병합방향 플래그를 수신하여 상기 병합방향플래그가 가리키는 블록의 움직임정보를 현재 블록의 움직임정보로 설정하고, 상기 병합플래그가 “병합되지 않음”을 나타내는 경우 상기 부호움직임정보에 포함된 움직임정보를 수신하여 현재 블록의 움직임정보로 설정하는 병합움직임정보 복호단계; 및
    상기 병합판단단계에서 병합에 의해 복원하지 않는 것으로 결정하는 경우 현재 블록의 움직임정보를 상기 부호 움직임정보로부터 추출하는 움직임정보 직접복호단계
    를 포함하는 것을 특징으로 하는 움직임정보 복원방법.
  52. 제 51항에 있어서,
    상기 병합방향플래그가 가리키는 블록은 이웃블록의 움직임정보로 이루어진 병합후보블록의 집합 중에서 하나인 것을 특징으로 하는 움직임정보 복원방법.
  53. 제 52항에 있어서,
    상기 병합판단블록의 움직임정보의 집합 또는 상기 병합후보블록의 움직임정보의 집합은,
    현재 블록의 가장 왼쪽위의 샘플의 왼쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 위쪽 샘플을 포함하는 이웃 블록의 움직임정보, 현재 블록의 가장 왼쪽위의 샘플의 왼쪽샘플의 바로 위쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보, 및 현재 블록의 가장 오른쪽 위의 샘플의 바로 위 오른쪽에 위치한 샘플을 포함하는 이웃 블록의 움직임정보 중에서 하나 이상으로 각각 구성된 것을 특징으로 하는 움직임정보 복원방법.
  54. 제 51항에 있어서,
    상기 움직임정보가 서로 유사한지 여부의 판단은,
    움직임벡터만으로 판단하거나 참조프레임이 같은 경우에 한해 움직임벡터를 이용하여 판단하는 것을 특징으로 하는 움직임정보 복원방법.
PCT/KR2011/009673 2010-12-15 2011-12-15 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치 WO2012081917A2 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201180060212.3A CN103262538B (zh) 2010-12-15 2011-12-15 利用运动信息集成来生成编码运动信息/恢复运动信息的方法和装置、使用该方法和装置的图像编码/解码方法和装置
US13/914,910 US9270996B2 (en) 2010-12-15 2013-06-11 Method and apparatus for generating encoded motion information/recovering motion information using motion information integration, and image encoding/decoding method and apparatus using same
US14/937,277 US9888248B2 (en) 2010-12-15 2015-11-10 Method and apparatus for generating encoded motion information /recovering motion information using motion information integration, and image encoding/decoding method and apparatus using same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100127985A KR101506446B1 (ko) 2010-12-15 2010-12-15 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR10-2010-0127985 2010-12-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/914,910 Continuation US9270996B2 (en) 2010-12-15 2013-06-11 Method and apparatus for generating encoded motion information/recovering motion information using motion information integration, and image encoding/decoding method and apparatus using same

Publications (2)

Publication Number Publication Date
WO2012081917A2 true WO2012081917A2 (ko) 2012-06-21
WO2012081917A3 WO2012081917A3 (ko) 2012-10-04

Family

ID=46245230

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/009673 WO2012081917A2 (ko) 2010-12-15 2011-12-15 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치

Country Status (4)

Country Link
US (2) US9270996B2 (ko)
KR (1) KR101506446B1 (ko)
CN (5) CN103262538B (ko)
WO (1) WO2012081917A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106464898A (zh) * 2014-03-31 2017-02-22 英迪股份有限公司 用于导出视图间运动合并候选的方法和装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10645398B2 (en) 2011-10-25 2020-05-05 Texas Instruments Incorporated Sample-based angular intra-prediction in video coding
US10291827B2 (en) 2013-11-22 2019-05-14 Futurewei Technologies, Inc. Advanced screen content coding solution
US10638143B2 (en) 2014-03-21 2020-04-28 Futurewei Technologies, Inc. Advanced screen content coding with improved color table and index map coding methods
US10091512B2 (en) * 2014-05-23 2018-10-02 Futurewei Technologies, Inc. Advanced screen content coding with improved palette table and index map coding methods
CN112956194A (zh) * 2018-11-08 2021-06-11 Oppo广东移动通信有限公司 图像信号编码/解码方法及其设备
CN113228645A (zh) * 2018-12-28 2021-08-06 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970004896A (ko) * 1995-06-29 1997-01-29 동영상 감축을 위한 움직임 벡터 추정방법
KR20010000248A (ko) * 2000-08-29 2001-01-05 안병엽 영상 압축 시스템에 있어서 템플릿 패턴 코딩을 이용한가변 블록 사이즈 움직임 보상 장치
KR100381061B1 (ko) * 1995-10-20 2003-08-19 노키아 모빌 폰즈 리미티드 모션벡터필드코딩
KR20050052130A (ko) * 2003-11-29 2005-06-02 엘지전자 주식회사 영상을 디코딩하는 방법

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608458A (en) * 1994-10-13 1997-03-04 Lucent Technologies Inc. Method and apparatus for a region-based approach to coding a sequence of video images
KR20040105866A (ko) * 2002-04-11 2004-12-16 코닌클리케 필립스 일렉트로닉스 엔.브이. 움직임 추정 유닛 및 움직임 벡터 추정 방법
HUP0301368A3 (en) * 2003-05-20 2005-09-28 Amt Advanced Multimedia Techno Method and equipment for compressing motion picture data
CN1225127C (zh) * 2003-09-12 2005-10-26 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
AR049727A1 (es) * 2004-07-20 2006-08-30 Qualcomm Inc Metodo y aparato para la conversion ascendente de la velocidad de las tramas con multiples tramas de referencia y tamanos de bloques variables
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
US20080126278A1 (en) * 2006-11-29 2008-05-29 Alexander Bronstein Parallel processing motion estimation for H.264 video codec
US8090022B2 (en) * 2007-01-05 2012-01-03 Sony Corporation Video coding system
RU2426267C2 (ru) * 2007-01-08 2011-08-10 Нокиа Корпорейшн Усовершенствованное межуровневое предсказание для расширенной пространственной масштабируемости при кодировании видеосигнала
CN101014129B (zh) * 2007-03-06 2010-12-15 孟智平 一种视频数据压缩方法
WO2008126843A1 (ja) * 2007-04-09 2008-10-23 Ntt Docomo, Inc. 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラム
JP5666293B2 (ja) * 2007-04-12 2015-02-12 トムソン ライセンシングThomson Licensing ビデオ・エンコーディング、およびデコーディングのためのスキップ/ダイレクトモードのコンテクストに依存するマージのための方法と装置
GB2449887A (en) * 2007-06-06 2008-12-10 Tandberg Television Asa Replacement of spurious motion vectors for video compression
WO2009032255A2 (en) * 2007-09-04 2009-03-12 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
CN101415116B (zh) * 2007-10-15 2011-08-03 华为技术有限公司 一种确定对应宏块的方法和系统
CN101472174A (zh) * 2007-12-29 2009-07-01 智多微电子(上海)有限公司 视频解码器中用于复原原始图像数据的方法及装置
US8495564B2 (en) * 2008-02-19 2013-07-23 International Business Machines Corporation Automated merging in a software development environment
CN101562745B (zh) * 2008-04-18 2012-07-04 华为技术有限公司 一种多视点视频图像编码和解码的方法及装置
KR100968371B1 (ko) * 2008-04-25 2010-07-06 주식회사 코아로직 영상의 복호화 방법 및 장치
US8320674B2 (en) * 2008-09-03 2012-11-27 Sony Corporation Text localization for image and video OCR
TWI401972B (zh) * 2009-06-23 2013-07-11 Acer Inc 時間性錯誤隱藏方法
CN101610413B (zh) * 2009-07-29 2011-04-27 清华大学 一种视频的编码/解码方法及装置
US20110170608A1 (en) * 2010-01-08 2011-07-14 Xun Shi Method and device for video transcoding using quad-tree based mode selection
CN101815218B (zh) * 2010-04-02 2012-02-08 北京工业大学 基于宏块特征的快速运动估计视频编码方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970004896A (ko) * 1995-06-29 1997-01-29 동영상 감축을 위한 움직임 벡터 추정방법
KR100381061B1 (ko) * 1995-10-20 2003-08-19 노키아 모빌 폰즈 리미티드 모션벡터필드코딩
KR20010000248A (ko) * 2000-08-29 2001-01-05 안병엽 영상 압축 시스템에 있어서 템플릿 패턴 코딩을 이용한가변 블록 사이즈 움직임 보상 장치
KR20050052130A (ko) * 2003-11-29 2005-06-02 엘지전자 주식회사 영상을 디코딩하는 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106464898A (zh) * 2014-03-31 2017-02-22 英迪股份有限公司 用于导出视图间运动合并候选的方法和装置
CN106464898B (zh) * 2014-03-31 2020-02-11 英迪股份有限公司 用于导出视图间运动合并候选的方法和装置
US10616602B2 (en) 2014-03-31 2020-04-07 Intellectual Discovery Co., Ltd. Method and device for deriving inter-view motion merging candidate
US11729421B2 (en) 2014-03-31 2023-08-15 Dolby Laboratories Licensing Corporation Method and device for deriving inter-view motion merging candidate

Also Published As

Publication number Publication date
CN105828085A (zh) 2016-08-03
US9888248B2 (en) 2018-02-06
CN105847833A (zh) 2016-08-10
CN105847832A (zh) 2016-08-10
US20130272419A1 (en) 2013-10-17
CN105847834B (zh) 2019-03-26
WO2012081917A3 (ko) 2012-10-04
US20160065972A1 (en) 2016-03-03
CN103262538B (zh) 2016-09-28
KR101506446B1 (ko) 2015-04-08
US9270996B2 (en) 2016-02-23
CN105847834A (zh) 2016-08-10
CN105847832B (zh) 2019-02-22
CN105847833B (zh) 2018-12-04
KR20120066741A (ko) 2012-06-25
CN103262538A (zh) 2013-08-21
CN105828085B (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
WO2012015275A2 (ko) 블록 분할예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2013002549A2 (ko) 영상 부호화/복호화 방법 및 장치
WO2013070006A1 (ko) 스킵모드를 이용한 동영상 부호화 및 복호화 방법 및 장치
WO2010050706A2 (ko) 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2012099440A2 (ko) 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
WO2013005941A2 (ko) 영상 부호화 및 복호화 방법과 장치
WO2011052897A2 (ko) 공간 분할을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2011062392A2 (ko) 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2012081917A2 (ko) 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2012077960A2 (ko) 임의의 형태의 블록을 이용한 인터예측에 의한 영상의 부호화/복호화 방법 및 장치
WO2012074248A2 (ko) 인트라예측모드의 중복성을 최소화하기 위한 영상 부호화/복호화 방법 및 장치
WO2009157669A2 (ko) 인트라 예측 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2012096550A2 (ko) 양방향 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2011145819A2 (ko) 영상 부호화/복호화 장치 및 방법
WO2013002550A2 (ko) 고속 코딩 단위(Coding Unit) 모드 결정을 통한 부호화/복호화 방법 및 장치
WO2012033344A2 (ko) 효과적인 화면내 예측모드 집합 선택을 이용한 영상 부호화/복호화 방법 및 장치
WO2012093854A2 (ko) 코딩 유닛 단위 병렬 인트라예측을 이용한 부호화/복호화 방법 및 장치
WO2012091461A2 (ko) 주변블록의 특징벡터를 이용한 영상 부호화/복호화 방법 및 장치
WO2013069996A1 (ko) 변환을 이용한 주파수 도메인 상의 적응적 루프 필터를 이용한 영상 부호화/복호화 방법 및 장치
WO2012077959A2 (ko) 노이즈성분을 위한 공간영역에서의 영상 부호화/복호화 방법 및 장치
WO2012046979A2 (ko) 주파수 마스크 테이블을 이용한 주파수변환 블록 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2012011672A2 (ko) 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치
WO2010044569A2 (ko) 참조 프레임 생성 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2010047498A2 (ko) 적응적 보간 필터 계수를 이용한 영상 부호화/복호화 방법 및 장치
WO2011037337A2 (ko) 저주파수 성분을 고려한 영상 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11848266

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 27-09-2013)

122 Ep: pct application non-entry in european phase

Ref document number: 11848266

Country of ref document: EP

Kind code of ref document: A2