WO2020004682A1 - 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법 - Google Patents

움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법 Download PDF

Info

Publication number
WO2020004682A1
WO2020004682A1 PCT/KR2018/007213 KR2018007213W WO2020004682A1 WO 2020004682 A1 WO2020004682 A1 WO 2020004682A1 KR 2018007213 W KR2018007213 W KR 2018007213W WO 2020004682 A1 WO2020004682 A1 WO 2020004682A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion vector
coding unit
coding
information
decoding apparatus
Prior art date
Application number
PCT/KR2018/007213
Other languages
English (en)
French (fr)
Inventor
정승수
김찬열
박민수
박민우
최기호
최나래
최웅일
템즈아니쉬
표인지
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/255,599 priority Critical patent/US20210266561A1/en
Priority to KR1020207027515A priority patent/KR20210014094A/ko
Priority to PCT/KR2018/007213 priority patent/WO2020004682A1/ko
Publication of WO2020004682A1 publication Critical patent/WO2020004682A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present disclosure relates to the field of video encoding and decoding. More specifically, the present disclosure relates to a method and apparatus for encoding motion information of an image, and a method and apparatus for decoding.
  • one picture may be divided into blocks to encode an image, and each block may be predictively encoded through inter prediction or intra prediction.
  • Inter prediction is a method of compressing an image by removing temporal redundancy between pictures
  • motion estimation coding is a representative example.
  • Motion estimation encoding predicts blocks of the current picture using at least one reference picture.
  • the predetermined evaluation function may be used to search for a reference block most similar to the current block in a predetermined search range.
  • the current block is predicted based on the reference block, and the residual block is generated and encoded by subtracting the prediction block generated as a result of the prediction from the current block.
  • interpolation is performed on the search range of the reference picture to perform prediction more accurately, thereby generating pixels of a sub pel unit smaller than an integer pel unit, and the generated subpixel units Inter prediction may be performed based on a pixel of.
  • a coding apparatus and an encoding method of a motion information there is provided a decoding apparatus and a decoding method of a motion information.
  • a method of decoding motion information when adaptive coding is applied to a residual motion vector of a current block, determining a coding factor value of the residual motion vector; Determining a first result value generated by applying the adaptive encoding to the residual motion vector, based on the information included in the bitstream; Obtaining the residual motion vector by applying the determined encoding factor value to the first result value according to a predetermined operation; And obtaining a motion vector of the current block based on the obtained residual motion vector and the predicted motion vector of the current block.
  • the encoding apparatus and the encoding method and the decoding apparatus and the decoding method of the motion information may encode the residual motion vector of the current block with a low bit rate.
  • FIG. 1 is a block diagram of an image decoding apparatus capable of decoding an image based on at least one of block type information and split type information, according to an exemplary embodiment.
  • FIG. 2 is a block diagram of an image encoding apparatus capable of encoding an image based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • FIG. 3 illustrates a process of determining at least one coding unit by dividing a current coding unit according to an embodiment.
  • FIG. 4 is a diagram illustrating a process of dividing a coding unit having a non-square shape and determining at least one coding unit according to an embodiment.
  • FIG. 5 illustrates a process of splitting a coding unit based on at least one of block shape information and split shape information, according to an embodiment.
  • FIG. 6 illustrates a method of determining a predetermined coding unit among odd number of coding units according to an embodiment.
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when a current coding unit is divided and a plurality of coding units are determined according to an embodiment.
  • FIG. 8 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the coding units cannot be processed in a predetermined order, according to an embodiment.
  • FIG. 9 is a diagram illustrating a process of determining at least one coding unit by dividing a first coding unit according to an embodiment.
  • FIG. 10 illustrates that a form in which a second coding unit may be split is limited when the second coding unit having a non-square shape determined by splitting the first coding unit satisfies a predetermined condition according to an embodiment. .
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape when split information cannot be divided into four square coding units according to an embodiment.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • FIG. 14 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture, according to an embodiment.
  • FIG. 17 illustrates coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • FIG. 18 illustrates various forms of coding units that may be determined based on split form information that may be represented by binary codes according to an embodiment.
  • FIG. 19 illustrates another form of a coding unit that may be determined based on split form information that may be represented by a binary code, according to an embodiment.
  • 20 is a block diagram of an image encoding and decoding system for performing loop filtering.
  • 21 is a block diagram of an image decoding apparatus, according to an embodiment.
  • 22 is a table showing a print value corresponding to the print value indication index.
  • FIG. 23 is a diagram illustrating a motion vector, a predicted motion vector, and a residual motion vector associated with a current block that is bidirectionally predicted.
  • 24 is a diagram illustrating neighboring blocks temporally and spatially related to a current block.
  • 25 is a table showing motion vector resolution corresponding to an index.
  • 26 is a diagram illustrating syntax of obtaining information about an MVR from a bitstream.
  • FIG. 27 is a flowchart illustrating a method of decoding motion information according to an embodiment.
  • FIG. 28 is a block diagram of an image encoding apparatus, according to an embodiment.
  • 29 is a flowchart illustrating a method of encoding motion information, according to an embodiment.
  • FIG. 30 is a diagram illustrating positions of pixels that a motion vector can point to corresponding to an MVR of 1/4 pixel, an MVR of 1/2 pixel, an MVR of 1 pixel, and an MVR of 2 pixel.
  • 31 and 32 are diagrams for describing a prediction motion vector adjusting method.
  • a method of decoding motion information when adaptive coding is applied to a residual motion vector of a current block, determining a coding factor value of the residual motion vector; Determining a first result value generated by applying the adaptive encoding to the residual motion vector, based on the information included in the bitstream; Obtaining the residual motion vector by applying the determined encoding factor value to the first result value according to a predetermined operation; And obtaining a motion vector of the current block based on the obtained residual motion vector and the predicted motion vector of the current block.
  • the determining of the first result value may include determining a second result value generated by applying the adaptive encoding to the residual motion vector based on the information included in the bitstream. Acquiring the residual motion vector may further include applying the second result value to the predetermined operation to obtain the residual motion vector.
  • the determining of the encoding factor value of the residual motion vector may include obtaining factor value indication information from the bitstream; And determining the encoding factor value based on the obtained factor value indication information.
  • the determining of the encoding factor value of the residual motion vector may include: the current block, a previously decoded block, a current slice including the current block, a previously decoded slice, a current picture including the current block, and previously
  • the method may include determining a coding factor value of the residual motion vector based on information related to at least one of the decoded pictures.
  • the decoding method of the motion information may further include determining a residual motion vector of the current block based on information obtained from the bitstream when adaptive encoding is not applied to the residual motion vector of the current block. can do.
  • the decoding method of the motion information may include determining a first motion vector resolution of a first component of a motion vector of the current block and a second motion vector resolution of a second component of the motion vector of the current block; And adjusting a first component value and a second component value of the predicted motion vector based on a preset minimum motion vector resolution and a comparison result of the first motion vector resolution and the second motion vector resolution. And obtaining a motion vector of the current block based on the adjusted prediction motion vector and the residual motion vector.
  • the determining of the encoding factor value of the residual motion vector may include determining the encoding factor value based on the first motion vector resolution and the second motion vector resolution.
  • Adjusting the first component value and the second component value of the predicted motion vector if the first motion vector resolution is larger than the minimum motion vector resolution, adjusts the first component value of the predicted motion vector, and If the second motion vector resolution is greater than the minimum motion vector resolution, adjusting the second component value of the predicted motion vector may be included.
  • the determining of the first motion vector resolution and the second motion vector resolution may include: determining the first motion vector resolution based on information indicating a first motion vector resolution obtained from the bitstream and information indicating a second motion vector resolution. Determining the vector resolution and the second motion vector resolution.
  • the determining of the first motion vector resolution and the second motion vector resolution may include determining the first motion vector resolution and the second motion vector resolution based on the width and height of the current block. have.
  • the determining of the first motion vector resolution and the second motion vector resolution may include: when the width is greater than the height, the first motion vector resolution so that the first motion vector resolution is greater than the second motion vector resolution. And determining the second motion vector resolution.
  • An image decoding apparatus may include: an acquirer configured to obtain a bitstream; And when adaptive encoding is applied to the residual motion vector of the current block, determine a coding factor value of the residual motion vector, and apply the adaptive encoding to the residual motion vector based on information included in the bitstream. And determine the generated first result value, obtain the residual motion vector by applying the determined encoding factor value to the first result value of the residual motion vector according to a predetermined operation, and obtain the obtained residual motion vector and the current. Based on the predicted motion vector of the block, the block may include a predictive decoder that obtains the motion vector of the current block.
  • an image encoding method includes: obtaining a residual motion vector of the current block based on a motion vector and a predicted motion vector of the current block; Determining an encoding factor value of the residual motion vector when adaptive encoding is applied to the residual motion vector; Applying the determined encoding factor value to the residual motion vector according to a predetermined operation to obtain a first result value of the residual motion vector; And generating a bitstream based on the first result value of the residual motion vector.
  • the encoding method of the motion information may further include obtaining the second result value of the residual motion vector by applying the determined encoding factor value to the residual motion vector according to the predetermined operation, and generating the bitstream.
  • the step may include generating the bitstream based on a first result value and a second result value of the residual motion vector.
  • the determining of the encoding factor value of the residual motion vector may include: when each of the plurality of factor value candidates is applied to the residual motion vector, the first result value, the second result value, and the factor value candidate of the residual motion vector.
  • the method may include determining a factor value candidate having the smallest number of bits of the factor value indicating information as an encoding factor value of the residual motion vector of the current block.
  • one component when one component is referred to as “connected” or “connected” with another component, the one component may be directly connected or directly connected to the other component, but in particular It is to be understood that, unless there is an opposite substrate, it may be connected or connected via another component in the middle.
  • each component represented by ' ⁇ unit (unit)', 'module', etc., two or more components are combined into one component or two or more components for each functionalized function May be differentiated into
  • each component to be described below may additionally perform some or all of the functions of other components in addition to the main functions of which they are responsible, and some of the main functions of each of the components may be different. Of course, it may be carried out exclusively by the component.
  • an 'image' or 'picture' may be a still image of a video or a video, that is, a video itself.
  • sample' means data to be processed as data allocated to a sampling position of an image.
  • pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain.
  • a unit including the at least one sample may be defined as a block.
  • a “current block” may mean a block of a maximum coding unit, a coding unit, a prediction unit, or a transformation unit of a current image to be encoded or decoded.
  • 'Motion Vector Resolution refers to a position of a pixel to which a motion vector determined through inter prediction among pixels included in a reference image (or interpolated reference image) may indicate. It can mean the precision of.
  • N is a rational number
  • the motion vector resolution in units of 1/4 pixels may mean that the motion vector may indicate pixel positions in units of 1/4 pixels (ie, subpixels) in the interpolated reference image.
  • the motion vector resolution of may mean that the motion vector may indicate a pixel position corresponding to one pixel unit (ie, an integer pixel unit) in the interpolated reference image.
  • 'candidate of motion vector resolution' means one or more motion vector resolutions that can be selected as the motion vector resolution of a block.
  • the 'pixel unit' may be replaced with terms such as pixel precision and pixel accuracy.
  • FIG. 1 is a block diagram of an image decoding apparatus 100 capable of decoding an image based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • the image decoding apparatus 100 uses the bitstream obtainer 110 to obtain predetermined information, such as partition type information and block shape information, from the bitstream, according to an embodiment. And a decoder 120 to decode the image.
  • the decoder 120 of the image decoding device 100 is a block type. At least one coding unit for dividing an image may be determined based on at least one of the information and the split type information.
  • the decoder 120 of the image decoding apparatus 100 may determine a shape of a coding unit based on block shape information.
  • the block shape information may include information indicating whether a coding unit is square or non-square.
  • the decoder 120 may determine a shape of a coding unit by using block shape information.
  • the decoder 120 may determine which type of coding unit is divided based on the split type information.
  • the split type information may indicate information about the type of at least one coding unit included in the coding unit.
  • the decoder 120 may determine whether a coding unit is divided or not divided according to split type information.
  • the split type information may include information about at least one coding unit included in a coding unit, and if the split type information indicates that only one coding unit is included in the coding unit or not, The decoder 120 may determine that the coding unit including the split type information is not split.
  • the decoder 120 may split the plurality of coding units included in the coding unit based on the split type information.
  • the split type information may indicate how many coding units are divided or in which direction.
  • the split type information may indicate splitting in at least one of a vertical direction and a horizontal direction or may not split.
  • FIG. 3 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing a current coding unit according to an embodiment.
  • the block type may include 4Nx4N, 4Nx2N, 2Nx4N, 4NxN or Nx4N. Where N may be a positive integer.
  • the block shape information is information indicating at least one of a shape, a direction, a width, and a ratio or size of a coding unit.
  • the shape of the coding unit may include square and non-square.
  • the image decoding apparatus 100 may determine block shape information of the coding unit as a square.
  • the image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
  • the image decoding apparatus 100 may determine block shape information of the coding unit as a non-square. When the shape of the coding unit is non-square, the image decoding apparatus 100 may determine a ratio of the width and the height of the block shape information of the coding unit to 1: 2, 2: 1, 1: 4, 4: 1, 1: 8. Or 8: 1. In addition, the image decoding apparatus 100 may determine whether the coding unit is a horizontal direction or a vertical direction, based on the length of the width of the coding unit and the length of the height. In addition, the image decoding apparatus 100 may determine the size of the coding unit based on at least one of the length, the length, and the width of the coding unit.
  • the image decoding apparatus 100 may determine a shape of a coding unit by using block shape information, and may determine in which form the coding unit is divided by using information on a split shape mode. That is, the method of dividing the coding unit indicated by the information about the partition mode may be determined according to which block shape the block shape information used by the image decoding apparatus 100 indicates.
  • the image decoding apparatus 100 may obtain information about the partition type mode from the bitstream. However, the present invention is not limited thereto, and the image decoding apparatus 100 and the image encoding apparatus 200 may obtain information about a predetermined partition type mode based on the block shape information.
  • the image decoding apparatus 100 may obtain information about a partition type mode that is previously promised with respect to the maximum coding unit or the minimum coding unit. For example, the image decoding apparatus 100 may determine the size of the maximum coding unit as 256x256.
  • the image decoding apparatus 100 may determine information about a predetermined partition type mode as a quad split. Quad division is a division mode mode that bisects both the width and the height of a coding unit.
  • the image decoding apparatus 100 may obtain a 128x128 coding unit from the largest coding unit having a size of 256x256 based on the information about the split mode. Also, the image decoding apparatus 100 may determine the size of the minimum coding unit as 4 ⁇ 4. The image decoding apparatus 100 may obtain information about a split mode mode indicating “not split” with respect to the minimum coding unit.
  • the image decoding apparatus 100 may use block shape information indicating that the current coding unit is square. For example, the image decoding apparatus 100 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units according to the information about the split mode. Referring to FIG. 3, when the block shape information of the current coding unit 300 indicates a square shape, the decoder 120 and the current coding unit 300 are determined according to the information about the split shape mode indicating that the block shape information is not divided. The coding units 310a having the same size may not be divided, or the split coding units 310b, 310c, 310d, and the like may be determined based on the information on the split mode mode indicating a predetermined division method.
  • the image decoding apparatus 100 divides two coding units 310b vertically by dividing the current coding unit 300 based on information about a split mode that indicates division in a vertical direction, according to an exemplary embodiment. ) Can be determined.
  • the image decoding apparatus 100 may determine two coding units 310c that divide the current coding unit 300 in the horizontal direction based on the information about the split mode that indicates the split in the horizontal direction.
  • the image decoding apparatus 100 may determine four coding units 310d that divide the current coding unit 300 in the vertical direction and the horizontal direction based on the information about the split mode mode indicating the division in the vertical direction and the horizontal direction. have.
  • the divided form in which the square coding unit may be divided should not be interpreted as being limited to the above-described form, but may include various forms in which information about the divided form mode may be represented. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
  • FIG. 4 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • the image decoding apparatus 100 may use block shape information indicating that a current coding unit is a non-square shape.
  • the image decoding apparatus 100 may determine whether to split the current coding unit of the non-square according to the information about the partition mode or whether to split the current coding unit by a predetermined method. Referring to FIG. 4, when the block shape information of the current coding unit 400 or 450 indicates a non-square shape, the image decoding apparatus 100 may encode the current image according to the information about the split shape mode indicating that the image decoding apparatus 100 is not divided.
  • Coding units 420a, 420b, 430a, and 430b that determine coding units 410 or 460 having the same size as units 400 or 450, or are divided based on information about a split mode mode indicating a predetermined division method. , 430c, 470a, 470b, 480a, 480b, and 480c.
  • a predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
  • the image decoding apparatus 100 may determine a form in which a coding unit is divided using information on a split mode mode, and in this case, at least one piece of information about the split mode is generated by splitting a coding unit. It may represent the number of coding units.
  • the image decoding apparatus 100 may encode the current code based on the information about the split shape mode. Two coding units 420a, 420b, or 470a, 470b included in the current coding unit may be determined by dividing the unit 400 or 450.
  • the image decoding apparatus 100 when the image decoding apparatus 100 divides the current coding unit 400 or 450 having a non-square shape based on the information about the split shape mode, the image decoding apparatus 100 may have a non-square shape.
  • the current coding unit may be split in consideration of the position of the long side of the current coding unit 400 or 450.
  • the image decoding apparatus 100 divides the current coding unit 400 or 450 in a direction of dividing a long side of the current coding unit 400 or 450 in consideration of the shape of the current coding unit 400 or 450. To determine a plurality of coding units.
  • the image decoding apparatus 100 when the information about the split type mode indicates that the coding unit is split (tri split) into an odd number of blocks, the image decoding apparatus 100 includes the current coding unit 400 or 450.
  • An odd number of coding units may be determined.
  • the image decoding apparatus 100 encodes the current coding unit 400 or 450 by three encodings. It may be divided into units 430a, 430b, 430c, 480a, 480b, and 480c.
  • the ratio of the width and the height of the current coding unit 400 or 450 may be 4: 1 or 1: 4.
  • the block shape information may be in the horizontal direction.
  • the ratio of the width and the height is 1: 4 since the length of the width is shorter than the length of the height, the block shape information may be vertical.
  • the image decoding apparatus 100 may determine to divide the current coding unit into odd blocks based on the information about the split mode. Also, the image decoding apparatus 100 may determine a split direction of the current coding unit 400 or 450 based on block shape information of the current coding unit 400 or 450.
  • the image decoding apparatus 100 may determine the coding units 430a, 430b, and 430c by dividing the current coding unit 400 in the horizontal direction.
  • the image decoding apparatus 100 may determine the coding units 480a, 480b, and 480c by dividing the current coding unit 450 in the vertical direction.
  • the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 400 or 450, and not all sizes of the determined coding units may be the same. For example, the size of a predetermined coding unit 430b or 480b among the determined odd coding units 430a, 430b, 430c, 480a, 480b, and 480c is different from other coding units 430a, 430c, 480a, and 480c.
  • a coding unit that may be determined by dividing the current coding unit 400 or 450 may have a plurality of types, and in some cases, odd number of coding units 430a, 430b, 430c, 480a, 480b, and 480c. Each may have a different size.
  • the image decoding apparatus 100 may determine odd coding units included in the current coding unit 400 or 450. In addition, the image decoding apparatus 100 may set a predetermined limit on at least one coding unit among odd-numbered coding units generated by dividing. Referring to FIG. 4, the image decoding apparatus 100 is a coding unit positioned at the center of three coding units 430a, 430b, 430c, 480a, 480b, and 480c generated by dividing a current coding unit 400 or 450. The decoding process for 430b and 480b may be different from other coding units 430a, 430c, 480a and 480c.
  • the image decoding apparatus 100 may restrict the coding units 430b and 480b positioned in the center from being split no more than the other coding units 430a, 430c, 480a, and 480c, or may only split the predetermined number of times. You can limit it to split.
  • FIG. 5 illustrates a process of splitting a coding unit by the image decoding apparatus 100 based on at least one of block shape information and information about a split shape mode, according to an embodiment.
  • the image decoding apparatus 100 determines that the first coding unit 500 having a square shape is divided or not divided into coding units based on at least one of block shape information and information about a split mode. Can be. According to an embodiment, when the information about the split mode mode indicates dividing the first coding unit 500 in the horizontal direction, the image decoding apparatus 100 divides the first coding unit 500 in the horizontal direction to generate the first coding unit 500.
  • the two coding units 510 may be determined.
  • the first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand a before and after relationship between the coding units. For example, when the first coding unit is split, the second coding unit may be determined. When the second coding unit is split, the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
  • the image decoding apparatus 100 may determine to divide or not split the second coding unit 510 into coding units based on at least one of the block shape information and the information about the split shape mode. .
  • the image decoding apparatus 100 may determine a second coding unit having a non-square shape determined by dividing the first coding unit 500 based on at least one of block shape information and information about a split shape mode.
  • the 510 may be divided into at least one third coding unit 520a, 520b, 520c, 520d, or the like, or the second coding unit 510 may not be divided.
  • the image decoding apparatus 100 may obtain at least one of the block shape information and the information about the split shape mode, and the image decoding apparatus 100 may based on at least one of the obtained block shape information and the information about the split shape mode.
  • the first coding unit 500 may be divided to divide a plurality of second coding units (eg, 510) of various types, and the second coding unit 510 may include information about block shape information and a split shape mode.
  • the first coding unit 500 may be split based on at least one of the following methods. According to an embodiment, when the first coding unit 500 is divided into the second coding unit 510 based on at least one of the block shape information about the first coding unit 500 and the information about the split shape mode.
  • the second coding unit 510 may also use a third coding unit (eg, 520a, 520b, 520c, 520d) based on at least one of block shape information and split mode mode of the second coding unit 510. Etc.). That is, the coding unit may be recursively split based on at least one of the information about the partition mode and the block shape information associated with each coding unit. Therefore, a square coding unit may be determined in a non-square coding unit, and a coding unit of a square shape may be recursively divided to determine a coding unit of a non-square shape.
  • a third coding unit eg, 520a, 520b, 520c, 520d
  • a non-square second coding unit 510 is divided among predetermined odd coding units 520b, 520c, and 520d that are determined by splitting a predetermined coding unit (eg, located in the center of the second coding unit). Coding units or coding units having a non-square shape may be recursively divided.
  • the third coding unit 520b having a non-square shape which is one of odd third coding units 520b, 520c, and 520d, may be divided in a horizontal direction and divided into a plurality of fourth coding units. .
  • the fourth coding unit 530b or 530d having a non-square shape which is one of the plurality of fourth coding units 530a, 530b, 530c, and 530d, may be divided into a plurality of coding units.
  • the fourth coding unit 530b or 530d having a non-square shape may be divided into odd coding units.
  • a method that can be used for recursive division of coding units will be described later through various embodiments.
  • the image decoding apparatus 100 may split each of the third coding units 520a, 520b, 520c, 520d, etc. into coding units based on at least one of the block shape information and the split mode mode. Can be. Also, the image decoding apparatus 100 may determine not to split the second coding unit 510 based on at least one of the block shape information and the information about the split shape mode. According to an embodiment, the image decoding apparatus 100 may divide the second coding unit 510 having a non-square shape into an odd number of third coding units 520b, 520c, and 520d.
  • the image decoding apparatus 100 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 520b, 520c, and 520d.
  • the image decoding apparatus 100 may be limited to the number of coding units 520c positioned in the middle of the odd number of third coding units 520b, 520c, and 520d, or may be divided by the number of times that can be set. It can be limited to.
  • the image decoding apparatus 100 may include a coding unit positioned at the center among odd-numbered third coding units 520b, 520c, and 520d included in the second coding unit 510 having a non-square shape.
  • 520c is no longer divided, or is limited to being divided into a predetermined division form (for example, divided into only four coding units or divided into a form corresponding to the divided form of the second coding unit 510), or predetermined. It can be limited to dividing only by the number of times (for example, n times only, n> 0).
  • the above limitation on the coding unit 520c located in the center is merely a mere embodiment and thus should not be construed as being limited to the above-described embodiments. ), It should be interpreted as including various restrictions that can be decoded.
  • the image decoding apparatus 100 may obtain at least one of block shape information used for dividing a current coding unit and information about a split mode, at a predetermined position in the current coding unit.
  • FIG. 6 illustrates a method for the image decoding apparatus 100 to determine a predetermined coding unit among odd number of coding units, according to an exemplary embodiment.
  • At least one of the block shape information of the current coding units 600 and 650 and the information about the split shape mode may be a sample of a predetermined position among a plurality of samples included in the current coding units 600 and 650. For example, it can be obtained from the sample (640, 690) located in the center.
  • a predetermined position in the current coding unit 600 from which at least one of such block shape information and split mode mode may be obtained should not be interpreted as being limited to the center position shown in FIG. 6, and the current encoding is performed at the predetermined position.
  • various positions eg, top, bottom, left, right, top left, bottom left, top right or bottom right, etc.
  • the image decoding apparatus 100 may determine whether to divide or not divide the current coding unit into coding units having various shapes and sizes by acquiring at least one of block shape information obtained from a predetermined position and information about a split shape mode. .
  • the image decoding apparatus 100 may select one coding unit from among them. Methods for selecting one of a plurality of coding units may vary, which will be described below through various embodiments.
  • the image decoding apparatus 100 may divide a current coding unit into a plurality of coding units and determine a coding unit of a predetermined position.
  • the image decoding apparatus 100 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units. Referring to FIG. 6, the image decoding apparatus 100 divides the current coding unit 600 or the current coding unit 650 to find an odd number of coding units 620a, 620b, 620c, or an odd number of coding units 660a, 660b and 660c can be determined. The image decoding apparatus 100 may use the center coding unit 620b or the center coding unit by using information about the positions of the odd coding units 620a, 620b, and 620c or the odd coding units 660a, 660b, and 660c. 660b can be determined.
  • the image decoding apparatus 100 determines the positions of the coding units 620a, 620b, and 620c based on information indicating the positions of predetermined samples included in the coding units 620a, 620b, and 620c.
  • the coding unit 620b positioned at may be determined.
  • the image decoding apparatus 100 is based on the information indicating the position of the sample (630a, 630b, 630c) of the upper left of the coding units (620a, 620b, 620c) coding units (620a, 620b, 620c)
  • the coding unit 620b positioned in the center may be determined by determining the position of.
  • the information indicating the position of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c may be included in the picture of the coding units 620a, 620b, and 620c, respectively. It may include information about the location or coordinates of. According to an embodiment, the information indicating the position of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c may be included in the current coding unit 600.
  • 620b and 620c may include information indicating a width or a height, and the width or height may correspond to information indicating a difference between coordinates within a picture of the coding units 620a, 620b and 620c. That is, the image decoding apparatus 100 directly uses information about the position or coordinates in the picture of the coding units 620a, 620b, and 620c or information about the width or height of the coding unit corresponding to the difference between the coordinates. By using, the coding unit 620b positioned in the center may be determined.
  • the information indicating the position of the sample 630a at the upper left of the upper coding unit 620a may indicate (xa, ya) coordinates, and the sample 530b at the upper left of the middle coding unit 620b.
  • the information indicating the position of) may indicate the (xb, yb) coordinates, and the information indicating the position of the sample 630c on the upper left of the lower coding unit 620c may indicate the (xc, yc) coordinates.
  • the image decoding apparatus 100 may determine the center coding unit 620b using the coordinates of the samples 630a, 630b, and 630c in the upper left included in the coding units 620a, 620b, and 620c, respectively.
  • the coordinates indicating the positions of the samples 630a, 630b, and 630c in the upper left corner may indicate coordinates representing the absolute positions in the picture, and further, the positions of the samples 630a in the upper left corner of the upper coding unit 620a.
  • the (dxb, dyb) coordinate which is the information indicating the relative position of the upper left sample 630b of the middle coding unit 620b, and the relative position of the upper left sample 630c of the lower coding unit 620c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be interpreted to be limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample It should be interpreted in a way.
  • the image decoding apparatus 100 may divide the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c, and may select one of the coding units 620a, 620b, and 620c.
  • the coding unit may be selected according to the standard. For example, the image decoding apparatus 100 may select coding units 620b having different sizes from among coding units 620a, 620b, and 620c.
  • the image decoding apparatus 100 may have (xa, ya) coordinates, which are information indicating a position of a sample 630a at the upper left of the upper coding unit 620a, and a sample at the upper left of the center coding unit 620b.
  • 620b, 620c may determine the width or height of each.
  • the image decoding apparatus 100 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 620a, 620b, and 620c. , 620c) may determine the size of each. According to an embodiment, the image decoding apparatus 100 may determine the width of the upper coding unit 620a as the width of the current coding unit 600. The image decoding apparatus 100 may determine the height of the upper coding unit 620a as yb-ya. According to an embodiment, the image decoding apparatus 100 may determine the width of the central coding unit 620b as the width of the current coding unit 600.
  • the image decoding apparatus 100 may determine the height of the center coding unit 620b as yc-yb. According to an embodiment, the image decoding apparatus 100 may determine the width or height of the lower coding unit using the width or height of the current coding unit, and the width and height of the upper coding unit 620a and the center coding unit 620b. . The image decoding apparatus 100 may determine a coding unit having a different size from other coding units based on the widths and the heights of the determined coding units 620a, 620b, and 620c. Referring to FIG.
  • the image decoding apparatus 100 may determine a coding unit 620b as a coding unit having a predetermined position while having a size different from that of the upper coding unit 620a and the lower coding unit 620c.
  • the coding unit at a predetermined position may be determined using the size of the coding unit determined based on the sample coordinates.
  • various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the image decoding apparatus 100 has (xd, yd) coordinates, which is information indicating the position of the upper left sample 670a of the left coding unit 660a, and the position of the upper left sample 670b of the middle coding unit 660b. Coding units 660a, 660b, and 660c using (xe, ye) coordinates indicating information and (xf, yf) coordinates indicating information of the position of the sample 670c on the upper left side of the right coding unit 660c. Each width or height can be determined.
  • the image decoding apparatus 100 uses (xd, yd), (xe, ye), and (xf, yf) coordinates representing the positions of the coding units 660a, 660b, and 660c. , 660c) may determine the size of each.
  • the image decoding apparatus 100 may determine the width of the left coding unit 660a as xe-xd.
  • the image decoding apparatus 100 may determine the height of the left coding unit 660a as the height of the current coding unit 650.
  • the image decoding apparatus 100 may determine the width of the central coding unit 660b as xf-xe.
  • the image decoding apparatus 100 may determine the height of the center coding unit 660b as the height of the current coding unit 600.
  • the image decoding apparatus 100 may include a width or a height of the right coding unit 660c, a width or a height of the current coding unit 650, and a width and a height of the left coding unit 660a and the center coding unit 660b. Can be determined using.
  • the image decoding apparatus 100 may determine a coding unit having a different size from other coding units based on the widths and the heights of the determined coding units 660a, 660b, and 660c. Referring to FIG. 6, the image decoding apparatus 100 may determine a coding unit 660b as a coding unit at a predetermined position while having a size different from that of the left coding unit 660a and the right coding unit 660c.
  • the coding unit at a predetermined position may be determined using the size of the coding unit determined based on the sample coordinates.
  • various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
  • the image decoding apparatus 100 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit has a non-square shape having a width greater than the height, the image decoding apparatus 100 may determine the coding unit at a predetermined position along the horizontal direction. That is, the image decoding apparatus 100 may determine one of the coding units having different positions in the horizontal direction to limit the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the image decoding apparatus 100 may determine a coding unit of a predetermined position in the vertical direction. That is, the image decoding apparatus 100 may determine one of the coding units having different positions in the vertical direction to limit the corresponding coding unit.
  • the image decoding apparatus 100 may use information indicating the positions of each of the even coding units to determine the coding unit of the predetermined position among the even coding units.
  • the image decoding apparatus 100 may determine an even number of coding units by dividing the current coding unit by binarysplit, and determine a coding unit of a predetermined position by using information about the positions of the even coding units.
  • a detailed process for this may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a middle position) among the odd number of coding units described above with reference to FIG. 6.
  • a predetermined value for a coding unit of a predetermined position in the splitting process is determined to determine a coding unit of a predetermined position among the plurality of coding units.
  • Information is available.
  • the image decoding apparatus 100 may determine block shape information and a split shape stored in a sample included in a middle coding unit in a splitting process in order to determine a coding unit located in a center among coding units in which a current coding unit is divided into a plurality. At least one of the information about the mode may be used.
  • the image decoding apparatus 100 may split the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c based on at least one of block shape information and information about a split mode.
  • the coding unit 620b located in the center of the plurality of coding units 620a, 620b, and 620c may be determined.
  • the image decoding apparatus 100 may determine the coding unit 620b positioned in the center in consideration of a position where at least one of the block shape information and the split mode mode is obtained. That is, at least one of the block shape information of the current coding unit 600 and the information about the split mode may be obtained from a sample 640 positioned in the center of the current coding unit 600.
  • predetermined information for identifying a coding unit of a predetermined position may be obtained from a predetermined sample included in the coding unit to be determined.
  • the image decoding apparatus 100 may divide a current coding unit 600 into a plurality of coding units (eg, divided into a plurality of coding units 620a, 620b, and 620c) determined by splitting the current coding unit 600.
  • Block shape information obtained from a sample at a predetermined position for example, a sample located in the center of the current coding unit 600
  • At least one of the information about the split mode may be used.
  • the image decoding apparatus 100 may determine a sample of the predetermined position in consideration of the block shape of the current coding unit 600, and the image decoding apparatus 100 may determine a plurality of pieces in which the current coding unit 600 is divided and determined.
  • a coding unit 620b including a sample from which predetermined information (for example, at least one of block shape information and split shape mode) may be obtained may be obtained. Can be determined to place certain restrictions.
  • the image decoding apparatus 100 may determine a sample 640 positioned in the center of the current coding unit 600 as a sample from which predetermined information may be obtained.
  • the 100 may set a predetermined limit in the decoding process of the coding unit 620b including the sample 640.
  • the position of the sample from which the predetermined information can be obtained should not be interpreted as being limited to the above-described position, but may be interpreted as samples of arbitrary positions included in the coding unit 620b to be determined for the purpose of limitation.
  • a position of a sample from which predetermined information may be obtained may be determined according to the shape of the current coding unit 600.
  • the block shape information may determine whether the shape of the current coding unit is square or non-square, and determine the position of a sample from which the predetermined information may be obtained according to the shape.
  • the image decoding apparatus 100 may be positioned on a boundary that divides at least one of the width and the height of the current coding unit in half using at least one of information about the width and the height of the current coding unit.
  • the sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 100 may select one of samples adjacent to a boundary that divides the long side of the current coding unit in half. May be determined as a sample from which information may be obtained.
  • the image decoding apparatus 100 when the image decoding apparatus 100 divides the current coding unit into a plurality of coding units, in order to determine a coding unit of a predetermined position among the plurality of coding units, the image decoding apparatus 100 may determine the block shape information and the split shape mode. At least one of the information may be used.
  • the image decoding apparatus 100 may obtain at least one of block shape information and information about a split shape mode from a sample at a predetermined position included in a coding unit, and the image decoding apparatus 100 may currently encode A plurality of coding units generated by dividing a unit may be divided by using at least one of information about a split mode and block shape information obtained from a sample at a predetermined position included in each of the plurality of coding units. That is, the coding unit may be recursively split using at least one of the block shape information and the split mode mode obtained from the sample of the predetermined position included in each coding unit. Since the recursive division process of the coding unit has been described above with reference to FIG. 5, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when the image decoding apparatus 100 determines a plurality of coding units by dividing a current coding unit.
  • the image decoding apparatus 100 determines the second coding units 710a and 710b by dividing the first coding unit 700 in the vertical direction according to the block shape information and the information about the split shape mode.
  • the first coding unit 700 may be divided in the horizontal direction to determine the second coding units 730a and 730b, or the first coding unit 700 may be divided in the vertical direction and the horizontal direction to determine the second coding units 750a, 750b and 750c. , 750d).
  • the image decoding apparatus 100 may determine an order such that the second coding units 710a and 710b determined by dividing the first coding unit 700 in the vertical direction are processed in the horizontal direction 710c. .
  • the image decoding apparatus 100 may determine a processing order of the second coding units 730a and 730b determined by dividing the first coding unit 700 in the horizontal direction, in the vertical direction 730c.
  • the image decoding apparatus 100 processes the coding units for positioning the second coding units 750a, 750b, 750c, and 750d determined by dividing the first coding unit 700 in the vertical direction and the horizontal direction, in one row.
  • the coding units located in the next row may be determined according to a predetermined order (for example, raster scan order or z scan order 750e).
  • the image decoding apparatus 100 may recursively split coding units. Referring to FIG. 7, the image decoding apparatus 100 may determine a plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d by dividing the first coding unit 700. Each of the plurality of determined coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be recursively divided.
  • the method of splitting the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be a method corresponding to the method of splitting the first coding unit 700. Accordingly, the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be independently divided into a plurality of coding units. Referring to FIG. 7, the image decoding apparatus 100 may determine the second coding units 710a and 710b by dividing the first coding unit 700 in the vertical direction, and further, respectively, the second coding units 710a and 710b. It can be decided to split independently or not.
  • the image decoding apparatus 100 may divide the second coding unit 710a on the left side into horizontal units and split the second coding unit 710a into third coding units 720a and 720b, and the second coding unit 710b on the right side. ) May not be divided.
  • the processing order of coding units may be determined based on a split process of the coding units.
  • the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 100 may independently determine the order in which the third coding units 720a and 720b determined by splitting the second coding unit 710a on the left side from the second coding unit 710b on the right side. Since the second coding unit 710a on the left is divided in the horizontal direction to determine the third coding units 720a and 720b, the third coding units 720a and 720b may be processed in the vertical direction 720c.
  • the order in which the second coding unit 710a on the left side and the second coding unit 710b on the right side are processed corresponds to the horizontal direction 710c
  • the right coding unit 710b may be processed.
  • the above description is intended to explain a process in which the processing order is determined according to coding units before splitting, respectively, and thus should not be interpreted to be limited to the above-described embodiment, and coding units determined by splitting into various forms are predetermined. It should be interpreted as being used in a variety of ways that can be processed independently in order.
  • FIG. 8 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus 100 may not process the coding units in a predetermined order, according to an exemplary embodiment.
  • the image decoding apparatus 100 may determine that the current coding unit is divided into odd coding units based on the obtained block shape information and the information about the split shape mode.
  • a first coding unit 800 having a square shape may be divided into second coding units 810a and 810b having a non-square shape, and each of the second coding units 810a and 810b may be independently formed. It may be divided into three coding units 820a, 820b, 820c, 820d, and 820e.
  • the image decoding apparatus 100 may determine a plurality of third coding units 820a and 820b by dividing the left coding unit 810a in the horizontal direction among the second coding units, and may include the right coding unit 810b. ) May be divided into odd third coding units 820c, 820d, and 820e.
  • the image decoding apparatus 100 determines whether the third coding units 820a, 820b, 820c, 820d, and 820e may be processed in a predetermined order to determine whether there are oddly divided coding units. You can decide. Referring to FIG. 8, the image decoding apparatus 100 may determine the third coding units 820a, 820b, 820c, 820d, and 820e by recursively dividing the first coding unit 800. The image decoding apparatus 100 may include the first coding unit 800, the second coding unit 810a, and 810b, or the third coding unit 820a and 820b based on at least one of the block shape information and the split mode mode.
  • coding units 820c, 820d, and 820e may be divided into odd coding units among the divided forms.
  • a coding unit positioned on the right side of the second coding units 810a and 810b may be divided into odd third coding units 820c, 820d, and 820e.
  • the order in which the plurality of coding units included in the first coding unit 800 is processed may be a predetermined order (for example, a z-scan order 830). 100 may determine whether the third coding units 820c, 820d, and 820e determined by splitting the right second coding unit 810b into an odd number satisfy the condition in which the right coding units 810b are processed in the predetermined order.
  • the image decoding apparatus 100 may satisfy a condition that the third coding units 820a, 820b, 820c, 820d, and 820e included in the first coding unit 800 may be processed in a predetermined order. And whether the at least one of the width and the height of the second coding unit 810a, 810b is divided in half according to the boundary of the third coding unit 820a, 820b, 820c, 820d, or 820e.
  • the third coding units 820a and 820b determined by dividing the height of the left second coding unit 810a of the non-square shape in half may satisfy the condition.
  • Boundaries of the third coding units 820c, 820d, and 820e determined by dividing the right second coding unit 810b into three coding units may not divide the width or height of the right second coding unit 810b in half. Therefore, it may be determined that the third coding units 820c, 820d, and 820e do not satisfy the condition. In case of such a condition dissatisfaction, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the right second coding unit 810b is divided into odd coding units based on the determination result.
  • the image decoding apparatus 100 when the image decoding apparatus 100 is divided into an odd number of coding units, the image decoding apparatus 100 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • FIG 9 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing the first coding unit 900 according to an embodiment.
  • the image decoding apparatus 100 may divide the first coding unit 900 based on at least one of block shape information obtained through the bitstream obtainer 110 and information about a split shape mode. have.
  • the first coding unit 900 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 100 may include the first.
  • One coding unit 900 may be divided into a plurality of non-square coding units.
  • the image decoding apparatus 100 may encode the first encoding having a square shape.
  • the unit 900 may be divided into second coding units 910a, 910b, and 910c determined by being split in the vertical direction as odd coding units, or second coding units 920a, 920b, and 920c determined by being split in the horizontal direction. .
  • the image decoding apparatus 100 may process the second coding units 910a, 910b, 910c, 920a, 920b, and 920c included in the first coding unit 900 in a predetermined order.
  • the condition is whether the at least one of the width and height of the first coding unit 900 is divided in half according to the boundary of the second coding unit (910a, 910b, 910c, 920a, 920b, 920c). It is related to whether or not. Referring to FIG. 9, the boundary between the second coding units 910a, 910b, and 910c, which is determined by dividing the first coding unit 900 having a square shape in the vertical direction, divides the width of the first coding unit 900 in half.
  • the first coding unit 900 may be determined to not satisfy a condition that may be processed in a predetermined order. Also, since the boundary between the second coding units 920a, 920b, and 920c, which is determined by dividing the first coding unit 900 having a square shape in the horizontal direction, does not divide the width of the first coding unit 900 in half, The one coding unit 900 may be determined as not satisfying a condition that may be processed in a predetermined order. In case of such a condition dissatisfaction, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the first coding unit 900 is divided into odd coding units based on the determination result.
  • the image decoding apparatus 100 when the image decoding apparatus 100 is divided into an odd number of coding units, the image decoding apparatus 100 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine various coding units by dividing the first coding unit.
  • the image decoding apparatus 100 may split a first coding unit 900 having a square shape and a first coding unit 930 or 950 having a non-square shape into various coding units. .
  • FIG. 10 illustrates that a second coding unit is split when a second coding unit having a non-square shape determined by splitting the first coding unit 1000 according to an embodiment satisfies a predetermined condition. It shows that the form that can be limited.
  • the image decoding apparatus 100 may determine a first coding unit 1000 having a square shape based on at least one of block shape information obtained through the bitstream obtainer 110 and information about a split shape mode. It may be determined by dividing into second coding units 1010a, 1010b, 1020a, and 1020b having a non-square shape. The second coding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the image decoding apparatus 100 may not split or split the plurality of coding units into a plurality of coding units based on at least one of the block shape information and the split mode mode associated with each of the second coding units 1010a, 1010b, 1020a, and 1020b.
  • the image decoding apparatus 100 divides the left second coding unit 1010a having a non-square shape in a horizontal direction by splitting the first coding unit 1000 in a vertical direction to form a third coding unit ( 1012a, 1012b) can be determined.
  • the right second coding unit 1010b may have the same horizontal direction as the direction in which the left second coding unit 1010a is divided. It can be limited to not be divided into.
  • the left second coding unit 1010a and the right second coding unit 1010b are each horizontally.
  • the third coding units 1012a, 1012b, 1014a, and 1014b may be determined.
  • the image decoding apparatus 100 sets the first coding unit 1000 in four square second coding units 1030a, 1030b, 1030c, and 1030d based on at least one of the block shape information and the split mode mode. This is the same result as dividing by), which may be inefficient in terms of image decoding.
  • the image decoding apparatus 100 splits a second coding unit 1020a or 1020b of a non-square shape, determined by dividing the first coding unit 1000 in a horizontal direction, into a third coding unit. 1022a, 1022b, 1024a, and 1024b can be determined.
  • the image decoding apparatus 100 divides one of the second coding units (for example, the upper second coding unit 1020a) in the vertical direction
  • another image coding unit for example, the lower end
  • the coding unit 1020b may restrict the upper second coding unit 1020a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 11 is a diagram illustrating a process of splitting a coding unit having a square shape by the image decoding apparatus 100 when the information about the split mode may not be divided into four square coding units according to an embodiment. .
  • the image decoding apparatus 100 divides the first coding unit 1100 based on at least one of the block shape information and the information on the split shape mode, thereby splitting the second coding units 1110a, 1110b, 1120a, and 1120b. Etc.).
  • the information on the split mode may include information on various types of coding units. However, the information on various types may not include information for splitting into 4 coding units having a square shape.
  • the image decoding apparatus 100 may not divide the first coding unit 1100 having a square shape into the second coding units 1130a, 1130b, 1130c, and 1130d having four square shapes. .
  • the image decoding apparatus 100 may determine the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like based on the information about the partitioned mode.
  • the image decoding apparatus 100 may independently split the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like.
  • Each of the second coding units 1110a, 1110b, 1120a, 1120b, and the like may be split in a predetermined order through a recursive method, which is based on at least one of block shape information and information on a split shape mode. It may be a division method corresponding to the division method of the unit 1100.
  • the image decoding apparatus 100 may divide the left second coding unit 1110a into the horizontal direction to determine the third coding units 1112a and 1112b having a square shape, and the right second coding unit 1110b may The third coding units 1114a and 1114b having a square shape may be determined by being split in the horizontal direction. Furthermore, the image decoding apparatus 100 may divide the left second coding unit 1110a and the right second coding unit 1110b in the horizontal direction to determine the third coding units 1116a, 1116b, 1116c, and 1116d having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • the image decoding apparatus 100 may determine the third coding units 1122a and 1122b having a square shape by dividing the upper second coding unit 1120a in the vertical direction, and the lower second coding unit 1120b. ) May be divided in the vertical direction to determine the third coding units 1124a and 1124b having a square shape. Furthermore, the image decoding apparatus 100 may divide the upper second coding unit 1120a and the lower second coding unit 1120b in the vertical direction to determine the third coding units 1126a, 1126b, 1126a, and 1126b having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the image decoding apparatus 100 may divide the first coding unit 1200 based on the block shape information and the information about the split shape mode.
  • the image decoding apparatus 100 may perform first encoding.
  • a second coding unit (eg, 1210a, 1210b, 1220a, 1220b, etc.) may be determined by dividing the unit 1200. Referring to FIG.
  • non-square second coding units 1210a, 1210b, 1220a, and 1220b which are determined by dividing the first coding unit 1200 in only the horizontal direction or the vertical direction, respectively, may include block shape information and a split mode mode for each. It can be split independently based on the information about.
  • the image decoding apparatus 100 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction in the horizontal direction, respectively, to generate the third coding units 1216a and 1216b, 1216c and 1216d, and the second coding units 1220a and 1220b generated by dividing the first coding unit 1200 in the horizontal direction are divided in the vertical direction, respectively, and the third coding units 1226a, 1226b and 1226c. 1226d). Since the splitting process of the second coding units 1210a, 1210b, 1220a, and 1220b has been described above with reference to FIG. 11, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may process coding units in a predetermined order. Features of the processing of coding units according to a predetermined order have been described above with reference to FIG. 7, and thus detailed descriptions thereof will be omitted. Referring to FIG. 12, the image decoding apparatus 100 splits a first coding unit 1200 having a square shape to form three square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. ) Can be determined.
  • the image decoding apparatus 100 performs a processing sequence of the third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d according to a form in which the first coding unit 1200 is divided. You can decide.
  • the image decoding apparatus 100 determines the third coding units 1216a, 1216b, 1216c, and 1216d by dividing the second coding units 1210a and 1210b generated by dividing in the vertical direction in the horizontal direction, respectively.
  • the image decoding apparatus 100 may first process the third coding units 1216a and 1216c included in the left second coding unit 1210a in the vertical direction, and then include the right second coding unit 1210b.
  • the third coding units 1216a, 1216b, 1216c, and 1216d may be processed according to an order 1217 of processing the third coding units 1216b and 1216d in the vertical direction.
  • the image decoding apparatus 100 determines the third coding units 1226a, 1226b, 1226c, and 1226d by dividing the second coding units 1220a and 1220b generated by dividing in the horizontal direction in the vertical direction.
  • the image decoding apparatus 100 may first process the third coding units 1226a and 1226b included in the upper second coding unit 1220a in the horizontal direction, and then include the lower coding unit 1220b.
  • the third coding units 1226a, 1226b, 1226c, and 1226d may be processed according to an order 1227 of processing the third coding units 1226c and 1226d in the horizontal direction.
  • second coding units 1210a, 1210b, 1220a, and 1220b may be divided, respectively, and square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may be determined. have.
  • the second coding units 1210a and 1210b that are determined by being split in the vertical direction and the second coding units 1220a and 1220b that are determined by being split in the horizontal direction are divided into different forms, but are determined afterwards.
  • 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may result in the first coding unit 1200 being split into coding units having the same shape.
  • the apparatus 100 for decoding an image recursively splits a coding unit through a different process based on at least one of block shape information and information on a split shape mode, and thus determines coding units having the same shape.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the image decoding apparatus 100 may determine the depth of a coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is equal to the depth of the coding unit before the split. It may be determined that the depth is increased by n rather than the depth.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the image decoding apparatus 100 may have a square shape based on block shape information indicating that the shape is square (for example, block shape information may indicate '0: SQUARE').
  • the first coding unit 1300 may be divided to determine a second coding unit 1302, a third coding unit 1304, or the like of a lower depth.
  • the second coding unit 1302 determined by dividing the width and height of the first coding unit 1300 by 1/2 times may have a size of NxN. have.
  • the third coding unit 1304 determined by dividing the width and the height of the second coding unit 1302 into half the size may have a size of N / 2 ⁇ N / 2.
  • the width and height of the third coding unit 1304 correspond to 1/4 times the first coding unit 1300.
  • the depth of the first coding unit 1300 is D
  • the depth of the second coding unit 1302, which is 1/2 the width and height of the first coding unit 1300 may be D + 1
  • the first coding unit may be the first coding unit 1300.
  • the depth of the third coding unit 1304, which is 1/4 of the width and the height of 1300, may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2: may represent NS_HOR ', the image decoding apparatus 100 may split the first coding unit 1310 or 1320 having a non-square shape to form a second coding unit 1312 or 1322 of a lower depth, The third coding unit 1314 or 1324 may be determined.
  • the image decoding apparatus 100 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 1310. That is, the image decoding apparatus 100 may divide the first coding unit 1310 in the horizontal direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1322 having an NxN / 2 size.
  • the second coding unit 1312 having the size of N / 2 ⁇ N may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 100 determines at least one of a width and a height of a 2N ⁇ N sized first coding unit 1320 to determine a second coding unit (eg, 1302, 1312, 1322, etc.). It may be. That is, the image decoding apparatus 100 may divide the first coding unit 1320 in the vertical direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1312 having an N / 2xN size. The second coding unit 1322 having the size of NxN / 2 may be determined by splitting in the horizontal direction and the vertical direction.
  • a second coding unit eg, 1302, 1312, 1322, etc.
  • the image decoding apparatus 100 determines at least one of a width and a height of the NxN sized second coding unit 1302 to determine a third coding unit (eg, 1304, 1314, 1324, etc.). It may be. That is, the image decoding apparatus 100 determines the third coding unit 1304 having the size of N / 2xN / 2 by dividing the second coding unit 1302 in the vertical direction and the horizontal direction, or makes the N / 4xN / 2 sized product. The third coding unit 1314 or the third coding unit 1324 having a size of N / 2 ⁇ N / 4 may be determined.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of the N / 2 ⁇ N sized second coding unit 1312 to form a third coding unit (eg, 1304, 1314, 1324, etc.). May be determined. That is, the image decoding apparatus 100 divides the second coding unit 1312 in the horizontal direction, so that the third coding unit 1304 having the size of N / 2xN / 2 or the third coding unit 1324 having the size of N / 2xN / 4 is provided. ) May be determined or divided into vertical and horizontal directions to determine the third coding unit 1314 having an N / 4xN / 2 size.
  • the image decoding apparatus 100 splits at least one of a width and a height of the NxN / 2-sized second coding unit 1322 to form a third coding unit (eg, 1304, 1314, 1324, etc.). May be determined. That is, the image decoding apparatus 100 divides the second coding unit 1322 in the vertical direction to form a third coding unit 1304 having an N / 2 ⁇ N / 2 size or a third coding unit 1314 having an N / 4xN / 2 size. ) May be determined or divided into the vertical direction and the horizontal direction to determine the third coding unit 1324 having an N / 2 ⁇ N / 4 size.
  • the image decoding apparatus 100 may divide a square coding unit (for example, 1300, 1302, 1304) into a horizontal direction or a vertical direction.
  • a square coding unit for example, 1300, 1302, 1304
  • the first coding unit 1300 having a size of 2Nx2N is split in the vertical direction to determine the first coding unit 1310 having the size of Nx2N, or the first coding unit 1320 having a size of 2NxN is determined by splitting in the horizontal direction.
  • the depth of the coding unit determined by dividing the first coding unit 1300 having a 2N ⁇ 2N size in the horizontal direction or the vertical direction is determined by the first encoding. It may be equal to the depth of the unit 1300.
  • the width and height of the third coding unit 1314 or 1324 may correspond to 1/4 times the first coding unit 1310 or 1320.
  • the depth of the second coding unit 1312 or 1322 which is 1/2 the width and height of the first coding unit 1310 or 1320, may be D + 1.
  • the depth of the third coding unit 1314 or 1324 which is 1/4 of the width and the height of the first coding unit 1310 or 1320, may be D + 2.
  • FIG. 14 illustrates a depth and a part index (PID) for distinguishing a coding unit, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • the image decoding apparatus 100 may determine a second coding unit having various forms by dividing the first coding unit 1400 having a square shape. Referring to FIG. 14, the image decoding apparatus 100 divides the first coding unit 1400 in at least one of a vertical direction and a horizontal direction according to the information on the split mode mode, and thus the second coding units 1402a and 1402b. , 1404a, 1404b, 1406a, 1406b, 1406c, 1406d). That is, the image decoding apparatus 100 determines the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d based on the information about the split mode mode for the first coding unit 1400. Can be.
  • the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d that are determined according to the information about the split mode for the first coding unit 1400 having a square shape are long. Depth may be determined based on the length of the sides. For example, since the length of one side of the first coding unit 1400 having a square shape and the length of the long side of the second coding units 1402a, 1402b, 1404a and 1404b of a non-square shape are the same, the first coding unit ( 1400 and the non-square second coding units 1402a, 1402b, 1404a, and 1404b may be regarded as D.
  • the square is square. Since the length of one side of the second coding unit 1406a, 1406b, 1406c, 1406d of the form is 1/2 times the length of one side of the first coding unit 1400, the second coding unit 1406a, 1406b, 1406c, 1406d ) May be a depth of D + 1 that is one depth lower than D, which is the depth of the first coding unit 1400.
  • the image decoding apparatus 100 divides the first coding unit 1410 having a shape whose height is greater than the width in the horizontal direction according to the information about the split mode, and thus, the plurality of second coding units 1412a and 1412b. , 1414a, 1414b, and 1414c).
  • the image decoding apparatus 100 divides the first coding unit 1420 having a shape having a width greater than the height in a vertical direction according to the information about the split mode, and thus, the plurality of second coding units 1422a and 1422b. , 1424a, 1424b, and 1424c).
  • the second coding units 1412a, 1412b, 1414a, 1414b, 1414c, 1422a, 1422b which are determined according to the information about the split mode mode for the first coding unit 1410 or 1420 of the non-square shape
  • Depths 1424a, 1424b, and 1424c may be determined based on the length of the long side. For example, since the length of one side of the second coding units 1412a and 1412b having a square shape is 1/2 times the length of one side of the first coding unit 1410 having a non-square shape having a height greater than the width, the square is square.
  • the depths of the second coding units 1412a and 1412b of the shape are D + 1, which is one depth lower than the depth D of the first coding unit 1410 of the non-square shape.
  • the image decoding apparatus 100 may divide the non-square first coding unit 1410 into odd second coding units 1414a, 1414b, and 1414c based on the information about the split mode.
  • the odd numbered second coding units 1414a, 1414b, and 1414c may include non-square second coding units 1414a and 1414c and square shape second coding units 1414b.
  • the length of the long side of the second coding units 1414a and 1414c of the non-square shape and the length of one side of the second coding unit 1414b of the square shape is 1 / time of the length of one side of the first coding unit 1410.
  • the depths of the second coding units 1414a, 1414b, and 1414c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 1410.
  • the image decoding apparatus 100 corresponds to the above-described method of determining depths of coding units associated with the first coding unit 1410 and is related to the first coding unit 1420 having a non-square shape having a width greater than the height. Depth of coding units may be determined.
  • the image decoding apparatus 100 may determine the size ratio between the coding units.
  • the index can be determined based on this. Referring to FIG. 14, a coding unit 1414b positioned at the center of odd-numbered split coding units 1414a, 1414b, and 1414c has the same width as the other coding units 1414a and 1414c but has a different height. It may be twice the height of the fields 1414a, 1414c. That is, in this case, the coding unit 1414b located in the center may include two of the other coding units 1414a and 1414c.
  • the image decoding apparatus 100 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
  • the image decoding apparatus 100 may determine whether the image decoding apparatus 100 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 14, the image decoding apparatus 100 determines an even number of coding units 1412a and 1412b by dividing a first coding unit 1410 having a rectangular shape having a height greater than a width, or an odd number of coding units 1414a and 1414b. 1414c). The image decoding apparatus 100 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 100 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for dividing coding units. According to an embodiment, when the information about the split mode mode of the first coding unit 1410 having a height greater than the width is divided into three coding units, the image decoding apparatus 100 may determine the first coding unit ( 1410 may be divided into three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may allocate an index for each of three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units.
  • the image decoding apparatus 100 encodes a coding unit 1414b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 1410. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, the image decoding apparatus 100 may determine the indexes based on the size ratio between the coding units when the coding units are not the same size. . Referring to FIG. 14, the coding unit 1414b generated by dividing the first coding unit 1410 may include the coding units 1414a and 1414c having the same width but different heights as the other coding units 1414a and 1414c.
  • the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of coding units including a coding unit having a different size from other coding units. For example, when the information about the split mode is divided into odd coding units, the image decoding apparatus 100 may have a coding unit (for example, a middle coding unit) having a predetermined position different from that of other odd coding units. The current coding unit may be divided into different sizes.
  • the image decoding apparatus 100 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the image decoding apparatus 100 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block type information and information about a split type mode. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the image decoding apparatus 100 may divide the current picture into a plurality of reference data units. According to an exemplary embodiment, the image decoding apparatus 100 may divide a plurality of reference data units for dividing a current picture using information on a split mode mode for each reference data unit. The division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the image decoding apparatus 100 may predetermine the minimum size of the reference data unit included in the current picture. Accordingly, the image decoding apparatus 100 may determine a reference data unit of various sizes having a size greater than or equal to a minimum size, and use at least one of the block shape information and the split mode mode based on the determined reference data unit. Coding units may be determined.
  • the image decoding apparatus 100 may use a reference coding unit 1500 having a square shape, or may use a reference coding unit 1502 having a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the receiving unit 110 of the image decoding apparatus 100 may obtain at least one of information on the shape of a reference coding unit and information on the size of the reference coding unit from each bitstream. .
  • the process of determining at least one coding unit included in the reference coding unit 1500 having a square shape is described above by splitting the current coding unit 300 of FIG. 3, and the reference coding unit having a non-square shape 1502. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 400 or 450 of FIG. 4, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit predetermined based on a predetermined condition.
  • a predetermined condition for example, a size equal to or less than a slice
  • the various data units eg, sequence, picture, slice, slice segment, maximum coding unit, etc.
  • an index for identifying the size and shape of the reference coding unit may be obtained for each slice, slice segment, maximum coding unit, or the like.
  • the image decoding apparatus 100 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the use efficiency of the bitstream may not be good, and thus the shape of the reference coding unit
  • only the index may be obtained and used.
  • at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 100 selects at least one of the predetermined size and shape of the reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the reference for obtaining the index. You can decide.
  • the image decoding apparatus 100 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure.
  • the image decoding apparatus 100 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and the reference coding unit according to various embodiments may include information about the block shape information and the split shape mode. The division may be performed based on at least one of the following.
  • FIG. 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 1600, according to an exemplary embodiment.
  • the image decoding apparatus 100 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
  • the image decoding apparatus 100 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the image decoding apparatus 100 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the bitstream obtainer 110 of the image decoding apparatus 100 may obtain information about a size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the bitstream obtainer 110 may obtain information about the size of a processing block from the bitstream for each of the various data units, and the image decoding apparatus 100 may obtain a picture by using the obtained information about the size of the processing block.
  • the size of at least one processing block to be split may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
  • the image decoding apparatus 100 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600. For example, the image decoding apparatus 100 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 16, according to an embodiment, the image decoding apparatus 100 may have a horizontal size of the processing blocks 1602 and 1612 equal to four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit. You can decide. The image decoding apparatus 100 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the image decoding apparatus 100 may determine each processing block 1602 and 1612 included in the picture 1600 based on the size of the processing block, and include the processing block 1602 and 1612 in the processing block 1602 and 1612.
  • a determination order of at least one reference coding unit may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the image decoding apparatus 100 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream, and based on the obtained determination order The order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 100 may obtain information about a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the receiver 110 may obtain information about a determination order of a reference coding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 100 may determine at least one reference coding unit based on the order determined according to the embodiment.
  • the bitstream obtainer 110 may obtain information about a reference coding unit determination order from the bitstream as information related to the processing blocks 1602 and 1612, and the image decoding apparatus 100 may An order of determining at least one reference coding unit included in the processing blocks 1602 and 1612 may be determined, and at least one reference coding unit included in the picture 1600 may be determined according to the determination order of the coding units.
  • the image decoding apparatus 100 may determine determination orders 1604 and 1614 of at least one reference coding unit associated with each processing block 1602 and 1612. For example, when information on the determination order of the reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 1602 and 1612 may be different for each processing block.
  • the reference coding units included in the processing block 1602 may be determined according to the raster scan order.
  • the reference coding unit determination order 1614 associated with another processing block 1612 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 1612 may be determined according to the reverse order of the raster scan order.
  • the image decoding apparatus 100 may decode at least one determined reference coding unit according to an embodiment.
  • the image decoding apparatus 100 may decode an image based on the reference coding unit determined through the above-described embodiment.
  • the method of decoding the reference coding unit may include various methods of decoding an image.
  • the image decoding apparatus 100 may obtain and use block shape information indicating a shape of a current coding unit or information about a split shape mode indicating a method of dividing a current coding unit from a bitstream.
  • the block type information or the information about the split type mode may be included in a bitstream associated with various data units.
  • the image decoding apparatus 100 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. block type information or segment type mode included in the segment header) may be used.
  • the image decoding apparatus 100 may obtain and use a syntax element corresponding to the block shape information or the information about the split shape mode from the bit stream from each bit coding unit, the reference coding unit, and the processing block.
  • FIG. 17 illustrates coding units that may be determined for each picture when a combination of forms in which coding units may be divided is different for each picture, according to an embodiment.
  • the image decoding apparatus 100 may differently determine a combination of division forms in which a coding unit may be divided for each picture.
  • the image decoding apparatus 100 may include a picture 1700 that may be divided into four coding units among at least one picture included in an image, and a picture 1710 that may be divided into two or four coding units. ) And a picture 1720 that can be divided into two, three, or four coding units to decode the image.
  • the image decoding apparatus 100 may use only division type information indicating that the picture 1700 is divided into four square coding units in order to divide the picture 1700 into a plurality of coding units.
  • the image decoding apparatus 100 may use only split type information indicating splitting into two or four coding units to split the picture 1710.
  • the image decoding apparatus 100 may use only split type information indicating splitting into two, three, or four coding units in order to split the picture 1720.
  • the combination of the above-described divisional forms is only an embodiment for explaining the operation of the image decoding apparatus 100. Therefore, the above-described combination of the divisional forms should not be interpreted to be limited to the above-described embodiment, and the division of various forms for each predetermined data unit is performed. It is to be understood that combinations of forms may be used.
  • the bitstream acquisition unit 110 of the image decoding apparatus 100 may determine a bitstream including an index indicating a combination of segmentation type information in a predetermined data unit unit (eg, sequence, picture, slice, etc.). Can be obtained every time.
  • the bitstream obtainer 110 may obtain an index indicating a combination of split type information from a sequence parameter set, a picture parameter set, or a slice header.
  • the image decoding apparatus 100 of the image decoding apparatus 100 may determine a combination of division types in which coding units may be divided for each predetermined data unit using the obtained index, and thus different from each other. A combination of split forms can be used.
  • FIG. 18 illustrates various forms of coding units that may be determined based on split form information that may be represented by binary codes according to an embodiment.
  • the image decoding apparatus 100 may divide a coding unit into various forms by using block shape information and segmentation shape information obtained through the bitstream obtainer 110.
  • the form of the coding unit that may be split may correspond to various forms including the forms described through the above-described embodiments.
  • the image decoding apparatus 100 may split a coding unit having a square shape into at least one of a horizontal direction and a vertical direction based on the split shape information, and horizontally encode the non-square coding unit. Can be divided in the vertical or vertical direction.
  • the split type information on the square coding unit may be represented.
  • the partition type information may be represented by a 2-digit binary code, and a binary code may be allocated to each partition type.
  • the partition type information when the coding unit is not divided, the partition type information may be represented by (00) b, and when the coding unit is split in the horizontal direction and the vertical direction, the partition type information may be represented by (01) b, When the coding unit is split in the horizontal direction, the split type information may be represented by (10) b, and when the coding unit is split in the vertical direction, the split type information may be represented by (11) b.
  • the type of division type that can be represented by the segmentation type information may be divided into how many coding units. Can be determined.
  • the image decoding apparatus 100 may split up to three non-square coding units according to an embodiment.
  • the image decoding apparatus 100 may split a coding unit into two coding units, and in this case, the split shape information may be represented by (10) b.
  • the image decoding apparatus 100 may divide a coding unit into three coding units, and in this case, the split shape information may be represented by (11) b.
  • the image decoding apparatus 100 may determine not to split the coding unit, and in this case, the segmentation type information may be expressed as (0) b. That is, the image decoding apparatus 100 may use variable length coding (VLC) instead of fixed length coding (FLC) in order to use a binary code indicating split type information.
  • VLC variable length coding
  • FLC fixed length coding
  • a binary code of split type information indicating that a coding unit is not split may be represented by (0) b. If the binary code of the partition type information indicating that the coding unit is not split is set to (00) b, even if there is no partition type information set to (01) b, all of the binary codes of the 2-bit partition type information are included. Should be used.
  • the image decoding apparatus 100 uses 1-bit binary code (0) b as split type information. Even if it is determined that the coding unit is not divided, it is possible to efficiently use the bitstream.
  • the divided form of the non-square-type coding unit indicated by the divided form information is not limited to only the three forms illustrated in FIG. 18 and should be interpreted in various forms including the embodiments described above.
  • FIG. 19 illustrates another form of a coding unit that may be determined based on split form information that may be represented by a binary code, according to an embodiment.
  • the image decoding apparatus 100 may split a coding unit having a square shape in a horizontal direction or a vertical direction based on split shape information, and split the coding unit having a non-square shape in a horizontal direction or a vertical direction. can do. That is, the split type information may indicate that a coding unit having a square shape is split in one direction. In this case, the binary code of the split type information indicating that the coding unit of the square type is not split may be represented by (0) b. If the binary code of the partition type information indicating that the coding unit is not split is set to (00) b, even if there is no partition type information set to (01) b, all of the binary codes of the 2-bit partition type information are included. Should be used.
  • the image decoding apparatus 100 may encode even if one-bit binary code (0) b is used as the divisional form information. Since the unit can be determined not to be divided, the bitstream can be efficiently used.
  • the divided form of the square coding unit represented by the divided form information should not be construed as being limited to only the three forms illustrated in FIG. 19, but should be interpreted in various forms including the embodiments described above.
  • the block type information or the split type information may be represented by using a binary code, and such information may be immediately generated in a bitstream.
  • block type information or partition type information that can be represented by a binary code may be used as a binary code that is not directly generated as a bitstream but input by context adaptive binary arithmetic coding (CABAC).
  • CABAC context adaptive binary arithmetic coding
  • the image decoding apparatus 100 describes a process of obtaining syntax about block type information or partition type information through CABAC.
  • the bitstream including the binary code for the syntax may be obtained through the bitstream obtainer 110.
  • the image decoding apparatus 100 may detect a syntax element representing block type information or partition type information by inverse binarization of a bin string included in the obtained bitstream.
  • the image decoding apparatus 100 may obtain a set of binary bin strings corresponding to syntax elements to be decoded, and decode each bin using probability information, and the image decoding apparatus 100 may decode the bin. You can iterate until an empty string consisting of one bin is equal to one of the previously obtained empty strings.
  • the image decoding apparatus 100 may determine a syntax element by performing inverse binarization of the empty string.
  • the image decoding apparatus 100 may determine a syntax for an empty string by performing an adaptive binary arithmetic coding process, and the image decoding apparatus 100 may include a bitstream obtainer.
  • the probability model for the bins acquired through 110 may be updated.
  • the bitstream obtaining unit 110 of the image decoding apparatus 100 may obtain a bitstream indicating a binary code indicating segmentation type information, according to an exemplary embodiment.
  • the image decoding apparatus 100 may determine the syntax of the segmentation type information by using the obtained binary code having a size of 1 bit or 2 bits.
  • the image decoding apparatus 100 may update the probability of each bit of the 2-bit binary code to determine the syntax of the split type information. That is, the image decoding apparatus 100 may update the probability of having a value of 0 or 1 when decoding the next bin, depending on which value of 0 or 1 is the first bin of the 2-bit binary code.
  • the image decoding apparatus 100 may update the probability of the bins used in the process of decoding the bins of the empty string for the syntax, and the image decoding apparatus 100 may A specific bit of the empty string may be determined to have the same probability without updating the probability.
  • the image decoding apparatus 100 does not divide the coding unit having a non-square shape.
  • the syntax of the partition type information may be determined using one bin having a value of zero. That is, when the block type information indicates that the current coding unit is a non-square type, the first bin of the empty string for the split type information is 0 when the coding unit of the non-square type is not divided, and two or three It may be 1 when it is divided into coding units.
  • the probability that the first bin of the empty string of the split form information for the non-square coding unit is 0 may be 1/3, and the probability that 1 is 2/3.
  • the image decoding apparatus 100 may divide only the 1-bit empty string having a value of 0, since the segmentation type information indicating that the non-square type coding unit is not divided may be represented. Only when the first bin of the type information is 1, the syntax of the split type information may be determined by determining whether the second bin is 0 or 1. According to an embodiment, when the first bin with respect to the segmentation information is 1, the image decoding apparatus 100 may decode the bin as the probability that the second bin is 0 or 1 is the same probability.
  • the image decoding apparatus 100 may use various probabilities for each bin in the process of determining the bin of the bin string for the split type information. According to an embodiment, the image decoding apparatus 100 may differently determine a probability of a bin with respect to the split shape information according to the direction of the non-square block. According to an embodiment, the image decoding apparatus 100 may differently determine a probability of a bin with respect to the split shape information according to the width or the length of the long side of the current coding unit. According to an embodiment, the image decoding apparatus 100 may differently determine a probability of a bin with respect to the split shape information according to at least one of a shape of a current coding unit and a length of a long side.
  • the image decoding apparatus 100 may determine the same probability of bins for the split type information for coding units having a predetermined size or more. For example, based on the length of the long side of the coding unit, it may be determined that the coding units having a size of 64 samples or more have the same probability of bins for the split shape information.
  • the image decoding apparatus 100 may determine an initial probability of bins constituting an empty string of split type information based on a slice type (eg, I slice, P slice, or B slice).
  • a slice type eg, I slice, P slice, or B slice.
  • 20 is a block diagram of an image encoding and decoding system for performing loop filtering.
  • the encoding stage 2010 of the image encoding and decoding system 2000 transmits an encoded bitstream of an image, and the decoding stage 2050 receives and decodes the bitstream to output a reconstructed image.
  • the encoding end 2010 may have a similar configuration to the image encoding apparatus 200 to be described later, and the decoding end 2050 may have a similar configuration to the image decoding apparatus 100.
  • the predictive encoding unit 2015 outputs a reference image through inter prediction and intra prediction, and the transform and quantization unit 2020 transforms the quantized residual data between the reference image and the current input image. Quantize this to output it.
  • the entropy encoder 2025 encodes and transforms the quantized transform coefficients and outputs the bitstream.
  • the quantized transform coefficients are reconstructed into spatial data through the inverse quantization and inverse transform unit 2030, and the reconstructed spatial data are output as reconstructed images through the deblocking filtering unit 2035 and the loop filtering unit 2040. do.
  • the reconstructed image may be used as a reference image of the next input image through the prediction encoder 2015.
  • the encoded image data in the bitstream received by the decoder 2050 is reconstructed as residual data in the spatial domain through the entropy decoder 2055 and the inverse quantization and inverse transform unit 2060.
  • the reference image and the residual data output from the predictive decoder 2075 are combined to form image data of the spatial domain, and the deblocking filter 2065 and the loop filter 2070 filter the image data of the spatial domain.
  • the reconstructed image of the current original image can be output by performing.
  • the reconstructed image may be used as the reference image for the next original image by the prediction decoder 2075.
  • the loop filtering unit 2040 of the encoding stage 2010 performs loop filtering using filter information input according to a user input or system setting.
  • the filter information used by the loop filtering unit 2040 is output to the entropy encoder 2010 and transmitted to the decoder 2050 together with the encoded image data.
  • the loop filtering unit 2070 of the decoding unit 2050 may perform loop filtering based on filter information input from the decoding unit 2050.
  • FIG. 2 is a block diagram of an image encoding apparatus 200 capable of encoding an image based on at least one of block shape information and split shape information, according to an exemplary embodiment.
  • the image encoding apparatus 200 may include an encoder 220 and a bitstream generator 210.
  • the encoder 220 may receive an input image and encode the input image.
  • the encoder 220 may obtain at least one syntax element by encoding the input image.
  • the syntax elements include skip flag, prediction mode, motion vector difference, motion vector prediction method (or index), transform quantized coefficient, coded block pattern, coded block flag, intra prediction mode, direct flag, merge flag, delta QP, reference index, It may include at least one of a prediction direction and a transform index.
  • the encoder 220 may determine the context model based on block shape information including at least one of a shape, a direction, a width, and a ratio or size of a coding unit.
  • the bitstream generator 210 may generate a bitstream based on the encoded input image. For example, the bitstream generator 210 may generate a bitstream by entropy encoding a syntax element based on a context model. Also, the image encoding apparatus 200 may transmit a bitstream to the image decoding apparatus 100.
  • the encoder 220 of the image encoding apparatus 200 may determine a shape of a coding unit.
  • the coding unit may be square or have a non-square shape, and information representing such a shape may be included in the block shape information.
  • the encoder 220 may determine how to split the coding unit.
  • the encoder 220 may determine the shape of at least one coding unit included in the coding unit, and the bitstream generator 210 may generate a bitstream including split shape information including information about the shape of the coding unit. Can be generated.
  • the encoder 220 may determine whether a coding unit is divided or not. When the encoder 220 determines that only one coding unit is included in the coding unit or that the coding unit is not split, the bitstream generator 210 includes split type information indicating that the coding unit is not split. A bitstream can be generated. Also, the encoder 220 may split the plurality of coding units included in the coding unit, and the bitstream generator 210 may divide the bitstream including the split type information indicating that the coding unit is divided into a plurality of coding units. Can be generated.
  • the split type information may indicate how many coding units to divide or in which direction may be split.
  • the split type information may indicate splitting in at least one of a vertical direction and a horizontal direction or may not split.
  • the image encoding apparatus 200 determines the information about the split shape mode based on the split shape mode of the coding unit.
  • the image encoding apparatus 200 determines a context model based on at least one of a shape, a direction, a width, and a ratio or size of a coding unit.
  • the image encoding apparatus 200 generates a bitstream of information on a split mode mode for dividing a coding unit based on a context model.
  • the image encoding apparatus 200 may obtain an arrangement for mapping the index of the context model with at least one of the shape, direction, width, and height ratio or size of the coding unit, in order to determine the context model.
  • the image encoding apparatus 200 may obtain an index with respect to the context model based on at least one of a shape, a direction, a width, a height ratio, or a size of the coding unit in the array.
  • the image encoding apparatus 200 may determine the context model based on the index with respect to the context model.
  • the image encoding apparatus 200 may further determine the context model based on block shape information including at least one of a shape, a direction, a width, and a ratio or size of a neighboring coding unit adjacent to the coding unit. You can decide.
  • the peripheral coding unit may include at least one of coding units located on a lower left side, a left side, an upper left side, an upper side, an upper right side, a right side, or a lower right side of the coding unit.
  • the image encoding apparatus 200 may compare the length of the width of the upper peripheral coding unit with the length of the width of the coding unit to determine the context model. Also, the image encoding apparatus 200 may compare the lengths of the heights of the neighboring coding units on the left and right sides with the lengths of the heights of the coding units. Also, the image encoding apparatus 200 may determine the context model based on the comparison results.
  • the operation of the image encoding apparatus 200 includes similar contents to the operation of the video decoding apparatus 100 described with reference to FIGS. 3 to 20, detailed description thereof will be omitted.
  • 21 is a block diagram of an image decoding apparatus 2100 according to an embodiment.
  • an image decoding apparatus 2100 may include an acquirer 2110 and a predictive decoder 2130.
  • the image decoding apparatus 2100 may include a central processor (not shown) that controls the acquirer 2110 and the predictive decoder 2130.
  • the acquirer 2110 and the predictive decoder 2130 may be operated by their own processors (not shown), and the image decoding apparatus 2100 may be operated as a whole as the processors (not shown) operate organically with each other. It may be.
  • the acquirer 2110 and the predictive decoder 2130 may be controlled by the control of an external processor (not shown) of the image decoding apparatus 2100.
  • the image decoding apparatus 2100 may include one or more data storage units (not shown) in which input / output data of the acquirer 2110 and the predictive decoder 2130 are stored.
  • the image decoding apparatus 2100 may include a memory controller (not shown) that controls data input / output of the data storage unit (not shown).
  • the image decoding apparatus 2100 may operate in conjunction with an internal video decoding processor or an external video decoding processor to reconstruct an image through image decoding, thereby performing an image decoding operation including prediction.
  • the internal video decoding processor of the image decoding apparatus 2100 may not only be a separate processor, but also a basic image decoding operation because the image decoding apparatus 2100, the central processing unit, or the graphic processing unit includes an image decoding processing module. You can also implement
  • the image decoding apparatus 2100 may be included in the image decoding apparatus 100 described above.
  • the acquirer 2110 may be included in the bitstream acquirer 110 of the image decoding apparatus 100 illustrated in FIG. 1, and the prediction decoder 2130 may be a decoder of the image decoding apparatus 100. 120 may be included.
  • the image decoding apparatus 2100 may determine a motion vector for reconstruction of the current block encoded through inter prediction.
  • the type of block may be square or rectangular, and may be any geometric shape.
  • a block according to an embodiment is not limited to a data unit having a predetermined size, and may include a maximum coding unit, a coding unit, a prediction unit, a transformation unit, and the like among coding units having a tree structure.
  • the acquirer 2110 obtains a bitstream including information for decoding an image.
  • the bitstream may include information on at least one of a residual motion vector, a prediction motion vector, a prediction direction (whether unidirectional prediction or bidirectional prediction), a reference picture, and a motion vector resolution (MVR) according to the prediction mode of the current block.
  • MVR motion vector resolution
  • the prediction decoder 2130 obtains a motion vector of the current block based on the information included in the bitstream.
  • the prediction decoder 2130 may determine whether adaptive encoding is applied to the residual motion vector of the current block.
  • the adaptive encoding for the residual motion vector may mean an encoding method used for representing the residual motion vector with a small number of bits.
  • the prediction decoder 2130 may determine whether the adaptive coding is applied to the residual motion vector based on information indicating whether the adaptive coding included in the bitstream is applied.
  • the information indicating whether the adaptive encoding is applied may include, for example, an index or a flag, but is not limited thereto.
  • the prediction decoder 2130 determines a coding factor value of the residual motion vector.
  • the encoding factor value (or factor value) is a value used for adaptive encoding of the residual motion vector, and in one embodiment, the encoding factor value may include an integer of 1 or more.
  • the prediction decoder 2130 may determine a coding factor value based on the indication information of the coding factor value included in the bitstream.
  • the indication information of the coding factor value may include a flag or an index.
  • the indication information of the coding factor value is an index
  • the coding factor value for each index is illustrated in FIG. 22. In FIG. 22, when the factor value indicating index indicates 0, the coding factor value may be determined as 1, and when the factor value indicating index indicates 1, the coding factor value may be determined as 4.
  • FIG. 22 when the factor value indicating index indicates 0, the coding factor value may be determined as 1, and when the factor value indicating index indicates 1, the coding factor value may be determined as 4.
  • the prediction decoder 2130 may include a current block, a previously decoded block, a current slice including a current block, a previously decoded slice, a current picture including a current block, and a previously decoded picture. Based on the information associated with at least one of the, the coding factor value may be determined. In this case, the information related to the encoding factor value may not be included in the bitstream.
  • the prediction decoder 2130 may include a size of a current block, a prediction mode of a current block, a size of a previously decoded block, a prediction mode of a previously decoded block, a coding factor value of a previously decoded block, and a current
  • a coding factor value for the residual motion vector of the current block may be determined based on at least one of a type of slice, a type of a previously decoded slice, a type of a current picture, and a type of a previously decoded picture.
  • the coding factor value may be determined based on the first MVR of the first component of the motion vector of the current block and the second MVR of the second component of the motion vector of the current block.
  • the prediction decoder 2130 may determine a first result value generated by applying adaptive encoding to the residual motion vector based on the information included in the bitstream.
  • the first result value may mean a value obtained by the image encoding apparatus 2800 by applying adaptive encoding to the residual motion vector of the current block.
  • the first result value may be a value smaller than the residual motion vector of the current block.
  • the prediction decoder 2130 obtains information indicating a sign of the first result value, information indicating whether an absolute value of the first result value is greater than zero, and the like from the bitstream, and based on the obtained information, the first result value. Can be determined.
  • the prediction decoder 2130 may obtain a residual motion vector of the current block by applying a coding factor value to the first result value according to a predetermined operation.
  • the predetermined operation may comprise a product operation.
  • the predetermined operation may include a linear operation including at least one of a product operation and an addition operation.
  • the predetermined operation may include an exponentiation operation.
  • the prediction decoder 2130 may determine the residual motion vector of the current block as 8 (2 * 4). have.
  • the prediction decoder 2130 may determine the residual motion vector of the current block as 16 (2 4 ).
  • the prediction decoder 2130 may determine a second result value generated by applying adaptive encoding to the residual motion vector based on the information included in the bitstream.
  • the second result value may mean a value obtained by the image encoding apparatus 2800 by applying adaptive encoding to the residual motion vector.
  • information on the number of bits for representing the second result value may be included in the bitstream.
  • the acquirer 2110 may obtain a bit corresponding to the second result value according to the number of bits information, and the prediction decoder 2130 may determine the second result value based on the obtained bit value.
  • the number of bits for expressing the second result value may be smaller than the number of bits for expressing the encoding factor value. For example, when the encoding factor value is 8, the number of bits for expressing this is 4, but the number of bits for expressing the second result may be less than 4. This is because, for example, when the predetermined operation is a division operation, the second result value corresponds to a value less than the encoding factor value.
  • the number information of bits for representing the second result value may not be included in the bitstream, but may be predetermined in correspondence with the encoding factor value. For example, when the encoding factor value is 8, the number of bits for representing the second result value may be predetermined as three. If the encoding factor value is 7, the bit size for representing the second result value may be determined. The number may be predetermined as two.
  • the prediction decoder 2130 may determine the residual motion vector of the current block by applying the first result value, the second result value, and the encoding factor value to a predetermined operation.
  • the predetermined operation may include an operation of multiplying a first result value by an encoding factor value and adding a second result value to the multiplication result (that is, encoding factor value * first result value + second result value). have.
  • the first result may be referred to as the quotient of the residual motion vector
  • the second result may be referred to as the remainder of the residual motion vector.
  • the predetermined operation may include an operation of multiplying the first result value according to the encoding factor value and adding the second result value to the result.
  • the prediction decoder 2130 may determine the coding factor value and the first result value (and the second result value) for each prediction direction of the current block and for each component of the residual motion vector.
  • the residual motion vector may be determined by using a coding factor value and a first result value for each prediction direction of the current block and for each component of the residual motion vector.
  • FIG. 23 illustrates a motion vector, a predicted motion vector, and a residual motion vector when a current block is bidirectionally predicted.
  • the current block 2310 is unidirectionally predicted using the reference picture 2330 included in list 0 or the reference picture 2350 included in list 1, or two reference pictures 2330 and 2350 included in list 0 and list 1. Can be predicted bi-directionally.
  • the current block 2310 may be bidirectionally predicted through the reference picture 2330 included in the list 0 and the reference picture 2350 included in the list 1, and in this case, the residual corresponding to the list 0 may be used.
  • the motion vector MVD0 and the residual motion vector MVD1 corresponding to the list 1 may be determined.
  • each residual motion vector MVD0 and MVD1 may include a value of a first component (eg, the width direction component of the block) and a second component (eg, the height direction component of the block).
  • the prediction decoder 2130 determines a coding factor value and a first result value for the first component value MVD0_X of the residual motion vector MVD0 corresponding to the list 0, and determines the residual motion vector MVD0.
  • the first component value MVD0_X is determined
  • the coding factor value and the first result value for the second component value MVD0_Y of the residual motion vector MVD0 corresponding to the list 0 are determined
  • the residual motion vector MVD0 is determined.
  • the second component value MVD0_Y may be determined.
  • the prediction decoder 2130 determines a coding factor value and a first result value for the first component value MVD1_X of the residual motion vector MVD1 corresponding to List 1, and determines the first result of the residual motion vector MVD1.
  • One component value MVD1_X is determined, a coding factor value and a first result value for the second component value MVD1_Y of the residual motion vector MVD1 corresponding to List 1 are determined, and the residual motion vector MVD1 is determined.
  • the second component value MVD1_Y may be determined.
  • the prediction decoder 2130 determines a coding factor value and a first result value for the first component value of the residual motion vector corresponding to the list 0 or the list 1 to determine the first result of the residual motion vector.
  • the second component value of the residual motion vector may be determined by determining one component value, determining a coding factor value and a first result value for the second component value of the residual motion vector corresponding to List 0 or List 1.
  • the prediction decoder 2130 determines only one coding factor value and uses a value derived by applying one coding factor value for each prediction direction and / or component of a current block to a predetermined operation to obtain a residual.
  • the motion vector may be determined.
  • the prediction decoder 2130 may determine the encoding factor value, the first result value, and the encoding.
  • the residual motion vector may be obtained based on information obtained from the bitstream without performing a process of applying the factor value and the first result value to a predetermined operation.
  • the information included in the bitstream may include information indicating a sign of the residual motion vector, information indicating whether an absolute value of the residual motion vector is greater than zero, but is not limited thereto.
  • the prediction decoder 2130 may obtain a motion vector of the current block based on the residual motion vector of the current block and the prediction motion vector of the current block.
  • the predicted motion vector of the current block may be determined based on the motion vector of the neighboring block temporally and / or spatially adjacent to the current block.
  • a temporal neighboring block may be located at the same point as a block F located at the same point as the current block 2400 in a reference image having a POC different from the picture order count (POC) of the current block 2400.
  • At least one block G that is spatially adjacent to the block F may be included.
  • the spatial neighboring blocks that are spatially related to the current block 2400 are the lower left outer block (A), lower left outer block (B), upper right outer block (C), upper right outer block (D), and upper upper outer block (E). ) May be included.
  • the position of the neighboring blocks illustrated in FIG. 24 is one example, and the positions of the temporal neighboring block and the spatial neighboring block may be variously changed according to an embodiment.
  • the prediction decoder 2130 may determine the median value of the motion vectors of the at least one neighboring block as the prediction motion vector of the current block, or configure the predictive motion vector candidate using the motion vectors of the neighboring blocks. Based on the information included in the bitstream, any one prediction motion vector candidate may be determined as the prediction motion vector of the current block.
  • the prediction decoder 2130 may predict the motion vector of the neighboring block determined to correspond to the predetermined MVR. It can also be determined by a vector.
  • the prediction decoder 2130 may adjust the prediction motion vector based on the MVR of the current block, and determine the motion vector of the current block by using the adjusted prediction motion vector and the residual motion vector.
  • the prediction decoder 2130 may store at least one candidate MVR, which may be an MVR of a motion vector of each block.
  • the at least one candidate MVR is a 1/8 pixel unit MVR, a 1/4 pixel unit MVR, a 1/2 pixel unit MVR, a 1 pixel unit MVR, a 2 pixel unit MVR, a 4 pixel unit MVR and an 8 pixel unit It may include at least one of the MVR.
  • the candidate MVR is not limited to the above example, and the MVRs having pixel values of various values may be included in the candidate MVR.
  • the prediction decoder 2130 may refer to information indicating the MVR included in the bitstream in order to determine the MVR of the motion vector of the current block.
  • the MVR of the motion vector of the current block may be determined separately according to the components of the motion vector of the current block. Specifically, the first MVR for the first component of the motion vector of the current block (for example, the width direction component of the block) and the second component of the motion vector of the current block (for example, the height direction component of the block). The second MVR may determine independently.
  • the bitstream may include information indicating the first MVR and the second MVR, and the information may include, for example, an index or a flag.
  • the prediction decoder 2130 may store information indicating the MVR and corresponding relationship information of the MVR corresponding thereto in advance. Referring to FIG. 25, when the first MVR and the second MVR are expressed as indexes in the bitstream, index 0 may represent 1/8 pixel units and index 1 may represent 1/4 pixel units.
  • the acquirer 2110 may obtain information about the first MVR and information about the second MVR for each inter-predicted coding unit.
  • FIG. 26 is a diagram illustrating syntax for obtaining information about a first MVR and information about a second MVR from a bitstream.
  • cu_skip_flag represents whether to apply the skip mode to the current coding unit.
  • the current coding unit is processed according to the skip mode. If the skip mode is not applied in the d statement, the pred_mode_flag is extracted from the e statement.
  • pred_mode_flag represents whether the current coding unit is intra predicted or inter predicted. If the current coding unit in f syntax is not intra predicted, that is, inter predicted, pred_mvr_idx is extracted in g syntax.
  • pred_mvr_idx is an index indicating an MVR of a current coding unit, and an MVR corresponding to each index may be as shown in Table 1 below.
  • pred_mvr_idx may be obtained for each component of a motion vector of the current coding unit.
  • the prediction decoder 2130 may include at least one of a current block, a previously decoded block, a current slice including a current block, a previously decoded slice, a current picture including a current block, and a previously decoded picture.
  • the first MVR and the second MVR may be directly determined based on the information related to the one. In this case, the information indicating the first MVR and the information indicating the second MVR are not included in the bitstream.
  • the prediction decoder 2130 may determine the first MVR and the second MVR in consideration of the width and the height of the current block.
  • the prediction decoder 2130 may determine that the first MVR is larger than the second MVR when the width of the current block is greater than the height, and conversely, when the height of the current block is greater than the width, the second MVR is the first MVR. You can decide to be larger.
  • the prediction decoder 2130 may determine that the first MVR is smaller than the second MVR.
  • the second MVR is determined. It may be determined to be less than 1 MVR.
  • the prediction decoder 2130 may determine the first MVR and the second MVR according to the size of the current block. For example, if the size of the current block is greater than or equal to a predetermined size, the first MVR and the second MVR are determined to be greater than or equal to 1 pixel unit. If the size of the current block is less than the predetermined size, the first MVR and the second MVR are 1 pixel. It can be determined with less than units.
  • the prediction decoder 2130 may determine the first MVR and the second MVR of the current block based on the first MVR and the second MVR of the previously decoded block. For example, if the first MVR of the previously decoded block is 1/4 pixel unit, the first MVR of the current block is also determined to be 1/4 pixel unit, and if the second MVR of the previously decoded block is 1 pixel unit, The second MVR of the current block may also be determined in units of one pixel.
  • one MVR is larger than the other MVR may mean that a pixel unit of one MVR is larger than a pixel unit of another MVR.
  • an MVR of 1 pixel unit is larger than an MVR of 1/2 pixel unit
  • an MVR of 1/2 pixel unit is larger than an MVR of 1/4 pixel unit.
  • the case where the motion vector is determined by the MVR of 1/4 pixel unit is more precisely predictable than when the motion vector is determined by the MVR of 1 pixel unit.
  • the size difference of each MVR is explained based on the size.
  • the prediction decoder 2130 may determine a coding factor value for adaptive encoding of the residual motion vector based on the first MVR and the second MVR. For example, the prediction decoder 2130 may determine an average value of the first MVR and the second MVR as a coding factor value. Alternatively, the prediction decoder 2130 may determine a coding factor value by applying the first MVR and the second MVR to a predetermined operation.
  • the prediction decoder 2130 may adjust the prediction motion vector of the current block based on a difference between the first MVR and the second MVR of the current block and the smallest minimum MVR among the at least one candidate MVR. .
  • the prediction decoder 2130 may determine the motion vector of the current block by using the prediction motion vector and the residual motion vector selectively adjusted according to the result of the size comparison of the MVR.
  • the prediction decoder 2130 may search for the prediction block in the reference image by using the motion vector of the current block, and reconstruct the current block by adding the inverse quantized and inverse transformed residual data to the searched prediction block.
  • FIG. 27 is a flowchart illustrating a method of decoding motion information according to an embodiment.
  • the image decoding apparatus 2100 determines a coding factor value.
  • the image decoding apparatus 2100 may determine a coding factor value based on a bitstream, and may include a current block, a previously decoded block, a current slice including a current block, a previously decoded slice, and a current block.
  • a coding factor value may be determined based on information associated with at least one of a current picture and a previously decoded picture including the.
  • the image decoding apparatus 2100 obtains a first result value generated by applying adaptive encoding to the residual motion vector of the current block.
  • the image decoding apparatus 2100 may obtain a first result value based on the information included in the bitstream.
  • the image decoding apparatus 2100 may obtain a second result value generated by applying adaptive encoding to the residual motion vector of the current block.
  • the image decoding apparatus 2100 may obtain a second result value based on the information included in the bitstream.
  • the image decoding apparatus 2100 obtains a residual motion vector of the current block by applying a coding factor value to a first result value according to a predetermined operation.
  • the image decoding apparatus 2100 may obtain a residual motion vector of the current block by applying a coding factor value to the first result value and the second result value according to a predetermined operation.
  • the predetermined operation may include a product operation, a power operation, and the like.
  • the predetermined operation may include a linear operation including at least one of a product operation and an addition operation.
  • the image decoding apparatus 2100 obtains a motion vector of the current block by using the residual motion vector of the current block and the predictive motion vector of the current block.
  • the image decoding apparatus 2100 may obtain the motion vector of the current block by adding the residual motion vector of the current block to the predictive motion vector of the current block.
  • the video decoding apparatus 2100 may adjust the predicted motion vector of the current block based on the MVR of the motion vector of the current block, and in this case, obtain the motion vector of the current block by using the adjusted predicted motion vector and the residual motion vector. can do.
  • the image decoding apparatus 2100 may determine the MVR of the motion vector of the current block for each component of the motion vector. For example, the image decoding apparatus 2100 may determine a first MVR for the first component of the motion vector of the current block and a second MVR for the second component of the motion vector of the current block.
  • FIG. 28 is a block diagram of an image encoding apparatus 2800 according to an embodiment.
  • an image encoding apparatus 2800 may include a prediction encoder 2810 and a generator 2830.
  • the image encoding apparatus 2800 may include a central processor (not shown) that controls the predictive encoder 2810 and the generator 2830.
  • the predictive encoder 2810 and the generator 2830 may be operated by their own processors (not shown), and the image encoder 2800 may be operated as a whole as the processors (not shown) operate organically with each other. It may be.
  • the prediction encoder 2810 and the generator 2830 may be controlled by the control of an external processor (not shown) of the image encoding apparatus 2800.
  • the image encoding apparatus 2800 may include one or more data storage units (not shown) in which input / output data of the prediction encoder 2810 and the generator 2830 are stored.
  • the image encoding apparatus 2800 may include a memory controller (not shown) that controls data input / output of the data storage unit (not shown).
  • the image encoding apparatus 2800 may perform an image encoding operation including prediction by operating in conjunction with an internal video encoding processor or an external video encoding processor to encode an image.
  • the internal video encoding processor of the image encoding apparatus 2800 may not only be a separate processor, but also a basic image encoding operation by including the image encoding processing module in the image encoding apparatus 2800, the central processing unit, or the graphic processing unit. You can also implement
  • the image encoding apparatus 2800 may be included in the image encoding apparatus 200 described above.
  • the generator 2830 may be included in the bitstream generator 210 of the image encoding apparatus 200 illustrated in FIG. 2, and the prediction encoder 2810 may be an encoder of the image encoding apparatus 200. It may be included in (220).
  • the image encoding apparatus 2800 may determine a motion vector of the current block through inter prediction on the current block.
  • the image encoding apparatus 2800 may encode the residual motion vector determined by using the motion vector and the predictive motion vector of the current block.
  • the predicted motion vector of the current block may be determined based on the motion vector of the neighboring block temporally and / or spatially adjacent to the current block.
  • the neighboring blocks temporally and / or spatially adjacent to the current block are shown in FIG.
  • the prediction encoder 2810 may determine the median value of the motion vectors of the at least one neighboring block as the prediction motion vector of the current block, or configure a predictive motion vector candidate using the motion vectors of the neighboring blocks.
  • the prediction motion vector candidate of any of the prediction motion vector candidates may be determined as the prediction motion vector of the current block.
  • the prediction encoder 2810 when the motion vector of the current block is determined according to a predetermined MVR, the prediction encoder 2810 adjusts the prediction motion vector and uses the adjusted prediction motion vector and the current vector using the motion vector of the current block. You may determine the residual motion vector of the block. As described above, the prediction encoder 2810 may determine the MVR of the motion vector of the current block for each component of the motion vector. That is, the prediction encoder 2810 may determine a first MVR for the first component of the motion vector of the current block and a second MVR for the second component of the motion vector of the current block. The first MVR and the second MVR may be the same as or different from each other.
  • the prediction encoder 2810 may determine whether to apply adaptive encoding to the residual motion vector of the current block. For example, the prediction encoder 2810 may determine whether to apply the adaptive encoding by comparing the bit rate of the case where the adaptive coding is applied to the residual motion vector of the current block and the case where the adaptive coding is not applied. have.
  • the prediction encoder 2810 may include at least one of a current block, a previously encoded block, a current slice including a current block, a previously encoded slice, a current picture including a current block, and a previously encoded picture. It may be determined whether to apply the adaptive coding in consideration of the information related to one.
  • the prediction encoder 2810 determines a coding factor value for adaptive encoding.
  • the coding factor value may include an integer of 1 or more.
  • the predictive encoder 2810 applies the first result value, the second result value, and the total number of bits of the factor value indication information derived by applying each of the plurality of factor value candidates to the residual motion vector of the current block, to be the most.
  • a small factor value candidate may be determined as a coding factor value of the residual motion vector of the current block.
  • the plurality of factor value candidates may include 1, 4, 8, 16, 32, and the like.
  • the first result value and the second result value mean a value derived by applying a coding factor value to a residual motion vector according to a predetermined operation.
  • the first result value and the second result value may be smaller than the residual motion vector of the current block.
  • the predetermined operation may include a division operation or a log operation.
  • the predetermined operation may include a linear operation including at least one of a division operation, an addition operation, and a subtraction operation.
  • the first result value when the predetermined operation is a division operation, the residual motion vector is 32, and the coding factor value is 2, the first result value may be 16 (32/2).
  • the predetermined operation when the predetermined operation is a division operation, the residual motion vector is 33, and the coding factor value is 2, the first result value may be 16 and the second result value may be 1.
  • the first result may be referred to as a quotient and the second result may be referred to as the remainder.
  • the image decoding apparatus 2100 may derive 32 using the coding factor value 2 and the first result value 5, and determine the residual motion vector of 33 by adding 1, the second result value.
  • the prediction encoding unit 2810 converts the first result value, the second result value, and the above-described indication information of the encoding factor value into bits by applying each of the plurality of factor value candidates to the residual motion vector of the current block according to a predetermined operation.
  • One factor value candidate may be determined as an encoding factor value of the current block in consideration of the required number of bits.
  • the prediction encoder 2810 may include at least one of a current block, a previously encoded block, a current slice including a current block, a previously encoded slice, a current picture including a current block, and a previously encoded picture.
  • a coding factor value of the current block may be determined in consideration of information related to one.
  • the prediction encoder 2810 may determine the encoding factor value in the same manner as the above-described method of directly determining the encoding factor value of the current block by the prediction decoder 2130.
  • the prediction encoder 2810 may determine a coding factor value based on the first MVR and the second MVR of the motion vector of the current block.
  • the prediction encoder 2810 may determine the encoding factor value and the first result value (and the second result value) for each prediction direction of the current block and for each component of the residual motion vector.
  • the prediction encoder 2810 may determine the encoding factor value and the first result value. Instead, information about the residual motion vector, for example, information indicating the sign of the residual motion vector, information indicating whether or not the absolute value of the residual motion vector is greater than zero, and the like, are generated. Through the generated information can be included in the bitstream.
  • the prediction encoder 2810 determines the first MVR of the first component and the second MVR of the second component of the motion vector, and determines the motion vector according to the determined first MVR and the second MVR.
  • the first component value and the second component value of can be determined.
  • the prediction encoder 2810 may store at least one candidate MVR, which may be an MVR of a motion vector of each block.
  • the at least one candidate MVR is a 1/8 pixel unit MVR, a 1/4 pixel unit MVR, a 1/2 pixel unit MVR, a 1 pixel unit MVR, a 2 pixel unit MVR, a 4 pixel unit MVR and an 8 pixel unit It may include at least one of the MVR.
  • the candidate MVR is not limited to the above example, and the MVRs having pixel values of various values may be included in the candidate MVR.
  • the prediction encoder 2810 may determine the first MVR and the second MVR by comparing the performance difference when encoding the motion vector of the current block by using each of the at least one candidate MVR.
  • the prediction encoder 2810 may determine a first MVR and a second MVR among at least one candidate MVR based on the cost. Rate-distortion cost may be used in the cost calculation.
  • the prediction encoder 2810 may include at least one of a current block, a previously encoded block, a current slice including a current block, a previously encoded slice, a current picture including a current block, and a previously encoded picture.
  • the first MVR and the second MVR may be determined based on the information related to one.
  • the prediction encoder 2810 may determine the first MVR and the second MVR in consideration of the width and the height of the current block.
  • the prediction encoder 2810 may determine that the first MVR is larger than the second MVR when the width of the current block is greater than the height, and conversely, when the height of the current block is greater than the width, the second MVR is the first MVR. You can decide to be larger.
  • the prediction encoder 2810 may determine that the first MVR is smaller than the second MVR.
  • the second MVR is determined. It may be determined to be less than 1 MVR.
  • the prediction encoder 2810 may determine the first MVR and the second MVR according to the size of the current block. For example, if the size of the current block is greater than or equal to a predetermined size, the first MVR and the second MVR are determined to be greater than or equal to 1 pixel unit. If the size of the current block is less than the predetermined size, the first MVR and the second MVR are 1 pixel. It can be determined with less than units.
  • the prediction encoder 2810 may determine the first MVR and the second MVR of the current block based on the first MVR and the second MVR of the previously encoded block. For example, if the first MVR of the previously coded block is 1/4 pixel unit, the first MVR of the current block is also determined to be 1/4 pixel unit, and if the second MVR of the previously coded block is 1 pixel unit, The second MVR of the current block may also be determined in units of one pixel.
  • the prediction encoder 2810 may adjust the prediction motion vector of the current block based on the difference between the first MVR and the second MVR of the current block and the smallest minimum MVR among the at least one candidate MVR. .
  • the prediction encoder 2810 may acquire the residual motion vector of the current block by using the prediction motion vector and the motion vector selectively adjusted according to the result of the size comparison of the MVR.
  • the generator 2830 generates a bitstream including information generated as a result of encoding the image.
  • the bitstream includes a prediction mode of the current block, information indicating whether adaptive encoding is applied to the residual motion vector, a coding factor value, a first result value, a second result value, a first MVR, a second MVR, and a residual motion vector. It may include information on at least one.
  • the generator 2830 may use an Exponential-Golomb Coding method for the first result value and a Fixed Coding method for the second result value in generating the bitstream.
  • the generator 2830 may include information on the number of bits for representing the second result value in the bitstream.
  • the number of bits for expressing the second result value may be smaller than the number of bits for expressing the encoding factor value. For example, when the encoding factor value is 8, the number of bits for expressing this is four, in which case, the number of bits for expressing the second result may be less than four. This is because, for example, when the predetermined operation is a division operation, the second result value corresponds to a value less than the encoding factor value. If the second result value corresponds to 6, the generator 2830 may include information indicating that the number of bits for expressing this is 3 in the bitstream.
  • the generator 2830 may bit information about the number of bits for representing the second result value. It may not be included in the stream.
  • the image decoding apparatus 2100 may know the number of bits for representing the second result value. Therefore, the image decoding apparatus 2100 obtains a predetermined number of bits from the bitstream, and based on the obtained bit value, The resulting value can be determined.
  • 29 is a flowchart illustrating a method of encoding motion information, according to an embodiment.
  • the image encoding apparatus 2800 obtains a residual motion vector of the current block.
  • the image encoding apparatus 2800 may obtain a residual motion vector using the motion vector and the predictive motion vector of the current block.
  • the image encoding apparatus 2800 determines the first MVR for the first component and the second MVR for the second component of the motion vector of the current block, and according to the determined first MVR and the second MVR.
  • the first component value and the second component value of the motion vector of the block may be determined.
  • the image encoding apparatus 2800 may determine the predicted motion vector of the current block based on the motion vectors of the at least one neighboring block.
  • the image encoding apparatus 2800 may adjust the prediction motion vector based on a comparison result of the first MVR and the second MVR and the minimum MVR among at least one candidate MVR.
  • the image encoding apparatus 2800 may determine one factor value candidate from among several factor value candidates as a coding factor value of the current block.
  • the image encoding apparatus 2800 may include at least one of a current block, a previously encoded block, a current slice including a current block, a previously encoded slice, a current picture including a current block, and a previously encoded picture.
  • An encoding factor value may be determined based on information associated with one.
  • the image encoding apparatus 2800 may determine an encoding factor value based on the first MVR and the second MVR.
  • the image encoding apparatus 2800 obtains a first result value by applying a coding factor value to a residual motion vector of the current block according to a predetermined operation.
  • the image encoding apparatus 2800 may further obtain a second result by applying the encoding factor value to the residual motion vector of the current block according to a predetermined operation.
  • the image encoding apparatus 2800 In operation S2940, the image encoding apparatus 2800 generates a bitstream based on the first result value.
  • the image encoding apparatus 2800 may generate a bitstream based on the first result value and the second result value.
  • the bitstream includes information indicating whether adaptive coding is applied to a prediction mode of a current block, a residual motion vector, a coding factor value, a first result value, a second result value, a first MVR, and a second.
  • Information on at least one of the MVR and the residual motion vector may be included.
  • the bitstream when adaptive encoding is not applied to the residual motion vector of the current block, the bitstream may not include information about a coding factor value, a first result value, and a second result value.
  • FIG. 30 illustrates positions of pixels that a motion vector can point to corresponding to an MVR of 1/4 pixel, an MVR of 1/2 pixel, an MVR of 1 pixel, and an MVR of 2 pixel.
  • FIG. 30 show MVRs in 1/4 pixel units, MVRs in 1/2 pixel units, and MVRs in 1 pixel units based on coordinates (0, 0), respectively. And coordinates (indicated by a black rectangle) of pixels to which a motion vector of the MVR in units of two pixels can be indicated.
  • the coordinate of the pixel that the motion vector of the MVR of 1/4 pixel unit can point to is (a / 4, b / 4) (a and b are integers)
  • the coordinates of a pixel indicated by the motion vector of the MVR in 1/2 pixel units are (2c / 4, 2d / 4) (c and d are integers)
  • the pixel that the motion vector of the MVR in 1 pixel unit can point to The coordinate of is (4e / 4, 4f / 4) (e, f is an integer)
  • the coordinate of the pixel which the motion vector of the MVR of 2 pixel unit can point to is (8g / 4, 8h / 4) (g, h is an integer).
  • the coordinates of the pixels that the MVR in 2 n (n is an integer) pixel units can refer to (2 nm * i / 2 -m , 2 nm * j / 2 -m ) (i, j are integers).
  • the motion vector is determined according to a specific MVR, the motion vector is represented by coordinates in the interpolated image according to quarter pixel units.
  • the inverse of the pixel unit value of the minimum MVR is 2 m so that the motion vector can be expressed as an integer.
  • a motion vector of an integer unit may be represented by multiplying by 2 ⁇ m .
  • a motion vector of an integer unit multiplied by 2- m may be used in the image decoding apparatus 2100 and the image encoding apparatus 2800.
  • the image encoding apparatus 2800 may determine (2, 6), which is a value obtained by multiplying the motion vector by the integer 4, as the motion vector.
  • the image encoding apparatus 2800 may perform motion prediction in subpixel units based on a subpixel unit based on a motion vector determined in integer pixel units. A block similar to the current block may be searched for in the reference picture.
  • the image encoding apparatus 2800 determines a motion vector in integer pixel units and interpolates the reference image so that subpixels of 1/2 pixel unit are generated. After that, the most similar prediction block may be searched for in the range (-1 to 1, -1 to 1) based on the motion vector determined in the integer pixel unit. Next, after interpolating the reference image to generate subpixels in units of 1/4 pixels, the most similar prediction block in a range of (-1 to 1, -1 to 1) based on a motion vector determined in units of 1/2 pixels By searching for, the motion vector of the final quarter pixel unit MVR can be determined.
  • the motion vector in integer pixel units is (-4, -3) based on coordinates (0,0)
  • the image encoding apparatus 2800 determines the first component value of the motion vector of the current block according to the first MVR, The second component value of the motion vector of the current block may be determined according to the MVR.
  • the image encoding apparatus 2800 may perform motion prediction in a larger pixel unit than the 1 pixel unit based on the motion vector determined in the integer pixel unit.
  • a block similar to the current block may be searched for in the reference picture based on the large pixel unit.
  • Pixels positioned in pixel units larger than one pixel unit eg, two pixel units, three pixel units, and four pixel units
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may adjust the prediction motion vector of the current block when the MVR of the current block is larger than the minimum MVR among the selectable candidate MVRs.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 adjust the prediction motion vector represented by the coordinates in the interpolated image according to the minimum MVR to the MVR of the current block, instead of the pixels indicated by the prediction motion vector. It can be adjusted to point to the pixels of.
  • the pixel 3110 of the coordinates (19, 27) is indicated based on the coordinates (0,0).
  • the coordinates 19 and 27 of the pixel 3110 pointed to by the predicted motion vector A are divided by an integer 4 (that is, downscale). ),
  • the coordinates (19/4, 27/4) corresponding to the division result do not point to integer pixel units.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may adjust the downscaled prediction motion vector to indicate an integer pixel unit.
  • the coordinates of integer pixels around each other centered on coordinates (19/4, 27/4) are (16/4, 28/4), (16/4, 24/4), (20/4). , 28/4), (20/4, 24/4).
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 are coordinates in which the downscaled prediction motion vector A is located at the right-top position instead of the coordinates 19/4 and 27/4. , 28/4), and then multiply it again by an integer 4 (ie, upscale), so that the last adjusted predicted motion vector (D) adjusts the pixel 3140 corresponding to the coordinates (20, 28). Can be pointed to.
  • the adjusted prediction motion vector is the right side of the pixel indicated by the prediction motion vector before the adjustment.
  • -Can point to the pixel located at the top.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may include a pixel positioned at the left-top and a left-bottom of a pixel indicated by the predicted motion vector before the adjusted prediction motion vector. It may point to the pixel or the pixel located at the right-bottom.
  • any one of the x coordinate value and the y coordinate value indicated by the downscaled predicted motion vector points to an integer pixel, only the coordinate value not pointing to the integer pixel is increased or decreased to cover the integer pixel. Can be adjusted to turn on. That is, when the x coordinate value indicated by the downscaled predicted motion vector does not point to an integer pixel, the x coordinate value of the adjusted predicted motion vector is located to the left of the pixel indicated by the x coordinate value of the predicted motion vector before adjustment. It can be pointed to an integer pixel or an integer pixel located on the right side.
  • the y coordinate value indicated by the downscaled predicted motion vector does not point to an integer pixel
  • the y coordinate value of the adjusted predicted motion vector is positioned above the pixel indicated by the y coordinate value of the predicted motion vector before adjustment. It may be pointed to an integer pixel or an integer pixel located below.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may select a point indicated by the adjusted predictive motion vector differently according to the MVR of the current block.
  • the adjusted prediction motion vector is the left-top pixel 3230 of the pixel 3210 indicated by the prediction motion vector before the adjustment.
  • the MVR of the current block is an MVR of 1 pixel unit
  • the adjusted predicted motion vector points to the pixel 3220 of the right-top of the pixel 3210 pointed to by the predicted motion vector before the adjustment
  • the current block may be adjusted to point to the right-bottom pixel 3240 of the pixel 3210 indicated by the predicted motion vector before adjustment.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may determine which pixel the adjusted prediction motion vector points to, at least one of an MVR of the current block, a prediction motion vector, information of a neighboring block, encoding information, and an arbitrary pattern. You can decide based on one.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may adjust the prediction motion vector in consideration of the MVR and the minimum MVR of the current block, according to Equation 1 below.
  • Equation 1 pMV 'represents an adjusted predicted motion vector, k is a value determined according to the difference between the MVR and the minimum MVR of the current block, and the MVR of the current block is 2 m pixel units (m is an integer) and the minimum MVR.
  • k may be mn.
  • k may be an index of the MVR, when the candidate MVR includes a quarter pixel unit MVR, a half pixel unit MVR, a one pixel unit MVR, a two pixel unit MVR, and a four pixel unit MVR,
  • the MVR corresponding to each index of the MVR is shown in Table 1 described above.
  • the image decoding apparatus 2100 may adjust the motion vector of the candidate block according to Equation 1 by using the MVR index as k.
  • >> or ⁇ in Equation 1 is a bit shift operation, and means an operation of decreasing or increasing the magnitude of the predicted motion vector.
  • the offset means a value added or subtracted to indicate an integer pixel when the downscaled pMV does not indicate an integer pixel according to the k value. The offset may be determined differently for each of the x and y coordinate values of the base MV.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may change the downscaled pMV to indicate an integer pixel, according to the same criteria.
  • the x and y coordinate values of the downscaled pMV may always be increased to point to integer pixels. It is also possible to always decrement to point to integer pixels. Alternatively, the x and y coordinate values of the downscaled pMV may be rounded to point to integer pixels.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 adjust the predictive motion vector
  • the downscale and upscale of the predictive motion vector are omitted, and the predictive motion vector corresponds to the MVR of the current block. It may be adjusted in the coordinate plane in the interpolated reference image according to the minimum MVR to point to pixel units.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may be used according to Equation 2 below. You can also make adjustments.
  • Equation 2 is similar to Equation 1, but as shown in Equation 1, the offset is not applied to the downscaled pMV, but after the offset is applied to the original pmV, it is downscaled according to k.
  • the image encoding apparatus 2800 may find a motion vector of the current block with the MVR of the current block, and obtain a difference between the motion vector of the current block and the selectively adjusted predicted motion vector as a residual motion vector.
  • the image decoding apparatus 2100 may obtain the sum of the residual motion vector of the current block and the selectively adjusted predicted motion vector as the motion vector of the current block.
  • the image decoding apparatus 2100 may interpolate the reference image according to the minimum MVR, and then search for the prediction block according to the motion vector of the current block.
  • the image decoding apparatus 2100 may search for the prediction block according to the motion vector of the current block without interpolating the reference image.
  • the first MVR and the second component for the first component are applied to the motion vector of the current block.
  • the first component value and the second component value of the prediction motion vector may also be adjusted independently.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 adjust the first component value of the predicted motion vector when the first MVR is larger than the minimum MVR, and predict when the second MVR is larger than the minimum MVR.
  • the second component value of the motion vector can be adjusted.
  • the minimum MVR is in units of 1/4 pixels
  • the first MVR of the current block is in units of 1 pixel
  • the first component value of the predictive motion vector based on coordinates (0,0) points to coordinates (19).
  • the coordinate 19 of the pixel indicated by the first component value may be divided by an integer 4, and the coordinate corresponding to the division result (19 / 4) does not indicate an integer pixel unit.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may adjust the downscaled first component value to indicate an integer pixel unit. For example, each of the coordinates of the peripheral integer pixel located in the first component direction with respect to the coordinate 19/4 becomes (16/4) and (20/4). In this case, the image encoding apparatus 2800 and the image decoding apparatus 2100 adjust the downscaled first component value to point to (20/4) which is a coordinate located on the right side instead of the coordinate (19/4). , Again multiplying an integer 4 (ie, upscale) so that the finally adjusted first component value points to the pixel corresponding to the coordinate 20. According to an embodiment, the image encoding apparatus 2800 and the image decoding apparatus 2100 adjust the downscaled first component value to point to (16/4), which is a coordinate located on the left instead of the coordinate (19/4). It may be.
  • the minimum MVR is 1/4 pixel unit
  • the second MVR of the current block is 1 pixel unit
  • the second component value of the predictive motion vector is coordinate (27) based on the coordinate (0,0).
  • the coordinate 27 of the pixel indicated by the second component value may be divided by an integer 4, and the coordinate corresponding to the division result (27 / 4) does not indicate an integer pixel unit.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may adjust the downscaled second component value to indicate an integer pixel unit. For example, each of the coordinates of the peripheral integer pixel located in the second component direction with respect to the coordinate 27/4 becomes (24/4) and (28/4). In this case, the image encoding apparatus 2800 and the image decoding apparatus 2100 adjust the downscaled first component value to point to (28/4), which is a coordinate located above instead of the coordinate (27/4). , Again multiplying an integer 4 (ie, upscale) so that the finally adjusted second component value points to the pixel corresponding to the coordinate 28. According to an embodiment, the image encoding apparatus 2800 and the image decoding apparatus 2100 adjust the downscaled second component value to point to (24/4), which is a coordinate located below instead of the coordinate (27/4). It may be.
  • the image encoding apparatus 2800 and the image decoding apparatus 2100 may be based on Equation 1 or 2 when adjusting each of the first component value and the second component value of the predictive motion vector. .
  • the above-described embodiments of the present disclosure can be written as a program that can be executed in a computer, and the created program can be stored in a medium.
  • the medium may be to continue to store a computer executable program, or to temporarily store for execution or download.
  • the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, not limited to a medium directly connected to any computer system, it may be distributed on the network.
  • Examples of media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And program instructions may be stored including a ROM, a RAM, a flash memory, and the like.
  • examples of other media may include a recording medium or a storage medium managed by an app store that distributes an application, a site that supplies or distributes various software, a server, or the like.

Abstract

현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용된 경우, 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계; 비트스트림에 포함된 정보에 기초하여, 잔차 움직임 벡터에 대해 적응적 부호화가 적용되어 생성된 제 1 결과 값을 결정하는 단계; 결정된 부호화 인자 값을 소정 연산에 따라 제 1 결과 값에 적용하여 잔차 움직임 벡터를 획득하는 단계; 및 획득한 잔차 움직임 벡터와 현재 블록의 예측 움직임 벡터에 기초하여, 현재 블록의 움직임 벡터를 획득하는 단계를 포함하는 것을 특징으로 하는 일 실시예에 따른 움직임 정보의 복호화 방법이 개시된다.

Description

움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법
본 개시는 영상 부호화 및 복호화 분야에 관한 것이다. 보다 구체적으로, 본 개시는 영상의 움직임 정보를 부호화하는 방법 및 장치, 복호화하는 방법 및 장치에 관한 것이다.
영상의 부호화 및 복호화 방법에서는 영상을 부호화하기 위해 하나의 픽처를 블록으로 분할하고, 인터 예측(inter prediction) 또는 인트라 예측(intraprediction)을 통해 각각의 블록을 예측 부호화할 수 있다.
인터 예측은 픽처들 사이의 시간적인 중복성을 제거하여 영상을 압축하는 방법으로 움직임 추정 부호화가 대표적인 예이다. 움직임 추정 부호화는 적어도 하나의 참조 픽처를 이용해 현재 픽처의 블록들을 예측한다. 소정의 평가 함수를 이용하여 현재 블록과 가장 유사한 참조 블록을 소정의 검색 범위에서 검색할 수 있다. 현재 블록을 참조 블록에 기초하여 예측하고, 예측 결과 생성된 예측 블록을 현재 블록으로부터 감산하여 잔차 블록을 생성 및 부호화한다. 이 때, 예측을 보다 정확하게 수행하기 위해 참조 픽처의 검색 범위에 대해 보간을 수행하여 정수 화소 단위(integer pel unit)보다 작은 부화소 단위(sub pel unit)의 픽셀들을 생성하고, 생성된 부화소 단위의 픽셀에 기초해 인터 예측을 수행할 수 있다.
H.264 AVC(Advanced Video Coding) 및 HEVC(High Efficiency Video Coding)와 같은 코덱에서는 현재 블록의 움직임 벡터를 예측하기 위해 현재 블록에 인접한 이전에 부호화된 블록들 또는 이전에 부호화된 픽처에 포함된 블록들의 움직임 벡터를 현재 블록의 예측 움직임 벡터(Prediction Motion Vector)로 이용한다. 현재 블록의 움직임 벡터와 예측 움직임 벡터 사이의 차이인 잔차 움직임 벡터(Differential Motion Vector)는 소정의 방식을 통해 디코더 측으로 시그널링된다.
일 실시예에 따른 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법은 현재 블록의 잔차 움직임 벡터를 낮은 비트레이트로 부호화하는 것을 기술적 과제로 한다.
일 실시예에 따른 움직임 정보의 복호화 방법은, 현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용된 경우, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계; 비트스트림에 포함된 정보에 기초하여, 상기 잔차 움직임 벡터에 대해 상기 적응적 부호화가 적용되어 생성된 제 1 결과 값을 결정하는 단계; 상기 결정된 부호화 인자 값을 소정 연산에 따라 상기 제 1 결과 값에 적용하여 상기 잔차 움직임 벡터를 획득하는 단계; 및 상기 획득한 잔차 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초하여, 상기 현재 블록의 움직임 벡터를 획득하는 단계를 포함할 수 있다.
일 실시예에 따른 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법은 현재 블록의 잔차 움직임 벡터를 낮은 비트레이트로 부호화할 수 있다.
다만, 일 실시예에 따른 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 복호화할 수 있는 영상 복호화 장치의 블록도를 도시한다.
도 2는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 부호화할 수 있는 영상 부호화 장치의 블록도를 도시한다.
도 3은 일 실시예에 따라 현재 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 4는 일 실시예에 따라 비-정사각형의 형태인 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 5는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위가 분할되는 과정을 도시한다.
도 6은 일 실시예에 따라 홀수개의 부호화 단위들 중 소정의 부호화 단위가 결정되는 방법을 도시한다.
도 7은 일 실시예에 따라 현재 부호화 단위가 분할되어 복수개의 부호화 단위들이 결정되는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 8은 일 실시예에 따라 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것으로 결정되는 과정을 도시한다.
도 9는 일 실시예에 따라 제1 부호화 단위가 분할되어 적어도 하나의 부호화 단위가 결정되는 과정을 도시한다.
도 10은 일 실시예에 따라 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우, 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 11은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 정사각형 형태의 부호화 단위가 분할되는 과정을 도시한다
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 14는 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 16은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도 17은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 18은 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
도 19는 일 실시예에 따라 바이너리 코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 또 다른 형태를 도시한다.
도 20은 루프 필터링을 수행하는 영상 부호화 및 복호화 시스템의 블록도를 나타낸 도면이다.
도 21은 일 실시예에 따른 영상 복호화 장치의 블록도이다.
도 22는 인자 값 지시 인덱스에 대응하는 인자 값을 나타내는 표이다.
도 23은 양방향 예측되는 현재 블록과 관련된 움직임 벡터, 예측 움직임 벡터 및 잔차 움직임 벡터를 나타내는 도면이다.
도 24는 현재 블록과 시간적 및 공간적으로 관련된 주변 블록을 나타내는 도면이다.
도 25는 인덱스에 대응하는 움직임 벡터 해상도를 나타내는 표이다.
도 26은 비트스트림으로부터 MVR에 대한 정보를 획득하는 신택스를 나타내는 도면이다.
도 27은 일 실시예에 따른 움직임 정보의 복호화 방법을 나타내는 순서도이다.
도 28은 일 실시예에 따른 영상 부호화 장치의 블록도이다.
도 29는 일 실시예에 따른 움직임 정보의 부호화 방법을 나타내는 순서도이다.
도 30은 1/4 화소 단위의 MVR, 1/2 화소 단위의 MVR, 1 화소 단위의 MVR 및 2 화소 단위의 MVR에 대응하여 움직임 벡터가 가리킬 수 있는 화소들의 위치를 나타내는 도면이다.
도 31 및 도 32는 예측 움직임 벡터 조정 방법에 대해 설명하기 위한 도면이다.
일 실시예에 따른 움직임 정보의 복호화 방법은, 현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용된 경우, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계; 비트스트림에 포함된 정보에 기초하여, 상기 잔차 움직임 벡터에 대해 상기 적응적 부호화가 적용되어 생성된 제 1 결과 값을 결정하는 단계; 상기 결정된 부호화 인자 값을 소정 연산에 따라 상기 제 1 결과 값에 적용하여 상기 잔차 움직임 벡터를 획득하는 단계; 및 상기 획득한 잔차 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초하여, 상기 현재 블록의 움직임 벡터를 획득하는 단계를 포함할 수 있다.
상기 제 1 결과 값을 결정하는 단계는, 상기 비트스트림에 포함된 정보에 기초하여, 상기 잔차 움직임 벡터에 대해 상기 적응적 부호화가 적용되어 생성된 제 2 결과 값을 결정하는 단계를 포함하고, 상기 잔차 움직임 벡터를 획득하는 단계는, 상기 소정 연산에 상기 제 2 결과 값을 더 적용하여 상기 잔차 움직임 벡터를 획득하는 단계를 포함할 수 있다.
상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계는, 상기 비트스트림으로부터 인자 값 지시 정보를 획득하는 단계; 및 상기 획득한 인자 값 지시 정보에 기초하여 상기 부호화 인자 값을 결정하는 단계를 포함할 수 있다.
상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계는, 상기 현재 블록, 이전에 복호화된 블록, 상기 현재 블록을 포함하는 현재 슬라이스, 이전에 복호화된 슬라이스, 상기 현재 블록을 포함하는 현재 픽처 및 이전에 복호화된 픽처 중 적어도 하나와 관련된 정보에 기초하여, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계를 포함할 수 있다.
상기 움직임 정보의 복호화 방법은, 상기 현재 블록의 잔차 움직임 벡터에 적응적 부호화가 적용되지 않은 경우, 상기 비트스트림으로부터 획득한 정보에 기초하여, 상기 현재 블록의 잔차 움직임 벡터를 결정하는 단계를 더 포함할 수 있다.
상기 움직임 정보의 복호화 방법은, 상기 현재 블록의 움직임 벡터의 제 1 성분의 제 1 움직임 벡터 해상도 및 상기 현재 블록의 움직임 벡터의 제 2 성분의 제 2 움직임 벡터 해상도를 결정하는 단계; 및 기 설정된 최소 움직임 벡터 해상도와, 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도의 비교 결과에 기초하여, 상기 예측 움직임 벡터의 제 1 성분 값 및 제 2 성분 값을 조정하는 단계; 및 상기 조정된 예측 움직임 벡터와 상기 잔차 움직임 벡터에 기초하여 상기 현재 블록의 움직임 벡터를 획득하는 단계를 더 포함할 수 있다.
상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계는, 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도에 기초하여 상기 부호화 인자 값을 결정하는 단계를 포함할 수 있다.
상기 예측 움직임 벡터의 제 1 성분 값 및 제 2 성분 값을 조정하는 단계는, 상기 제 1 움직임 벡터 해상도가 상기 최소 움직임 벡터 해상도보다 큰 경우, 상기 예측 움직임 벡터의 제 1 성분 값을 조정하고, 상기 제 2 움직임 벡터 해상도가 상기 최소 움직임 벡터 해상도보다 큰 경우, 상기 예측 움직임 벡터의 제 2 성분 값을 조정하는 단계를 포함할 수 있다.
상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계는, 상기 비트스트림으로부터 획득된 제 1 움직임 벡터 해상도를 나타내는 정보 및 제 2 움직임 벡터 해상도를 나타내는 정보에 기초하여, 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계를 포함할 수 있다.
상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계는, 상기 현재 블록의 너비 및 높이에 기초하여 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계를 포함할 수 있다.
상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계는, 상기 너비가 상기 높이보다 큰 경우, 상기 제 1 움직임 벡터 해상도가 상기 제 2 움직임 벡터 해상도보다 크도록 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계를 포함할 수 있다.
일 실시예에 따른 영상 복호화 장치는, 비트스트림을 획득하는 획득부; 및 현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용된 경우, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하고, 상기 비트스트림에 포함된 정보에 기초하여 상기 잔차 움직임 벡터에 대해 상기 적응적 부호화가 적용되어 생성된 제 1 결과 값을 결정하고, 상기 결정된 부호화 인자 값을 소정 연산에 따라 상기 잔차 움직임 벡터의 제 1 결과 값에 적용하여 상기 잔차 움직임 벡터를 획득하고, 상기 획득한 잔차 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초하여, 상기 현재 블록의 움직임 벡터를 획득하는 예측 복호화부를 포함할 수 있다.
일 실시예에 따른 영상 부호화 방법은, 현재 블록의 움직임 벡터와 예측 움직임 벡터에 기초하여 상기 현재 블록의 잔차 움직임 벡터를 획득하는 단계; 상기 잔차 움직임 벡터에 대해 적응적 부호화가 적용되는 경우, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계; 상기 결정된 부호화 인자 값을 소정 연산에 따라 상기 잔차 움직임 벡터에 적용하여 상기 잔차 움직임 벡터의 제 1 결과 값을 획득하는 단계; 및 상기 잔차 움직임 벡터의 제 1 결과 값에 기초하여 비트스트림을 생성하는 단계를 포함할 수 있다.
상기 움직임 정보의 부호화 방법은, 상기 결정된 부호화 인자 값을 상기 소정 연산에 따라 상기 잔차 움직임 벡터에 적용하여 상기 잔차 움직임 벡터의 제 2 결과 값을 더 획득하는 단계를 포함하고, 상기 비트스트림을 생성하는 단계는, 상기 잔차 움직임 벡터의 제 1 결과 값 및 제 2 결과 값에 기초하여 상기 비트스트림을 생성하는 단계를 포함할 수 있다.
상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계는, 복수의 인자 값 후보 각각을 상기 잔차 움직임 벡터에 적용하는 경우, 상기 잔차 움직임 벡터의 상기 제 1 결과 값, 상기 제 2 결과 값 및 인자 값 후보를 나타내는 인자 값 지시 정보의 전체 비트 개수가 가장 적은 인자 값 후보를 상기 현재 블록의 잔차 움직임 벡터의 부호화 인자 값으로 결정하는 단계를 포함할 수 있다.
본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 개시의 실시 형태에 대해 한정하려는 것이 아니며, 본 개시는 여러 실시예들의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예를 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.
또한, 본 명세서에서, '영상(image)' 또는 '픽처'는 비디오의 정지영상이거나 동영상, 즉 비디오 그 자체를 나타낼 수 있다.
또한, 본 명세서에서 '샘플'은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 화소값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
또한, 본 명세서에서,'현재 블록(Current Block)'은, 부호화 또는 복호화하고자 하는 현재 영상의 최대 부호화 단위, 부호화 단위, 예측 단위 또는 변환 단위의 블록을 의미할 수 있다.
또한, 본 명세서에서, '움직임 벡터 해상도(Motion Vector Resolution, MVR)'는, 참조 영상(또는 보간된 참조 영상)에 포함된 화소들 중, 인터 예측을 통해 결정된 움직임 벡터가 가리킬 수 있는 화소의 위치의 정밀도를 의미할 수 있다. 움직임 벡터 해상도가 N 화소 단위(N은 유리수)를 갖는다는 것은, 움직임 벡터가 N 화소 단위의 정밀도를 가질 수 있다는 것을 의미한다. 일 예로서, 1/4 화소 단위의 움직임 벡터 해상도는 움직임 벡터가 보간된 참조 영상에서 1/4 화소 단위(즉, 부화소 단위)의 화소 위치를 가리킬 수 있다는 것을 의미할 수 있고, 1 화소 단위의 움직임 벡터 해상도는 움직임 벡터가 보간된 참조 영상에서 1 화소 단위(즉, 정수 화소 단위)에 대응하는 화소 위치를 가리킬 수 있다는 것을 의미할 수 있다.
또한 본 명세서에서, '후보 움직임 벡터 해상도(candidate of motion vector resolution)'는 블록의 움직임 벡터 해상도로 선택될 수 있는 하나 이상의 움직임 벡터 해상도를 의미한다.
또한, 본 명세서에서 '화소 단위'는 화소 정밀도, 화소 정확도 등의 용어로 대체되어 설명될 수도 있다.
이하에서는, 도 1 내지 도 20을 참조하여, 일 실시예에 따른 트리 구조의 부호화 단위 및 변환 단위에 기초한 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치가 개시된다. 도 1 내지 도 20을 참조하여 설명할 영상 부호화 장치(200) 및 영상 복호화 장치(100) 각각은 도 21 내지 도 32를 참조하여 설명할 영상 부호화 장치(2800) 및 영상 복호화 장치(2100) 각각을 포함할 수 있다.
도 1은 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 복호화 할 수 있는 영상 복호화 장치(100)의 블록도를 도시한다.
도 1을 참조하면, 영상 복호화 장치(100)는 일 실시예에 따라 비트스트림으로부터 분할 형태 정보, 블록 형태 정보 등과 같은 소정의 정보를 획득하기 위한 비트스트림 획득부(110), 획득한 정보를 이용하여 영상을 복호화 하기 위한 복호화부(120)를 포함할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)의 비트스트림 획득부(110)에서 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득한 경우, 영상 복호화 장치(100)의 복호화부(120)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 분할하는 적어도 하나의 부호화 단위를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 복호화부(120)는 블록 형태 정보에 기초하여 부호화 단위의 형태를 결정할 수 있다. 예를 들면 블록 형태 정보는 부호화 단위가 정사각형인지 또는 비-정사각형인지 여부를 나타내는 정보를 포함할 수 있다. 복호화부(120)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있다.
일 실시예에 따라 복호화부(120)는 분할 형태 정보에 기초하여 부호화 단위가 어떤 형태로 분할될지를 결정할 수 있다. 예를 들면 분할 형태 정보는 부호화 단위에 포함되는 적어도 하나의 부호화 단위의 형태에 대한 정보를 나타낼 수 있다.
일 실시예에 따라 복호화부(120)는 분할 형태 정보에 따라 부호화 단위가 분할되는지 분할되지 않는지 여부를 결정할 수 있다. 분할 형태 정보는 부호화 단위에 포함되는 적어도 하나의 부호화 단위에 대한 정보를 포함할 수 있으며, 만일 분할 형태 정보가 부호화 단위에 하나의 부호화 단위만이 포함되는 것을 나타내거나 또는 분할되지 않음을 나타내는 경우, 복호화부(120)는 분할 형태 정보를 포함하는 부호화 단위가 분할되지 않는 것으로 결정할 수 있다. 분할 형태 정보가, 부호화 단위가 복수개의 부호화 단위로 분할됨을 나타내는 경우 복호화부(120)는 분할 형태 정보에 기초하여 부호화 단위에 포함되는 복수개의 부호화 단위로 분할할 수 있다.
일 실시예에 따라 분할 형태 정보는 부호화 단위를 몇 개의 부호화 단위로 분할할 지를 나타내거나 어느 방향으로 분할할지를 나타낼 수 있다. 예를 들면 분할 형태 정보는 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하는 것을 나타내거나 또는 분할하지 않는 것을 나타낼 수 있다.
도 3은 일 실시예에 따라 영상 복호화 장치(100)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
블록 형태는 4Nx4N,4Nx2N, 2Nx4N, 4NxN 또는 Nx4N을 포함할 수 있다. 여기서 N은 양의 정수일 수 있다. 블록 형태 정보는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 나타내는 정보이다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우(4Nx4N), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 정사각형으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 너비 및 높이의 길이가 다른 경우(4Nx2N, 2Nx4N, 4NxN 또는 Nx4N), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 비-정사각형으로 결정할 수 있다. 부호화 단위의 모양이 비-정사각형인 경우, 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보 중 너비 및 높이의 비율을 1:2, 2:1, 1:4, 4:1, 1:8 또는 8:1 중 적어도 하나로 결정할 수 있다. 또한, 부호화 단위의 너비의 길이 및 높이의 길이에 기초하여, 영상 복호화 장치(100)는 부호화 단위가 수평 방향인지 수직 방향인지 결정할 수 있다. 또한, 부호화 단위의 너비의 길이, 높이의 길이, 넓이 중 적어도 하나에 기초하여, 영상 복호화 장치(100)는 부호화 단위의 크기를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 모드에 대한 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(100)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 모드에 대한 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드에 대한 정보를 획득할 수 있다. 하지만 이에 한정되는 것은 아니며, 영상 복호화 장치(100) 및 영상 부호화 장치(200)는 블록 형태 정보에 기초하여 미리 약속된 분할 형태 모드에 대한 정보를 획득할 수 있다. 영상 복호화 장치(100)는 최대 부호화 단위 또는 최소 부호화 단위에 대하여 미리 약속된 분할 형태 모드에 대한 정보를 획득할 수 있다. 예를 들어 영상 복호화 장치(100)는 최대 부호화 단위의 크기를 256x256으로 결정할 수 있다. 영상 복호화 장치(100)는 미리 약속된 분할 형태 모드에 대한 정보를 쿼드 분할(quad split)로 결정할 수 있다. 쿼드 분할은 부호화 단위의 너비 및 높이를 모두 이등분하는 분할 형태 모드이다. 영상 복호화 장치(100)는 분할 형태 모드에 대한 정보에 기초하여 256x256 크기의 최대 부호화 단위로부터 128x128 크기의 부호화 단위를 획득할 수 있다. 또한 영상 복호화 장치(100)는 최소 부호화 단위의 크기를 4x4로 결정할 수 있다. 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 "분할하지 않음"을 나타내는 분할 형태 모드에 대한 정보를 획득할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(100)는 분할 형태 모드에 대한 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(300)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(120)는 분할되지 않음을 나타내는 분할 형태 모드에 대한 정보에 따라 현재 부호화 단위(300)와 동일한 크기를 가지는 부호화 단위(310a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 모드에 대한 정보에 기초하여 분할된 부호화 단위(310b, 310c, 310d 등)를 결정할 수 있다.
도 3을 참조하면 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 모드에 대한 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 두 개의 부호화 단위(310b)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 분할됨을 나타내는 분할 형태 모드에 대한 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 두 개의 부호화 단위(310c)를 결정할 수 있다. 영상 복호화 장치(100)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 모드에 대한 정보에 기초하여 현재 부호화 단위(300)를 수직방향 및 수평방향으로 분할한 네 개의 부호화 단위(310d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 모드에 대한 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 4는 일 실시예에 따라 영상 복호화 장치(100)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(100)는 분할 형태 모드에 대한 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 4를 참조하면, 현재 부호화 단위(400 또는 450)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(100)는 분할되지 않음을 나타내는 분할 형태 모드에 대한 정보에 따라 현재 부호화 단위(400 또는 450)와 동일한 크기를 가지는 부호화 단위(410 또는 460)를 결정하거나, 소정의 분할방법을 나타내는 분할 형태 모드에 대한 정보에 따라 기초하여 분할된 부호화 단위(420a, 420b, 430a, 430b, 430c, 470a, 470b, 480a, 480b, 480c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드에 대한 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 모드에 대한 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 4를 참조하면 분할 형태 모드에 대한 정보가 두 개의 부호화 단위로 현재 부호화 단위(400 또는 450)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 분할 형태 모드에 대한 정보에 기초하여 현재 부호화 단위(400 또는 450)를 분할하여 현재 부호화 단위에 포함되는 두 개의 부호화 단위(420a, 420b, 또는 470a, 470b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)가 분할 형태 모드에 대한 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(400 또는 450)를 분할하는 경우, 영상 복호화 장치(100)는 비-정사각형의 현재 부호화 단위(400 또는 450)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 형태를 고려하여 현재 부호화 단위(400 또는 450)의 긴 변을 분할하는 방향으로 현재 부호화 단위(400 또는 450)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 모드에 대한 정보가 홀수개의 블록으로 부호화 단위를 분할(트라이 분할; tri split)하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 모드에 대한 정보가 3개의 부호화 단위로 현재 부호화 단위(400 또는 450)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)를 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)로 분할할 수 있다.
일 실시예에 따라, 현재 부호화 단위(400 또는 450)의 너비 및 높이의 비율이 4:1 또는 1:4 일 수 있다. 너비 및 높이의 비율이 4:1 인 경우, 너비의 길이가 높이의 길이보다 길므로 블록 형태 정보는 수평 방향일 수 있다. 너비 및 높이의 비율이 1:4 인 경우, 너비의 길이가 높이의 길이보다 짧으므로 블록 형태 정보는 수직 방향일 수 있다. 영상 복호화 장치(100)는 분할 형태 모드에 대한 정보에 기초하여 현재 부호화 단위를 홀수개의 블록으로 분할할 것을 결정할 수 있다. 또한 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 블록 형태 정보에 기초하여 현재 부호화 단위(400 또는 450)의 분할 방향을 결정할 수 있다. 예를 들어 현재 부호화 단위(400)가 수직 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400)를 수평 방향으로 분할 하여 부호화 단위(430a, 430b, 430c)를 결정할 수 있다. 또한 현재 부호화 단위(450)가 수평 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(450)를 수직 방향으로 분할하여 부호화 단위(480a, 480b, 480c)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c) 중 소정의 부호화 단위(430b 또는 480b)의 크기는 다른 부호화 단위(430a, 430c, 480a, 480c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(400 또는 450)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)가 각각 서로 다른 크기를 가질 수도 있다.
일 실시예에 따라 분할 형태 모드에 대한 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(100)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 4을 참조하면 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)가 분할되어 생성된 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)들 중 중앙에 위치하는 부호화 단위(430b, 480b)에 대한 복호화 과정을 다른 부호화 단위(430a, 430c, 480a, 480c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(100)는 중앙에 위치하는 부호화 단위(430b, 480b)에 대하여는 다른 부호화 단위(430a, 430c, 480a, 480c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 5는 일 실시예에 따라 영상 복호화 장치(100)가 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(500)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 모드에 대한 정보가 수평 방향으로 제1 부호화 단위(500)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(500)를 수평 방향으로 분할하여 제2 부호화 단위(510)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 결정된 제2 부호화 단위(510)를 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 5를 참조하면 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(510)를 적어도 하나의 제3 부호화 단위(520a, 520b, 520c, 520d 등)로 분할하거나 제2 부호화 단위(510)를 분할하지 않을 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 획득할 수 있고 영상 복호화 장치(100)는 획득한 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 510)를 분할할 수 있으며, 제2 부호화 단위(510)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제1 부호화 단위(500)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(500)가 제1 부호화 단위(500)에 대한 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제2 부호화 단위(510)로 분할된 경우, 제2 부호화 단위(510) 역시 제2 부호화 단위(510)에 대한 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 520a, 520b, 520c, 520d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 모드에 대한 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다.
도 5를 참조하면, 비-정사각형 형태의 제2 부호화 단위(510)가 분할되어 결정되는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 비-정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 하나인 비-정사각형 형태의 제3 부호화 단위(520b)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위(530a, 530b, 530c, 530d) 중 하나인 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 홀수개의 부호화 단위로 다시 분할될 수도 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제3 부호화 단위(520a, 520b, 520c, 520d 등) 각각을 부호화 단위들로 분할할 수 있다. 또한 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제2 부호화 단위(510)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(510)를 홀수개의 제3 부호화 단위(520b, 520c, 520d)로 분할할 수 있다. 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 가운데에 위치하는 부호화 단위(520c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다.
도 5를 참조하면, 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(510)에 포함되는 홀수개의 제3 부호화 단위(520b, 520c, 520d)들 중 가운데에 위치하는 부호화 단위(520c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(510)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(520c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(520c)가 다른 부호화 단위(520b, 520d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하기 위해 이용되는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 6은 일 실시예에 따라 영상 복호화 장치(100)가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 6을 참조하면, 현재 부호화 단위(600, 650)의 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나는 현재 부호화 단위(600, 650)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(640, 690))에서 획득될 수 있다. 다만 이러한 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(600) 내의 소정 위치가 도 6에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(600)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(100)는 소정 위치로부터 획득되는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600) 또는 현재 부호화 단위(650)를 분할하여 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)을 결정할 수 있다. 영상 복호화 장치(100)는 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(620b) 또는 가운데 부호화 단위(660b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 현재 부호화 단위(600)에 포함되는 부호화 단위들(620a, 620b, 620c)의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접 이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(630b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(620b)를 현재 부호화 단위(600)가 분할되어 결정된 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 기준으로, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있고, 부호화 단위들(620a, 620b, 620c) 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c) 중 크기가 다른 부호화 단위(620b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 크기를 결정할 수 있다. 일 실시예에 따라, 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(620a) 및 가운데 부호화 단위(620b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(620a, 620b, 620c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 상단 부호화 단위(620a) 및 하단 부호화 단위(620c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(620b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 좌측 상단의 샘플(670a)의 위치를 나타내는 정보인 (xd, yd) 좌표, 가운데 부호화 단위(660b)의 좌측 상단의 샘플(670b)의 위치를 나타내는 정보인 (xe, ye) 좌표, 우측 부호화 단위(660c)의 좌측 상단의 샘플(670c)의 위치를 나타내는 정보인 (xf, yf) 좌표를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(660a, 660b, 660c)의 위치를 나타내는 좌표인 (xd, yd), (xe, ye), (xf, yf)를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 너비를 xe-xd로 결정할 수 있다. 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 높이를 현재 부호화 단위(650)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 너비를 xf-xe로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 높이를 현재 부호화 단위(600)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 우측 부호화 단위(660c)의 너비 또는 높이는 현재 부호화 단위(650)의 너비 또는 높이와 좌측 부호화 단위(660a) 및 가운데 부호화 단위(660b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(660a, 660b, 660c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 좌측 부호화 단위(660a) 및 우측 부호화 단위(660c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(660b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위를 분할(바이 분할; binarysplit)하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 6에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(100)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 이용할 수 있다.
도 6을 참조하면 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있으며, 복수개의 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 즉, 현재 부호화 단위(600)의 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나는 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)에서 획득될 수 있으며, 상기 블록 형태 정보 및 상기 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 현재 부호화 단위(600)가 복수개의 부호화 단위들(620a, 620b, 620c)로 분할된 경우 상기 샘플(640)을 포함하는 부호화 단위(620b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정된 복수개의 부호화 단위들(620a, 620b, 620c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(600) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(600)의 가운데에 위치하는 샘플)에서 획득되는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 이용할 수 있다. 즉, 영상 복호화 장치(100)는 현재 부호화 단위(600)의 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정되는 복수개의 부호화 단위들(620a, 620b, 620c) 중, 소정의 정보(예를 들면, 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나)가 획득될 수 있는 샘플이 포함된 부호화 단위(620b)를 결정하여 소정의 제한을 둘 수 있다. 도 6을 참조하면 일 실시예에 따라 영상 복호화 장치(100)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)을 결정할 수 있고, 영상 복호화 장치(100)는 이러한 샘플(640)이 포함되는 부호화 단위(620b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(620b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(600)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 모드에 대한 정보 및 블록 형태 정보 중 적어도 하나를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 5를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 7는 일 실시예에 따라 영상 복호화 장치(100)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보에 따라 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정하거나 제1 부호화 단위(700)를 수평 방향으로 분할하여 제2 부호화 단위(730a, 730b)를 결정하거나 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(750a, 750b, 750c, 750d)를 결정할 수 있다.
도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(710a, 710b)를 수평 방향(710c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(730a, 730b)의 처리 순서를 수직 방향(730c)으로 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(750a, 750b, 750c, 750d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(750e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 분할하여 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 분할하는 방법은 제1 부호화 단위(700)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 7를 참조하면 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정할 수 있고, 나아가 제2 부호화 단위(710a, 710b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)를 수평 방향으로 분할하여 제3 부호화 단위(720a, 720b)로 분할할 수 있고, 우측의 제2 부호화 단위(710b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)가 분할되어 결정된 제3 부호화 단위(720a, 720b)가 처리되는 순서를 우측의 제2 부호화 단위(710b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(710a)가 수평 방향으로 분할되어 제3 부호화 단위(720a, 720b)가 결정되었으므로 제3 부호화 단위(720a, 720b)는 수직 방향(720c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(710a) 및 우측의 제2 부호화 단위(710b)가 처리되는 순서는 수평 방향(710c)에 해당하므로, 좌측의 제2 부호화 단위(710a)에 포함되는 제3 부호화 단위(720a, 720b)가 수직 방향(720c)으로 처리된 후에 우측 부호화 단위(710b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 8는 일 실시예에 따라 영상 복호화 장치(100)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 획득된 블록 형태 정보 및 분할 형태 모드에 대한 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 8를 참조하면 정사각형 형태의 제1 부호화 단위(800)가 비-정사각형 형태의 제2 부호화 단위(810a, 810b)로 분할될 수 있고, 제2 부호화 단위(810a, 810b)는 각각 독립적으로 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제2 부호화 단위 중 좌측 부호화 단위(810a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(820a, 820b)를 결정할 수 있고, 우측 부호화 단위(810b)는 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제3 부호화 단위들(820a, 820b, 820c, 820d, 820e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 8를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(800)를 재귀적으로 분할하여 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)를 결정할 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(800), 제2 부호화 단위(810a, 810b) 또는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(810a, 810b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할될 수 있다. 제1 부호화 단위(800)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(830))가 될 수 있고, 영상 복호화 장치(100)는 우측 제2 부호화 단위(810b)가 홀수개로 분할되어 결정된 제3 부호화 단위(820c, 820d, 820e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(800)에 포함되는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)의 경계에 따라 제2 부호화 단위(810a, 810b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(810a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(820a, 820b)는 조건을 만족할 수 있다. 우측 제2 부호화 단위(810b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(820c, 820d, 820e)들의 경계가 우측 제2 부호화 단위(810b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(820c, 820d, 820e)는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(810b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 9은 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(900)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림 획득부(110)를 통해 획득한 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제1 부호화 단위(900)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(900)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 9을 참조하면, 블록 형태 정보가 제1 부호화 단위(900)는 정사각형임을 나타내고 분할 형태 모드에 대한 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(900)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 모드에 대한 정보가 제1 부호화 단위(900)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900)를 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(910a, 910b, 910c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(920a, 920b, 920c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(900)에 포함되는 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)의 경계에 따라 제1 부호화 단위(900)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 9를 참조하면 정사각형 형태의 제1 부호화 단위(900)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(910a, 910b, 910c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(900)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(920a, 920b, 920c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(900)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(100)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 9을 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900), 비-정사각형 형태의 제1 부호화 단위(930 또는 950)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 10은 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림 획득부(110)를 통해 획득한 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(100)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각에 관련된 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할하여 제3 부호화 단위(1012a, 1012b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1010b)는 좌측 제2 부호화 단위(1010a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1010b)가 동일한 방향으로 분할되어 제3 부호화 단위(1014a, 1014b)가 결정된 경우, 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1012a, 1012b, 1014a, 1014b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(100)가 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1020a 또는 1020b)를 수직 방향으로 분할하여 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1020a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1020b))는 상단 제2 부호화 단위(1020a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 11은 일 실시예에 따라 분할 형태 모드에 대한 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(100)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다. 분할 형태 모드에 대한 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 모드에 대한 정보에 따르면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1100)를 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할하지 못한다. 분할 형태 모드에 대한 정보에 기초하여 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1100)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1112a, 1112b)를 결정할 수 있고, 우측 제2 부호화 단위(1110b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1114a, 1114b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a) 및 우측 제2 부호화 단위(1110b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b)를 결정할 수 있고, 하단 제2 부호화 단위(1120b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1124a, 1124b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a) 및 하단 제2 부호화 단위(1120b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1126a, 1126b, 1126a, 1126b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보에 기초하여 제1 부호화 단위(1200)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 모드에 대한 정보가 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 각각에 대한 블록 형태 정보 및 분할 형태 모드에 대한 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 이러한 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)의 분할 과정은 도 11과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 7와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 12를 참조하면 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1200)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 분할되는 형태에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1210a)에 포함되는 제3 부호화 단위(1216a, 1216c)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1210b)에 포함되는 제3 부호화 단위(1216b, 1216d)를 수직 방향으로 처리하는 순서(1217)에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있고, 영상 복호화 장치(100)는 상단 제2 부호화 단위(1220a)에 포함되는 제3 부호화 단위(1226a, 1226b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1220b)에 포함되는 제3 부호화 단위(1226c, 1226d)를 수평 방향으로 처리하는 순서(1227)에 따라 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 처리할 수 있다.
도 12를 참조하면, 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1210a, 1210b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1220a, 1220b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1200)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 1/2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 13을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(100)는 정사각형 형태인 제1 부호화 단위(1300)를 분할하여 하위 심도의 제2 부호화 단위(1302), 제3 부호화 단위(1304) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1300)의 너비 및 높이를 1/2배로 분할하여 결정된 제2 부호화 단위(1302)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1302)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1304)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1304)의 너비 및 높이는 제1 부호화 단위(1300)의 1/4배에 해당한다. 제1 부호화 단위(1300)의 심도가 D인 경우 제1 부호화 단위(1300)의 너비 및 높이의 1/2배인 제2 부호화 단위(1302)의 심도는 D+1일 수 있고, 제1 부호화 단위(1300)의 너비 및 높이의 1/4배인 제3 부호화 단위(1304)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(100)는 비-정사각형 형태인 제1 부호화 단위(1310 또는 1320)를 분할하여 하위 심도의 제2 부호화 단위(1312 또는 1322), 제3 부호화 단위(1314 또는 1324) 등을 결정할 수 있다.
영상 복호화 장치(100)는 Nx2N 크기의 제1 부호화 단위(1310)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1310)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 2NxN 크기의 제1 부호화 단위(1320)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1320)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN 크기의 제2 부호화 단위(1302)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1302)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304)를 결정하거나 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 N/2xN 크기의 제2 부호화 단위(1312)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1312)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN/2 크기의 제2 부호화 단위(1322)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1322)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/4크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 부호화 단위(예를 들면, 1300, 1302, 1304)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1310)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1320)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1300)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1300)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1314 또는 1324)의 너비 및 높이는 제1 부호화 단위(1310 또는 1320)의 1/4배에 해당할 수 있다. 제1 부호화 단위(1310 또는 1320)의 심도가 D인 경우 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제2 부호화 단위(1312 또는 1322)의 심도는 D+1일 수 있고, 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/4배인 제3 부호화 단위(1314 또는 1324)의 심도는 D+2일 수 있다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1400)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 14를 참조하면, 영상 복호화 장치(100)는 분할 형태 모드에 대한 정보에 따라 제1 부호화 단위(1400)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1400)에 대한 분할 형태 모드에 대한 정보에 기초하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1400)에 대한 분할 형태 모드에 대한 정보에 따라 결정되는 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1400)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1400)와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(100)가 분할 형태 모드에 대한 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 한 변의 길이는 제1 부호화 단위(1400)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 심도는 제1 부호화 단위(1400)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1410)를 분할 형태 모드에 대한 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1420)를 분할 형태 모드에 대한 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1422a, 1422b, 1424a, 1424b, 1424c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1410 또는 1420)에 대한 분할 형태 모드에 대한 정보에 따라 결정되는 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c. 1422a, 1422b, 1424a, 1424b, 1424c)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1410)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1410)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(100)가 분할 형태 모드에 대한 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1410)를 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)는 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c) 및 정사각형 형태의 제2 부호화 단위(1414b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1414b)의 한 변의 길이는 제1 부호화 단위(1410)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1414a, 1414b, 1414c)의 심도는 제1 부호화 단위(1410)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(1410)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1420)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 홀수개로 분할된 부호화 단위들(1414a, 1414b, 1414c) 중 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 복호화 장치(100)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 복호화 장치(100)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)에 대한 분할 형태 모드에 대한 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(1410)를 3개의 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 영상 복호화 장치(100)는 3개의 부호화 단위(1414a, 1414b, 1414c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(100)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(100)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1414b)를, 제1 부호화 단위(1410)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 제1 부호화 단위(1410)가 분할되어 생성된 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가 폭이 달라지는 경우, 영상 복호화 장치(100)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 모드에 대한 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(100)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 형태 모드에 대한 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(100)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 모드에 대한 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 15를 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 기준 부호화 단위(1500)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1502)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(110)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1502)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 비트스트림 획득부(110)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(100)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(100)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(100)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 모드에 대한 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 16은 일 실시예에 따라 픽쳐(1600)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 비트스트림 획득부(110)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 비트스트림 획득부(110)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16을 참조하면, 영상 복호화 장치(100)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(100)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 프로세싱 블록의 크기에 기초하여 픽쳐(1600)에 포함되는 각각의 프로세싱 블록(1602, 1612)을 결정할 수 있고, 프로세싱 블록(1602, 1612)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(110)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 비트스트림 획득부(110)는 비트스트림으로부터 프로세싱 블록(1602, 1612)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(100)는 상기 프로세싱 블록(1602, 1612)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(1600)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 16을 참조하면, 영상 복호화 장치(100)는 각각의 프로세싱 블록(1602, 1612)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1604, 1614)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1602, 1612)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1602)과 관련된 기준 부호화 단위 결정 순서(1604)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1602)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1612)과 관련된 기준 부호화 단위 결정 순서(1614)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1612)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 영상 복호화 장치(100)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 모드에 대한 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 블록 형태 정보 또는 분할 형태 모드에 대한 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 모드에 대한 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(100)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 모드에 대한 정보에 대응하는 신택스 엘리먼트를 비트스트림으로부터 획득하여 이용할 수 있다.
도 17은 일 실시예에 따라 부호화 단위가 분할될 수 있는 형태의 조합이 픽쳐마다 서로 다른 경우, 각각의 픽쳐마다 결정될 수 있는 부호화 단위들을 도시한다.
도 17을 참조하면, 영상 복호화 장치(100)는 픽쳐마다 부호화 단위가 분할될 수 있는 분할 형태들의 조합을 다르게 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 영상에 포함되는 적어도 하나의 픽쳐들 중 4개의 부호화 단위로 분할될 수 있는 픽쳐(1700), 2개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1710) 및 2개, 3개 또는 4개의 부호화 단위로 분할될 수 있는 픽쳐(1720)를 이용하여 영상을 복호화 할 수 있다. 영상 복호화 장치(100)는 픽쳐(1700)를 복수개의 부호화 단위로 분할하기 위하여, 4개의 정사각형의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 영상 복호화 장치(100)는 픽쳐(1710)를 분할하기 위하여, 2개 또는 4개의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 영상 복호화 장치(100)는 픽쳐(1720)를 분할하기 위하여, 2개, 3개 또는 4개의 부호화 단위로 분할됨을 나타내는 분할 형태 정보만을 이용할 수 있다. 상술한 분할 형태의 조합은 영상 복호화 장치(100)의 동작을 설명하기 위한 실시예에 불과하므로 상술한 분할 형태의 조합은 상기 실시예에 한정하여 해석되어서는 안되며 소정의 데이터 단위마다 다양한 형태의 분할 형태의 조합이 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)의 비트스트림 획득부(110)는 분할 형태 정보의 조합을 나타내는 인덱스를 포함하는 비트스트림을 소정의 데이터 단위 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스 등)마다 획득할 수 있다. 예를 들면, 비트스트림 획득부(110)는 시퀀스 파라미터 세트(Sequence Parameter Set), 픽쳐 파라미터 세트(Picture Parameter Set) 또는 슬라이스 헤더(Slice Header)에서 분할 형태 정보의 조합을 나타내는 인덱스를 획득할 수 있다. 영상 복호화 장치(100)의 영상 복호화 장치(100)는 획득한 인덱스를 이용하여 소정의 데이터 단위마다 부호화 단위가 분할될 수 있는 분할 형태의 조합을 결정할 수 있으며, 이에 따라 소정의 데이터 단위마다 서로 다른 분할 형태의 조합을 이용할 수 있다.
도 18은 일 실시예에 따라 바이너리(binary)코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 다양한 형태를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림 획득부(110)를 통해 획득한 블록 형태 정보 및 분할 형태 정보를 이용하여 부호화 단위를 다양한 형태로 분할할 수 있다. 분할될 수 있는 부호화 단위의 형태는 상술한 실시예들을 통해 설명한 형태들을 포함하는 다양한 형태에 해당할 수 있다.
도 18을 참조하면, 영상 복호화 장치(100)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)가 정사각형 형태의 부호화 단위를 수평 방향 및 수직 방향으로 분할하여 4개의 정사각형의 부호화 단위로 분할할 수 있는 경우, 정사각형의 부호화 단위에 대한 분할 형태 정보가 나타낼 수 있는 분할 형태는 4가지일 수 있다. 일 실시예에 따라 분할 형태 정보는 2자리의 바이너리 코드로써 표현될 수 있으며, 각각의 분할 형태마다 바이너리 코드가 할당될 수 있다. 예를 들면 부호화 단위가 분할되지 않는 경우 분할 형태 정보는 (00)b로 표현될 수 있고, 부호화 단위가 수평 방향 및 수직 방향으로 분할되는 경우 분할 형태 정보는 (01)b로 표현될 수 있고, 부호화 단위가 수평 방향으로 분할되는 경우 분할 형태 정보는 (10)b로 표현될 수 있고 부호화 단위가 수직 방향으로 분할되는 경우 분할 형태 정보는 (11)b로 표현될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할하는 경우 분할 형태 정보가 나타낼 수 있는 분할 형태의 종류는 몇 개의 부호화 단위로 분할하는지에 따라 결정될 수 있다. 도 18을 참조하면, 영상 복호화 장치(100)는 일 실시예에 따라 비-정사각형 형태의 부호화 단위를 3개까지 분할할 수 있다. 영상 복호화 장치(100)는 부호화 단위를 두 개의 부호화 단위로 분할할 수 있으며, 이 경우 분할 형태 정보는 (10)b로 표현될 수 있다. 영상 복호화 장치(100)는 부호화 단위를 세 개의 부호화 단위로 분할할 수 있으며, 이 경우 분할 형태 정보는 (11)b로 표현될 수 있다. 영상 복호화 장치(100)는 부호화 단위를 분할하지 않는 것으로 결정할 수 있으며, 이 경우 분할 형태 정보는 (0)b로 표현될 수 있다. 즉, 영상 복호화 장치(100)는 분할 형태 정보를 나타내는 바이너리 코드를 이용하기 위하여 고정길이 코딩(FLC: Fixed Length Coding)이 아니라 가변길이 코딩(VLC: Varaible Length Coding)을 이용할 수 있다.
일 실시예에 따라 도 18을 참조하면, 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보의 바이너리 코드는 (0)b로 표현될 수 있다. 만일 부호화 단위가 분할되지 않음을 나타내는 분할 형태 정보의 바이너리 코드가 (00)b로 설정된 경우라면, (01)b로 설정된 분할 형태 정보가 없음에도 불구하고 2비트의 분할 형태 정보의 바이너리 코드를 모두 이용하여야 한다. 하지만 도 18에서 도시하는 바와 같이, 비-정사각형 형태의 부호화 단위에 대한 3가지의 분할 형태를 이용하는 경우라면, 영상 복호화 장치(100)는 분할 형태 정보로서 1비트의 바이너리 코드(0)b를 이용하더라도 부호화 단위가 분할되지 않는 것을 결정할 수 있으므로, 비트스트림을 효율적으로 이용할 수 있다. 다만 분할 형태 정보가 나타내는 비-정사각형 형태의 부호화 단위의 분할 형태는 단지 도 18에서 도시하는 3가지 형태만으로 국한되어 해석되어서는 안되고, 상술한 실시예들을 포함하는 다양한 형태로 해석되어야 한다.
도 19는 일 실시예에 따라 바이너리 코드로 표현될 수 있는 분할 형태 정보에 기초하여 결정될 수 있는 부호화 단위의 또 다른 형태를 도시한다.
도 19를 참조하면 영상 복호화 장치(100)는 분할 형태 정보에 기초하여 정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있고, 비-정사각형 형태의 부호화 단위를 수평 방향 또는 수직 방향으로 분할할 수 있다. 즉, 분할 형태 정보는 정사각형 형태의 부호화 단위를 한쪽 방향으로 분할되는 것을 나타낼 수 있다. 이러한 경우 정사각형 형태의 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보의 바이너리 코드는 (0)b로 표현될 수 있다. 만일 부호화 단위가 분할되지 않음을 나타내는 분할 형태 정보의 바이너리 코드가 (00)b로 설정된 경우라면, (01)b로 설정된 분할 형태 정보가 없음에도 불구하고 2비트의 분할 형태 정보의 바이너리 코드를 모두 이용하여야 한다. 하지만 도 19에서 도시하는 바와 같이, 정사각형 형태의 부호화 단위에 대한 3가지의 분할 형태를 이용하는 경우라면, 영상 복호화 장치(100)는 분할 형태 정보로서 1비트의 바이너리 코드(0)b를 이용하더라도 부호화 단위가 분할되지 않는 것을 결정할 수 있으므로, 비트스트림을 효율적으로 이용할 수 있다. 다만 분할 형태 정보가 나타내는 정사각형 형태의 부호화 단위의 분할 형태는 단지 도 19에서 도시하는 3가지 형태만으로 국한되어 해석되어서는 안되고, 상술한 실시예들을 포함하는 다양한 형태로 해석되어야 한다.
일 실시예에 따라 블록 형태 정보 또는 분할 형태 정보는 바이너리 코드를 이용하여 표현될 수 있고, 이러한 정보가 곧바로 비트스트림으로 생성될 수 있다. 또한 바이너리 코드로 표현될 수 있는 블록 형태 정보 또는 분할 형태 정보는 바로 비트스트림으로 생성되지 않고 CABAC(context adaptive binary arithmetic coding)에서 입력되는 바이너리 코드로서 이용될 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 CABAC을 통해 블록 형태 정보 또는 분할 형태 정보에 대한 신택스를 획득하는 과정을 설명한다. 비트스트림 획득부(110)를 통해 상기 신택스에 대한 바이너리 코드를 포함하는 비트스트림을 획득할 수 있다. 영상 복호화 장치(100)는 획득한 비트스트림에 포함되는 빈 스트링(bin string)을 역 이진화하여 블록 형태 정보 또는 분할 형태 정보를 나타내는 신택스 요소(syntax element)를 검출할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 복호화할 신택스 요소에 해당하는 바이너리 빈 스트링의 집합을 구하고, 확률 정보를 이용하여 각각의 빈을 복호화할 수 있고, 영상 복호화 장치(100)는 이러한 복호화된 빈으로 구성되는 빈 스트링이 이전에 구한 빈 스트링들 중 하나와 같아질 때까지 반복할수 있다. 영상 복호화 장치(100)는 빈 스트링의 역 이진화를 수행하여 신택스 요소를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 적응적 이진 산술 코딩(adaptive binary arithmetic coding)의 복호화 과정을 수행하여 빈 스트링에 대한 신택스를 결정할 수 있고, 영상 복호화 장치(100)는 비트스트림 획득부(110)를 통해 획득한 빈들에 대한 확률 모델을 갱신할 수 있다. 도 18을 참조하면, 영상 복호화 장치(100)의 비트스트림 획득부(110)는 일 실시예에 따라 분할 형태 정보를 나타내는 바이너리 코드를 나타내는 비트스트림을 획득할 수 있다. 획득한 1비트 또는 2비트의 크기를 가지는 바이너리 코드를 이용하여 영상 복호화 장치(100)는 분할 형태 정보에 대한 신택스를 결정할 수 있다. 영상 복호화 장치(100)는 분할 형태 정보에 대한 신택스를 결정하기 위하여, 2비트의 바이너리 코드 중 각각의 비트에 대한 확률을 갱신할 수 있다. 즉, 영상 복호화 장치(100)는 2비트의 바이너리 코드 중 첫번째 빈의 값이 0 또는 1 중 어떤 값이냐에 따라, 다음 빈을 복호화 할 때 0 또는 1의 값을 가질 확률을 갱신할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 신택스를 결정하는 과정에서, 신택스에 대한 빈 스트링의 빈들을 복호화 하는 과정에서 이용되는 빈들에 대한 확률을 갱신할 수 있으며, 영상 복호화 장치(100)는 상기 빈 스트링 중 특정 비트에서는 확률을 갱신하지 않고 동일한 확률을 가지는 것으로 결정할 수 있다.
도 18을 참조하면, 비-정사각형 형태의 부호화 단위에 대한 분할 형태 정보를 나타내는 빈 스트링을 이용하여 신택스를 결정하는 과정에서, 영상 복호화 장치(100)는 비-정사각형 형태의 부호화 단위를 분할하지 않는 경우에는 0의 값을 가지는 하나의 빈을 이용하여 분할 형태 정보에 대한 신택스를 결정할 수 있다. 즉, 블록 형태 정보가 현재 부호화 단위는 비-정사각형 형태임을 나타내는 경우, 분할 형태 정보에 대한 빈 스트링의 첫번째 빈은, 비-정사각형 형태의 부호화 단위가 분할되지 않는 경우 0이고, 2개 또는 3개의 부호화 단위로 분할되는 경우 1일 수 있다. 이에 따라 비-정사각형의 부호화 단위에 대한 분할 형태 정보의 빈 스트링의 첫번째 빈이 0일 확률은 1/3, 1일 확률은 2/3일 수 있다. 상술하였듯이 영상 복호화 장치(100)는 비-정사각형 형태의 부호화 단위가 분할되지 않는 것을 나타내는 분할 형태 정보는 0의 값을 가지는 1비트의 빈 스트링만을 표현될 수 있으므로, 영상 복호화 장치(100)는 분할 형태 정보의 첫번째 빈이 1인 경우에만 두번째 빈이 0인지 1인지 판단하여 분할 형태 정보에 대한 신택스를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 정보에 대한 첫번째 빈이 1인 경우, 두번째 빈이 0 또는 1일 확률은 서로 동일한 확률인 것으로 보고 빈을 복호화할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 정보에 대한 빈 스트링의 빈을 결정하는 과정에서 각각의 빈에 대한 다양한 확률을 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 블록의 방향에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 넓이 또는 긴 변의 길이에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태 및 긴 변의 길이 중 적어도 하나에 따라 분할 형태 정보에 대한 빈의 확률을 다르게 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 소정 크기 이상의 부호화 단위들에 대하여는 분할 형태 정보에 대한 빈의 확률을 동일한 것으로 결정할 수 있다. 예를 들면, 부호화 단위의 긴 변의 길이를 기준으로 64샘플 이상의 크기의 부호화 단위들에 대하여는 분할 형태 정보에 대한 빈의 확률이 동일한 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 정보의 빈 스트링을 구성하는 빈들에 대한 초기 확률은 슬라이스 타입(예를 들면, I 슬라이스, P 슬라이스 또는 B 슬라이스…)에 기초하여 결정될 수 있다.
도 20는 루프 필터링을 수행하는 영상 부호화 및 복호화 시스템의 블록도를 나타낸 도면이다.
영상 부호화 및 복호화 시스템(2000)의 부호화단(2010)은 영상의 부호화된 비트스트림을 전송하고, 복호화단(2050)은 비트스트림을 수신하여 복호화함으로써 복원 영상을 출력한다. 여기서 부호화단(2010)은 후술할 영상 부호화 장치(200)에 유사한 구성일 수 있고, 복호화단(2050)은 영상 복호화 장치(100)에 유사한 구성일 수 있다.
부호화단(2010)에서, 예측 부호화부(2015)는 인터 예측 및 인트라 예측을 통해 참조 영상을 출력하고, 변환 및 양자화부(2020)는 참조 영상과 현재 입력 영상 간의 레지듀얼 데이터를 양자화된 변환 계수로 양자화하여 출력한다. 엔트로피 부호화부(2025)는 양자화된 변환 계수를 부호화하여 변환하고 비트스트림으로 출력한다. 양자화된 변환 계수는 역양자화 및 역변환부(2030)을 거쳐 공간 영역의 데이터로 복원되고, 복원된 공간 영역의 데이터는 디블로킹 필터링부(2035) 및 루프 필터링부(2040)를 거쳐 복원 영상으로 출력된다. 복원 영상은 예측 부호화부(2015)를 거쳐 다음 입력 영상의 참조 영상으로 사용될 수 있다.
복호화단(2050)으로 수신된 비트스트림 중 부호화된 영상 데이터는, 엔트로피 복호화부(2055) 및 역양자화 및 역변환부(2060)를 거쳐 공간 영역의 레지듀얼 데이터로 복원된다. 예측 복호화부(2075)로부터 출력된 참조 영상 및 레지듀얼 데이터가 조합되어 공간 영역의 영상 데이터가 구성되고, 디블로킹 필터링부(2065) 및 루프 필터링부(2070)는 공간 영역의 영상 데이터에 대해 필터링을 수행하여 현재 원본 영상에 대한 복원 영상을 출력할 수 있다. 복원 영상은 예측 복호화부(2075)에 의해 다음 원본 영상에 대한 참조 영상으로서 이용될 수 있다.
부호화단(2010)의 루프 필터링부(2040)는 사용자 입력 또는 시스템 설정에 따라 입력된 필터 정보를 이용하여 루프 필터링을 수행한다. 루프 필터링부(2040)에 의해 사용된 필터 정보는 엔트로피 부호화부(2010)로 출력되어, 부호화된 영상 데이터와 함께 복호화단(2050)으로 전송된다. 복호화단(2050)의 루프 필터링부(2070)는 복호화단(2050)으로부터 입력된 필터 정보에 기초하여 루프 필터링을 수행할 수 있다.
상술한 다양한 실시예들은 영상 복호화 장치(100)이 수행하는 영상 복호화 방법과 관련된 동작을 설명한 것이다. 이하에서는 이러한 영상 복호화 방법에 역순의 과정에 해당하는 영상 부호화 방법을 수행하는 영상 부호화 장치(200)의 동작을 다양한 실시예를 통해 설명하도록 한다.
도 2는 일 실시예에 따라 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 영상을 부호화 할 수 있는 영상 부호화 장치(200)의 블록도를 도시한다.
영상 부호화 장치(200)는 부호화부(220) 및 비트스트림 생성부(210)를 포함할 수 있다. 부호화부(220)는 입력 영상을 수신하여 입력 영상을 부호화할 수 있다. 부호화부(220)는 입력 영상을 부호화하여 적어도 하나의 신택스 엘리먼트를 획득할 수 있다. 신택스 엘리먼트는 skip flag, prediction mode, motion vector difference, motion vector prediction method (or index), transform quantized coefficient, coded block pattern, coded block flag, intra prediction mode, direct flag, merge flag, delta QP, reference index, prediction direction, transform index 중 적어도 하나를 포함할 수 있다. 부호화부(220)는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 포함하는 블록 형태 정보에 기초하여 컨텍스트 모델을 결정할 수 있다.
비트스트림 생성부(210)는 부호화된 입력 영상에 기초하여 비트스트림을 생성할 수 있다. 예를 들어 비트스트림 생성부(210)는 컨텍스트 모델에 기초하여 신택스 엘리먼트를 엔트로피 부호화함으로써 비트스트림을 생성할 수 있다. 또한 영상 부호화 장치(200)는 비트스트림을 영상 복호화 장치(100)로 전송할 수 있다.
일 실시예에 따라 영상 부호화 장치(200)의 부호화부(220)는 부호화 단위의 형태를 결정할 수 있다. 예를 들면 부호화 단위가 정사각형인지 또는 비-정사각형의 형태를 가질 수 있고, 이러한 형태를 나타내는 정보는 블록 형태 정보에 포함될 수 있다.
일 실시예에 따라 부호화부(220)는 부호화 단위가 어떤 형태로 분할될지를 결정할 수 있다. 부호화부(220)는 부호화 단위에 포함되는 적어도 하나의 부호화 단위의 형태를 결정할 수 있고 비트스트림 생성부(210)는 이러한 부호화 단위의 형태에 대한 정보를 포함하는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라 부호화부(220)는 부호화 단위가 분할되는지 분할되지 않는지 여부를 결정할 수 있다. 부호화부(220)가 부호화 단위에 하나의 부호화 단위만이 포함되거나 또는 부호화 단위가 분할되지 않는 것으로 결정하는 경우 비트스트림 생성부(210)는 부호화 단위가 분할되지 않음을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다. 또한 부호화부(220)는 부호화 단위에 포함되는 복수개의 부호화 단위로 분할할 수 있고, 비트스트림 생성부(210)는 부호화 단위는 복수개의 부호화 단위로 분할됨을 나타내는 분할 형태 정보를 포함하는 비트스트림을 생성할 수 있다.
일 실시예에 따라 부호화 단위를 몇 개의 부호화 단위로 분할할지를 나타내거나 어느 방향으로 분할할지를 나타내는 정보가 분할 형태 정보에 포함될 수 있다. 예를 들면 분할 형태 정보는 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하는 것을 나타내거나 또는 분할하지 않는 것을 나타낼 수 있다.
영상 부호화 장치(200)는 부호화 단위의 분할 형태 모드에 기초하여 분할 형태 모드에 대한 정보를 결정한다. 영상 부호화 장치(200)는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나에 기초하여 컨텍스트 모델을 결정한다. 그리고, 영상 부호화 장치(200)는 컨텍스트 모델에 기초하여 부호화 단위를 분할하기 위한 분할 형태 모드에 대한 정보를 비트스트림으로 생성한다.
영상 부호화 장치(200)는 컨텍스트 모델을 결정하기 위하여, 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나와 컨텍스트 모델에 대한 인덱스를 대응시키기 위한 배열을 획득할 수 있다. 영상 부호화 장치(200)는 배열에서 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나에 기초하여 컨텍스트 모델에 대한 인덱스를 획득할 수 있다. 영상 부호화 장치(200)는 컨텍스트 모델에 대한 인덱스에 기초하여 컨텍스트 모델을 결정할 수 있다.
영상 부호화 장치(200)는, 컨텍스트 모델을 결정하기 위하여, 부호화 단위에 인접한 주변 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 포함하는 블록 형태 정보에 더 기초하여 컨텍스트 모델을 결정할 수 있다. 또한 주변 부호화 단위는 부호화 단위의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측 또는 우하측에 위치한 부호화 단위 중 적어도 하나를 포함할 수 있다.
또한, 영상 부호화 장치(200)는, 컨텍스트 모델을 결정하기 위하여, 상측 주변 부호화 단위의 너비의 길이와 부호화 단위의 너비의 길이를 비교할 수 있다. 또한, 영상 부호화 장치(200)는 좌측 및 우측의 주변 부호화 단위의 높이의 길이와 부호화 단위의 높이의 길이를 비교할 수 있다. 또한, 영상 부호화 장치(200)는 비교 결과들에 기초하여 컨텍스트 모델을 결정할 수 있다.
영상 부호화 장치(200)의 동작은 도 3 내지 도 20에서 설명한 비디오 복호화 장치(100)의 동작과 유사한 내용을 포함하고 있으므로, 상세한 설명은 생략한다.
이하, 도 21 내지 도 32를 참조하여, 일 실시예에 따른 영상 복호화 장치(2100) 및 영상 부호화 장치(2800)에 대해 설명한다.
도 21은 일 실시예에 따른 영상 복호화 장치(2100)의 블록도이다.
도 21을 참조하면, 일 실시예에 따른 영상 복호화 장치(2100)는 획득부(2110) 및 예측 복호화부(2130)를 포함할 수 있다.
일 실시예에 따른 영상 복호화 장치(2100)는, 획득부(2110) 및 예측 복호화부(2130)를 제어하는 중앙 프로세서(미도시)를 포함할 수 있다. 또는, 획득부(2110) 및 예측 복호화부(2130)가 각각의 자체 프로세서(미도시)에 의해 작동되며, 프로세서(미도시)들이 상호 유기적으로 작동함에 따라 영상 복호화 장치(2100)가 전체적으로 작동될 수도 있다. 또는, 영상 복호화 장치(2100)의 외부 프로세서(미도시)의 제어에 따라, 획득부(2110) 및 예측 복호화부(2130)가 제어될 수도 있다.
영상 복호화 장치(2100)는, 획득부(2110) 및 예측 복호화부(2130)의 입출력 데이터가 저장되는 하나 이상의 데이터 저장부(미도시)를 포함할 수 있다. 영상 복호화 장치(2100)는, 데이터 저장부(미도시)의 데이터 입출력을 제어하는 메모리 제어부(미도시)를 포함할 수도 있다.
영상 복호화 장치(2100)는, 영상 복호화를 통해 영상을 복원하기 위해, 내부에 탑재된 비디오 디코딩 프로세서 또는 외부 비디오 디코딩 프로세서와 연계하여 작동함으로써, 예측을 포함한 영상 복호화 동작을 수행할 수 있다. 일 실시예에 따른 영상 복호화 장치(2100)의 내부 비디오 디코딩 프로세서는, 별개의 프로세서뿐만 아니라, 영상 복호화 장치(2100), 중앙 연산 장치 또는 그래픽 연산 장치가 영상 디코딩 프로세싱 모듈을 포함함으로써 기본적인 영상 복호화 동작을 구현할 수도 있다.
영상 복호화 장치(2100)는 전술한 영상 복호화 장치(100)에 포함될 수 있다. 예를 들어, 획득부(2110)는 도 1에 도시된 영상 복호화 장치(100)의 비트스트림 획득부(110)에 포함될 수 있고, 예측 복호화부(2130)는 영상 복호화 장치(100)의 복호화부(120)에 포함될 수 있다.
영상 복호화 장치(2100)는 인터 예측을 통해 부호화된 현재 블록의 복원을 위한 움직임 벡터를 결정할 수 있다.
블록의 타입은 정사각형 또는 직사각형일 수 있으며, 임의의 기하학적 형태일 수도 있다. 일 실시예에 따른 블록은 일정한 크기의 데이터 단위로 제한되는 것은 아니며, 트리 구조에 따른 부호화 단위들 중에서, 최대 부호화 단위, 부호화 단위, 예측 단위, 변환 단위 등을 포함할 수 있다.
획득부(2110)는 영상의 복호화를 위한 정보를 포함하는 비트스트림을 획득한다. 비트스트림은 현재 블록의 예측 모드에 따라 잔차 움직임 벡터, 예측 움직임 벡터, 예측 방향(단방향 예측 또는 양방향 예측 여부), 참조 영상 및 MVR(Motion Vector Resolution) 중 적어도 하나에 대한 정보를 포함할 수 있다.
예측 복호화부(2130)는 비트스트림에 포함된 정보에 기초하여 현재 블록의 움직임 벡터를 획득한다.
예측 복호화부(2130)는 현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용되었는지 여부를 결정할 수 있다. 잔차 움직임 벡터에 대한 적응적 부호화란, 잔차 움직임 벡터를 적은 비트 수로 표현하기 위해 이용되는 부호화 방식을 의미할 수 있다.
예측 복호화부(2130)는 비트스트림에 포함된 적응적 부호화의 적용 여부를 나타내는 정보에 기초하여 적응적 부호화가 잔차 움직임 벡터에 적용되었는지 여부를 결정할 수 있다. 적응적 부호화의 적용 여부를 나타내는 정보는 예를 들어, 인덱스 또는 플래그를 포함할 수 있으나 이에 한정되는 것은 아니다.
잔차 움직임 벡터에 대해 적응적 부호화가 적용된 경우, 예측 복호화부(2130)는 잔차 움직임 벡터의 부호화 인자 값을 결정한다. 부호화 인자 값(또는 인자 값)은 잔차 움직임 벡터의 적응적 부호화에 이용되는 값으로서, 일 실시예에서 부호화 인자 값은 1 이상의 정수를 포함할 수 있다.
예측 복호화부(2130)는 비트스트림에 포함된 부호화 인자 값의 지시 정보에 기초하여 부호화 인자 값을 결정할 수 있다. 상기 부호화 인자 값의 지시 정보는 플래그 또는 인덱스를 포함할 수 있다. 부호화 인자 값의 지시 정보가 인덱스인 경우, 각 인덱스별 부호화 인자 값은 도 22에 예시되어 있다. 도 22에서 인자 값 지시 인덱스가 0을 나타내는 경우, 부호화 인자 값은 1로 결정되며, 인자 값 지시 인덱스가 1을 나타내는 경우, 부호화 인자 값은 4로 결정될 수 있다.
또한, 일 실시예에서, 예측 복호화부(2130)는 현재 블록, 이전에 복호화된 블록, 현재 블록을 포함하는 현재 슬라이스, 이전에 복호화된 슬라이스, 현재 블록을 포함하는 현재 픽처 및 이전에 복호화된 픽처 중 적어도 하나와 관련된 정보에 기초하여, 부호화 인자 값을 결정할 수도 있다. 이 경우, 부호화 인자 값과 관련된 정보는 비트스트림에 포함되지 않을 수 있다. 예를 들어, 예측 복호화부(2130)는 현재 블록의 크기, 현재 블록의 예측 모드, 이전에 복호화된 블록의 크기, 이전에 복호화된 블록의 예측 모드, 이전에 복호화된 블록의 부호화 인자 값, 현재 슬라이스의 종류, 이전에 복호화된 슬라이스의 종류, 현재 픽처의 종류 및 이전에 복호화된 픽처의 종류 중 적어도 하나에 기초하여 현재 블록의 잔차 움직임 벡터를 위한 부호화 인자 값을 결정할 수 있다.
후술하는 바와 같이, 부호화 인자 값은 현재 블록의 움직임 벡터의 제 1 성분의 제 1 MVR 및 현재 블록의 움직임 벡터의 제 2 성분의 제 2 MVR에 기초하여 결정될 수도 있다.
예측 복호화부(2130)는 잔차 움직임 벡터에 대해 적응적 부호화가 적용되어 생성된 제 1 결과 값을 비트스트림에 포함된 정보에 기초하여 결정할 수 있다. 후술하는 바와 같이, 제 1 결과 값은 영상 부호화 장치(2800)가 현재 블록의 잔차 움직임 벡터에 적응적 부호화를 적용하여 획득한 값을 의미할 수 있다. 제 1 결과 값은 현재 블록의 잔차 움직임 벡터보다 작은 값일 수 있다. 예측 복호화부(2130)는 제 1 결과 값의 부호를 나타내는 정보, 제 1 결과 값의 절대 값이 0보다 큰지 여부를 나타내는 정보 등을 비트스트림으로부터 획득하고, 획득한 정보에 기초하여 제 1 결과 값을 결정할 수 있다.
예측 복호화부(2130)는 소정 연산에 따라 부호화 인자 값을 제 1 결과 값에 적용하여 현재 블록의 잔차 움직임 벡터를 획득할 수 있다. 일 실시예에서, 소정 연산은 곱 연산을 포함할 수 있다. 또는, 일 실시예에서 소정 연산은 곱 연산 및 덧셈 연산 중 적어도 하나를 포함하는 선형 연산을 포함할 수도 있다. 또는, 일 실시예에서, 소정 연산은 거듭 제곱(exponentiation) 연산을 포함할 수도 있다.
일 예로서, 부호화 인자 값이 4이고, 제 1 결과 값이 2이고, 소정 연산이 곱 연산인 경우, 예측 복호화부(2130)는 현재 블록의 잔차 움직임 벡터를 8(2 * 4)로 결정할 수 있다. 또는, 부호화 인자 값이 4이고, 제 1 결과 값이 2이고, 소정 연산이 거듭 제곱 연산인 경우, 예측 복호화부(2130)는 현재 블록의 잔차 움직임 벡터를 16(24)으로 결정할 수도 있다.
일 실시예에서, 예측 복호화부(2130)는 잔차 움직임 벡터에 대해 적응적 부호화가 적용되어 생성된 제 2 결과 값을 비트스트림에 포함된 정보에 기초하여 결정할 수도 있다. 후술하는 바와 같이, 제 2 결과 값은 영상 부호화 장치(2800)가 잔차 움직임 벡터에 적응적 부호화를 적용하여 획득한 값을 의미할 수 있다.
일 실시예에서, 제 2 결과 값을 표현하기 위한 비트의 개수 정보가 비트스트림에 포함될 수도 있다. 획득부(2110)는 비트의 개수 정보에 따라 제 2 결과 값에 해당하는 비트를 획득하고, 예측 복호화부(2130)는 획득한 비트 값에 기초하여 제 2 결과 값을 결정할 수도 있다. 제 2 결과 값을 표현하기 위한 비트의 개수는, 부호화 인자 값을 표현하기 위한 비트의 개수보다 적을 수 있다. 예를 들어, 부호화 인자 값이 8인 경우, 이를 표현하기 위한 비트의 개수는 4개가 되는데, 제 2 결과 값을 표현하기 위한 비트의 개수는 4개 미만일 수 있다. 왜냐하면, 예를 들어, 소정 연산이 나누기 연산인 경우, 제 2 결과 값은 부호화 인자 값 미만의 값에 해당하기 때문이다.
일 실시예에서, 제 2 결과 값을 표현하기 위한 비트의 개수 정보는, 비트스트림에 포함되지 않는 대신, 부호화 인자 값에 대응하여 미리 결정되어 있을 수도 있다. 예를 들어, 부호화 인자 값이 8인 경우, 제 2 결과 값을 표현하기 위한 비트의 개수는 3개인 것으로 미리 결정될 수 있고, 부호화 인자 값이 7인 경우, 제 2 결과 값을 표현하기 위한 비트의 개수는 2개인 것으로 미리 결정될 수도 있다.
예측 복호화부(2130)는 제 1 결과 값, 제 2 결과 값 및 부호화 인자 값을 소정 연산에 적용하여 현재 블록의 잔차 움직임 벡터를 결정할 수 있다. 일 예로서, 소정 연산은 제 1 결과 값을 부호화 인자 값에 곱하고, 곱한 결과에 제 2 결과 값을 더하는 연산(다시 말하면, 부호화 인자 값 * 제 1 결과 값 + 제 2 결과 값)을 포함할 수 있다. 이 경우, 제 1 결과 값은 잔차 움직임 벡터의 몫 값으로, 제 2 결과 값은 잔차 움직임 벡터의 나머지 값으로 참조될 수도 있다. 또한, 일 예로서, 소정 연산은 제 1 결과 값을 부호화 인자 값에 따라 거듭 제곱하고, 그 결과에 제 2 결과 값을 더하는 연산을 포함할 수도 있다.
일 실시예에서, 예측 복호화부(2130)는 부호화 인자 값 및 제 1 결과 값 (및 제 2 결과 값)을 현재 블록의 예측 방향별로 그리고, 잔차 움직임 벡터의 성분별로 결정할 수도 있다. 그리고, 현재 블록의 예측 방향별로 그리고, 잔차 움직임 벡터의 성분별로 부호화 인자 값 및 제 1 결과 값을 이용하여 잔차 움직임 벡터를 결정할 수 있다.
도 23은 현재 블록이 양방향 예측되는 경우의 움직임 벡터, 예측 움직임 벡터 및 잔차 움직임 벡터를 설명하기 위한 도면이다.
현재 블록(2310)은 리스트 0에 포함된 참조 픽처(2330) 또는 리스트 1에 포함된 참조 픽처(2350)를 이용하여 단방향 예측되거나, 리스트 0과 리스트 1에 포함된 두 개의 참조 픽처(2330, 2350)를 이용하여 양방향 예측될 수 있다.
도 23을 참조하면, 현재 블록(2310)은 리스트 0에 포함된 참조 픽처(2330)와 리스트 1에 포함된 참조 픽처(2350)를 통해 양방향 예측될 수 있으며, 이 경우, 리스트 0에 대응하는 잔차 움직임 벡터(MVD0)와 리스트 1에 대응하는 잔차 움직임 벡터(MVD1)가 결정될 수 있다. 또한, 각 잔차 움직임 벡터(MVD0, MVD1)는 제 1 성분(예를 들어, 블록의 너비 방향 성분) 값과 제 2 성분 (예를 들어, 블록의 높이 방향 성분) 값을 포함할 수 있다. 이 경우, 예측 복호화부(2130)는 리스트 0에 대응하는 잔차 움직임 벡터(MVD0)의 제 1 성분 값(MVD0_X)을 위한 부호화 인자 값과 제 1 결과 값을 결정하여, 잔차 움직임 벡터(MVD0)의 제 1 성분 값(MVD0_X)을 결정하고, 리스트 0에 대응하는 잔차 움직임 벡터(MVD0)의 제 2 성분 값(MVD0_Y)을 위한 부호화 인자 값과 제 1 결과 값을 결정하여, 잔차 움직임 벡터(MVD0)의 제 2 성분 값(MVD0_Y)을 결정할 수 있다. 또한, 예측 복호화부(2130)는 리스트 1에 대응하는 잔차 움직임 벡터(MVD1)의 제 1 성분 값(MVD1_X)을 위한 부호화 인자 값과 제 1 결과 값을 결정하여, 잔차 움직임 벡터(MVD1)의 제 1 성분 값(MVD1_X)을 결정하고, 리스트 1에 대응하는 잔차 움직임 벡터(MVD1)의 제 2 성분 값(MVD1_Y)을 위한 부호화 인자 값과 제 1 결과 값을 결정하여, 잔차 움직임 벡터(MVD1)의 제 2 성분 값(MVD1_Y)을 결정할 수 있다.
현재 블록이 단방향 예측된 경우, 예측 복호화부(2130)는 리스트 0 또는 리스트 1에 대응하는 잔차 움직임 벡터의 제 1 성분 값을 위한 부호화 인자 값과 제 1 결과 값을 결정하여, 잔차 움직임 벡터의 제 1 성분 값을 결정하고, 리스트 0 또는 리스트 1에 대응하는 잔차 움직임 벡터의 제 2 성분 값을 위한 부호화 인자 값과 제 1 결과 값을 결정하여, 잔차 움직임 벡터의 제 2 성분 값을 결정할 수도 있다.
구현예에 따라서, 예측 복호화부(2130)는 하나의 부호화 인자 값만을 결정하고, 현재 블록의 예측 방향별로 및/또는 성분별로 하나의 부호화 인자 값을 소정 연산에 적용하여 도출된 값을 이용하여 잔차 움직임 벡터를 결정할 수도 있다.
일 실시예에서, 예측 복호화부(2130)는 현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용되지 않은 경우, 앞서 설명한 부호화 인자 값을 결정하는 과정, 제 1 결과 값을 결정하는 과정, 및 부호화 인자 값과 제 1 결과 값을 소정 연산에 적용하는 과정을 수행하지 않고, 비트스트림으로부터 획득된 정보에 기초하여 잔차 움직임 벡터를 획득할 수 있다. 여기서, 비트스트림에 포함된 정보는, 잔차 움직임 벡터의 부호를 나타내는 정보, 잔차 움직임 벡터의 절대 값이 0보다 큰지 여부를 나타내는 정보 등을 포함할 수 있으나 이에 한정되는 것은 아니다.
예측 복호화부(2130)는 현재 블록의 잔차 움직임 벡터와 현재 블록의 예측 움직임 벡터에 기초하여, 현재 블록의 움직임 벡터를 획득할 수 있다. 일 실시예에서, 현재 블록과 시간적 및/또는 공간적으로 인접한 주변 블록의 움직임 벡터에 기초하여 현재 블록의 예측 움직임 벡터가 결정될 수 있다.
도 24는 현재 블록(2400)과 시간적 및/또는 공간적으로 관련된 주변 블록을 도시하는 도면이다. 도 24를 참조하면, 시간적 주변 블록은 현재 블록(2400)의 POC(Picture Order Count)와 상이한 POC를 갖는 참조 영상 내에서 현재 블록(2400)과 동일한 지점에 위치한 블록(F)과, 동일 위치의 블록(F)에 대해 공간적으로 인접한 블록(G)을 적어도 하나 포함할 수 있다. 현재 블록(2400)에 대해 공간적으로 관련있는 공간적 주변 블록은, 좌하단 외곽 블록(A), 좌측 하부 블록(B), 우상단 외곽 블록(C), 상부 우측 블록(D) 및 좌상단 외곽 블록(E)을 포함할 수 있다. 도 24에 도시된 주변 블록들의 위치는 하나의 예시이며, 구현예에 따라 시간적 주변 블록, 공간적 주변 블록의 위치는 다양하게 변경될 수 있다.
예측 복호화부(2130)는 적어도 하나의 주변 블록의 움직임 벡터의 메디안(medina) 값을 현재 블록의 예측 움직임 벡터로 결정할 수 있고, 또는, 주변 블록들의 움직임 벡터를 이용하여 예측 움직임 벡터 후보를 구성한 후, 비트스트림에 포함된 정보에 기초하여 어느 하나의 예측 움직임 벡터 후보를 현재 블록의 예측 움직임 벡터로 결정할 수도 있다.
또한, 일 실시예에서, 예측 복호화부(2130)는 현재 블록의 움직임 벡터가 소정의 MVR(Motion Vector Resolution)에 따라 결정된 경우, 소정의 MVR에 대응하는 것으로 미리 결정된 주변 블록의 움직임 벡터를 예측 움직임 벡터로 결정할 수도 있다.
예측 복호화부(2130)는 현재 블록의 MVR에 기초하여 예측 움직임 벡터를 조정하고, 조정된 예측 움직임 벡터와 잔차 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 결정할 수도 있다.
예측 복호화부(2130)는 각 블록의 움직임 벡터의 MVR이 될 수 있는 적어도 하나의 후보 MVR을 저장할 수 있다. 일 실시예에서, 적어도 하나의 후보 MVR은 1/8 화소 단위 MVR, 1/4 화소 단위 MVR, 1/2 화소 단위 MVR, 1 화소 단위 MVR, 2 화소 단위 MVR, 4 화소 단위 MVR 및 8 화소 단위 MVR 중 적어도 하나를 포함할 수 있다. 그러나, 후보 MVR은 상기 예시에 한정되는 것은 아니며, 다양한 값의 화소 단위의 MVR들이 후보 MVR에 포함될 수 있다.
예측 복호화부(2130)는 현재 블록의 움직임 벡터의 MVR을 결정하기 위해, 비트스트림에 포함된 MVR을 나타내는 정보를 참조할 수 있다. 일 실시예에서, 현재 블록의 움직임 벡터의 MVR은 현재 블록의 움직임 벡터의 성분에 따라 별도로 결정될 수 있다. 구체적으로, 현재 블록의 움직임 벡터의 제 1 성분(예를 들어, 블록의 너비 방향 성분)에 대한 제 1 MVR과 현재 블록의 움직임 벡터의 제 2 성분(예를 들어, 블록의 높이 방향 성분)에 대한 제 2 MVR이 독립적으로 결정할 수 있다.
비트스트림에는 제 1 MVR 및 제 2 MVR을 나타내는 정보가 포함될 수 있는데, 해당 정보는 예를 들어, 인덱스 또는 플래그를 포함할 수 있다. 예측 복호화부(2130)는 MVR을 나타내는 정보와 그에 대응하는 MVR의 대응 관계 정보를 미리 저장할 수 있다. 도 25를 참조하면, 제 1 MVR 및 제 2 MVR이 비트스트림 내에서 인덱스로 표현되는 경우, 인덱스 0은 1/8 화소 단위, 인덱스 1은 1/4 화소 단위를 나타낼 수 있다.
일 실시예에서, 획득부(2110)는 제 1 MVR에 대한 정보 및 제 2 MVR에 대한 정보를 인터 예측된 부호화 단위마다 획득할 수도 있다.
도 26은 비트스트림으로부터 제 1 MVR에 대한 정보 및 제 2 MVR에 대한 정보를 획득하는 신택스를 나타내는 도면이다.
도 26을 참조하면, a 구문에서 현재 부호화 단위를 포함하는 슬라이스가 I 슬라이스가 아니라면, b 구문에서 cu_skip_flag가 추출된다. cu_skip_flag는 현재 부호화 단위에 대해 스킵 모드를 적용할지 여부를 나타낸다. c 구문에서 스킵 모드의 적용이 확인되면, 현재 부호화 단위를 스킵 모드에 따라 처리하게 된다. d 구문에서 스킵 모드의 미적용이 확인되면, e 구문에서 pred_mode_flag가 추출된다. pred_mode_flag는 현재 부호화 단위가 인트라 예측되었는지, 인터 예측 되었는지를 나타낸다. f 구문에서 현재 부호화 단위가 인트라 예측된 것이 아니라면, 즉, 인터 예측되었다면 g 구문에서 pred_mvr_idx가 추출된다. pred_mvr_idx는 현재 부호화 단위의 MVR을 나타내는 인덱스이며, 각 인덱스에 대응하는 MVR은 아래의 표 1과 같을 수 있다.
Figure PCTKR2018007213-appb-T000001
도 26는 상기 g구문에서 하나의 pred_mvr_idx가 획득되는 것으로 도시하고 있지만, pred_mvr_idx는 현재 부호화 단위의 움직임 벡터의 성분 별로 획득될 수도 있다.
일 실시예에서, 예측 복호화부(2130)는 현재 블록, 이전에 복호화된 블록, 현재 블록을 포함하는 현재 슬라이스, 이전에 복호화된 슬라이스, 현재 블록을 포함하는 현재 픽처 및 이전에 복호화된 픽처 중 적어도 하나와 관련된 정보에 기초하여 제 1 MVR 및 제 2 MVR을 직접 결정할 수도 있다. 이 경우, 제 1 MVR을 나타내는 정보 및 제 2 MVR을 나타내는 정보는 비트스트림에 포함되지 않는다.
일 예로서, 예측 복호화부(2130)는 현재 블록의 너비와 높이를 고려하여 제 1 MVR과 제 2 MVR을 결정할 수 있다. 예측 복호화부(2130)는 현재 블록의 너비가 높이보다 큰 경우, 제 1 MVR이 제 2 MVR보다 크도록 결정할 수 있고, 반대로, 현재 블록의 높이가 너비보다 큰 경우, 제 2 MVR이 제 1 MVR보다 크도록 결정할 수 있다. 또는, 예측 복호화부(2130)는 현재 블록의 너비가 높이보다 큰 경우, 제 1 MVR이 제 2 MVR보다 작도록 결정할 수 있고, 반대로, 현재 블록의 높이가 너비보다 큰 경우, 제 2 MVR이 제 1 MVR보다 작도록 결정할 수도 있다.
또한, 일 실시예에서, 예측 복호화부(2130)는 현재 블록의 크기에 따라 제 1 MVR 및 제 2 MVR을 결정할 수도 있다. 예를 들어, 현재 블록의 크기가 소정 크기 이상이면, 제 1 MVR과 제 2 MVR을 1 화소 단위 이상으로 결정하고, 현재 블록의 크기가 소정 크기 미만이면, 제 1 MVR과 제 2 MVR을 1 화소 단위 미만으로 결정할 수 있다.
또한, 일 실시예에서, 예측 복호화부(2130)는 이전에 복호화된 블록의 제 1 MVR 및 제 2 MVR에 기초하여 현재 블록의 제 1 MVR 및 제 2 MVR을 결정할 수 있다. 예를 들어, 이전에 복호화된 블록의 제 1 MVR이 1/4 화소 단위이면 현재 블록의 제 1 MVR 역시 1/4 화소 단위로 결정하고, 이전에 복호화된 블록의 제 2 MVR이 1 화소 단위이면 현재 블록의 제 2 MVR 역시 1 화소 단위로 결정할 수 있다.
어느 하나의 MVR이 다른 하나의 MVR보다 크다는 것은 어느 하나의 MVR의 화소 단위가 다른 하나의 MVR의 화소 단위보다 크다는 것을 의미할 수다. 예를 들어, 1 화소 단위의 MVR은 1/2 화소 단위의 MVR보다 크고, 1/2 화소 단위의 MVR은 1/4 화소 단위의 MVR보다 크다. 실질적으로, 1/4 화소 단위의 MVR로 움직임 벡터를 결정한 경우가 1 화소 단위의 MVR로 움직임 벡터를 결정한 경우에 비해, 보다 정밀하게 예측이 가능하지만, 본 명세서에서는 설명의 편의를 위해 화소 단위의 크기를 기준으로 각 MVR의 크기 차이를 설명한다.
예측 복호화부(2130)는 잔차 움직임 벡터의 적응적 부호화에 대한 부호화 인자 값을 제 1 MVR 및 제 2 MVR에 기초하여 결정할 수도 있다. 예를 들어, 예측 복호화부(2130)는 제 1 MVR과 제 2 MVR의 평균 값을 부호화 인자 값으로 결정할 수 있다. 또는, 예측 복호화부(2130)는 제 1 MVR과 제 2 MVR을 소정 연산에 적용하여 부호화 인자 값을 결정할 수도 있다.
일 실시예에서, 예측 복호화부(2130)는 현재 블록의 제 1 MVR 및 제 2 MVR과, 적어도 하나의 후보 MVR 중 가장 작은 최소 MVR의 차이에 기초하여, 현재 블록의 예측 움직임 벡터를 조정할 수 있다. 그리고, 예측 복호화부(2130)는 MVR의 크기 비교 결과에 따라 선택적으로 조정된 예측 움직임 벡터와 잔차 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 결정할 수 있다.
주변 블록의 움직임 벡터를 조정하는 과정에 대해서는 도 31 및 도 32를 참조하여 후술한다.
예측 복호화부(2130)는 현재 블록의 움직임 벡터를 이용하여 참조 영상에서 예측 블록을 탐색하고, 탐색된 예측 블록에 역양자화 및 역변환된 잔차 데이터를 합하여 현재 블록을 재구성(reconstruction)할 수 있다.
도 27은 일 실시예에 따른 움직임 정보의 복호화 방법을 설명하기 위한 순서도이다.
S2710 단계에서, 영상 복호화 장치(2100)는 현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용된 것으로 결정한 경우, 부호화 인자 값을 결정한다.
앞서 살펴본 바와 같이, 영상 복호화 장치(2100)는 부호화 인자 값을 비트스트림에 기초하여 결정할 수도 있고, 현재 블록, 이전에 복호화된 블록, 현재 블록을 포함하는 현재 슬라이스, 이전에 복호화된 슬라이스, 현재 블록을 포함하는 현재 픽처 및 이전에 복호화된 픽처 중 적어도 하나와 관련된 정보에 기초하여 부호화 인자 값을 결정할 수도 있다.
S2720 단계에서, 영상 복호화 장치(2100)는 현재 블록의 잔차 움직임 벡터에 적응적 부호화가 적용되어 생성된 제 1 결과 값을 획득한다.
영상 복호화 장치(2100)는 비트스트림에 포함된 정보에 기초하여 제 1 결과 값을 획득할 수 있다.
일 실시예에서, 영상 복호화 장치(2100)는 현재 블록의 잔차 움직임 벡터에 적응적 부호화가 적용되어 생성된 제 2 결과 값을 획득할 수도 있다. 영상 복호화 장치(2100)는 비트스트림에 포함된 정보에 기초하여 제 2 결과 값을 획득할 수 있다.
S2730 단계에서, 영상 복호화 장치(2100)는 소정 연산에 따라 부호화 인자 값을 제 1 결과 값에 적용하여 현재 블록의 잔차 움직임 벡터를 획득한다. 영상 복호화 장치(2100)는 제 2 결과 값이 획득된 경우, 소정 연산에 따라 부호화 인자 값을 제 1 결과 값과 제 2 결과 값에 적용하여 현재 블록의 잔차 움직임 벡터를 획득할 수도 있다.
상기 소정 연산은 곱 연산, 거듭 제곱 연산 등을 포함할 수 있다. 또한, 상기 소정 연산은 곱 연산 및 덧셈 연산 중 적어도 하나를 포함하는 선형 연산을 포함할 수도 있다.
S2740 단계에서, 영상 복호화 장치(2100)는 현재 블록의 잔차 움직임 벡터와 현재 블록의 예측 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 획득한다. 영상 복호화 장치(2100)는 현재 블록의 잔차 움직임 벡터를 현재 블록의 예측 움직임 벡터에 더하여 현재 블록의 움직임 벡터를 획득할 수 있다.
영상 복호화 장치(2100)는 현재 블록의 움직임 벡터의 MVR에 기초하여 현재 블록의 예측 움직임 벡터를 조정할 수 있고, 이 경우, 조정된 예측 움직임 벡터와 잔차 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 획득할 수 있다.
영상 복호화 장치(2100)는 현재 블록의 움직임 벡터의 MVR을 움직임 벡터의 성분별로 결정할 수 있다. 예를 들어, 영상 복호화 장치(2100)는 현재 블록의 움직임 벡터의 제 1 성분에 대한 제 1 MVR과 현재 블록의 움직임 벡터의 제 2 성분에 대한 제 2 MVR을 결정할 수 있다.
도 28은 일 실시예에 따른 영상 부호화 장치(2800)의 블록도이다.
도 28을 참조하면, 일 실시예에 따른 영상 부호화 장치(2800)는 예측 부호화부(2810) 및 생성부(2830)를 포함할 수 있다.
일 실시예에 따른 영상 부호화 장치(2800)는, 예측 부호화부(2810) 및 생성부(2830)를 제어하는 중앙 프로세서(미도시)를 포함할 수 있다. 또는, 예측 부호화부(2810) 및 생성부(2830)가 각각의 자체 프로세서(미도시)에 의해 작동되며, 프로세서(미도시)들이 상호 유기적으로 작동함에 따라 영상 부호화 장치(2800)가 전체적으로 작동될 수도 있다. 또는, 영상 부호화 장치(2800)의 외부 프로세서(미도시)의 제어에 따라, 예측 부호화부(2810) 및 생성부(2830)가 제어될 수도 있다.
영상 부호화 장치(2800)는, 예측 부호화부(2810) 및 생성부(2830)의 입출력 데이터가 저장되는 하나 이상의 데이터 저장부(미도시)를 포함할 수 있다. 영상 부호화 장치(2800)는, 데이터 저장부(미도시)의 데이터 입출력을 제어하는 메모리 제어부(미도시)를 포함할 수도 있다.
영상 부호화 장치(2800)는, 영상을 부호화하기 위해, 내부에 탑재된 비디오 인코딩 프로세서 또는 외부 비디오 인코딩 프로세서와 연계하여 작동함으로써, 예측을 포함한 영상 부호화 동작을 수행할 수 있다. 일 실시예에 따른 영상 부호화 장치(2800)의 내부 비디오 인코딩 프로세서는, 별개의 프로세서뿐만 아니라, 영상 부호화 장치(2800), 중앙 연산 장치 또는 그래픽 연산 장치가 영상 인코딩 프로세싱 모듈을 포함함으로써 기본적인 영상 부호화 동작을 구현할 수도 있다.
영상 부호화 장치(2800)는 전술한 영상 부호화 장치(200)에 포함될 수 있다. 예를 들어, 생성부(2830)는 도 2에 도시된 영상 부호화 장치(200)의 비트스트림 생성부(210)에 포함될 수 있고, 예측 부호화부(2810)는 영상 부호화 장치(200)의 부호화부(220)에 포함될 수 있다.
영상 부호화 장치(2800)는 현재 블록에 대한 인터 예측을 통해 현재 블록의 움직임 벡터를 결정할 수 있다. 영상 부호화 장치(2800)는 현재 블록의 움직임 벡터와 예측 움직임 벡터를 이용하여 결정된 잔차 움직임 벡터를 부호화할 수 있다.
일 실시예에서, 현재 블록의 예측 움직임 벡터는 현재 블록과 시간적 및/또는 공간적으로 인접한 주변 블록의 움직임 벡터에 기초하여 결정될 수 있다. 현재 블록과 시간적 및/또는 공간적으로 인접한 주변 블록은 도 24에 도시되어 있다.
예측 부호화부(2810)는 적어도 하나의 주변 블록의 움직임 벡터의 메디안(medina) 값을 현재 블록의 예측 움직임 벡터로 결정할 수 있고, 또는, 주변 블록들의 움직임 벡터를 이용하여 예측 움직임 벡터 후보를 구성한 후, 예측 움직임 벡터 후보 중 어느 하나의 예측 움직임 벡터 후보를 현재 블록의 예측 움직임 벡터로 결정할 수 있다.
또한, 일 실시예에서, 예측 부호화부(2810)는 현재 블록의 움직임 벡터가 소정의 MVR에 따라 결정된 경우, 예측 움직임 벡터를 조정하고, 조정된 예측 움직임 벡터와 현재 블록의 움직임 벡터를 이용하여 현재 블록의 잔차 움직임 벡터를 결정할 수도 있다. 앞서 설명한 바와 같이, 예측 부호화부(2810)는 현재 블록의 움직임 벡터의 MVR을 움직임 벡터의 성분 별로 결정할 수 있다. 즉, 예측 부호화부(2810)는 현재 블록의 움직임 벡터의 제 1 성분에 대한 제 1 MVR 및 현재 블록의 움직임 벡터의 제 2 성분에 대한 제 2 MVR을 결정할 수 있다. 제 1 MVR과 제 2 MVR은 서로 동일할 수 있고, 서로 상이할 수도 있다.
예측 부호화부(2810)는 현재 블록의 잔차 움직임 벡터에 적응적 부호화를 적용할지를 결정할 수 있다. 예를 들어, 예측 부호화부(2810)는 현재 블록의 잔차 움직임 벡터에 적응적 부호화를 적용하는 경우와, 적응적 부호화를 적용하지 않는 경우의 비트레이트를 비교하여 적응적 부호화의 적용 여부를 결정할 수 있다.
일 실시예에서, 예측 부호화부(2810)는 현재 블록, 이전에 부호화된 블록, 현재 블록을 포함하는 현재 슬라이스, 이전에 부호화된 슬라이스, 현재 블록을 포함하는 현재 픽처 및 이전에 부호화된 픽처 중 적어도 하나와 관련된 정보를 고려하여 적응적 부호화의 적용 여부를 결정할 수도 있다.
잔차 움직임 벡터에 대해 적응적 부호화를 적용하는 것으로 결정되면, 예측 부호화부(2810)는 적응적 부호화를 위한 부호화 인자 값을 결정한다. 상기 부호화 인자 값은 1 이상의 정수를 포함할 수 있다.
예측 부호화부(2810)는 복수의 인자 값 후보 각각을 현재 블록의 잔차 움직임 벡터에 적용하여 도출된 제 1 결과 값, 제 2 결과 값 및 인자 값 후보를 나타내는 인자 값 지시 정보의 전체 비트 개수가 가장 적은 인자 값 후보를 현재 블록의 잔차 움직임 벡터의 부호화 인자 값으로 결정할 수 있다. 상기 복수의 인자 값 후보는 1, 4, 8, 16, 32 등을 포함할 수 있다.
상기 제 1 결과 값 및 제 2 결과 값은 부호화 인자 값을 소정 연산에 따라 잔차 움직임 벡터에 적용하여 도출되는 값을 의미한다. 제 1 결과 값 및 제 2 결과 값은 현재 블록의 잔차 움직임 벡터보다 작은 값일 수 있다. 소정 연산은 나누기 연산 또는 로그 연산을 포함할 수 있다. 또는, 소정 연산은 나누기 연산, 덧셈 연산 및 뺄셈 연산 중 적어도 하나를 포함하는 선형 연산을 포함할 수도 있다.
예를 들어, 소정 연산이 나누기 연산이고, 잔차 움직임 벡터가 32이고, 부호화 인자 값이 2인 경우, 제 1 결과 값은 16(32/2)일 수 있다. 또는, 소정 연산이 나누기 연산이고, 잔차 움직임 벡터가 33이고, 부호화 인자 값이 2인 경우, 제 1 결과 값은 16이고, 제 2 결과 값은 1일 수 있다. 여기서, 제 1 결과 값은 몫 값으로, 제 2 결과 값은 나머지 값으로 참조될 수 있다.
또한, 예를 들어, 소정 연산이 로그 연산이고, 잔차 움직임 벡터가 32이고, 부호화 인자 값이 2인 경우, 제 1 결과 값은 5(log232)일 수 있다. 또는, 소정 연산이 로그 연산이고, 잔차 움직임 벡터가 33이고, 부호화 인자 값이 2인 경우, 제 1 결과 값은 5(log2(33-1))고, 제 2 결과 값은 1(33-32)일 수 있다. 이 경우, 영상 복호화 장치(2100)는 부호화 인자 값 2, 제 1 결과 값 5를 이용하여 32를 도출하고, 여기에 제 2 결과 값인 1을 더하여 33의 잔차 움직임 벡터를 결정할 수 있다.
예측 부호화부(2810)는 소정 연산에 따라 복수의 인자 값 후보 각각을 현재 블록의 잔차 움직임 벡터에 적용하여 도출되는 제 1 결과 값, 제 2 결과 값, 그리고 앞서 설명한 부호화 인자 값의 지시 정보를 비트로 표현하였을 때 필요한 비트 개수를 고려하여 어느 하나의 인자 값 후보를 현재 블록의 부호화 인자 값으로 결정할 수 있다.
일 실시예에서, 예측 부호화부(2810)는 현재 블록, 이전에 부호화된 블록, 현재 블록을 포함하는 현재 슬라이스, 이전에 부호화된 슬라이스, 현재 블록을 포함하는 현재 픽처 및 이전에 부호화된 픽처 중 적어도 하나와 관련된 정보를 고려하여 현재 블록의 부호화 인자 값을 결정할 수도 있다. 이 경우, 예측 부호화부(2810)는 앞서 설명한 예측 복호화부(2130)가 직접 현재 블록의 부호화 인자 값을 결정하는 방법과 동일한 방법으로 부호화 인자 값을 결정할 수 있다.
일 실시예에서, 예측 부호화부(2810)는 현재 블록의 움직임 벡터의 제 1 MVR 및 제 2 MVR에 기초하여 부호화 인자 값을 결정할 수도 있다.
일 실시예에서, 예측 부호화부(2810)는 부호화 인자 값 및 제 1 결과 값 (및 제 2 결과 값)을 현재 블록의 예측 방향별로 그리고, 잔차 움직임 벡터의 성분별로 결정할 수도 있다.
일 실시예에서, 예측 부호화부(2810)는 현재 블록의 잔차 움직임 벡터에 적응적 부호화를 적용하지 않는 것으로 결정한 경우, 앞서 설명한 부호화 인자 값을 결정하는 과정, 제 1 결과 값을 결정하는 과정을 수행하지 않고, 잔차 움직임 벡터에 대한 정보, 예를 들어, 잔차 움직임 벡터의 부호를 나타내는 정보, 잔차 움직임 벡터의 절대 값이 0보다 큰지 여부를 나타내는 정보 등을 생성하고, 후술하는 생성부(2830)를 통해 상기 생성된 정보를 비트스트림에 포함시킬 수 있다.
예측 부호화부(2810)는 현재 블록의 움직임 벡터를 결정할 때, 움직임 벡터의 제 1 성분의 제 1 MVR 및 제 2 성분의 제 2 MVR을 결정하고, 결정된 제 1 MVR 및 제 2 MVR에 따라 움직임 벡터의 제 1 성분 값 및 제 2 성분 값을 결정할 수 있다.
예측 부호화부(2810)는 각 블록의 움직임 벡터의 MVR이 될 수 있는 적어도 하나의 후보 MVR을 저장할 수 있다. 일 실시예에서, 적어도 하나의 후보 MVR은 1/8 화소 단위 MVR, 1/4 화소 단위 MVR, 1/2 화소 단위 MVR, 1 화소 단위 MVR, 2 화소 단위 MVR, 4 화소 단위 MVR 및 8 화소 단위 MVR 중 적어도 하나를 포함할 수 있다. 그러나, 후보 MVR은 상기 예시에 한정되는 것은 아니며, 다양한 값의 화소 단위의 MVR들이 후보 MVR에 포함될 수 있다.
예측 부호화부(2810)는 적어도 하나의 후보 MVR 각각을 이용하여 현재 블록의 움직임 벡터를 부호화하는 경우의 성능 차이를 비교하여 제 1 MVR 및 제 2 MVR을 결정할 수 있다. 예측 부호화부(2810)는 코스트에 기초하여 적어도 하나의 후보 MVR 중 제 1 MVR 및 제 2 MVR을 결정할 수 있다. 코스트 계산시 율-왜곡 비용(rate-distortion cost)이 이용될 수 있다.
일 실시예에서, 예측 부호화부(2810)는 현재 블록, 이전에 부호화된 블록, 현재 블록을 포함하는 현재 슬라이스, 이전에 부호화된 슬라이스, 현재 블록을 포함하는 현재 픽처 및 이전에 부호화된 픽처 중 적어도 하나와 관련된 정보에 기초하여 제 1 MVR 및 제 2 MVR을 결정할 수도 있다.
일 예로서, 예측 부호화부(2810)는 현재 블록의 너비와 높이를 고려하여 제 1 MVR과 제 2 MVR을 결정할 수 있다. 예측 부호화부(2810)는 현재 블록의 너비가 높이보다 큰 경우, 제 1 MVR이 제 2 MVR보다 크도록 결정할 수 있고, 반대로, 현재 블록의 높이가 너비보다 큰 경우, 제 2 MVR이 제 1 MVR보다 크도록 결정할 수 있다. 또는, 예측 부호화부(2810)는 현재 블록의 너비가 높이보다 큰 경우, 제 1 MVR이 제 2 MVR보다 작도록 결정할 수 있고, 반대로, 현재 블록의 높이가 너비보다 큰 경우, 제 2 MVR이 제 1 MVR보다 작도록 결정할 수도 있다.
또한, 일 실시예에서, 예측 부호화부(2810)는 현재 블록의 크기에 따라 제 1 MVR 및 제 2 MVR을 결정할 수도 있다. 예를 들어, 현재 블록의 크기가 소정 크기 이상이면, 제 1 MVR과 제 2 MVR을 1 화소 단위 이상으로 결정하고, 현재 블록의 크기가 소정 크기 미만이면, 제 1 MVR과 제 2 MVR을 1 화소 단위 미만으로 결정할 수 있다.
또한, 일 실시예에서, 예측 부호화부(2810)는 이전에 부호화된 블록의 제 1 MVR 및 제 2 MVR에 기초하여 현재 블록의 제 1 MVR 및 제 2 MVR을 결정할 수 있다. 예를 들어, 이전에 부호화된 블록의 제 1 MVR이 1/4 화소 단위이면 현재 블록의 제 1 MVR 역시 1/4 화소 단위로 결정하고, 이전에 부호화된 블록의 제 2 MVR이 1 화소 단위이면 현재 블록의 제 2 MVR 역시 1 화소 단위로 결정할 수 있다.
일 실시예에서, 예측 부호화부(2810)는 현재 블록의 제 1 MVR 및 제 2 MVR과, 적어도 하나의 후보 MVR 중 가장 작은 최소 MVR의 차이에 기초하여, 현재 블록의 예측 움직임 벡터를 조정할 수 있다. 그리고, 예측 부호화부(2810)는 MVR의 크기 비교 결과에 따라 선택적으로 조정된 예측 움직임 벡터와 움직임 벡터를 이용하여 현재 블록의 잔차 움직임 벡터를 획득할 수 있다.
예측 움직임 벡터를 조정하는 과정에 대해서는 도 31 및 도 32를 참조하여 후술한다.
생성부(2830)는 영상의 부호화 결과 생성된 정보를 포함하는 비트스트림을 생성한다. 비트스트림은 현재 블록의 예측 모드, 잔차 움직임 벡터에 대해 적응적 부호화가 적용되었는지를 나타내는 정보, 부호화 인자 값, 제 1 결과 값, 제 2 결과 값, 제 1 MVR, 제 2 MVR 및 잔차 움직임 벡터 중 적어도 하나에 대한 정보를 포함할 수 있다.
일 실시예에서, 생성부(2830)는 비트스트림을 생성하는데 있어, 제 1 결과 값에 대해서는 Exponential-Golomb Coding 방법을 이용할 수 있고, 제 2 결과 값에 대해서는 Fixed Coding 방법을 이용할 수 있다.
일 실시예에서, 생성부(2830)는 제 2 결과 값을 표현하기 위한 비트의 개수 정보를 비트스트림에 포함시킬 수도 있다. 제 2 결과 값을 표현하기 위한 비트의 개수는, 부호화 인자 값을 표현하기 위한 비트의 개수보다 적을 수 있다. 예를 들어, 부호화 인자 값이 8인 경우, 이를 표현하기 위한 비트의 개수는 4개가 되는데, 이 경우, 제 2 결과 값을 표현하기 위한 비트의 개수는 4개 미만일 수 있다. 왜냐하면, 예를 들어, 소정 연산이 나누기 연산인 경우, 제 2 결과 값은 부호화 인자 값 미만의 값에 해당하기 때문이다. 생성부(2830)는 제 2 결과 값이 6에 해당한다면, 이를 표현하기 위한 비트의 개수가 3이라는 정보를 비트스트림에 포함시킬 수 있다.
일 실시예에서, 제 2 결과 값을 표현하기 위한 비트의 개수 정보가 부호화 인자 값에 대응하여 미리 결정되어 있는 경우, 생성부(2830)는 제 2 결과 값을 표현하기 위한 비트의 개수 정보를 비트스트림에 포함시키지 않을 수도 있다. 영상 복호화 장치(2100)는 부호화 인자 값이 결정되면, 제 2 결과 값을 표현하기 위한 비트의 개수를 알 수 있으므로, 비트스트림으로부터 소정 개수의 비트를 획득하고, 획득한 비트 값에 기초하여 제 2 결과 값을 결정할 수 있다.
도 29는 일 실시예에 따른 움직임 정보의 부호화 방법을 설명하기 위한 순서도이다.
S2910 단계에서, 영상 부호화 장치(2800)는 현재 블록의 잔차 움직임 벡터를 획득한다. 영상 부호화 장치(2800)는 현재 블록의 움직임 벡터와 예측 움직임 벡터를 이용하여 잔차 움직임 벡터를 획득할 수 있다.
일 실시예에서, 영상 부호화 장치(2800)는 현재 블록의 움직임 벡터의 제 1 성분에 대한 제 1 MVR 및 제 2 성분에 대한 제 2 MVR을 결정하고, 결정된 제 1 MVR 및 제 2 MVR에 따라 현재 블록의 움직임 벡터의 제 1 성분 값 및 제 2 성분 값을 결정할 수 있다.
일 실시예에서, 영상 부호화 장치(2800)는 적어도 하나의 주변 블록의 움직임 벡터에 기초하여 현재 블록의 예측 움직임 벡터를 결정할 수 있다. 영상 부호화 장치(2800)는 제 1 MVR 및 제 2 MVR과, 적어도 하나의 후보 MVR 중 최소 MVR의 비교 결과에 기초하여 예측 움직임 벡터를 조정할 수도 있다.
S2920 단계에서, 영상 부호화 장치(2800)는 현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화를 적용하기로 결정한 경우, 부호화 인자 값을 결정한다.
앞서 살펴본 바와 같이, 영상 부호화 장치(2800)는 여러 인자 값 후보 중 어느 하나의 인자 값 후보를 현재 블록의 부호화 인자 값으로 결정할 수 있다. 일 실시예에서, 영상 부호화 장치(2800)는 현재 블록, 이전에 부호화된 블록, 현재 블록을 포함하는 현재 슬라이스, 이전에 부호화된 슬라이스, 현재 블록을 포함하는 현재 픽처 및 이전에 부호화된 픽처 중 적어도 하나와 관련된 정보에 기초하여 부호화 인자 값을 결정할 수도 있다.
일 실시예에서, 영상 부호화 장치(2800)는 제 1 MVR 및 제 2 MVR에 기초하여 부호화 인자 값을 결정할 수도 있다.
S2930 단계에서, 영상 부호화 장치(2800)는 소정 연산에 따라 부호화 인자 값을 현재 블록의 잔차 움직임 벡터에 적용하여 제 1 결과 값을 획득한다. 영상 부호화 장치(2800)는 소정 연산에 따라 부호화 인자 값을 현재 블록의 잔차 움직임 벡터에 적용하여 제 2 결과 값을 더 획득할 수도 있다.
S2940 단계에서, 영상 부호화 장치(2800)는 제 1 결과 값에 기초하여 비트스트림을 생성한다. 영상 부호화 장치(2800)는 제 2 결과 값도 획득된 경우, 제 1 결과 값과 제 2 결과 값에 기초하여 비트스트림을 생성할 수도 있다.
일 실시예에서, 상기 비트스트림에는 현재 블록의 예측 모드, 잔차 움직임 벡터에 대해 적응적 부호화가 적용되었는지를 나타내는 정보, 부호화 인자 값, 제 1 결과 값, 제 2 결과 값, 제 1 MVR, 제 2 MVR 및 잔차 움직임 벡터 중 적어도 하나에 대한 정보가 포함될 수 있다.
일 실시예에서, 현재 블록의 잔차 움직임 벡터에 적응적 부호화가 적용되지 않은 경우, 상기 비트스트림에는 부호화 인자 값, 제 1 결과 값 및 제 2 결과 값에 대한 정보가 포함되지 않을 수 있다.
도 30은 1/4 화소 단위의 MVR, 1/2 화소 단위의 MVR, 1 화소 단위의 MVR 및 2 화소 단위의 MVR에 대응하여 움직임 벡터가 가리킬 수 있는 화소들의 위치를 나타낸다.
도 30의 (a), (b), (c), (d)는 각각 좌표 (0, 0)을 기준으로 1/4 화소 단위의 MVR, 1/2 화소 단위의 MVR, 1 화소 단위의 MVR 및 2 화소 단위의 MVR의 움직임 벡터가 가리킬 수 있는 화소의 좌표(검정색 사각형으로 표시)들을 나타낸다.
최소 MVR이 1/4 화소 단위의 MVR인 경우, 1/4 화소 단위의 MVR의 움직임 벡터가 가리킬 수 있는 화소의 좌표는 (a/4, b/4)(a, b는 정수)가 되고, 1/2 화소 단위의 MVR의 움직임 벡터가 가리킬 수 있는 화소의 좌표는 (2c/4, 2d/4)(c, d는 정수)가 되고, 1 화소 단위의 MVR의 움직임 벡터가 가리킬 수 있는 화소의 좌표는 (4e/4, 4f/4)(e, f는 정수)가 되고, 2 화소 단위의 MVR의 움직임 벡터가 가리킬 수 있는 화소의 좌표는 (8g/4, 8h/4)(g, h는 정수)가 된다. 즉, 최소 MVR이 2m(m은 정수) 화소 단위를 갖는 경우, 2n(n은 정수) 화소 단위의 MVR이 가리킬 수 있는 화소의 좌표는 (2n-m*i/2-m, 2n-m*j/2-m)(i, j는 정수)이 된다. 움직임 벡터가 특정의 MVR에 따라 결정되더라도, 움직임 벡터는 1/4 화소 단위에 따라 보간된 영상 내 좌표로 표현된다.
일 실시예에서, 최소 MVR에 따라 보간된 영상에서 움직임 벡터가 결정되므로, 움직임 벡터가 정수로 표현될 수 있도록, 움직임 벡터에 최소 MVR의 화소 단위 값의 역수, 예를 들어, 최소 MVR이 2m(m은 정수) 화소 단위를 갖는 경우, 2-m을 곱하여 정수 단위의 움직임 벡터를 나타낼 수 있다. 2-m을 곱한 정수 단위의 움직임 벡터가 영상 복호화 장치(2100) 및 영상 부호화 장치(2800)에서 이용될 수 있다.
만약, 좌표(0,0)에서 출발한 1/2 화소 단위의 MVR의 움직임 벡터가 좌표 (2/4, 6/4)을 가리키고, 최소 MVR이 1/4 화소 단위를 갖는다면, 영상 부호화 장치(2800)는 움직임 벡터에 정수 4를 곱한 값인 (2, 6)를 움직임 벡터로 결정할 수 있다.
일 실시예에 따른 영상 부호화 장치(2800)는 MVR의 크기가 1 화소 단위 미만인 경우, 부화소 단위로 움직임 예측을 수행하기 위해, 정수 화소 단위에서 결정된 움직임 벡터를 기준으로, 부화소 단위에 기초하여 참조 영상 내에서 현재 블록과 유사한 블록을 검색할 수 있다.
일 예로서, 영상 부호화 장치(2800)는 현재 블록의 MVR이 1/4 화소 단위 MVR인 경우, 정수 화소 단위에서 움직임 벡터를 결정하고, 1/2 화소 단위의 부픽셀들이 생성되도록 참조 영상을 보간한 후 정수 화소 단위에서 결정된 움직임 벡터를 기준으로 (-1 ~ 1, -1 ~ 1) 범위에서 가장 유사한 예측 블록을 검색할 수 있다. 다음, 다시 1/4 화소 단위의 부픽셀들이 생성되도록 참조 영상을 보간한 후, 1/2 화소 단위에서 결정된 움직임 벡터를 기준으로 (-1 ~ 1, -1 ~ 1) 범위에서 가장 유사한 예측 블록을 검색함으로서, 최종적인 1/4 화소 단위 MVR의 움직임 벡터를 결정할 수 있다.
예를 들어, 정수 화소 단위의 움직임 벡터가 좌표 (0,0)을 기준으로 (-4, -3)인 경우, 1/2 화소 단위 MVR에서는 움직임 벡터가 (-8, -6)(=(-4*2, -3*2))이 되고 만약 (0, -1)만큼 움직였다면 1/2 화소 단위 MVR의 움직임 벡터는 최종적으로 (-8, -7)(=(-8, -6-1))로 결정된다. 또한, 1/4 화소 단위 MVR에서의 움직임 벡터는 (-16, -14)(=(-8*2, -7*2))로 변경되고 다시 (-1,0)만큼 움직였다면 1/4 화소 단위 MVR의 최종적인 움직임 벡터는 (-17, -14)(=(-16-1, -14))로 결정될 수 있다.
앞서 설명한 바와 같이, 현재 블록의 움직임 벡터의 MVR이 움직임 벡터의 성분별로 결정되는 경우, 영상 부호화 장치(2800)는 제 1 MVR에 따라 현재 블록의 움직임 벡터의 제 1 성분 값을 결정하고, 제 2 MVR에 따라 현재 블록의 움직임 벡터의 제 2 성분 값을 결정할 수 있다.
일 실시예에 따른 영상 부호화 장치(2800)는 현재 블록의 MVR이 1 화소 단위 MVR보다 큰 경우, 큰 화소 단위로 움직임 예측을 수행하기 위해, 정수 화소 단위에서 결정된 움직임 벡터를 기준으로 1 화소 단위보다 큰 화소 단위에 기초하여 참조 픽처 내에서 현재 블록과 유사한 블록을 검색할 수 있다. 1 화소 단위보다 큰 화소 단위(예를 들어, 2 화소 단위, 3 화소 단위, 4 화소 단위)에 위치하는 화소는 슈퍼 화소(super pixel)로 참조될 수 있다.
이하에서는, 도 31 및 도 32를 참조하여, 일 실시예에 따른 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)에 의해 선택적으로 수행되는 예측 움직임 벡터 조정 방법에 대해 설명한다.
영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 현재 블록의 MVR이 선택 가능한 후보 MVR 중 최소 MVR보다 큰 경우, 현재 블록의 예측 움직임 벡터를 조정할 수 있다.
영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 최소 MVR에 따라 보간된 영상 내 좌표로 표현되는 예측 움직임 벡터를 현재 블록의 MVR로 조정(adjust)하기 위해, 예측 움직임 벡터가 가리키는 화소 대신 주변의 화소들을 가리키도록 조정할 수 있다.
일 예로서, 최소 MVR이 1/4 화소 단위이고, 현재 블록의 MVR이 1 화소 단위인 경우, 도 31에서 좌표 (0,0)을 기준으로 좌표 (19, 27)의 화소(3110)를 가리키는 예측 움직임 벡터(A)를 현재 블록의 MVR인 1 화소 단위 MVR로 조정하기 위해 예측 움직임 벡터(A)가 가리키는 화소(3110)의 좌표 (19, 27)를 정수 4로 나누게 되는데(즉, 다운스케일), 나눈 결과에 해당하는 좌표 (19/4, 27/4)가 정수 화소 단위를 가리키지 않는 경우가 발생하게 된다.
영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 다운스케일된 예측 움직임 벡터가 정수 화소 단위를 가리키도록 조정할 수 있다. 예를 들어, 좌표 (19/4, 27/4)를 중심으로 한 주변의 정수 화소의 좌표 각각은 (16/4, 28/4), (16/4, 24/4), (20/4, 28/4), (20/4, 24/4)가 된다. 이 때, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 다운스케일된 예측 움직임 벡터(A)가 좌표 (19/4, 27/4) 대신 우측-상단에 위치하는 좌표인 (20/4, 28/4)를 가리키도록 조정한 후, 다시 정수 4를 곱하여(즉, 업스케일), 최종적으로 조정된 예측 움직임 벡터(D)가 좌표 (20, 28)에 해당하는 화소(3140)을 가리키도록 할 수 있다.
도 31을 참조하면, 조정되기 전의 예측 움직임 벡터(A)가 화소(3110)를 가리키고, 최종적으로 조정된 예측 움직임 벡터(D)가 화소(3110)의 우측-상단에 위치하는 정수 단위의 화소(3140)를 가리킬 수 있다.
일 실시예에 따른 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 예측 움직임 벡터를 현재 블록의 MVR에 따라 조정할 때, 조정된 예측 움직임 벡터가, 조정되기 전의 예측 움직임 벡터가 가리키는 화소의 우측-상단에 위치하는 화소를 가리키도록 할 수 있다. 다른 실시예에 따른 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 조정된 예측 움직임 벡터가, 조정되기 전의 예측 움직임 벡터가 가리키는 화소의 좌측-상단에 위치하는 화소, 좌측-하단에 위치하는 화소, 또는 우측-하단에 위치하는 화소를 가리키도록 할 수도 있다.
일 실시예에서, 다운스케일된 예측 움직임 벡터가 가리키는 x 좌표 값 및 y 좌표 값 중 어느 하나가 정수 화소를 가리키는 경우에는, 정수 화소를 가리키지 않는 좌표 값만을 증가시키거나 감소시켜, 정수 화소를 가리키도록 조정할 수 있다. 즉, 다운스케일된 예측 움직임 벡터가 가리키는 x 좌표 값이 정수 화소를 가리키지 않을 때에는, 조정된 예측 움직임 벡터의 x 좌표 값이, 조정되기 전의 예측 움직임 벡터의 x 좌표 값이 가리키는 화소의 좌측에 위치하는 정수 화소 또는 우측에 위치하는 정수 화소를 가리키도록 할 수 있다. 또는, 다운스케일된 예측 움직임 벡터가 가리키는 y 좌표 값이 정수 화소를 가리키지 않을 때에는, 조정된 예측 움직임 벡터의 y 좌표 값이, 조정되기 전의 예측 움직임 벡터의 y 좌표 값이 가리키는 화소의 상부에 위치하는 정수 화소 또는 하부에 위치하는 정수 화소를 가리키도록 할 수 있다.
영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 예측 움직임 벡터를 조정할 때, 조정된 예측 움직임 벡터가 가리키는 지점을, 현재 블록의 MVR에 따라 다르게 선택할 수도 있다.
예를 들어, 도 32를 참조하면, 현재 블록의 MVR이 1/2 화소 단위 MVR인 경우, 조정된 예측 움직임 벡터는 조정되기 전의 예측 움직임 벡터가 가리키는 화소(3210)의 좌측-상단의 화소(3230)를 가리키게 하고, 현재 블록의 MVR이 1 화소 단위 MVR인 경우, 조정된 예측 움직임 벡터는 조정되기 전의 예측 움직임 벡터가 가리키는 화소(3210)의 우측-상단의 화소(3220)를 가리키게 하고, 현재 블록의 MVR이 2 화소 단위 MVR인 경우, 조정된 예측 움직임 벡터는 조정되기 전의 예측 움직임 벡터가 가리키는 화소(3210)의 우측-하단의 화소(3240)를 가리키도록 조정할 수 있다.
영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 조정된 예측 움직임 벡터가 어느 화소를 가리키도록 할지를, 현재 블록의 MVR, 예측 움직임 벡터, 주변 블록의 정보, 부호화 정보, 임의의 패턴 중 적어도 하나에 기초하여 결정할 수 있다.
영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 현재 블록의 MVR과 최소 MVR을 고려하여 예측 움직임 벡터를 조정할 때, 하기의 수학식 1에 따라 조정할 수 있다.
[수학식 1]
pMV' = ((pMV >> k) + offset) << k
수학식 1에서 pMV'는 조정된 예측 움직임 벡터를 나타내고, k는 현재 블록의 MVR과 최소 MVR의 차이에 따라 결정되는 값으로서, 현재 블록의 MVR이 2m 화소 단위(m은 정수), 최소 MVR이 2n 화소 단위(n은 정수)이고, m > n일 때, k는 m-n일 수 있다.
일 실시예에서, k는 MVR의 인덱스일 수도 있는데, 후보 MVR이 1/4 화소 단위 MVR, 1/2 화소 단위 MVR, 1 화소 단위 MVR, 2 화소 단위 MVR 및 4 화소 단위 MVR을 포함할 때, MVR의 각 인덱스에 대응하는 MVR은 앞서 살펴본 표 1과 같다. 영상 복호화 장치(2100)는 비트스트림으로부터 MVR 인덱스가 수신되면, MVR 인덱스를 k로 이용하여 후보 블록의 움직임 벡터를 수학식 1에 따라 조정할 수 있다.
또한, 수학식 1에서 >> 또는 <<는 비트 쉬프트(bit shift) 연산으로서, 예측 움직임 벡터의 크기를 감소 또는 증가시키는 연산을 의미한다. 또한, offset은 k 값에 따라 다운스케일된 pMV가 정수 화소를 가리키지 않을 때 정수 화소를 가리키도록 더해지거나 빼지는 값을 의미한다. offset은 기본 MV의 x 좌표 값 및 y 좌표 값 각각에 대해 상이하게 결정될 수 있다.
일 실시예에서, 영상 부호화 장치(2800)와 영상 복호화 장치(2100)는 다운스케일된 pMV가 정수 화소를 가리키도록 변경시킬 때, 동일 기준에 따라 변경시킬 수 있다.
일 실시예에서, 다운스케일된 pMV의 x 좌표 값 및 y 좌표 값이 정수 화소를 가리키지 않을 때, 다운스케일된 pMV의 x 좌표 값 및 y 좌표 값을 항상 증가시켜 정수 화소를 가리키도록 할 수 있고, 항상 감소시켜 정수 화소를 가리키도록 할 수도 있다. 또는, 다운스케일된 pMV의 x 좌표 값 및 y 좌표 값을 반올림하여 정수 화소를 가리키도록 할 수도 있다.
일 실시예에서, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 예측 움직임 벡터를 조정할 때, 예측 움직임 벡터의 다운스케일 및 업스케일을 생략하고, 예측 움직임 벡터가 현재 블록의 MVR에 대응하는 화소 단위를 가리키도록 최소 MVR에 따라 보간된 참조 영상 내 좌표 평면에서 조정할 수도 있다.
또한, 일 실시예에서, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 현재 블록의 MVR과 최소 MVR을 고려하여 예측 움직임 벡터를 조정할 때, 상기 수학식 1 대신 하기의 수학식 2에 따라 조정할 수도 있다.
[수학식 2]
pMV' = ((pMV + offset) >> k) << k
수학식 2는 수학식 1과 유사하나, 수학식 1에서와 같이 offset이 다운스케일된 pMV에 적용되는 것이 아니고, 원래의 pmV에 offset이 적용된 후, k에 따라 다운스케일된 것을 알 수 있다.
영상 부호화 장치(2800)는 현재 블록의 MVR로 현재 블록의 움직임 벡터를 찾고, 현재 블록의 움직임 벡터와 선택적으로 조정된 예측 움직임 벡터 사이의 차를 잔차 움직임 벡터로 획득할 수 있다. 그리고, 영상 복호화 장치(2100)는 현재 블록의 잔차 움직임 벡터와 선택적으로 조정된 예측 움직임 벡터의 합을 현재 블록의 움직임 벡터로 획득할 수 있다. 일 실시예에서, 영상 복호화 장치(2100)는 현재 블록의 MVR이 1 화소 단위 MVR 미만인 경우에는, 최소 MVR에 따라 참조 영상을 보간한 후, 현재 블록의 움직임 벡터에 따라 예측 블록을 탐색할 수 있다. 또한, 영상 복호화 장치(2100)는 현재 블록의 MVR이 1 화소 단위 MVR 이상인 경우에는, 참조 영상을 보간하지 않고 현재 블록의 움직임 벡터에 따라 예측 블록을 탐색할 수 있다.
현재 블록의 MVR과 최소 MVR의 크기 비교 결과에 따라 예측 움직임 벡터의 조정이 수행되는 것으로 설명하였지만, 앞서 설명한 바와 같이, 현재 블록의 움직임 벡터에 대해 제 1 성분을 위한 제 1 MVR과 제 2 성분을 위한 제 2 MVR이 독립적으로 결정되는 경우, 예측 움직임 벡터의 제 1 성분 값과 제 2 성분 값 역시 독립적으로 조정될 수 있다. 구체적으로, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 제 1 MVR이 최소 MVR보다 큰 경우, 예측 움직임 벡터의 제 1 성분 값을 조정하고, 제 2 MVR이 최소 MVR보다 큰 경우, 예측 움직임 벡터의 제 2 성분 값을 조정할 수 있다.
일 예로서, 최소 MVR이 1/4 화소 단위이고, 현재 블록의 제 1 MVR이 1 화소 단위이고, 좌표 (0,0)을 기준으로 예측 움직임 벡터의 제 1 성분 값이 좌표 (19)를 가리키는 경우를 가정한다. 예측 움직임 벡터의 제 1 성분 값을 현재 블록의 MVR인 1 화소 단위 MVR로 조정하기 위해 제 1 성분 값이 가리키는 화소의 좌표 (19)를 정수 4로 나눌 수 있는데, 나눈 결과에 해당하는 좌표 (19/4)가 정수 화소 단위를 가리키지 않는 경우가 발생하게 된다.
영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 다운스케일된 제 1 성분 값이 정수 화소 단위를 가리키도록 조정할 수 있다. 예를 들어, 좌표 (19/4)를 중심으로 제 1 성분 방향에 위치한 주변의 정수 화소의 좌표 각각은 (16/4)과 (20/4)이 된다. 이 때, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 다운스케일된 제 1 성분 값이 좌표 (19/4) 대신 우측에 위치하는 좌표인 (20/4)을 가리키도록 조정한 후, 다시 정수 4를 곱하여(즉, 업스케일), 최종적으로 조정된 제 1 성분 값이 좌표 (20)에 해당하는 화소를 가리키도록 할 수 있다. 실시예에 따라, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 다운스케일된 제 1 성분 값이 좌표 (19/4) 대신 좌측에 위치하는 좌표인 (16/4)을 가리키도록 조정할 수도 있다.
또한, 일 예로서, 최소 MVR이 1/4 화소 단위이고, 현재 블록의 제 2 MVR이 1 화소 단위이고, 좌표 (0,0)을 기준으로 예측 움직임 벡터의 제 2 성분 값이 좌표 (27)을 가리키는 경우를 가정한다. 예측 움직임 벡터의 제 2 성분 값을 현재 블록의 MVR인 1 화소 단위 MVR로 조정하기 위해 제 2 성분 값이 가리키는 화소의 좌표 (27)를 정수 4로 나눌 수 있는데, 나눈 결과에 해당하는 좌표 (27/4)이 정수 화소 단위를 가리키지 않는 경우가 발생하게 된다.
영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 다운스케일된 제 2 성분 값이 정수 화소 단위를 가리키도록 조정할 수 있다. 예를 들어, 좌표 (27/4)을 중심으로 제 2 성분 방향에 위치한 주변의 정수 화소의 좌표 각각은 (24/4)와 (28/4)이 된다. 이 때, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 다운스케일된 제 1 성분 값이 좌표 (27/4) 대신 상부에 위치하는 좌표인 (28/4)을 가리키도록 조정한 후, 다시 정수 4를 곱하여(즉, 업스케일), 최종적으로 조정된 제 2 성분 값이 좌표 (28)에 해당하는 화소를 가리키도록 할 수 있다. 실시예에 따라, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 다운스케일된 제 2 성분 값이 좌표 (27/4) 대신 하부에 위치하는 좌표인 (24/4)를 가리키도록 조정할 수도 있다.
일 실시예에서, 영상 부호화 장치(2800) 및 영상 복호화 장치(2100)는 예측 움직임 벡터의 제 1 성분 값 및 제 2 성분 값 각각을 조정할 때, 상기 수학식 1 또는 수학식 2에 기초할 수도 있다.
한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.
매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상, 본 개시의 기술적 사상을 바람직한 실시예를 들어 상세하게 설명하였으나, 본 개시의 기술적 사상은 상기 실시예들에 한정되지 않고, 본 개시의 기술적 사상의 범위 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 여러 가지 변형 및 변경이 가능하다.

Claims (15)

  1. 현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용된 경우, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계;
    비트스트림에 포함된 정보에 기초하여, 상기 잔차 움직임 벡터에 대해 상기 적응적 부호화가 적용되어 생성된 제 1 결과 값을 결정하는 단계;
    상기 결정된 부호화 인자 값을 소정 연산에 따라 상기 제 1 결과 값에 적용하여 상기 잔차 움직임 벡터를 획득하는 단계; 및
    상기 획득한 잔차 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초하여, 상기 현재 블록의 움직임 벡터를 획득하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  2. 제1항에 있어서,
    상기 제 1 결과 값을 결정하는 단계는,
    상기 비트스트림에 포함된 정보에 기초하여, 상기 잔차 움직임 벡터에 대해 상기 적응적 부호화가 적용되어 생성된 제 2 결과 값을 결정하는 단계를 포함하고,
    상기 잔차 움직임 벡터를 획득하는 단계는,
    상기 소정 연산에 상기 제 2 결과 값을 더 적용하여 상기 잔차 움직임 벡터를 획득하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  3. 제1항에 있어서,
    상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계는,
    상기 비트스트림으로부터 인자 값 지시 정보를 획득하는 단계; 및
    상기 획득한 인자 값 지시 정보에 기초하여 상기 부호화 인자 값을 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  4. 제1항에 있어서,
    상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계는,
    상기 현재 블록, 이전에 복호화된 블록, 상기 현재 블록을 포함하는 현재 슬라이스, 이전에 복호화된 슬라이스, 상기 현재 블록을 포함하는 현재 픽처 및 이전에 복호화된 픽처 중 적어도 하나와 관련된 정보에 기초하여, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  5. 제1항에 있어서,
    상기 움직임 정보의 복호화 방법은,
    상기 현재 블록의 잔차 움직임 벡터에 적응적 부호화가 적용되지 않은 경우, 상기 비트스트림으로부터 획득한 정보에 기초하여, 상기 현재 블록의 잔차 움직임 벡터를 결정하는 단계를 더 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  6. 제1항에 있어서,
    상기 움직임 정보의 복호화 방법은,
    상기 현재 블록의 움직임 벡터의 제 1 성분의 제 1 움직임 벡터 해상도 및 상기 현재 블록의 움직임 벡터의 제 2 성분의 제 2 움직임 벡터 해상도를 결정하는 단계; 및
    기 설정된 최소 움직임 벡터 해상도와, 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도의 비교 결과에 기초하여, 상기 예측 움직임 벡터의 제 1 성분 값 및 제 2 성분 값을 조정하는 단계; 및
    상기 조정된 예측 움직임 벡터와 상기 잔차 움직임 벡터에 기초하여 상기 현재 블록의 움직임 벡터를 획득하는 단계를 더 포함하는 것을 특징으로 하는 움직임 벡터의 복호화 방법.
  7. 제6항에 있어서,
    상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계는,
    상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도에 기초하여 상기 부호화 인자 값을 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 벡터의 복호화 방법.
  8. 제6항에 있어서,
    상기 예측 움직임 벡터의 제 1 성분 값 및 제 2 성분 값을 조정하는 단계는,
    상기 제 1 움직임 벡터 해상도가 상기 최소 움직임 벡터 해상도보다 큰 경우, 상기 예측 움직임 벡터의 제 1 성분 값을 조정하고, 상기 제 2 움직임 벡터 해상도가 상기 최소 움직임 벡터 해상도보다 큰 경우, 상기 예측 움직임 벡터의 제 2 성분 값을 조정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  9. 제6항에 있어서,
    상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계는,
    상기 비트스트림으로부터 획득된 제 1 움직임 벡터 해상도를 나타내는 정보 및 제 2 움직임 벡터 해상도를 나타내는 정보에 기초하여, 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  10. 제6항에 있어서,
    상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계는,
    상기 현재 블록의 너비 및 높이에 기초하여 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  11. 제10항에 있어서,
    상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계는,
    상기 너비가 상기 높이보다 큰 경우, 상기 제 1 움직임 벡터 해상도가 상기 제 2 움직임 벡터 해상도보다 크도록 상기 제 1 움직임 벡터 해상도 및 상기 제 2 움직임 벡터 해상도를 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 복호화 방법.
  12. 비트스트림을 획득하는 획득부; 및
    현재 블록의 잔차 움직임 벡터에 대해 적응적 부호화가 적용된 경우, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하고, 상기 비트스트림에 포함된 정보에 기초하여 상기 잔차 움직임 벡터에 대해 상기 적응적 부호화가 적용되어 생성된 제 1 결과 값을 결정하고, 상기 결정된 부호화 인자 값을 소정 연산에 따라 상기 잔차 움직임 벡터의 제 1 결과 값에 적용하여 상기 잔차 움직임 벡터를 획득하고, 상기 획득한 잔차 움직임 벡터와 상기 현재 블록의 예측 움직임 벡터에 기초하여, 상기 현재 블록의 움직임 벡터를 획득하는 예측 복호화부를 포함하는 것을 특징으로 하는 영상 복호화 장치.
  13. 현재 블록의 움직임 벡터와 예측 움직임 벡터에 기초하여 상기 현재 블록의 잔차 움직임 벡터를 획득하는 단계;
    상기 잔차 움직임 벡터에 대해 적응적 부호화가 적용되는 경우, 상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계;
    상기 결정된 부호화 인자 값을 소정 연산에 따라 상기 잔차 움직임 벡터에 적용하여 상기 잔차 움직임 벡터의 제 1 결과 값을 획득하는 단계; 및
    상기 잔차 움직임 벡터의 제 1 결과 값에 기초하여 비트스트림을 생성하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 부호화 방법.
  14. 제13항에 있어서,
    상기 움직임 정보의 부호화 방법은,
    상기 결정된 부호화 인자 값을 상기 소정 연산에 따라 상기 잔차 움직임 벡터에 적용하여 상기 잔차 움직임 벡터의 제 2 결과 값을 더 획득하는 단계를 포함하고,
    상기 비트스트림을 생성하는 단계는,
    상기 잔차 움직임 벡터의 제 1 결과 값 및 제 2 결과 값에 기초하여 상기 비트스트림을 생성하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 부호화 방법.
  15. 제14항에 있어서,
    상기 잔차 움직임 벡터의 부호화 인자 값을 결정하는 단계는,
    복수의 인자 값 후보 각각을 상기 잔차 움직임 벡터에 적용하는 경우, 상기 잔차 움직임 벡터의 상기 제 1 결과 값, 상기 제 2 결과 값 및 인자 값 후보를 나타내는 인자 값 지시 정보의 전체 비트 개수가 가장 적은 인자 값 후보를 상기 현재 블록의 잔차 움직임 벡터의 부호화 인자 값으로 결정하는 단계를 포함하는 것을 특징으로 하는 움직임 정보의 부호화 방법.
PCT/KR2018/007213 2018-06-26 2018-06-26 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법 WO2020004682A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/255,599 US20210266561A1 (en) 2018-06-26 2018-06-26 Motion information encoding apparatus and encoding method, and motion information decoding apparatus and decoding method
KR1020207027515A KR20210014094A (ko) 2018-06-26 2018-06-26 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법
PCT/KR2018/007213 WO2020004682A1 (ko) 2018-06-26 2018-06-26 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/007213 WO2020004682A1 (ko) 2018-06-26 2018-06-26 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법

Publications (1)

Publication Number Publication Date
WO2020004682A1 true WO2020004682A1 (ko) 2020-01-02

Family

ID=68985089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/007213 WO2020004682A1 (ko) 2018-06-26 2018-06-26 움직임 정보의 부호화 장치 및 부호화 방법, 및 움직임 정보의 복호화 장치 및 복호화 방법

Country Status (3)

Country Link
US (1) US20210266561A1 (ko)
KR (1) KR20210014094A (ko)
WO (1) WO2020004682A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240010542A (ko) * 2018-12-17 2024-01-23 삼성전자주식회사 예측 모드를 시그널링하는 비디오 신호 처리 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101318869B1 (ko) * 2009-08-28 2013-10-16 에스케이텔레콤 주식회사 동영상 부호화를 위한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR20140032930A (ko) * 2011-06-24 2014-03-17 파나소닉 주식회사 화상 부호화 방법, 화상 복호방법, 화상 부호화 장치, 화상 복호장치 및 화상 부호화 복호장치
KR101660133B1 (ko) * 2011-07-01 2016-09-26 퀄컴 인코포레이티드 적응적 모션 벡터 해상도를 이용한 비디오 코딩
KR101678968B1 (ko) * 2009-08-21 2016-11-25 에스케이텔레콤 주식회사 참조 픽처 보간 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR20170078673A (ko) * 2014-10-31 2017-07-07 삼성전자주식회사 움직임 벡터 부복호화 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101678968B1 (ko) * 2009-08-21 2016-11-25 에스케이텔레콤 주식회사 참조 픽처 보간 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR101318869B1 (ko) * 2009-08-28 2013-10-16 에스케이텔레콤 주식회사 동영상 부호화를 위한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
KR20140032930A (ko) * 2011-06-24 2014-03-17 파나소닉 주식회사 화상 부호화 방법, 화상 복호방법, 화상 부호화 장치, 화상 복호장치 및 화상 부호화 복호장치
KR101660133B1 (ko) * 2011-07-01 2016-09-26 퀄컴 인코포레이티드 적응적 모션 벡터 해상도를 이용한 비디오 코딩
KR20170078673A (ko) * 2014-10-31 2017-07-07 삼성전자주식회사 움직임 벡터 부복호화 방법 및 장치

Also Published As

Publication number Publication date
KR20210014094A (ko) 2021-02-08
US20210266561A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
WO2020060158A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2018012808A1 (ko) 크로마 인트라 예측 방법 및 그 장치
WO2017142327A1 (ko) 인트라 예측오차의 감소를 위한 인트라 예측 방법 및 그 장치
WO2019009504A1 (ko) 적응적 움직임 벡터 해상도로 결정된 움직임 벡터의 부호화 장치 및 부호화 방법, 및 움직임 벡터의 복호화 장치 및 복호화 방법
WO2020027551A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2018047995A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020076097A1 (ko) 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019093598A1 (ko) 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
WO2017090968A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2019168347A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020130730A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2019054736A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019216716A2 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020235951A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2020130712A1 (ko) 삼각 예측 모드를 이용하는 영상 부호화 장치 및 영상 복호화 장치, 및 이에 의한 영상 부호화 방법 및 영상 복호화 방법
WO2021141451A1 (ko) 양자화 파라미터를 획득하기 위한 비디오 복호화 방법 및 장치, 양자화 파라미터를 전송하기 위한 비디오 부호화 방법 및 장치
WO2020040623A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2019093597A1 (ko) 움직임 벡터 해상도에 기초하여 영상을 부호화하는 장치 및 방법, 및 복호화 장치 및 방법
WO2019135648A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019066514A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019209028A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2021049894A1 (ko) 툴 세트를 이용하는 영상 복호화 장치 및 이에 의한 영상 복호화 방법, 및 영상 부호화 장치 및 이에 의한 영상 부호화 방법
WO2020101429A1 (ko) 양방향 예측을 이용한 영상의 부호화 및 복호화 방법, 및 영상의 부호화 및 복호화 장치
WO2019216712A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2017195945A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18924571

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18924571

Country of ref document: EP

Kind code of ref document: A1