WO2018182310A1 - Method and apparatus for video encoding, and method and apparatus for video decoding - Google Patents

Method and apparatus for video encoding, and method and apparatus for video decoding Download PDF

Info

Publication number
WO2018182310A1
WO2018182310A1 PCT/KR2018/003658 KR2018003658W WO2018182310A1 WO 2018182310 A1 WO2018182310 A1 WO 2018182310A1 KR 2018003658 W KR2018003658 W KR 2018003658W WO 2018182310 A1 WO2018182310 A1 WO 2018182310A1
Authority
WO
WIPO (PCT)
Prior art keywords
motion information
reference pixel
motion
information
current block
Prior art date
Application number
PCT/KR2018/003658
Other languages
French (fr)
Korean (ko)
Inventor
탬즈아니쉬
표인지
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020197019480A priority Critical patent/KR102243215B1/en
Publication of WO2018182310A1 publication Critical patent/WO2018182310A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Definitions

  • the present specification relates to an image encoding, an image decoding method, and an apparatus, and more particularly, to an image encoding or decoding method and apparatus for more accurately predicting motion information of pixels of a current block based on a plurality of motion information associated with a current block. It is about.
  • one picture may be divided into a plurality of blocks to encode an image, and each block may be predictively encoded using inter prediction or intra prediction.
  • Inter prediction is a method of compressing an image by removing temporal redundancy between pictures.
  • Inter prediction may predict blocks of the current picture using at least one reference picture, respectively.
  • the inter prediction may search a reference block most similar to the current block in a predetermined search range of the reference picture by using a predetermined evaluation function.
  • inter prediction may predict the current block using the most similar reference block.
  • inter prediction may obtain, as motion information, a difference between positions of the most similar reference block and the current block.
  • the existing motion information cannot represent the change of the image such as zoom, rotation, or torsion.
  • the present disclosure provides a method and apparatus for encoding or decoding to more accurately predict motion information of pixels of a current block based on a plurality of motion information associated with a current block.
  • the image decoding method when the prediction mode of the current block is the affine mode, includes: Acquiring a first directional motion component and a second directional motion component, acquiring a first directional motion component included in motion information of a second reference pixel located at a second position of the current block from the bitstream; Acquiring a second directional motion component included in motion information of a second reference pixel, and positioned at a third position of the current block based on motion information of the first reference pixel and motion information of the second reference pixel; Acquiring motion information of a third reference pixel, length of a width and height of the current block, motion motion of the first reference pixel, and Characterized in that it comprises the step of: on the basis of the motion information of the second reference pixel motion information, and the third reference pixel in obtaining the motion information on the pixels included in the current block.
  • An image decoding method includes obtaining first difference information that is a difference between a length of a current block, a motion information of the first reference pixel, and a motion information of the second reference pixel. Acquiring second difference information which is a difference between a length of the height of the current block, motion information of the first reference pixel, and motion information of the third reference pixel, and a position of a pixel included in the current block. And acquiring motion information of a pixel included in the current block based on the information, the first difference information, and the second difference information.
  • An image decoding method may include acquiring, from the bitstream, the second directional motion component included in the motion information of the second reference pixel.
  • An image decoding method further includes obtaining information about a motion type of a current block from a bitstream, and when the motion type indicates zoom, the first reference pixel Obtaining a second directional motion component included in the motion information of the second reference pixel based on the second directional motion component included in the motion information of the second reference pixel;
  • the one-way motion component is an x-direction motion component and the second direction motion component included in the motion information of the second reference pixel is a y-direction motion component.
  • the image decoding method further includes obtaining information about a motion type of a current block from the bitstream, and when the motion type indicates rotation, the first Obtaining a second directional motion component included in the motion information of the second reference pixel based on at least one of the motion information of the reference pixel and the first directional motion component included in the motion information of the second reference pixel.
  • the first direction motion component included in the motion information of the second reference pixel is a y direction motion component
  • the second direction motion component included in the motion information of the second reference pixel is an x direction motion component.
  • An image decoding method may include the third method based on a y-direction motion component of a width and a height of the current block, motion information of the first reference pixel, and motion information of the second reference pixel. Obtaining an x-direction motion component of the motion information of the reference pixel, and based on the x-direction motion component of the width and height of the current block, the motion information of the first reference pixel, and the motion information of the second reference pixel Acquiring a y-direction motion component of the motion information of the third reference pixel.
  • the image decoding method when the size of the current block is larger than a threshold size, obtaining information about an affine mode from the bitstream; Acquiring information about a motion type from the bitstream when performing the affine mode; and when the information about the motion type indicates acquiring three directional motion components from the bitstream; Obtaining a first directional motion component and a second directional motion component included in the motion information of the first reference pixel, a first directional motion component included in the motion information of the second reference pixel, and
  • the information about the motion type indicates obtaining four directional motion components from the bitstream, an x-direction motion component and a y-direction motion component included in the motion information of the first reference pixel from the bitstream; And acquiring the x-direction motion component and the y-direction motion component included in the motion information of the two reference pixels.
  • the motion of the first reference pixel is based on the motion information of the first position of previously reconstructed neighboring blocks of the current block.
  • Acquiring information acquiring motion information of a second reference pixel based on motion information of the second position of the neighboring blocks, and moving the third reference pixel based on the motion information of the third position of the neighboring blocks Acquiring information, and based on the length of the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel.
  • An image decoding method obtains information on an affine mode from a received bitstream when the size of the current block is larger than a threshold size or at least one of the neighboring blocks is an affine mode.
  • the method may further include determining a prediction mode of the current block as an affine mode based on the information on the affine mode.
  • an image decoding method includes identifying whether neighboring blocks are in an affine mode from a lower left neighboring block to a right upper neighboring block, and an initial neighbor identified in an affine mode among the neighboring blocks. Acquiring motion information of the first reference pixel based on motion information of the first position of the block.
  • An image decoding method includes identifying whether the neighboring blocks are in an affine mode in a zigzag order from an upper left neighboring block to a right upper neighboring block or a lower left neighboring block, and among the neighboring blocks. And obtaining motion information of the second reference pixel based on the motion information of the second position of the first neighboring block identified in the affine mode.
  • an image decoding method includes identifying whether neighboring blocks are in an affine mode from an upper right neighboring block to a lower left neighboring block, and an initial neighbor identified in an affine mode among the neighboring blocks. And obtaining motion information of the third reference pixel based on the motion information of the third position of the block.
  • an image decoding method includes motion information of a first reference pixel, which is motion information of a left upper pixel of the current block, based on motion information of a neighboring block adjacent to an upper left pixel of the current block.
  • obtaining motion information of the third reference pixel which is motion information of the lower left pixel of the current block, based on the motion information of the neighboring block adjacent to the lower left pixel of the current block.
  • An image decoding apparatus includes at least one processor, wherein the at least one processor is configured to generate a first block of the current block from a received bitstream when the prediction mode of the current block is an affine mode. Acquiring a first directional motion component and a second directional motion component included in the motion information of the first reference pixel located at a position; movement of a second reference pixel located at a second position of the current block from the bitstream Acquiring a first directional motion component included in the information, acquiring a second directional motion component included in the motion information of the second reference pixel, motion information of the first reference pixel and the second reference pixel Acquiring motion information of a third reference pixel located at a third position of the current block based on the motion information, and Motion information of a pixel included in the current block based on a width and a height of a current block, motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel. And to perform
  • An image decoding apparatus includes at least one processor, wherein the at least one processor is configured to determine previously reconstructed neighboring blocks of the current block when the prediction mode of the current block is an affine mode.
  • the neighboring blocks are temporally or spatially adjacent to the current block.
  • a method of encoding an image is based on motion information of a first reference pixel for a first position of the current block based on a current block included in an original image and a previously reconstructed image of the current block.
  • Obtaining an included first directional motion component and a second directional motion component, included in the motion information of a second reference pixel for a second position of the current block based on the current block and the previously reconstructed image Acquiring a first directional motion component, obtaining a second directional motion component included in the motion information of the second reference pixel, moving information of the first reference pixel, and motion information of the second reference pixel.
  • An image encoding method includes obtaining a second directional motion component included in motion information of the second reference pixel based on the current block and the previously reconstructed image, And generating a bitstream based on the second direction motion component included in the motion information of the second reference pixel.
  • An image encoding method obtains a second directional motion component included in the motion information of the second reference pixel based on a second directional motion component included in the motion information of the first reference pixel.
  • the method includes determining that the motion type of the current block is zoom, generating a bitstream based on the motion type, and included in the motion information of the second reference pixel.
  • the first direction motion component is an x direction motion component and the second direction motion component included in the motion information of the second reference pixel is a y direction motion component.
  • An image encoding method is included in the motion information of the second reference pixel based on the motion information of the first reference pixel and the first direction motion component included in the motion information of the second reference pixel.
  • determining that the motion type of the current block is rotation and generating a bitstream based on the motion type.
  • the first direction motion component included in the motion information of the second reference pixel is a y direction motion component
  • the second direction motion component included in the motion information of the second reference pixel is an x direction motion component.
  • An image encoding apparatus includes at least one processor, wherein the at least one processor is based on a current block included in an original image and a previously reconstructed image of the current block. Acquiring a first directional motion component and a second directional motion component included in the motion information of the first reference pixel with respect to the first position of the block; based on the current block and the previously reconstructed image, the current block Acquiring a first directional motion component included in motion information of a second reference pixel for a second position of, acquiring a second directional motion component included in motion information of the second reference pixel, the first Motion definition of a third reference pixel relative to a third position of the current block based on motion information of a reference pixel and motion information of the second reference pixel Acquiring a value included in the current block based on a width and a height of the current block, motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel. Acquiring a first directional motion component
  • FIG. 1 is a schematic block diagram of an image decoding apparatus according to an embodiment.
  • FIG. 2 is a flowchart of an image decoding method, according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating a method of predicting motion information of pixels of a current block according to an embodiment.
  • FIG. 4 is a diagram illustrating a method of predicting motion information of pixels of a current block when the motion type of the current block is a zoom type according to an embodiment.
  • FIG. 5 is a diagram illustrating a method of predicting motion information of pixels of a current block when a motion type of a current block is a rotation type according to an embodiment.
  • FIG. 6 is a diagram for describing an affine mode for receiving a differential motion vector, according to an exemplary embodiment.
  • FIG. 7 is a flowchart for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • FIG. 8 illustrates an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • FIG. 9 is a diagram for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • FIG. 10 is a diagram for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • FIG. 11 illustrates an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • FIG. 12 is a diagram for describing an affine mode in which a motion vector is not received, according to another embodiment.
  • FIG. 13 is a diagram for describing a method of obtaining motion information of a pixel included in a current block according to one embodiment of the present disclosure.
  • FIG. 14 is a flowchart for inter prediction according to an embodiment.
  • 15 is a schematic block diagram of an image encoding apparatus, according to an embodiment.
  • 16 is a flowchart of a video encoding method, according to an embodiment.
  • FIG. 17 is a diagram of a process of determining, by an image decoding apparatus, at least one coding unit by dividing a current coding unit according to an embodiment.
  • FIG. 18 illustrates a process of determining, by an image decoding apparatus, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • FIG. 19 illustrates a process of splitting a coding unit based on at least one of block shape information and split shape information, according to an embodiment.
  • 20 is a diagram for a method of determining, by an image decoding apparatus, a predetermined coding unit among odd number of coding units according to an embodiment.
  • FIG. 21 is a diagram illustrating an order in which a plurality of coding units are processed when the image decoding apparatus determines a plurality of coding units by dividing a current coding unit.
  • FIG. 22 illustrates a process of determining that a current coding unit is divided into odd coding units when the image decoding apparatus cannot process the coding units in a predetermined order, according to an embodiment.
  • FIG. 23 is a diagram of a process of determining, by an image decoding apparatus, at least one coding unit by dividing a first coding unit.
  • FIG. 24 is a view illustrating that a shape in which a second coding unit may be split is limited when a non-square type second coding unit determined by splitting a first coding unit according to an embodiment satisfies a predetermined condition. Shows that.
  • FIG. 25 is a diagram illustrating a process of splitting a coding unit having a square shape by the image decoding apparatus when the split shape information cannot be divided into four square coding units according to an embodiment.
  • FIG. 26 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • FIG. 27 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • FIG. 28 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • FIG. 29 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • FIG. 30 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture, according to an embodiment.
  • the term “part” means a software or hardware component, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • the “unit” may be implemented with a processor and a memory.
  • the term “processor” should be interpreted broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, and the like.
  • a “processor” may refer to an application specific semiconductor (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA), or the like.
  • ASIC application specific semiconductor
  • PLD programmable logic device
  • FPGA field programmable gate array
  • processor refers to a combination of processing devices such as, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in conjunction with a DSP core, or a combination of any other such configuration. May be referred to.
  • memory should be interpreted broadly to include any electronic component capable of storing electronic information.
  • the term memory refers to random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erase-programmable read-only memory (EPROM), electrical And may refer to various types of processor-readable media, such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, and the like.
  • RAM random access memory
  • ROM read-only memory
  • NVRAM non-volatile random access memory
  • PROM programmable read-only memory
  • EPROM erase-programmable read-only memory
  • electrical And may refer to various types of processor-readable media, such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, and the like.
  • EEPROM erasable PROM
  • flash memory magnetic or optical data storage, registers, and the like.
  • the "image” may be a static image such as a still image of a video or may represent a dynamic image such as a video, that is, the video itself.
  • sample means data to be processed as data allocated to a sampling position of an image.
  • pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain.
  • a unit including the at least one sample may be defined as a block.
  • FIGS. 1 to 30 An image encoding apparatus, an image decoding apparatus, an image encoding method, and an image decoding method will be described in detail with reference to FIGS. 1 to 30.
  • An encoding or decoding method using image prediction according to an embodiment will be described with reference to FIGS. 1 through 16, and a method of determining a data unit of an image according to an embodiment will be described with reference to FIGS. 17 through 30. do.
  • FIGS. 1 to 16 a method and apparatus for efficiently predicting a current block based on a plurality of motion information of the current block according to an embodiment of the present disclosure will be described with reference to FIGS. 1 to 16.
  • FIG. 1 is a schematic block diagram of an image decoding apparatus 100 according to an embodiment.
  • the image decoding apparatus 100 may include a receiver 110 and a decoder 120.
  • the receiver 110 and the decoder 120 may include at least one processor.
  • the receiver 110 and the decoder 120 may include a memory that stores instructions to be executed by at least one processor.
  • the receiver 110 may receive a bitstream.
  • the bitstream includes information encoded by an image encoding apparatus 1500, which will be described later.
  • the bitstream may be transmitted from the image encoding apparatus 1500.
  • the image encoding apparatus 1500 and the image decoding apparatus 100 may be connected by wire or wirelessly, and the receiver 110 may receive a bitstream through wire or wirelessly.
  • the receiver 110 may receive a bitstream from a storage medium such as an optical media or a hard disk.
  • the decoder 120 may reconstruct an image by obtaining information from the received bitstream. The operation of the decoder 120 will be described in more detail with reference to FIG. 2.
  • FIG. 2 is a flowchart of an image decoding method, according to an exemplary embodiment.
  • the receiver 110 may receive a bitstream.
  • the decoder 120 When the prediction mode of the current block is the affine mode, the decoder 120 includes the first direction motion component and the second direction motion component included in the motion information of the first reference pixel located at the first position of the current block from the received bitstream. Acquiring a directional motion component (210). The decoder 120 acquires a first direction motion component included in the motion information of the second reference pixel located at the second position of the current block from the bitstream (220). The decoder 120 acquires a second direction motion component included in the motion information of the second reference pixel (230). The decoder 120 acquires the motion information of the third reference pixel located at the third position of the current block based on the motion information of the first reference pixel and the motion information of the second reference pixel (240). .
  • the decoder 120 may determine the motion information of the pixel included in the current block based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. Acquisition step 250 is performed.
  • the image may be divided into maximum coding units.
  • the size of the largest coding unit may be determined based on information obtained from the bitstream.
  • the shape of the largest coding unit may have a square of the same size. But it is not limited thereto.
  • the maximum coding unit may be hierarchically divided into coding units based on split type information obtained from the bitstream.
  • the coding unit may be smaller than or equal to the maximum coding unit. For example, when indicating that split type information is not split, a coding unit has the same size as a maximum coding unit. When the split type information is split, the maximum coding unit may be split into coding units.
  • split type information of coding units indicates splitting, coding units may be split into coding units having a smaller size. However, segmentation of an image is not limited thereto, and a maximum coding unit and a coding unit may not be distinguished. Splitting of coding units will be described in more detail with reference to FIGS. 17 to 30.
  • the coding unit may be divided into a prediction unit for prediction of an image.
  • the prediction unit may be equal to or smaller than the coding unit.
  • the coding unit may be divided into a transformation unit for transformation of an image.
  • the transformation unit may be equal to or smaller than the coding unit.
  • the shape and size of the transform unit and the prediction unit may not be related to each other.
  • the coding unit may be distinguished from the prediction unit and the transformation unit, but the coding unit, the prediction unit, and the transformation unit may be the same.
  • the division of the prediction unit and the transformation unit may be performed in the same manner as the division of the coding unit. Splitting of coding units will be described in more detail with reference to FIGS. 17 to 30.
  • the current block of the present disclosure may indicate one of a maximum coding unit, a coding unit, a prediction unit, and a transformation unit.
  • the current block is a block in which decoding or encoding is currently performed.
  • the neighboring block may be a block restored before the current block.
  • the neighboring blocks can be spatially or temporally adjacent from the current block.
  • the neighboring block may be located at one of the lower left side, left side, upper left side, upper side, upper right side, right side, and lower side of the current block.
  • the decoder 120 may determine the prediction mode of the current block as the inter prediction mode or the intra prediction mode.
  • the inter prediction mode is a method of compressing an image by removing temporal redundancy between the images.
  • the decoder 120 may determine whether the current block is an inter prediction mode based on information obtained from the bitstream.
  • the decoder 120 may determine whether the current block is in an affine mode. A method of determining the affine mode by the decoder 120 will be described with reference to FIG. 14. When not in the affine mode, the decoder 120 may perform prediction based on an existing inter prediction mode.
  • the affine mode refers to a mode for predicting motion information of pixels of the current block based on motion information of some pixels of the current block or motion information of neighboring blocks of the current block. The decoding method of the affine mode will be described in more detail with reference to FIGS. 3 to 14.
  • FIG. 3 is a diagram illustrating a method of predicting motion information of pixels of a current block according to an embodiment.
  • the decoder 120 may predict the current block 310 in the affine mode.
  • the decoder 120 may acquire motion information of a reference pixel located at a plurality of positions inside and outside the current block 310.
  • the reference pixels may be predetermined positions between the image encoding apparatus 1500 and the image decoding apparatus 100.
  • the reference pixels may be included in a bitstream transmitted from the encoding apparatus 1500 to the decoding apparatus 100.
  • the decoder 120 may determine at least two of the upper left, upper right, lower left and lower right pixels of the current block as positions of the reference pixels. Referring to FIG.
  • the decoder 120 may use the upper left pixel 320 of the current block 310 as the first reference pixel, the upper right pixel 330 as the second reference pixel, and the lower left corner. It is assumed that the side pixel 340 is determined as the third reference pixel.
  • the motion information may be a motion vector.
  • the motion information may be a predicted motion vector.
  • the motion information may include an x direction motion component and a y direction motion component of the Cartesian coordinate system.
  • the motion information may include an angular motion component and a longitudinal motion component of the polar coordinate system.
  • the first direction motion component may be an x direction motion component or a y direction motion component.
  • the second direction motion component of the present disclosure may be a y direction motion component or an x direction motion component.
  • the decoder 120 may receive a bitstream from the encoding apparatus 1500 to obtain motion information.
  • the decoder 120 may receive some motion information from the encoding apparatus 1500 and predict the remaining motion information.
  • the decoder 120 may receive only the x-direction motion component or the y-direction motion component of the motion information and derive an unreceived direction motion component.
  • the decoder 120 may receive an x-direction motion component and a y-direction motion component included in one piece of motion information and derive the x-direction motion component and the y-direction motion component of other motion information.
  • the decoder 120 may obtain motion information from blocks reconstructed before the current block 310. Referring to FIG.
  • the decoder 120 may perform motion information MV0 of the first reference pixel of the upper left pixel 320 of the current block 310, and motion information of the second reference pixel of the right upper pixel 330.
  • the motion information MV2 of the third reference pixel of the MV1 and the lower left pixel 340 may be determined.
  • the motion information MV0, MV1, and MV2 may include an x direction motion component and a y direction motion component, respectively. Therefore, the decoder 120 may predict the motion information of the pixels of the current block 310 using a total of six directional motion components.
  • the motion vector may change linearly with the position of the pixel within the current block 310.
  • the decoder 120 may obtain motion information of pixels included in the current block 310 based on the motion information MV0, MV1, and MV2.
  • the decoder 120 includes first difference information that is a difference between the length w of the current block 310, the motion information MV0 of the first reference pixel, and the motion information MV1 of the second reference pixel. Can be obtained.
  • the decoder 120 may acquire second difference information, which is a difference between the length h of the height of the current block 310, the motion information MV0 of the first reference pixel, and the motion information MV2 of the third reference pixel. Can be.
  • the decoder 120 may obtain the motion information MV of the pixels included in the current block based on the position information (x, y), the first difference information, and the second difference information of the pixels included in the current block. .
  • Equation 1 the first difference information may be represented by Equation 1 as follows.
  • dMVx (MV1-MV0) / w
  • dMVx represents first difference information
  • MV0 represents motion information of the first reference pixel
  • MV1 represents motion information of the second reference pixel
  • w represents the length of the width of the current block 310.
  • Equation 2 the second difference information may be represented by Equation 2 as follows.
  • dMVy (MV2-MV0) / h
  • dMVy represents second difference information
  • MV0 represents motion information of the first reference pixel
  • MV2 represents motion information of the third reference pixel
  • h represents the length of the height of the current block 310.
  • the decoder 120 may obtain the first difference information and the second difference information by using a predetermined weight.
  • the first difference information or the second is applied by applying a weight to at least one of the motion information MV0 of the first reference pixel, the motion information MV1 of the second reference pixel, or the motion information MV2 of the third reference pixel.
  • Difference information dMVy may be obtained.
  • the decoder 120 may obtain the motion information MV of the pixel included in the current block 310 by Equation 3 based on the first difference information and the second difference information.
  • MV MV0 + x * dMVx + y * dMVy
  • MV represents the motion information of the pixel
  • MV0 represents the motion information of the first reference pixel
  • x represents the x-axis coordinate value of the pixel included in the current block 310
  • y is included in the current block 310 Represents the y-axis coordinate value of the pixel
  • dMVx represents the first difference information
  • dMVy represents the second difference information.
  • the decoder 120 may acquire motion information MV of pixels included in the current block 310 by using a predetermined weight. For example, the decoder 120 obtains the motion information MV by applying a weight to at least one of the motion information MV0, the first difference information dMVx, or the second difference information dMVy of the first reference pixel. can do.
  • FIG. 4 is a diagram illustrating a method of predicting motion information of pixels of a current block when the motion type of the current block is a zoom type according to an embodiment.
  • the decoder 120 may predict the current block 410 based on a previously reconstructed reference image of the current image including the current block 410. For example, the decoder 120 may predict the current block 410 based on the reference block 415 included in the reference image. In FIG. 4, the size of the reference block 415 is larger than the size of the current block 410, but is not limited thereto. The size of the reference block 415 may be less than or equal to the size of the current block 410.
  • the decoder 120 may acquire motion information of pixels included in the current block 410 in order to predict the current block 410 based on the reference block 415.
  • the decoder 120 may perform motion information MV0 of the first reference pixel at the first position 420 of the current block 410, and motion information of the second reference pixel at the second position 430. MV1 and the motion information MV2 of the third reference pixel at the third position 440 may be obtained.
  • a method in which the decoder 120 acquires the motion information MV0, MV1, and MV2 when the motion type is zoomed together with FIG. 4 will be described in detail.
  • the decoder 120 may obtain information about a motion type of the current block 410 from the bitstream.
  • the movement type may include a zoom type, a rotation type, a type simultaneously indicating zoom and rotation, and a torsion type.
  • the decoder 120 may determine the motion type based on the information about the motion type of the current block 410. 4 illustrates a case in which information about a motion type of the current block 410 is zoomed.
  • the decoder 120 may obtain the motion information MV0 of the first reference pixel based on the information obtained from the bitstream.
  • the motion information MV0 of the first reference pixel may be a motion vector.
  • the decoder 120 may obtain a differential motion vector associated with the motion information MV0 of the first reference pixel from the bitstream.
  • the decoder 120 may obtain the predicted motion vector based on the motion information of the neighboring block previously reconstructed of the current block 410.
  • the decoder 120 may determine candidate blocks based on neighboring blocks.
  • the neighboring blocks may be blocks temporally or spatially adjacent to the current block 410.
  • the decoder 120 may select one candidate block among candidate blocks based on the index obtained from the bitstream.
  • the decoder 120 may determine the motion information of the selected candidate block as a predicted motion vector.
  • the decoder 120 may obtain motion information MV0 of the first reference pixel based on the differential motion vector and the predicted motion vector.
  • the motion information MV0 of the first reference pixel may include an x direction motion component and a y direction motion component.
  • the decoder 120 may determine whether the first direction motion component included in the motion information MV1 of the second reference pixel is an x direction motion component or a y direction motion component according to the motion type. For example, when the motion type indicates zoom, the decoder 120 may determine that the first direction motion component included in the motion information MV1 of the second reference pixel is the x direction motion component. In addition, when the motion type indicates a zoom, the decoder 120 may determine that the second direction motion component included in the motion information of the second reference pixel is the y direction motion component.
  • the decoder 120 may obtain the first direction motion component of the motion information MV1 of the second reference pixel based on the information obtained from the bitstream. For example, the decoder 120 may obtain a differential motion vector associated with the motion information MV1 of the second reference pixel from the bitstream. The differential motion vector may be related to either the x direction motion component or the y direction motion component of the motion information MV1 of the second reference pixel. The decoder 120 may obtain the predicted motion vector based on the motion information of the neighboring block previously reconstructed of the current block 410. The decoder 120 may determine candidate blocks based on neighboring blocks. The neighboring blocks may be blocks temporally or spatially adjacent to the current block 410.
  • the decoder 120 may select one candidate block among candidate blocks based on the index obtained from the bitstream.
  • the decoder 120 may determine the motion information of the selected candidate block as a predicted motion vector.
  • the decoder 120 may include the x direction motion component and the y direction motion component.
  • the decoder 120 may determine the first direction motion component (ie, the x direction motion component) of the motion information of the second reference pixel based on the x direction motion component included in the differential motion vector and the x direction motion component included in the predicted motion vector. ) Can be obtained.
  • the decoder 120 may determine the second direction motion component (ie, y) included in the motion information MV1 of the second reference pixel based on the y direction motion component included in the motion information MV0 of the first reference pixel.
  • Directional motion component can be obtained. More specifically, the second direction motion component may be determined by Equation 4 as follows.
  • MV1 [y] represents the second direction motion component included in the motion information MV1 of the second reference pixel
  • MV0 [y] represents the y direction motion component of the motion information of the first reference pixel.
  • the decoder 120 may obtain the second direction motion component by multiplying the y direction motion component of the motion information of the first reference pixel by a predetermined weight.
  • the decoder 120 may acquire motion information of the third reference pixel based on at least one of motion information of the first reference pixel and motion information of the second reference pixel. According to an embodiment of the present disclosure, the decoder 120 may determine a third reference pixel based on the y-direction motion component of the width and height of the current block, the motion information of the first reference pixel, and the motion information of the second reference pixel. It is possible to obtain a motion component of the x direction of the motion information. Also, the decoder 120 may determine the y-direction motion component of the motion information of the third reference pixel based on the motion information of the first reference pixel and the x-direction motion component of the motion information of the second reference pixel. Can be obtained. According to another embodiment of the present disclosure, the decoder 120 may obtain motion information of the third reference pixel according to Equation 5.
  • MV2 [x] -(MV1 [y]-MV0 [y]) * h / w + MV0 [x]
  • MV2 [y] (MV1 [x]-MV0 [x]) * h / w + MV0 [y]
  • MV2 [x] represents the x-direction motion component of the motion information of the third reference pixel
  • MV1 [y] represents the y-direction motion component of the motion information of the second reference pixel
  • MV0 [y] represents the first reference pixel.
  • h represents the height of the current block 410
  • w represents the width of the current block 410
  • MV0 [x] is the x-direction motion of the motion information of the first reference pixel Components may be indicated.
  • the decoder 120 may acquire motion information of an arbitrary position 450 of the current block 410 based on motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel. Can be.
  • the decoder 120 may obtain motion information of an arbitrary location 450 based on Equation 3. Since the method of obtaining the motion information of the pixel of the current block 410 has been described with reference to FIG. 3, overlapping description thereof will be omitted.
  • the decoder 120 may predict and reconstruct the current block based on the motion information of the pixels of the current block 410.
  • the decoder 120 may obtain a reference picture index from the bitstream.
  • the decoder 120 may determine the reference picture based on the reference picture index.
  • the decoder 120 refers to the pixel at the position 425 of the reference block 415 included in the reference image based on the motion information MV0 of the first reference pixel, and the pixel at the first position 420 of the current block. Can be predicted.
  • the decoder 120 may predict the pixel at the second position 430 of the current block by referring to the pixel at the position 435 of the reference block 415 based on the motion information MV1 of the second reference pixel.
  • the decoder 120 may predict the pixel at the third position 440 of the current block by referring to the pixel at the position 445 of the reference block 415 based on the motion information MV2 of the third reference pixel.
  • the decoder 120 may predict the pixel at the arbitrary position 450 based on the motion information at the arbitrary position 450.
  • the decoder 120 may reconstruct the current block based on the predicted current block and the residual obtained from the bitstream.
  • FIG. 5 is a diagram illustrating a method of predicting motion information of pixels of a current block when a motion type of a current block is a rotation type according to an embodiment.
  • the decoder 120 may predict the current block 510 based on a previously reconstructed reference image of the current image including the current block 510. For example, the decoder 120 may predict the current block 510 based on the reference block 515 included in the reference image. In FIG. 4, the size of the reference block 515 may be the same as that of the current block 510. The decoder 120 may obtain motion information of the pixels included in the current block 510 to predict the current block 510 based on the reference block 515.
  • the decoder 120 may perform motion information MV0 of the first reference pixel at the first position 520 of the current block 510, and motion information of the second reference pixel at the second position 530. MV1 and the motion information MV2 of the third reference pixel at the third position 540 may be obtained.
  • a method in which the decoder 120 acquires the motion information MV0, MV1, and MV2 when the motion type is rotation will be described in detail.
  • the decoder 120 may obtain information about a motion type of the current block 510 from the bitstream.
  • the decoder 120 may determine the motion type of the current block 510 based on the information about the motion type of the current block 510.
  • 5 illustrates a case in which the movement type of the current block 510 is rotation.
  • the decoder 120 may obtain the motion information MV0 of the first reference pixel based on the information obtained from the bitstream.
  • the motion information MV0 of the first reference pixel may be a motion vector.
  • the decoder 120 may obtain motion information MV0 of the first reference pixel based on the differential motion vector obtained from the bitstream. Since the method of obtaining the motion information MV0 of the first reference pixel based on the information obtained from the bitstream has been described with reference to FIG. 4, overlapping description thereof will be omitted.
  • the motion information MV0 of the first reference pixel may include an x direction motion component and a y direction motion component.
  • the decoder 120 may determine whether the first direction motion component included in the motion information MV1 of the second reference pixel is an x direction motion component or a y direction motion component according to the motion type. For example, when the motion type indicates rotation, the decoder 120 may determine that the first direction motion component included in the motion information MV1 of the second reference pixel is the y direction motion component. In addition, when the motion type indicates rotation, the decoder 120 may determine that the second direction motion component included in the motion information of the second reference pixel is the x direction motion component.
  • the decoder 120 may obtain a first directional motion component of the motion information MV1 of the second reference pixel based on the information obtained from the bitstream. For example, the decoder 120 may obtain a differential motion vector associated with the motion information MV1 of the second reference pixel from the bitstream. The differential motion vector may be related to either the x direction motion component or the y direction motion component of the motion information MV1 of the second reference pixel.
  • the decoder 120 may obtain a predicted motion vector based on the motion information of the neighboring block previously reconstructed of the current block 510.
  • the decoder 120 may determine candidate blocks based on neighboring blocks.
  • the decoder 120 may select one candidate block among candidate blocks based on the index obtained from the bitstream.
  • the decoder 120 may determine the motion information of the selected candidate block as a predicted motion vector.
  • the decoder 120 may include the x direction motion component and the y direction motion component.
  • the decoder 120 may acquire the first direction motion component of the motion information of the second reference pixel based on the x direction motion component included in the differential motion vector and the x direction motion component included in the predicted motion vector.
  • the decoder 120 may generate a second reference pixel based on at least one of the first direction motion component of the motion information of the first reference pixel and the motion information of the second reference pixel.
  • the second directional motion component of the motion information of may be obtained.
  • the second direction motion component of the motion information of the second reference pixel may be obtained by the following method.
  • the decoder 120 may acquire the coordinates (0,0) of the first position 520. Also, the decoder 120 may acquire the coordinates x0 and y0 of the position 525 of the reference block 515 based on the motion information MV0 of the first reference pixel. The decoder 120 may acquire the coordinates (w, 0) of the second position 530. w may be the length of the width of the current block 510. The first direction motion component of the motion information MV1 of the second reference pixel may be a y direction motion component.
  • the decoder 120 may obtain the y-coordinate value y1 of the position 535 of the reference block 515 based on the obtained first direction motion component of the motion information MV1 of the second reference pixel. .
  • the decoder 120 may obtain the x-coordinate value x1 of the position 535 of the reference block 515 based on the Pythagorean theorem. For example, the decoder 120 may obtain the x-coordinate value x1 of the position 535 by Equation 6.
  • x1 sqrt (w 2- (y1-y0) 2 ) + x0
  • the decoder 120 may obtain a second direction motion component of the motion information MV1 of the second reference pixel based on the x coordinate value x1 of the position 535.
  • the second direction motion component of the motion information MV1 of the second reference pixel may be an x direction motion component.
  • the second direction motion component of the motion information MV1 of the second reference pixel may be equal to Equation 7.
  • MV1 [x] may be a second direction motion component of the motion information MV1 of the second reference pixel.
  • the second direction motion component of the motion information MV1 of the second reference pixel may be the x direction motion component of the motion information MV1 of the second reference pixel.
  • x1 may be the x-coordinate value of position 535 of reference block 515.
  • w may be the length of the width of the current block 510.
  • the decoder 120 may obtain motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel according to Equation 5. Since the method of obtaining the motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel has already been described with reference to FIG. 4, redundant description thereof will be omitted.
  • the decoder 120 may acquire motion information of an arbitrary position 550 of the current block 510 based on motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel. Can be.
  • the decoder 120 may obtain motion information of an arbitrary location 450 based on Equation 3. Since the method of obtaining the motion information of the pixel of the current block 410 has been described with reference to FIG. 3, overlapping description thereof will be omitted.
  • the decoder 120 may predict and reconstruct the current block based on the motion information of the pixels of the current block 510.
  • the decoder 120 may determine the x-direction motion component of the motion information of the first reference pixel, the y-direction motion component of the motion information of the first reference pixel, and the first motion information of the second reference pixel.
  • the motion information of the pixel of the current block may be obtained based on the directional motion component.
  • the decoder 120 may predict and reconstruct the current block based on the motion information of the pixels of the current block. Since the image decoding apparatus 100 and the image encoding apparatus 1500 may obtain motion information of a plurality of pixels of the current block using only three directional motion components, the image decoding apparatus 100 and the image encoding apparatus 1500 may increase the compression efficiency of the image and restore the high quality image. can do.
  • the decoder 120 may determine the first direction motion component included in the motion information MV1 of the second reference pixel as the x direction motion component regardless of the moved type. In addition, the decoder 120 may determine the second direction motion component included in the motion information MV1 of the second reference pixel as the y direction motion component regardless of the type of movement. The decoder 120 may vary a formula for acquiring the second direction motion component included in the motion information MV1 of the second reference pixel according to the motion type.
  • the decoder 120 may move the motion information MV1 of the second reference pixel based on the y-direction motion component included in the motion information MV0 of the first reference pixel as shown in Equation 4. It is possible to obtain a second direction motion component (ie, y direction motion component) included in.
  • a second direction motion component ie, y direction motion component
  • the decoder 120 may acquire the coordinates (x0, y0) of the position 525 of the reference block 515 based on the motion information MV0 of the first reference pixel. .
  • the decoder 120 determines an x-coordinate value of the position 535 of the reference block 515 based on the first direction motion component (that is, the x direction motion component) of the obtained motion information MV1 of the second reference pixel. (x1) can be obtained.
  • the decoder 120 may obtain a y-coordinate value y1 of the position 535 of the reference block 515 based on the Pythagorean theorem. For example, the decoder 120 may obtain the y-coordinate value y1 of the position 535 by Equation 8.
  • the decoder 120 may obtain a second direction motion component (ie, a y direction motion component) of the motion information MV1 of the second reference pixel based on the y coordinate value y1 of the position 535.
  • the second direction motion component of the motion information MV1 of the second reference pixel may be the same as Equation 9.
  • MV1 [y] may be a second direction motion component of the motion information MV1 of the second reference pixel.
  • the second direction motion component of the motion information MV1 of the second reference pixel may be a y direction motion component of the motion information MV1 of the second reference pixel.
  • y1 may be the y-coordinate value of position 535 of reference block 515.
  • the decoder 120 may obtain motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel according to Equation 5. Since the method of obtaining the motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel has already been described with reference to FIG. 4, redundant description thereof will be omitted.
  • the decoder 120 performs a current block based on the x direction motion component of the motion information of the first reference pixel, the y direction motion component of the motion information of the first reference pixel, and the x direction motion component of the motion information of the second reference pixel.
  • the motion information of the pixel may be obtained.
  • the decoder 120 may predict and reconstruct the current block based on the motion information of the pixels of the current block. Since the image decoding apparatus 100 and the image encoding apparatus 1500 may obtain motion information of a plurality of pixels of the current block using only three directional motion components, the image decoding apparatus 100 and the image encoding apparatus 1500 may increase the compression efficiency of the image and restore the high quality image. can do.
  • the decoder 120 may obtain a second direction motion component included in the motion information of the second reference pixel from the bitstream. That is, the decoder 120 may obtain the x direction motion component and the y direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel, respectively, based on the information obtained from the bitstream. .
  • the decoder 120 may obtain a differential motion vector related to motion information of the second reference pixel from the bitstream.
  • the decoder 120 may obtain the predicted motion vector based on the motion information of the neighboring block previously reconstructed in the current block.
  • the decoder 120 may determine candidate blocks based on neighboring blocks.
  • the neighboring blocks may be blocks that are temporally or spatially adjacent to the current block.
  • the decoder 120 may select one candidate block among candidate blocks based on the index obtained from the bitstream.
  • the decoder 120 may determine the motion information of the candidate block as the predicted motion vector.
  • the decoder 120 may obtain motion information of the second reference pixel based on the differential motion vector and the predictive motion vector.
  • the motion information of the second reference pixel may include an x direction motion component and a y direction motion component.
  • the decoder 120 may simultaneously display the movement of the zoom and the rotation by using the four directional motion components.
  • the decoder 120 may obtain motion information of the third reference pixel based on Equation 5.
  • the decoder 120 may obtain motion information of pixels of the current block based on Equation 3.
  • the decoder 120 may predict the current block based on the motion information of the plurality of reference pixels of the current block.
  • the decoder 120 may increase the accuracy of prediction by using four directional motion components.
  • the inter prediction mode may include a mode for receiving a differential motion vector and a mode for not receiving a differential motion vector.
  • the decoder 120 may obtain more accurate motion information by applying the received differential motion vector to the predicted motion information.
  • the affine mode for receiving the differential motion vector and the affine mode for not receiving the differential motion vector will be described with reference to FIGS. 6 to 13.
  • FIG. 6 is a diagram for describing an affine mode for receiving a differential motion vector, according to an exemplary embodiment.
  • the decoder 120 may obtain a predictive motion vector from neighboring blocks. For example, the decoder 120 may determine neighboring blocks as candidate blocks. The neighboring blocks may be blocks spatially adjacent to the current block. Although not shown in FIG. 6, the neighboring blocks may be blocks temporally adjacent to the current block. The decoder 120 may obtain an index from the bitstream. The decoder 120 may select one candidate block among candidate blocks based on the index. The decoder 120 may obtain the predicted motion vector of the current block based on the motion vector of the selected candidate block.
  • the decoder 120 may obtain a predicted motion vector of the first position, a predicted motion vector of the second position, and a predicted motion vector of the third position to predict the current block 600.
  • the first position, the second position, and the third position may be any one of the positions of the upper left pixel 610, the upper right pixel 620, the lower left pixel 630, and the lower left pixel 640 of the current block 600, respectively. May correspond to.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the upper left pixel 610 based on the motion vectors of the neighboring blocks 611, 612, and 613.
  • the neighboring blocks 611, 612, and 613 may be blocks restored before the current block 600.
  • the decoder 120 may select one of the neighboring blocks 611, 612, and 613 based on an index obtained from the bitstream received from the encoding apparatus 1500.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the upper left pixel 610 based on the motion vector of the selected block.
  • the decoder 120 may select one of the neighboring blocks 611, 612, and 613 according to a predetermined rule.
  • the decoder 120 may determine whether the motion vectors of the neighboring blocks 611, 612, and 613 are available in a predetermined order. For example, the decoder 120 may determine whether the motion vector is available in the order of the upper left peripheral block 611, the lower left peripheral block 613, and the right upper peripheral block 612.
  • the present invention is not limited thereto, and various orders may be used.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the upper left pixel 610 based on the first available motion vector.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the upper left pixel 610 based on the average of the motion vectors of the neighboring blocks 611, 612, and 613. have.
  • the decoder 120 may obtain a prediction motion vector corresponding to the position of the upper right pixel 620 based on the motion vectors of the neighboring blocks 621, 622, and 623.
  • the neighboring blocks 621, 622, and 623 may be blocks reconstructed before the current block 600.
  • the decoder 120 may select one of the neighboring blocks 621, 622, and 623 based on an index obtained from the bitstream received from the encoding apparatus 1500.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the upper right pixel 620 based on the motion vector of the selected block.
  • the decoder 120 may determine whether the motion vectors of the neighboring blocks 621, 622, and 623 are available in a predetermined order. For example, the decoder 120 may determine whether the motion vector is available in the order of the lower right peripheral block 623, the upper right peripheral block 622, and the upper left peripheral block 621. However, the present invention is not limited thereto, and various orders may be used. The decoder 120 may obtain a predicted motion vector corresponding to the position of the upper right pixel 620 based on the first available motion vector.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the upper right pixel 620 based on the average of the motion vectors of the neighboring blocks 621, 622, and 623. have.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the lower left pixel 630 based on the motion vectors of the neighboring blocks 631 and 632.
  • the neighboring blocks 631 and 632 may be blocks restored before the current block 600.
  • the decoder 120 may select one of the neighboring blocks 631 and 632 based on an index obtained from the bitstream received from the encoding apparatus 1500.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the lower left pixel 630 based on the motion vector of the selected block.
  • the decoder 120 may determine whether the motion vectors of the neighboring blocks 631 and 632 are available in a predetermined order. For example, the decoder 120 may determine whether a motion vector is available in the order of the lower left peripheral block 632 and the upper left peripheral block 631. However, the present invention is not limited thereto, and various orders may be used. The decoder 120 may obtain a predicted motion vector corresponding to the position of the lower left pixel 630 based on the first available motion vector.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the lower left pixel 630 based on the average of the motion vectors of the neighboring blocks 631 and 632.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the lower right pixel 640 based on the motion vectors of the neighboring blocks 641 and 642.
  • the neighboring blocks 641 and 642 may be blocks that are restored before the current block 600.
  • the decoder 120 may select one of the neighboring blocks 641 and 642 based on an index obtained from the bitstream received from the encoding apparatus 1500.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the lower right pixel 640 based on the motion vector of the selected block.
  • the decoder 120 may determine whether motion vectors of the neighboring blocks 641 and 642 are available in a predetermined order. For example, the decoder 120 may determine whether the motion vector is available in the order of the lower right peripheral block 642 and the upper right peripheral block 641. However, the present invention is not limited thereto, and various orders may be used. The decoder 120 may obtain a predicted motion vector corresponding to the position of the lower right pixel 640 based on the first available motion vector.
  • the decoder 120 may obtain a predicted motion vector corresponding to the position of the lower right pixel 640 based on the average of the motion vectors of the neighboring blocks 641 and 642.
  • the decoder 120 determines the first to third positions based on a predetermined reference among the positions of the upper left pixel 610, the upper right pixel 620, the lower left pixel 630, and the lower left pixel 640. Can be. In addition, the decoder 120 may determine the first to third positions based on the information obtained from the received bitstream. The first to third positions may be various combinations created based on the positions of the upper left pixel 610, the upper right pixel 620, the lower left pixel 630, and the lower left pixel 640. For convenience of description, the first position corresponds to the position of the upper left pixel 610, the second position corresponds to the position of the upper right pixel 620, and the third position corresponds to the position of the lower left pixel 630. It shall correspond.
  • the decoder 120 may obtain prediction motion vectors of the first to second positions.
  • the decoder 120 may obtain differential motion vectors from the bitstream.
  • the decoder 120 includes first motion information included in the motion information of the first reference pixel corresponding to the first position and the motion information of the second reference pixel corresponding to the second position based on the predicted motion vectors and the differential motion vectors.
  • Directional motion components can be obtained.
  • the decoder 120 may obtain a differential motion vector for the first position from the bitstream.
  • the differential motion vector for the first position may include an x direction motion component and a y direction motion component.
  • the decoder 120 may obtain motion information of the first reference pixel of the first position based on the differential motion vector of the first position and the predicted motion vector of the first position.
  • the decoder 120 may obtain any one of an x-direction motion component and a y-direction motion component of the differential motion vector with respect to the second position from the bitstream.
  • the decoder 120 may obtain an x-direction motion component of the differential motion vector from the bitstream.
  • the decoder 120 may acquire the first direction motion component of the motion information of the second reference pixel based on the x direction motion component of the differential motion vector and the x direction motion component of the predicted motion vector with respect to the second position.
  • the decoder 120 may obtain a y-direction motion component of the differential motion vector from the bitstream. Also, the decoder 120 may determine the first direction motion component (ie, the y direction) of the motion information of the second reference pixel based on the y direction motion component of the differential motion vector and the y direction motion component of the predicted motion vector for the second position. Motion component) can be obtained.
  • the decoder 120 may obtain the x direction motion component of the differential motion vector from the bitstream. Also, the decoder 120 may determine the first direction motion component (ie, the x direction) of the motion information of the second reference pixel based on the x direction motion component of the differential motion vector and the x direction motion component of the predicted motion vector for the second position. Motion component) can be obtained.
  • the decoder 120 may move the second reference pixel based on the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel.
  • the second directional motion component included in the information may be obtained.
  • the decoder 120 may acquire a second direction motion component included in the motion information of the second reference pixel based on the information obtained from the bitstream.
  • the decoder 120 may acquire motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel.
  • the motion information of the third reference pixel may correspond to the motion vector of the third position.
  • the decoder 120 may acquire motion information of a pixel included in the current block 600 based on the motion information of the first reference pixel or the motion information of the third reference pixel.
  • the decoder 120 may predict the current block based on the motion information of the pixels of the current block.
  • the decoder 120 may obtain a reference picture index from the bitstream.
  • the decoder 120 may determine the reference picture based on the reference picture index.
  • the decoder 120 may predict the value of the pixel at the first position of the current block from the pixel value of the reference block included in the reference image based on the motion information of the first reference pixel.
  • the decoder 120 may predict the value of the pixel at the second position of the current block from the value of the pixel at the position of the reference block based on the motion information of the second reference pixel.
  • the decoder 120 may predict the pixel at the third position of the current block from the pixel value of the position of the reference block based on the motion information of the third reference pixel.
  • the decoder 120 may predict the pixel at an arbitrary position based on the motion information of the arbitrary position obtained based on the motion information of the first reference pixel or the motion information of the third reference pixel.
  • the decoder 120 may reconstruct the current block based on the predicted current block and the residual obtained from the bitstream.
  • FIG. 7 is a flowchart for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • the decoder 120 acquires the motion information of the first reference pixel based on the motion information of the first position of the neighboring blocks reconstructed before the current block (710). Do this.
  • the decoder 120 acquires the motion information of the second reference pixel based on the motion information of the second position of the neighboring blocks (720).
  • the decoder 120 acquires the motion information of the third reference pixel based on the motion information of the third position of the neighboring blocks (730).
  • the decoder 120 performs motion information of a pixel included in the current block based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel.
  • the neighboring blocks may be temporally or spatially adjacent to the current block.
  • the neighboring blocks may be located on the left side, the upper side and the right side of the current block.
  • the first position, the second position, and the third position may not be collinear with each other.
  • the first position, the second position and the third position may form a triangle. Affine mode not receiving the differential motion vector will be described in more detail with reference to FIGS. 8 to 13.
  • FIG. 8 illustrates an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • the decoder 120 may identify whether neighboring blocks of the current block 810 are in an affine mode in a predetermined order.
  • the decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the lower left neighboring block 821 to the upper right neighboring block 823.
  • the decoder 120 may identify whether the neighboring block 821 to the neighboring block 822 is in an affine mode.
  • the decoder 120 may identify whether the neighboring block 822 to the neighboring block 823 are in an affine mode.
  • the decoder 120 may obtain the motion information of the first reference pixel based on the motion information of the neighboring block identified in the affine mode among the neighboring blocks. For example, the decoder 120 may determine a representative value of motion information of pixels of the neighboring block identified in the affine mode. The decoder 120 may determine one of an average value, a median value, and a median value of motion information of pixels of a neighboring block as a representative value. The decoder 120 may determine motion information of one pixel among pixels of the neighboring block as a representative value. The decoder 120 may obtain the representative value as the motion information of the first reference pixel. The decoder 120 may obtain representative values of the plurality of neighboring blocks. In addition, motion information of the first reference pixel may be obtained by applying weights to representative values of the plurality of neighboring blocks.
  • the decoder 120 may generate a first block based on the motion information of the first position 850 of the first neighboring block identified in the affine mode among the neighboring blocks 841, 842, and 843.
  • the motion information of the reference pixel may be obtained.
  • neighboring blocks 841, 842, and 843 adjacent to the current block 830 may be in an affine mode.
  • the decoder 120 may identify whether the neighbor mode is in an affine mode in a predetermined order, and among these, the neighbor block 841 may be the first neighbor block identified in the affine mode.
  • the decoder 120 may acquire motion information of the first reference pixel based on the motion information of the first position 850 of the neighboring block 841.
  • the first position 850 may be any one of a lower left side, an upper left side, an upper right side, and a lower right side of the peripheral block 841.
  • the decoder 120 may determine a lower left side of the neighboring block 841 as the first position.
  • the motion information of the first reference pixel may be the same as the motion information of the first position 850.
  • the decoder 120 may determine the motion information of the first reference pixel as the motion information of the first position 850 in the neighboring block. In addition, the decoder 120 may determine the motion information of the first reference pixel as the motion information of a predetermined position in the current block 830 adjacent to the neighboring block 841.
  • FIG. 9 is a diagram for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • the decoder 120 may identify whether neighboring blocks of the current block 910 are in an affine mode in a predetermined order.
  • the decoder 120 performs the neighboring blocks 921, 922, 923, 924, 925, in a zigzag order from the upper left peripheral block 921 to the upper right peripheral block 926 or the lower left peripheral block 927.
  • 926, 927 may be identified as an affine mode.
  • the decoder 120 may identify the affine mode in the order of the neighboring block 921, the neighboring block 922, the neighboring block 923, the neighboring block 924, and the neighboring block 925. . In addition, the decoder 120 may identify the affine mode in the order of the neighboring block 921, the neighboring block 923, the neighboring block 922, the neighboring block 925, and the neighboring block 924.
  • the decoder 120 may obtain the motion information of the second reference pixel based on the motion information of the second position of the first neighboring block identified in the affine mode among the neighboring blocks. .
  • neighboring blocks 941, 942, and 943 adjacent to the current block 930 may be in an affine mode.
  • the decoder 120 may identify whether the neighboring block 941, the neighboring block 942, and the neighboring block 943 are in the affine mode, and the neighboring block 941 is identified as the affine mode. It may be the first peripheral block.
  • the decoder 120 may acquire motion information of the second reference pixel based on the motion information of the second position 950 of the neighboring block 941.
  • the second position 950 may be any one of a lower left side, an upper left side, an upper right side, and a lower right side of the peripheral block 941. Referring to FIG. 9, the decoder 120 determines the upper left side of the neighboring block 941 as the second position.
  • the motion information of the second reference pixel may be the same as the motion information of the second position 950.
  • the decoder 120 may determine the motion information of the second reference pixel as the motion information of the second position 950. In addition, the decoder 120 may determine the motion information of the second reference pixel as the motion information of a predetermined position of the current block 930 adjacent to the neighboring block 941.
  • FIG. 10 is a diagram for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • the decoder 120 may identify whether neighboring blocks of the current block 1010 are in an affine mode in a predetermined order.
  • the decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the upper right neighboring block 1021 to the lower left neighboring block 1023.
  • the decoder 120 may identify whether the neighboring block 1021 to the neighboring block 1022 is in an affine mode.
  • the decoder 120 may identify whether the neighboring block 1022 or the neighboring block 1023 is in an affine mode.
  • the decoder 120 may obtain the motion information of the third reference pixel based on the motion information of the third position of the first neighboring block identified in the affine mode among the neighboring blocks. .
  • neighboring blocks 1041, 1042, and 1043 adjacent to the current block 1030 may be in an affine mode.
  • the decoder 120 may identify whether the neighboring block 1041, the neighboring block 1042, and the neighboring block 1043 are in the affine mode, and the neighboring block 1041 is identified as the affine mode. It may be the first peripheral block.
  • the decoder 120 may acquire motion information of the third reference pixel based on the motion information of the third position 1050 of the neighboring block 1041.
  • the third position 1050 may be any one of a lower left side, an upper left side, an upper right side, and a lower right side of the peripheral block 1041.
  • the decoder 120 determines the upper left side of the neighboring block 1041 as the third position.
  • the motion information of the third reference pixel may be the same as the motion information of the third location 1050.
  • the decoder 120 may determine the motion information of the third reference pixel as the motion information of the third position 1050. In addition, the decoder 120 may determine the motion information of the third reference pixel as the motion information of a predetermined position of the current block 1030 adjacent to the neighboring block 1041.
  • the decoder 120 may acquire motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel based on at least one of the methods of FIGS. 8 to 10.
  • the decoder 120 may obtain motion information of the pixel included in the current block based on the motion information of the first reference pixel or the motion information of the third reference pixel. This will be described in detail with reference to FIG. 13.
  • the decoder 120 may acquire the motion information of the first reference pixel, the motion information of the second reference pixel, or the motion information of the third reference pixel based on the left, upper left, upper or right peripheral blocks.
  • the present invention will be described in detail with reference to FIG. 11.
  • FIG. 11 illustrates an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
  • the decoder 120 may identify whether neighboring blocks of the current block 1100 are in an affine mode in a predetermined order.
  • the decoder 120 performs the neighboring blocks 1111, 1112, 1113, 1114, 1115, in a zigzag order from the upper right peripheral block 1111 to the upper right peripheral block 1116 or the lower left peripheral block 1117. It may be identified whether 1116 and 1117 are in affine mode.
  • the decoder 120 may identify the affine mode in the order of the neighboring block 1111, the neighboring block 1112, the neighboring block 1113, the neighboring block 1114, and the neighboring block 1115. .
  • the decoder 120 may identify the affine mode in the order of the neighboring block 1111, the neighboring block 1113, the neighboring block 1112, the neighboring block 1115, and the neighboring block 1114.
  • the decoder 120 may obtain motion information based on the first neighboring block identified in the affine mode among the neighboring blocks 1111, 1112, 1113, 1114, 1115, 1116, and 1117.
  • the obtained motion information may be one of motion information of the first reference pixel and motion information of the third reference pixel of FIG. 7.
  • the motion information of the pixel included in the current block 1100 may be obtained based on the obtained motion information.
  • the decoder 120 may identify whether neighboring blocks of the current block 1100 are in an affine mode in a predetermined order.
  • the decoder 120 performs the neighboring blocks 1111, 1112, 1113, 1114, 1115, in a zigzag order from the upper right peripheral block 1111 to the lower right peripheral block 1116 or the lower left peripheral block 1117. It may be identified whether 1116 and 1117 are in affine mode.
  • the decoder 120 may identify the affine mode in the order of the neighboring block 1111, the neighboring block 1112, the neighboring block 1113, the neighboring block 1114, and the neighboring block 1115. .
  • the decoder 120 may identify the affine mode in the order of the neighboring block 1111, the neighboring block 1113, the neighboring block 1112, the neighboring block 1115, and the neighboring block 1114.
  • the decoder 120 may obtain motion information based on a predetermined method based on the neighboring block identified in the affine mode among the neighboring blocks 1111, 1112, 1113, 1114, 1115, 1116, and 1117.
  • the motion information may be obtained from an average, a median, and a median value of motion information of neighboring blocks identified in the affine mode.
  • the decoder 1200 may determine the motion information as the motion information of the predetermined position obtained based on the positions of the neighboring blocks identified in the affine mode, and also include the current information in the current block 1100 based on the obtained motion information.
  • the motion information of the pixel may be obtained.
  • the decoder 120 may identify whether neighboring blocks of the current block 1100 are in an affine mode in a predetermined order.
  • the decoder 120 may identify whether neighboring blocks of the current block 1120 are in an affine mode in a predetermined order.
  • the decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the lower right neighboring block 1131 to the upper left neighboring block 1133.
  • the decoder 120 may identify whether the neighboring block 1131 to the neighboring block 1132 is in an affine mode.
  • the decoder 120 may identify whether the neighboring block 1132 to the neighboring block 1133 are in an affine mode.
  • the decoder 120 may acquire the motion information based on the neighboring block identified in the affine mode among the neighboring blocks 1131, 1132, 1133, 1134, and the like.
  • the obtained motion information may be one of motion information of the first reference pixel and motion information of the third reference pixel of FIG. 7.
  • the motion information of the pixel included in the current block 1120 may be obtained based on the obtained motion information.
  • the decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the lower right neighboring block 1131 to the lower left neighboring block 1134.
  • the decoder 120 may identify whether the neighboring block 1131 to the neighboring block 1132 is in an affine mode.
  • the decoder 120 may identify whether the neighboring block 1132 to the neighboring block 1133 are in an affine mode.
  • the decoder 120 may identify whether the neighboring block 1133 to the neighboring block 1134 is in an affine mode.
  • the decoder 120 may acquire motion information based on the neighboring block identified in the affine mode among the neighboring blocks.
  • the obtained motion information may be one of motion information of the first reference pixel and motion information of the third reference pixel of FIG. 7.
  • the decoder 120 may obtain motion information of the pixel included in the current block 1120 based on the obtained motion information.
  • the decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the lower left neighboring block 1134 to the lower right neighboring block 1131. The decoder 120 may identify whether the neighboring block 1134 to the neighboring block 1133 are in an affine mode. In addition, the decoder 120 may identify whether the neighboring block 1133 to the neighboring block 1132 is in an affine mode. In addition, the decoder 120 may identify whether the neighboring block 1132 to the neighboring block 1131 is in an affine mode.
  • the decoder 120 may acquire motion information based on the neighboring block identified in the affine mode among the neighboring blocks. For example, the decoder 120 may select at least one neighboring block by identifying the affine mode in a predetermined order. The decoder 120 may acquire motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel based on the selected motion information of the at least one neighboring block. For example, the decoder 120 may obtain motion information about pixels at different positions in the selected neighboring block as motion information of the first reference pixel or motion information of the third reference pixel.
  • the decoder 120 may obtain motion information about pixels at different positions in the two selected neighboring blocks as motion information of the first reference pixel or motion information of the third reference pixel. Also, the decoder 120 may obtain motion information about pixels at different positions in the selected three neighboring blocks as motion information of the first reference pixel or motion information of the third reference pixel. The decoder 120 may acquire the motion information of the pixel included in the current block 1120 based on the obtained motion information of the first reference pixel or the motion information of the third reference pixel. A method of obtaining the motion information of the pixel included in the current block based on the motion information of the first reference pixel or the motion information of the third reference pixel will be described in detail with reference to FIG. 13.
  • FIG. 12 is a diagram for describing an affine mode in which a motion vector is not received, according to another embodiment.
  • the decoder 120 may acquire motion information of the first reference pixel or motion information of the third reference pixel based on the motion information of the neighboring blocks.
  • the motion information of the first reference pixel and the motion information of the third reference pixel may be motion vectors.
  • the decoder 120 may select three positions among the upper left pixel 1210, the upper right pixel 1220, the lower left pixel 1230, and the lower left pixel 1240 of the current block 1200.
  • the three positions may be predetermined positions.
  • the present invention is not limited thereto, and the decoder 120 may select three positions based on information obtained from the bitstream.
  • a description will be given of a method in which the decoder 120 acquires motion information about positions of an upper left pixel 1210, an upper right pixel 1220, a lower left pixel 1230, and a lower left pixel 1240.
  • the decoder 120 may acquire motion information corresponding to the position of the upper left pixel 1210 based on the motion information of the neighboring blocks 1211, 1212, and 1213.
  • the neighboring blocks 1211, 1212, and 1213 may be blocks restored before the current block 1200.
  • the decoder 120 may select one of the neighboring blocks 1211, 1212, and 1213 based on information obtained from the bitstream received from the encoding apparatus 1500.
  • the decoder 120 may acquire motion information corresponding to the position of the upper left pixel 1210 based on the motion information of the selected block.
  • the decoder 120 may determine whether motion information of the neighboring blocks 1211, 1212, and 1213 is available in a predetermined order. For example, the decoder 120 may determine whether motion information is available in the order of the upper left peripheral block 1211, the lower left peripheral block 1213, and the upper right peripheral block 1212. However, the present invention is not limited thereto, and various orders may be used.
  • the decoder 120 may acquire motion information corresponding to the position of the upper left pixel 1210 based on the first available motion information.
  • the decoder 120 may acquire motion information corresponding to the position of the upper left pixel 1210 based on the average of the motion information of the neighboring blocks 1211, 1212, and 1213. .
  • the decoder 120 may acquire motion information corresponding to the position of the upper right pixel 1220 based on the motion information of the neighboring blocks 1221, 1222, and 1223.
  • the neighboring blocks 1221, 1222, and 1223 may be blocks restored before the current block 1200.
  • the decoder 120 may select one of the neighbor blocks 1221, 1222, and 1223 based on information obtained from the bitstream received from the encoding apparatus 1500.
  • the decoder 120 may acquire motion information corresponding to the position of the upper right pixel 1220 based on the motion information of the selected block.
  • the decoder 120 may determine whether motion information of the neighboring blocks 1221, 1222, and 1223 is available in a predetermined order. For example, the decoder 120 may determine whether motion information is available in the order of the lower right peripheral block 1223, the upper right peripheral block 1222, and the upper left peripheral block 1221. The decoder 120 may acquire motion information corresponding to the position of the upper right pixel 1220 based on the first motion information available.
  • the decoder 120 may obtain motion information corresponding to the position of the upper right pixel 1220 based on the average of the motion information of the neighboring blocks 1221, 1222, and 1223. .
  • the decoder 120 may acquire motion information corresponding to the position of the lower left pixel 1230 based on the motion information of the neighboring blocks 1231 and 1232.
  • the neighboring blocks 1231 and 1232 may be blocks restored before the current block 1200.
  • the decoder 120 may select one of the neighboring blocks 1231 and 1232 based on information obtained from the bitstream received from the encoding apparatus 1500.
  • the decoder 120 may acquire motion information corresponding to the position of the lower left pixel 1230 based on the motion information of the selected block.
  • the decoder 120 may determine whether motion information of the neighboring blocks 1231 and 1232 is available in a predetermined order. For example, the decoder 120 may determine whether motion information is available in the order of the lower left peripheral block 1232 and the upper left peripheral block 1231. The decoder 120 may acquire motion information corresponding to the position of the lower left pixel 1230 based on the first available motion information.
  • the decoder 120 may obtain motion information corresponding to the position of the lower left pixel 1230 based on the average of the motion information of the neighboring blocks 1231 and 1232.
  • the decoder 120 may acquire motion information corresponding to the position of the lower right pixel 1240 based on the motion information of the neighboring blocks 1241 and 1242.
  • the neighboring blocks 1241 and 1242 may be blocks restored before the current block 1200.
  • the decoder 120 may select one of the neighboring blocks 1241 and 1242 based on information obtained from the bitstream received from the encoding apparatus 1500.
  • the decoder 120 may acquire motion information corresponding to the position of the lower right pixel 1240 based on the motion information of the selected block.
  • the decoder 120 may determine whether motion information of the neighboring blocks 1241 and 1242 is available in a predetermined order. For example, the decoder 120 may determine whether motion information is available in the order of the lower right peripheral block 1242 and the upper right peripheral block 1241. The decoder 120 may acquire motion information corresponding to the position of the lower right pixel 1240 based on the first available motion information.
  • the decoder 120 may obtain motion information corresponding to the position of the lower right pixel 1240 based on the average of the motion information of the neighboring blocks 1241 and 1242.
  • the decoder 120 may determine the motion information of the upper left pixel 1210 of the current block 1200, the motion information of the right upper pixel 1220, and the motion information of the lower left pixel 1230 based on the neighboring blocks. Describe how to obtain.
  • the decoder 120 may determine an upper left side of the current block 1200 based on the motion information of at least one of the neighboring blocks 1211, 1212, and 1213 adjacent to the upper left pixel 1210 of the current block 1200.
  • the motion information of the first reference pixel which is the motion information of the pixel 1210, may be obtained.
  • the at least one motion information may be obtained based on the motion information of the first position included in the neighboring block.
  • Decoder 120 The upper right pixel 1220 of the current block 1200 is based on the motion information of at least one of the neighboring blocks 1221, 1222, 1223 adjacent to the upper right pixel 1220 of the current block 1200.
  • Motion information of the second reference pixel may be obtained.
  • the at least one motion information may be obtained based on the motion information of the second position included in the neighboring block.
  • the decoder 120 determines the lower left pixel 1230 of the current block 1200 based on the motion information of at least one of the neighboring blocks 1231 and 1232 adjacent to the lower left pixel 1230 of the current block 1200.
  • the motion information of the third reference pixel which is motion information of, may be obtained.
  • the at least one motion information may be obtained based on the motion information of the third position included in the neighboring block.
  • the decoder 120 may acquire motion information of the pixel included in the current block 1200 based on the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. This will be described with reference to FIG. 13.
  • FIG. 13 is a diagram for describing a method of obtaining motion information of a pixel included in a current block according to one embodiment of the present disclosure.
  • the decoder 120 may obtain motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel according to FIGS. 7 to 12.
  • the motion information of the first reference pixel may be motion information of the position 1310.
  • the motion information of the second reference pixel may be motion information of the location 1320.
  • the motion information of the third reference pixel may be motion information of the location 1330.
  • the motion information may be a motion vector.
  • the decoder 120 may acquire the motion information of the pixel included in the current block 1300 based on the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel.
  • the decoder 120 may acquire a unit change amount of the motion information related to the y axis and a unit change amount of the motion information related to the x axis.
  • the unit change amount of the motion information associated with the y axis may be equal to Equation 10.
  • dy is the unit change amount of the motion information associated with the y axis.
  • m is the difference between the x coordinate of position 1310 and position 1330.
  • w is the difference between the x coordinate of position 1310 and position 1320.
  • n is the difference between the y coordinate of the position 1310 and the position 1320.
  • h is the difference between the y coordinate of position 1310 and position 1330.
  • P0 is motion information of the first reference pixel.
  • P1 is motion information of the second reference pixel.
  • P2 is motion information of the third reference pixel.
  • the unit change amount of the motion information associated with the x axis may be equal to Equation 11.
  • dx is a unit change amount of the motion information associated with the x axis.
  • m is the difference between the x coordinate of position 1310 and position 1330.
  • w is the difference between the x coordinate of position 1310 and position 1320.
  • n is the difference between the y coordinate of the position 1310 and the position 1320.
  • h is the difference between the y coordinate of position 1310 and position 1330.
  • P0 is motion information of the first reference pixel.
  • P1 is motion information of the second reference pixel.
  • P2 is motion information of the third reference pixel.
  • the decoder 120 may acquire the motion information of the pixel included in the current block 1300 based on the unit change amount of the motion information related to the y axis and the unit change amount of the motion information related to the x axis.
  • the motion information of the pixel included in the current block 1300 may be the same as Equation 10.
  • Pa P0 + idx + jdy
  • P0 is motion information of the first reference pixel.
  • i is the difference between the x coordinate of position 1310 and position 1340 of the pixel.
  • j is the difference between the y coordinate of the position 1310 and the position 1340 of the pixel.
  • dx is a unit change amount of the motion information associated with the x axis.
  • dy is the unit change amount of the motion information associated with the y axis.
  • Pa is motion information of a pixel at an arbitrary position 1340 of the current block 1300.
  • the decoder 120 may inter predict the current block 1300 based on the motion information of the pixels of the current block 1300. Also, the decoder 120 may restore the current block 1300 based on the predicted current block 1300.
  • FIG. 14 is a flowchart for inter prediction according to an embodiment.
  • the decoder 120 may determine to predict the current block in the inter prediction mode 1400. In operation 1410, the decoder 120 may obtain a flag indicating whether to receive a differential motion vector from the bitstream. The decoder 120 may determine whether or not to receive the differential motion vector based on a flag indicating whether to receive the differential motion vector.
  • condition 1 may be whether the size of the current block is greater than the threshold size.
  • the decoder 120 may determine whether the length or the length of the width of the current block is greater than the threshold length. For example, the decoder 120 may determine whether the width of the current block is greater than or equal to 16. The decoder 120 may determine whether the height of the current block is greater than or equal to 16. In addition, the decoder 120 may determine whether the width of the current block is greater than the threshold width.
  • the width of the current block can be expressed as the product of the width and height of the current block. For example, the decoder 120 may determine whether the width of the current block is greater than 64.
  • the decoder 120 may obtain information about an affine mode from the bitstream. The decoder 120 may determine whether to predict the current block in the affine mode based on the information on the affine mode.
  • the decoder 120 may perform only one of the operations 1451 and 1452 to determine whether to predict the current block in the affine mode.
  • the decoder 120 may perform an existing inter prediction mode in step 1460.
  • the existing inter prediction mode may be a technique related to high efficiency video coding (HEVC) or H.264.
  • the decoder 120 may perform a prediction mode for receiving a differential motion vector among the existing inter prediction modes.
  • the existing inter prediction mode may be similar to the advanced motion vector prediction of HEVC.
  • the decoder 120 may obtain information about a motion type from the bitstream in step 1471.
  • the decoder 120 may acquire three directional motion components based on the information obtained from the bitstream.
  • the decoder 120 may acquire the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel based on the information obtained from the bitstream.
  • the motion information of the first reference pixel may include an x direction motion component and a y direction motion component.
  • the decoder 120 may determine that the first direction motion component of the motion information of the second reference pixel is the x direction motion component of the motion information of the second reference pixel.
  • the decoder 120 may determine the second directional motion component of the motion information of the second reference pixel and the third reference pixel based on the motion information of the first reference pixel and the first direction motion component of the motion information of the second reference pixel.
  • the motion information can be obtained.
  • the efficiency of the bitstream can be predicted because the motion vector of the pixels included in the current block can be predicted with minimal information. Can increase. It can also correspond to zooming or rotation, allowing accurate prediction of the current block.
  • the decoder 120 may predict the motion information of the pixel included in the current block based on the motion information of the first reference pixel, the second motion information, and the motion information of the third reference pixel.
  • the decoder 120 may predict the current block based on the motion information of the pixel.
  • the case in which the motion type is zoom has been described in detail with reference to FIGS. 3 to 6, and thus redundant description thereof will be omitted.
  • the decoder 120 may obtain three directional motion components based on the information obtained from the bitstream.
  • the decoder 120 may acquire the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel based on the information obtained from the bitstream.
  • the motion information of the first reference pixel may include an x direction motion component and a y direction motion component.
  • the decoder 120 may determine that the first direction motion component of the motion information of the second reference pixel is the y direction motion component of the motion information of the second reference pixel.
  • the decoder 120 may determine the second directional motion component of the motion information of the second reference pixel and the third reference pixel based on the motion information of the first reference pixel and the first direction motion component of the motion information of the second reference pixel.
  • the motion information can be obtained.
  • the decoder 120 may predict the motion information of the pixel included in the current block based on the motion information of the first reference pixel, the second motion information, and the motion information of the third reference pixel.
  • the decoder 120 may predict the current block based on the motion information of the pixel.
  • the case in which the movement type is rotation has been described in detail with reference to FIGS. 3 to 6, and thus redundant description thereof will be omitted.
  • the decoder 120 may obtain four directional motion components based on information obtained from the bitstream. That is, the decoder 120 may obtain motion information of the first reference pixel and motion information of the second reference pixel based on the information obtained from the bitstream.
  • the motion information of the first reference pixel may include an x direction motion component and a y direction motion component.
  • the motion information of the second reference pixel may include an x direction motion component and a y direction motion component.
  • the decoder 120 may obtain motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel.
  • the decoder 120 may obtain a separate flag different from the motion type from the bitstream.
  • the decoder 120 may determine to acquire three direction motion components or four direction motion components based on the flag.
  • the decoder 120 may receive information about the motion type.
  • the decoder 120 may determine the x direction motion component and the y direction motion component and the first direction motion component included in the motion information of the first reference pixel based on the information obtained from the bitstream.
  • the x-direction motion component and the y-direction motion component included in the motion information of the two reference pixels may be obtained.
  • the decoder 120 may not obtain information about a motion type from the bitstream.
  • the decoder 120 may obtain four directional motion components based on information obtained from the bitstream without information on the motion type. That is, the decoder 120 may obtain motion information of the first reference pixel and motion information of the second reference pixel based on the information obtained from the bitstream.
  • the motion information of the first reference pixel may include an x direction motion component and a y direction motion component.
  • the decoder 120 may obtain motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel. Since the decoder 120 does not receive the information on the motion type, the efficiency of the bitstream may be increased.
  • the decoder 120 may correspond to both zoom and rotation using four directional motion components.
  • the decoder 120 may predict the motion information of the pixel included in the current block based on the motion information of the first reference pixel, the second motion information, and the motion information of the third reference pixel. The decoder 120 may predict the current block based on the motion information of the pixel.
  • condition 2 may be whether the size of the current block is greater than the threshold size, or at least one of the neighboring blocks is in the affine mode. For example, the decoder 120 may determine whether the width of the current block is greater than or equal to 16. The decoder 120 may determine whether the height of the current block is greater than or equal to 16. In addition, the decoder 120 may determine whether the width of the current block is greater than the threshold width. The width of the current block can be expressed as the product of the width and height of the current block. For example, the decoder 120 may determine whether the width of the current block is greater than 64.
  • the decoder 120 may determine whether at least one of the neighboring blocks of the current block is in the affine mode.
  • the neighboring blocks may be lower left, left, upper left, upper, right upper, right and lower right blocks of the current block.
  • the decoder 120 may determine whether neighboring blocks are in an affine mode in a predetermined order. Since the predetermined order has been described with reference to FIGS. 8 to 11, overlapping descriptions are omitted.
  • the condition that the size of the current block is larger than the threshold size and the condition that at least one of the neighboring blocks is an affine mode may satisfy only one of the two or both.
  • the decoder 120 may obtain information about the affine mode from the received bitstream. The decoder 120 may determine whether to predict the current block in the affine mode based on the information on the affine mode.
  • FIG. 14 illustrates performing steps 1421 and 1422, but is not limited thereto.
  • the decoder 120 may determine whether to predict the current block in the affine mode by performing only one of the steps 1421 or 1422.
  • the decoder 120 may perform the existing inter prediction mode in operation 1430.
  • the existing inter prediction mode may be a technique related to high efficiency video coding (HEVC) or H.264.
  • the decoder 120 may perform a prediction mode in which the differential motion vector is not received among the existing inter prediction modes.
  • the existing inter prediction mode may be similar to the merge mode or the skip mode of HEVC.
  • the decoder 120 may acquire candidate related information in operation 1442.
  • the decoder 120 may select one of affine candidate 1 or affine candidate 2 based on the candidate related information.
  • the decoder 120 may acquire motion information of the first reference pixel and motion information of the third reference pixel according to the description associated with FIGS. 8 to 11.
  • the decoder 120 may acquire motion information of the first reference pixel or motion information of the third reference pixel according to the description associated with FIG. 12.
  • the decoder 120 may not acquire candidate related information.
  • the decoder 120 may use only one candidate.
  • the decoder 120 may obtain motion information of the first reference pixel to motion information of the third reference pixel according to the description associated with FIGS. 8 to 11.
  • the decoder 120 may obtain motion information of the first reference pixel to motion information of the third reference pixel according to the description associated with FIG. 12.
  • 15 is a schematic block diagram of an image encoding apparatus, according to an embodiment.
  • the image encoding apparatus 1500 may include an encoder 1510 and a bitstream generator 1520.
  • the encoder 1510 may receive an input image and encode the input image.
  • the bitstream generator 1520 may output a bitstream based on the encoded input image.
  • the image encoding apparatus 1500 may transmit a bitstream to the image decoding apparatus 100. Detailed operations of the video encoding apparatus 1500 will be described in detail with reference to FIG. 16.
  • 16 is a flowchart of a video encoding method, according to an embodiment.
  • FIG. 16 relates to an image encoding method and includes similar contents to those of the image decoding method and apparatus described with reference to FIGS. 1 to 14, and descriptions thereof will not be repeated.
  • the encoder 1510 may include a first directional motion component included in motion information of a first reference pixel located at a first position of the current block based on a current block included in the original image and a previously reconstructed image of the current block. And obtaining the second directional motion component 1610.
  • the encoder 1510 may acquire motion information of the first reference pixel with respect to the first position based on a correlation between the current block and the previously reconstructed image. In order to determine the degree of correlation, the encoder 1510 may use a sum of absolute difference (SAD).
  • SAD sum of absolute difference
  • the encoder 1510 may acquire a first direction motion component included in the motion information of the second reference pixel located at the second position of the current block based on the current block and the previously reconstructed image. Can be done.
  • the encoder 1510 may perform an operation 1630 of acquiring the second direction motion component included in the motion information of the second reference pixel.
  • the encoder 1510 may acquire a second directional motion component included in the motion information of the second reference pixel based on the current block and the previously reconstructed image.
  • the encoder 1510 may acquire motion information of the second reference pixel for the second position based on a correlation between the current block and the previously reconstructed image. In order to determine the degree of correlation, the encoder 1510 may use a sum of absolute difference (SAD).
  • SAD sum of absolute difference
  • the encoder 1510 may compare the x direction motion component and the y direction motion component included in the motion information of the first reference pixel with the x direction motion component and the y direction motion component included in the motion information of the second reference pixel.
  • the first direction motion component of the motion information of the second reference pixel may be an x direction motion component
  • the second direction motion component of the motion information of the second reference pixel may be a y direction motion component. If the y-direction motion component included in the motion information of the first reference pixel is similar to the second direction motion component included in the motion information of the second reference pixel, the encoder 1510 may include the motion information of the first reference pixel. It may be determined to obtain a second direction motion component based on the y direction motion component.
  • the encoder 1510 may determine the motion type of the current block as a zoom.
  • the bitstream generator 1520 may generate a bitstream based on the movement type.
  • the bitstream generator 1520 may not generate the second direction motion component as a bitstream. That is, the image encoding apparatus 1500 may not transmit the second direction motion component to the image decoding apparatus 100.
  • the image encoding apparatus 1500 and the image decoding apparatus 100 may increase the efficiency of the bitstream.
  • the encoder 1510 may include a second reference based on the directional motion components included in the motion information of the first reference pixel and the first directional motion component included in the motion information of the second reference pixel. It may be determined whether the second direction motion component included in the motion information of the pixel can be obtained.
  • the first direction motion component of the motion information of the second reference pixel may be a y direction motion component
  • the second direction motion component of the motion information of the second reference pixel may be an x direction motion component.
  • the encoder 1510 determines whether the direction motion component obtained from the first direction motion component included in the motion information of the first reference pixel and the motion information of the second pixel according to Equations 6 and 7 is similar to the second direction motion component. You can decide. When the directional motion components obtained according to Equations 6 and 7 are similar to the second directional motion components, the encoder 1510 acquires the second directional motion components based on the motion information of the first reference pixel and the first directional motion components. You can decide what to do.
  • the first direction motion component of the motion information of the second reference pixel may be an x direction motion component
  • the second direction motion component of the motion information of the second reference pixel may be a y direction motion component.
  • the encoder 1510 determines whether the direction motion component obtained from the first direction motion component included in the motion information of the first reference pixel and the motion information of the second pixel according to Equations 8 and 9 is similar to the second direction motion component. You can decide. If the directional motion components obtained according to Equations 8 and 9 are similar to the second directional motion components, the encoder 1510 acquires the second directional motion components based on the motion information of the first reference pixel and the first directional motion components. You can decide what to do.
  • the motion type of the current block is rotated ( rotation).
  • the bitstream generator 1520 may generate a bitstream based on the movement type.
  • the bitstream generator 1520 may not generate the second direction motion component as a bitstream. That is, the image encoding apparatus 1500 may not transmit the second direction motion component to the image decoding apparatus 100.
  • the image encoding apparatus 1500 and the image decoding apparatus 100 may increase the efficiency of the bitstream.
  • the encoder 1510 may include the x direction motion component included in the motion information of the first reference pixel, the y direction motion component included in the motion information of the first reference pixel, and the first direction motion included in the motion information of the second reference pixel.
  • the bitstream may be generated based on the component and the second direction motion component included in the motion information of the second reference pixel.
  • the encoder 1510 may determine the movement type as a type representing zoom and rotation at the same time.
  • the bitstream generator 1520 may generate a bitstream based on the movement type.
  • the present invention is not limited thereto, and the image encoding apparatus 1500 may not transmit the motion type to the image decoding apparatus 100.
  • the image decoding apparatus 100 may determine to receive four directional motion components when the motion type is not received.
  • the encoder 1510 may acquire an operation 1640 of obtaining motion information of the third reference pixel located at the third position of the current block based on the motion information of the first reference pixel and the motion information of the second reference pixel. Can be.
  • the encoder 1510 acquires the motion information of the pixel included in the current block based on the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel (1650). can do.
  • the bitstream generator 1520 may perform a step 1650 of generating a bitstream based on at least one of the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel. have.
  • the encoder 1510 may obtain a motion vector of a neighboring neighbor block reconstructed adjacent to the current block.
  • the encoder 1510 may determine whether the first direction motion component included in the motion information of the first reference pixel or the motion information of the second reference pixel of the current block is similar to the motion vector of the neighboring block. In a similar case, the encoder 1510 may determine not to transmit the differential motion vector to the image decoding apparatus 100.
  • the bitstream generator 1520 may generate information about a neighboring block having motion information similar to motion information of the current block, as a bitstream.
  • the encoder 1510 may obtain a motion vector of a neighboring neighbor block reconstructed adjacent to the current block.
  • the encoder 1510 may determine whether the first direction motion component included in the motion information of the first reference pixel or the motion information of the second reference pixel of the current block is similar to the motion vector of the neighboring block. If not, the encoder 1510 may determine to transmit the differential motion vector to the image decoding apparatus 100.
  • the bitstream generator 1520 may generate information on the neighboring blocks having the motion information similar to the motion information of the current block and the differential motion vector in the bitstream.
  • the image decoding apparatus 100 may reconstruct an image based on information obtained from a bitstream received from the image encoding apparatus 1500.
  • FIG. 17 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing a current coding unit according to an embodiment.
  • the block type may include 4Nx4N, 4Nx2N, 2Nx4N, 4NxN or Nx4N. Where N may be a positive integer.
  • the block shape information is information indicating at least one of a shape, a direction, a width, and a ratio or size of a coding unit.
  • the shape of the coding unit may include square and non-square.
  • the image decoding apparatus 100 may determine block shape information of the coding unit as a square.
  • the image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
  • the image decoding apparatus 100 may determine the block shape information of the coding unit as a non-square. Can be. When the shape of the coding unit is non-square, the image decoding apparatus 100 may determine a ratio of the width and the height of the block shape information of the coding unit to 1: 2, 2: 1, 1: 4, 4: 1, 1: 8. Or 8: 1. In addition, the image decoding apparatus 100 may determine whether the coding unit is a horizontal direction or a vertical direction, based on the length of the width of the coding unit and the length of the height. Also, the image decoding apparatus 100 may determine the size of the coding unit based on at least one of the length, the length, or the width of the coding unit.
  • the image decoding apparatus 100 may determine a shape of a coding unit by using block shape information, and determine in which form the coding unit is divided using the split shape information. That is, the method of dividing the coding unit indicated by the segmentation form information may be determined according to which block form the block form information used by the image decoding apparatus 100 represents.
  • the image decoding apparatus 100 may use block shape information indicating that the current coding unit is square. For example, the image decoding apparatus 100 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units according to the split type information. Referring to FIG. 17, when the block shape information of the current coding unit 1700 indicates a square shape, the decoder 120 may have the same size as the current coding unit 1700 according to the split shape information indicating that the block shape information is not divided. The split coding unit 1710a may not be divided, or the split coding unit 1710b, 1710c, 1710d, or the like may be determined based on split type information indicating a predetermined division method.
  • the image decoding apparatus 100 determines two coding units 1710b that split the current coding unit 1700 in the vertical direction based on split shape information indicating that the image is split in the vertical direction. Can be.
  • the image decoding apparatus 100 may determine two coding units 1710c that divide the current coding unit 1700 in the horizontal direction based on the split type information indicating the split in the horizontal direction.
  • the image decoding apparatus 100 may determine four coding units 1710d that divide the current coding unit 1700 in the vertical direction and the horizontal direction based on the split type information indicating that the image decoding apparatus 100 is split in the vertical direction and the horizontal direction.
  • the divided form in which the square coding unit may be divided should not be limited to the above-described form and may include various forms represented by the divided form information. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
  • FIG. 18 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
  • the image decoding apparatus 100 may use block shape information indicating that a current coding unit is a non-square shape.
  • the image decoding apparatus 100 may determine whether to divide the current coding unit of the non-square according to the split type information or to split it by a predetermined method. Referring to FIG. 18, when the block shape information of the current coding unit 1800 or 1850 indicates a non-square shape, the image decoding apparatus 100 may not divide the current coding unit 1800 according to the split shape information indicating that the shape is not divided.
  • coding units 1820a, 1820b, 1830a, 1830b, 1830c, 1870a which do not divide the coding units 1810 or 1860 having the same size as 1850, or are divided based on the split type information indicating a predetermined division method. 1870b, 1880a, 1880b, 1880c).
  • a predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
  • the image decoding apparatus 100 may determine a shape in which a coding unit is divided using split shape information.
  • the split shape information may include the number of at least one coding unit generated by splitting a coding unit. Can be represented.
  • the image decoding apparatus 100 may determine a current coding unit 1800 or 1850 based on split shape information. By splitting, two coding units 1820a, 1820b, or 1870a, 1870b included in the current coding unit may be determined.
  • the image decoding apparatus 100 may divide the current coding unit 1800 or 1850 having a non-square shape.
  • the current coding unit may be split in consideration of the position of the long side. For example, the image decoding apparatus 100 divides the current coding unit 1800 or 1850 in a direction of dividing a long side of the current coding unit 1800 or 1850 in consideration of the shape of the current coding unit 1800 or 1850. To determine a plurality of coding units.
  • the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 1800 or 1850. For example, when the split type information indicates that the current coding unit 1800 or 1850 is divided into three coding units, the image decoding apparatus 100 may divide the current coding unit 1800 or 1850 into three coding units 1830a. , 1830b, 1830c, 1880a, 1880b, and 1880c. According to an embodiment, the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 1800 or 1850, and not all sizes of the determined coding units may be the same.
  • the size of a predetermined coding unit 1830b or 1880b among the determined odd coding units 1830a, 1830b, 1830c, 1880a, 1880b, and 1880c is different from other coding units 1830a, 1830c, 1880a, and 1880c. May have That is, the coding units that may be determined by dividing the current coding units 1800 or 1850 may have a plurality of types, and in some cases, odd number of coding units 1830a, 1830b, 1830c, 1880a, 1880b, and 1880c. Each may have a different size.
  • the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 1800 or 1850.
  • the image decoding apparatus 100 may set a predetermined limit on at least one coding unit among odd-numbered coding units generated by dividing.
  • the image decoding apparatus 100 may include a coding unit positioned at the center of three coding units 1830a, 1830b, 1830c, 1880a, 1880b, and 1880c generated by splitting a current coding unit 1800 or 1850.
  • the decoding process for 1830b and 1880b may be different from other coding units 1830a, 1830c, 1880a, and 1880c.
  • the image decoding apparatus 100 limits the coding units 1830b and 1880b to be no longer divided, or only a predetermined number of times. You can limit it to split.
  • FIG. 19 illustrates a process of splitting a coding unit by the image decoding apparatus 100 based on at least one of block shape information and split shape information, according to an embodiment.
  • the image decoding apparatus 100 may determine to split or not split the first coding unit 1900 having a square shape into coding units based on at least one of block shape information and split shape information.
  • the image decoding apparatus 100 splits the first coding unit 1900 in the horizontal direction to thereby split the second coding unit. (1910) may be determined.
  • the first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand a before and after relationship between the coding units.
  • the first coding unit is split, the second coding unit may be determined.
  • the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
  • the image decoding apparatus 100 may determine to divide or not split the determined second coding unit 1910 into coding units based on at least one of block shape information and split shape information.
  • the image decoding apparatus 100 may determine a second coding unit 1910 having a non-square shape determined by dividing the first coding unit 1900 based on at least one of block shape information and split shape information. It may be split into at least one third coding unit 1920a, 1920b, 1920c, 1920d, or the like, or may not split the second coding unit 1910.
  • the image decoding apparatus 100 may obtain at least one of the block shape information and the split shape information, and the image decoding apparatus 100 may determine the first coding unit 1900 based on at least one of the obtained block shape information and the split shape information.
  • the unit 1900 may be divided according to the divided manner. According to an embodiment, when the first coding unit 1900 is divided into the second coding unit 1910 based on at least one of the block shape information and the split shape information for the first coding unit 1900, the second The coding unit 1910 may also be divided into third coding units (eg, 1920a, 1920b, 1920c, 1920d, etc.) based on at least one of block shape information and split shape information for the second coding unit 1910. have.
  • third coding units eg, 1920a, 1920b, 1920c, 1920d, etc.
  • the coding unit may be recursively divided based on at least one of the partition shape information and the block shape information associated with each coding unit. Therefore, a square coding unit may be determined in a non-square coding unit, and a coding unit of a square shape may be recursively divided to determine a coding unit of a non-square shape.
  • a predetermined coding unit (eg, located in the center of an odd number of third coding units 1920b, 1920c, and 1920d) determined by splitting a second coding unit 1910 having a non-square shape may be included. Coding units or coding units having a square shape) may be recursively divided. According to an embodiment, the third coding unit 1920b having a square shape, which is one of odd third coding units 1920b, 1920c, and 1920d, may be divided in a horizontal direction and divided into a plurality of fourth coding units.
  • the fourth coding unit 1930b or 1930d having a non-square shape which is one of the plurality of fourth coding units 1930a, 1930b, 1930c, and 1930d, may be further divided into a plurality of coding units.
  • the fourth coding unit 1930b or 1930d having a non-square shape may be divided into odd coding units.
  • a method that can be used for recursive division of coding units will be described later through various embodiments.
  • the image decoding apparatus 100 may divide each of the third coding units 1920a, 1920b, 1920c, 1920d, etc. into coding units based on at least one of block shape information and split shape information. Also, the image decoding apparatus 100 may determine not to split the second coding unit 1910 based on at least one of the block shape information and the split shape information. The image decoding apparatus 100 may divide the second coding unit 1910 having a non-square shape into an odd number of third coding units 1920b, 1920c, and 1920d. The image decoding apparatus 100 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 1920b, 1920c, and 1920d.
  • the image decoding apparatus 100 may be limited to no more division or may be divided by a set number of times for the coding unit 1920c positioned in the middle of the odd number of third coding units 1920b, 1920c, and 1920d. It can be limited to.
  • the image decoding apparatus 100 may include a coding unit positioned at the center of odd-numbered third coding units 1920b, 1920c, and 1920d included in a second coding unit 1910 having a non-square shape.
  • 1920c is no longer partitioned, or is limited to being divided into a predetermined division form (for example, divided into only four coding units or divided into a form corresponding to a divided form of the second coding unit 1910), or predetermined. It can be limited to dividing only by the number of times (eg, dividing only n times, n> 0).
  • the coding unit 1920c located in the center is merely a mere embodiment, it should not be construed as being limited to the above-described embodiments, and the coding unit 1920c located in the center is different from other coding units 1920b and 1920d. ), It should be interpreted as including various restrictions that can be decoded.
  • the image decoding apparatus 100 may obtain at least one of block shape information and split shape information used to divide a current coding unit at a predetermined position in the current coding unit.
  • FIG. 20 illustrates a method for the image decoding apparatus 100 to determine a predetermined coding unit among odd number of coding units, according to an exemplary embodiment.
  • At least one of the block shape information and the split shape information of the current coding unit 2000 may be a sample at a predetermined position (for example, located at the center of a plurality of samples included in the current coding unit 2000). Sample 2040).
  • a predetermined position in the current coding unit 2000 from which at least one of such block shape information and split shape information may be obtained should not be interpreted as being limited to the center position shown in FIG. 20, and the current coding unit 2000 is located at the predetermined position. It should be construed that various positions (eg, top, bottom, left, right, top left, bottom left, top right or bottom right, etc.) that may be included in the.
  • the image decoding apparatus 100 may determine that the current coding unit is divided into coding units of various shapes and sizes by not obtaining at least one of block shape information and split shape information obtained from a predetermined position.
  • the image decoding apparatus 100 may select one coding unit from among them. Methods for selecting one of a plurality of coding units may vary, which will be described below through various embodiments.
  • the image decoding apparatus 100 may divide a current coding unit into a plurality of coding units and determine a coding unit of a predetermined position.
  • the image decoding apparatus 100 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units. Referring to FIG. 20, the image decoding apparatus 100 may divide the current coding unit 2000 to determine odd number of coding units 2020a, 2020b, and 2020c. The image decoding apparatus 100 may determine the center coding unit 2020b by using information about the positions of the odd number of coding units 2020a, 2020b, and 2020c. For example, the image decoding apparatus 100 determines the positions of the coding units 2020a, 2020b, and 2020c based on information indicating the positions of predetermined samples included in the coding units 2020a, 2020b, and 2020c. The coding unit 2020b positioned at may be determined.
  • the image decoding apparatus 100 may encode the coding units 2020a, 2020b, and 2020c based on the information indicating the positions of the samples 2030a, 2030b, and 2030c on the upper left side of the coding units 2020a, 2020b, and 2020c.
  • the coding unit 2020b positioned in the center may be determined by determining the position of.
  • the information indicating the position of the upper left samples 2030a, 2030b, and 2030c included in the coding units 2020a, 2020b, and 2020c may be included in the picture of the coding units 2020a, 2020b, and 2020c. It may include information about the location or coordinates of.
  • the information indicating the positions of the samples 2030a, 2030b, and 2030c in the upper left included in the coding units 2020a, 2020b, and 2020c may be encoded units 2020a included in the current coding unit 2000.
  • 2020b, and 2020c may include information indicating a width or a height, and the width or height may correspond to information indicating a difference between coordinates in a picture of the coding units 2020a, 2020b, and 2020c.
  • the image decoding apparatus 100 directly uses information about the position or coordinates in the pictures of the coding units 2020a, 2020b, and 2020c or information about the width or height of the coding unit corresponding to the difference between the coordinates. By using, the coding unit 2020b located in the center may be determined.
  • the information indicating the position of the sample 2030a at the upper left of the upper coding unit 2020a may indicate (xa, ya) coordinates, and the sample 1930b at the upper left of the middle coding unit 2020b.
  • the information indicating the position of) may indicate (xb, yb) coordinates, and the information indicating the position of the sample 2030c on the upper left side of the lower coding unit 2020c may indicate (xc, yc) coordinates.
  • the image decoding apparatus 100 may determine the center coding unit 2020b using the coordinates of the samples 2030a, 2030b, and 2030c in the upper left included in the coding units 2020a, 2020b, and 2020c, respectively.
  • the coordinates indicating the positions of the samples 2030a, 2030b, and 2030c in the upper left corner may indicate coordinates indicating an absolute position in the picture, and further, the positions of the samples 2030a in the upper left corner of the upper coding unit 2020a may be determined.
  • the (dxb, dyb) coordinate which is information indicating the relative position of the sample 2030b at the upper left of the center coding unit 2020b, and the relative position of the sample 2030c at the upper left of the lower coding unit 2020c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be interpreted to be limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample It should be interpreted in a way.
  • the image decoding apparatus 100 may split the current coding unit 2000 into a plurality of coding units 2020a, 2020b, and 2020c, and may select one of the coding units 2020a, 2020b, and 2020c.
  • the coding unit may be selected according to the standard. For example, the image decoding apparatus 100 may select coding units 2020b having different sizes from among coding units 2020a, 2020b, and 2020c.
  • the image decoding apparatus 100 may include (xa, ya) coordinates, which are information indicating a position of the sample 2030a on the upper left side of the upper coding unit 2020a, and a sample on the upper left side of the center coding unit 2020b.
  • Coding units 2020a using (xb, yb) coordinates indicating information of position of 2030b and (xc, yc) coordinates indicating information of sample 2030c on the upper left of lower coding unit 2020c. 2020b, 2020c) may determine the width or height of each.
  • the image decoding apparatus 100 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 2020a, 2020b, and 2020c. 2020c) may determine the size of each.
  • the image decoding apparatus 100 may determine the width of the upper coding unit 2020a as the width of the current coding unit 2000 and the height as yb-ya. According to an embodiment, the image decoding apparatus 100 may determine the width of the central coding unit 2020b as the width of the current coding unit 2000 and the height as yc-yb. According to an embodiment, the image decoding apparatus 100 may determine the width or height of the lower coding unit using the width or height of the current coding unit, and the width and height of the upper coding unit 2020a and the center coding unit 2020b. .
  • the image decoding apparatus 100 may determine a coding unit having a different size from other coding units based on the width and the height of the determined coding units 2020a, 2020b, and 2020c. Referring to FIG. 20, the image decoding apparatus 100 may determine a coding unit 2020b as a coding unit having a predetermined position while having a size different from that of the upper coding unit 2020a and the lower coding unit 2020c. However, in the above-described process of determining, by the image decoding apparatus 100, a coding unit having a different size from another coding unit, the coding unit at a predetermined position may be determined using the size of the coding unit determined based on the sample coordinates. In this regard, various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
  • the image decoding apparatus 100 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit has a non-square shape having a width greater than the height, the image decoding apparatus 100 may determine the coding unit at a predetermined position in the horizontal direction. That is, the image decoding apparatus 100 may determine one of the coding units having different positions in the horizontal direction to limit the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the image decoding apparatus 100 may determine a coding unit of a predetermined position in the vertical direction. That is, the image decoding apparatus 100 may determine one of the coding units having different positions in the vertical direction to limit the corresponding coding unit.
  • the image decoding apparatus 100 may use information indicating the positions of each of the even coding units to determine the coding unit of the predetermined position among the even coding units.
  • the image decoding apparatus 100 may determine an even number of coding units by dividing a current coding unit and determine a coding unit of a predetermined position by using information about the positions of the even coding units.
  • a detailed process thereof may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a center position) among the odd number of coding units described above with reference to FIG. 20, and thus will be omitted.
  • a predetermined value for a coding unit of a predetermined position in the splitting process is determined to determine a coding unit of a predetermined position among the plurality of coding units.
  • Information is available.
  • the image decoding apparatus 100 may determine block shape information and a split shape stored in a sample included in a middle coding unit in a splitting process in order to determine a coding unit located in a center among coding units having a plurality of current coding units split. At least one of the information may be used.
  • the image decoding apparatus 100 may divide the current coding unit 2000 into a plurality of coding units 2020a, 2020b, and 2020c based on at least one of block shape information and split shape information.
  • a coding unit 2020b positioned in the center of the plurality of coding units 2020a, 2020b, and 2020c may be determined.
  • the image decoding apparatus 100 may determine a coding unit 2020b located in the center in consideration of a position where at least one of block shape information and split shape information is obtained. That is, at least one of the block shape information and the split shape information of the current coding unit 2000 may be obtained from a sample 2040 located in the center of the current coding unit 2000. The block shape information and the split shape information may be obtained.
  • the coding unit 2020b including the sample 2040 is a coding unit positioned at the center. You can decide. However, the information used to determine the coding unit located in the middle should not be interpreted as being limited to at least one of the block type information and the split type information, and various types of information may be used in the process of determining the coding unit located in the center. Can be.
  • predetermined information for identifying a coding unit of a predetermined position may be obtained from a predetermined sample included in the coding unit to be determined.
  • the image decoding apparatus 100 may divide a plurality of coding units (eg, divided into a plurality of coding units 2020a, 2020b, and 2020c) determined by splitting a current coding unit 2000.
  • Block shape information obtained from a sample at a predetermined position in the current coding unit 2000 (for example, a sample located in the center of the current coding unit 2000) in order to determine a coding unit located in the middle of the coding units.
  • At least one of the partition type information may be used. .
  • the image decoding apparatus 100 may determine a sample of the predetermined position in consideration of the block shape of the current coding unit 2000, and the image decoding apparatus 100 may determine a plurality of pieces in which the current coding unit 2000 is divided and determined.
  • a coding unit 2020b including a sample from which predetermined information (for example, at least one of block shape information and split shape information) may be obtained may be determined and determined.
  • predetermined information for example, at least one of block shape information and split shape information
  • the image decoding apparatus 100 may determine a sample 2040 positioned in the center of the current coding unit 2000 as a sample from which predetermined information may be obtained, and the image decoding apparatus may be used.
  • the 100 may set a predetermined limit in the decoding process of the coding unit 2020b including the sample 2040.
  • the position of the sample from which the predetermined information can be obtained should not be interpreted as being limited to the above-described position, but may be interpreted as samples of arbitrary positions included in the coding unit 2020b to be determined for the purpose of limitation.
  • a position of a sample from which predetermined information may be obtained may be determined according to the shape of the current coding unit 2000.
  • the block shape information may determine whether the shape of the current coding unit is square or non-square, and determine the position of a sample from which the predetermined information may be obtained according to the shape.
  • the image decoding apparatus 100 may be positioned on a boundary that divides at least one of the width and the height of the current coding unit in half using at least one of information about the width and the height of the current coding unit.
  • the sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 100 may select one of samples adjacent to a boundary that divides the long side of the current coding unit in half. May be determined as a sample from which information may be obtained.
  • the image decoding apparatus 100 when the image decoding apparatus 100 divides a current coding unit into a plurality of coding units, at least one of block shape information and split shape information may be used to determine a coding unit of a predetermined position among a plurality of coding units. You can use one.
  • the image decoding apparatus 100 may obtain at least one of block shape information and split shape information from a sample at a predetermined position included in a coding unit, and the image decoding apparatus 100 may divide the current coding unit.
  • the generated plurality of coding units may be divided using at least one of split shape information and block shape information obtained from a sample of a predetermined position included in each of the plurality of coding units.
  • the coding unit may be recursively split using at least one of block shape information and split shape information obtained from a sample of a predetermined position included in each coding unit. Since the recursive division process of the coding unit has been described above with reference to FIG. 19, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
  • FIG. 21 is a diagram illustrating an order in which a plurality of coding units is processed when the image decoding apparatus 100 determines a plurality of coding units by dividing a current coding unit.
  • the image decoding apparatus 100 determines the second coding units 2110a and 2110b by dividing the first coding unit 2100 in the vertical direction according to the block shape information and the split shape information.
  • the second coding units 2130a and 2130b are determined by dividing the 2100 in the horizontal direction, or the second coding units 2150a, 2150b, 2150c and 2150d by dividing the first coding unit 2100 in the vertical and horizontal directions. Can be determined.
  • the image decoding apparatus 100 may determine an order such that the second coding units 2110a and 2110b determined by dividing the first coding unit 2100 in the vertical direction are processed in the horizontal direction 2110c. .
  • the image decoding apparatus 100 may determine the processing order of the second coding units 2130a and 2130b determined by dividing the first coding unit 2100 in the horizontal direction, in the vertical direction 2130c.
  • the image decoding apparatus 100 processes the coding units in which the second coding units 2150a, 2150b, 2150c, and 2150d are positioned in one row. It may be determined according to a predetermined order (for example, raster scan order or z scan order 2150e, etc.) in which coding units located in a next row are processed.
  • a predetermined order for example, raster scan order or z scan order 2150e, etc.
  • the image decoding apparatus 100 may recursively split coding units.
  • the image decoding apparatus 100 may determine a plurality of coding units 2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, and 2150d by dividing the first coding unit 2100.
  • Each of the determined coding units 2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, and 2150d may be recursively divided.
  • the method of dividing the plurality of coding units 2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, and 2150d may correspond to a method of dividing the first coding unit 2100. Accordingly, the plurality of coding units 2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, and 2150d may be independently divided into a plurality of coding units. Referring to FIG. 21, the image decoding apparatus 100 may determine the second coding units 2110a and 2110b by dividing the first coding unit 2100 in the vertical direction, and further, respectively, the second coding units 2110a and 2110b. It can be decided to split independently or not.
  • the image decoding apparatus 100 may divide the second coding unit 2110a on the left side into a horizontal coding direction and divide the second coding unit 2120a and 2120b into a second coding unit 2110b. ) May not be divided.
  • the processing order of coding units may be determined based on a split process of the coding units.
  • the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 100 may independently determine the order in which the third coding units 2120a and 2120b determined by splitting the second coding unit 2110a on the left side from the second coding unit 2110b on the right side. Since the second coding unit 2110a on the left is divided in the horizontal direction to determine the third coding units 2120a and 2120b, the third coding units 2120a and 2120b may be processed in the vertical direction 2120c.
  • the third coding unit included in the second coding unit 2110a on the left side corresponds to the horizontal direction 2110c
  • the right coding unit 2110b may be processed.
  • FIG. 22 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus 100 may not process the coding units in a predetermined order, according to an exemplary embodiment.
  • the image decoding apparatus 100 may determine that the current coding unit is split into odd coding units based on the obtained block shape information and the split shape information.
  • a first coding unit 2200 having a square shape may be divided into second coding units 2210a and 2210b having a non-square shape, and each of the second coding units 2210a and 2210b may be independently formed. It may be divided into three coding units 2220a, 2220b, 2220c, 2220d, and 2220e.
  • the image decoding apparatus 100 may determine a plurality of third coding units 2220a and 2220b by dividing the left coding unit 2210a in the horizontal direction among the second coding units, and may include the right coding unit 2210b. ) May be divided into an odd number of third coding units 2220c, 2220d, and 2220e.
  • the image decoding apparatus 100 determines whether the third coding units 2220a, 2220b, 2220c, 2220d, and 2220e may be processed in a predetermined order to determine whether there are oddly divided coding units. You can decide. Referring to FIG. 22, the image decoding apparatus 100 may determine the third coding units 2220a, 2220b, 2220c, 2220d, and 2220e by recursively dividing the first coding unit 2200.
  • the image decoding apparatus 100 may include a first coding unit 2200, a second coding unit 2210a, 2210b, or a third coding unit 2220a, 2220b, 2220c, based on at least one of block shape information and split shape information.
  • the order in which the plurality of coding units included in the first coding unit 2200 is processed may be a predetermined order (for example, a z-scan order 2230), and the image decoding apparatus ( 100 may determine whether the third coding units 2220c, 2220d, and 2220e determined by splitting the right second coding unit 2210b into an odd number satisfy the condition in which the right coding units 2210b are processed in the predetermined order.
  • the image decoding apparatus 100 may satisfy a condition that the third coding units 2220a, 2220b, 2220c, 2220d, and 2220e included in the first coding unit 2200 may be processed in a predetermined order. Whether the at least one of the width and the height of the second coding unit 2210a, 2210b is divided in half according to the boundary of the third coding unit 2220a, 2220b, 2220c, 2220d, 2220e. Related. For example, the third coding units 2220a and 2220b, which are determined by dividing the height of the left second coding unit 2210a having a non-square shape in half, may satisfy the condition.
  • a boundary of the third coding units 2220c, 2220d, and 2220e determined by dividing the right second coding unit 2210b into three coding units may not divide the width or height of the right second coding unit 2210b in half. Therefore, the third coding units 2220c, 2220d, and 2220e may be determined to not satisfy the condition. In case of such a condition dissatisfaction, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the right second coding unit 2210b is divided into odd coding units based on the determination result.
  • the image decoding apparatus 100 when the image decoding apparatus 100 is divided into an odd number of coding units, the image decoding apparatus 100 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, detailed description thereof will be omitted.
  • FIG. 23 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing the first coding unit 2300, according to an exemplary embodiment.
  • the image decoding apparatus 100 may divide the first coding unit 2300 based on at least one of the block shape information and the split shape information acquired through the receiver 110.
  • the first coding unit 2300 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 100 may determine the first coding unit. 2300 may be divided into a plurality of non-square coding units.
  • the image decoding apparatus 100 may form a square first coding unit 2300. ) May be divided into second coding units 2310a, 2310b, and 2310c determined by being split in the vertical direction as odd coding units, or second coding units 2320a, 2320b, and 2320c by splitting into the horizontal direction.
  • the image decoding apparatus 100 may process the second coding units 2310a, 2310b, 2310c, 2320a, 2320b, and 2320c included in the first coding unit 2300 in a predetermined order.
  • the condition is whether the at least one of the width and height of the first coding unit 2300 is divided in half according to the boundary of the second coding unit (2310a, 2310b, 2310c, 2320a, 2320b, 2320c).
  • a boundary between second coding units 2310a, 2310b, and 2310c which is determined by dividing a square first coding unit 2300 in a vertical direction, divides the width of the first coding unit 2300 in half.
  • the first coding unit 2300 may be determined to not satisfy a condition that may be processed in a predetermined order.
  • the boundary between the second coding units 2320a, 2320b, and 2320c which is determined by dividing the first coding unit 2300 having a square shape in the horizontal direction, does not divide the width of the first coding unit 2300 in half,
  • the one coding unit 2300 may be determined as not satisfying a condition that may be processed in a predetermined order. In case of such a condition dissatisfaction, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the first coding unit 2300 is divided into odd coding units based on the determination result.
  • the image decoding apparatus 100 when the image decoding apparatus 100 is divided into an odd number of coding units, the image decoding apparatus 100 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine various coding units by dividing the first coding unit.
  • the image decoding apparatus 100 may split a first coding unit 2300 having a square shape and a first coding unit 2330 or 2350 having a non-square shape into various coding units. .
  • FIG. 24 illustrates that the second coding unit is split when the second coding unit having a non-square shape determined by splitting the first coding unit 2400 meets a predetermined condition, according to an embodiment. It shows that the form that can be limited.
  • the image decoding apparatus 100 may determine a square-type first coding unit 2400 having a non-square shape based on at least one of block shape information and segmentation shape information acquired through the receiver 110. It may be determined by dividing into two coding units 2410a, 2410b, 2420a, and 2420b. The second coding units 2410a, 2410b, 2420a, and 2420b may be split independently. Accordingly, the image decoding apparatus 100 determines whether to split or not split into a plurality of coding units based on at least one of block shape information and split shape information related to each of the second coding units 2410a, 2410b, 2420a, and 2420b. Can be.
  • the image decoding apparatus 100 divides the left second coding unit 2410a having a non-square shape in a horizontal direction by dividing the first coding unit 2400 in a vertical direction to form a third coding unit ( 2412a, 2412b) can be determined.
  • the right second coding unit 2410b may have the same horizontal direction as the direction in which the left second coding unit 2410a is divided. It can be limited to not be divided into.
  • the right second coding unit 2410b is divided in the same direction and the third coding units 2414a and 2414b are determined, the left second coding unit 2410a and the right second coding unit 2410b are respectively horizontal.
  • the third coding units 2412a, 2412b, 2414a, and 2414b may be determined.
  • the image decoding apparatus 100 divides the first coding unit 2400 into four square second coding units 2430a, 2430b, 2430c, and 2430d based on at least one of block shape information and split shape information. This is the same result as the above, which may be inefficient in terms of image decoding.
  • the image decoding apparatus 100 divides a second coding unit 2420a or 2420b having a non-square shape, determined by dividing the first coding unit 2400 in a horizontal direction, in a vertical direction, to thereby form a third coding unit. (2422a, 2422b, 2424a, 2424b) can be determined.
  • the image decoding apparatus 100 divides one of the second coding units (for example, the upper second coding unit 2420a) in the vertical direction
  • another image coding unit for example, the lower end
  • the coding unit 2420b may restrict the upper second coding unit 2420a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 25 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus 100 when the split shape information cannot be divided into four square coding units according to an exemplary embodiment.
  • the image decoding apparatus 100 divides the first coding unit 2500 based on at least one of the block shape information and the split shape information to divide the second coding units 2510a, 2510b, 2520a, 2520b, and the like. You can decide.
  • the split type information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into four coding units having a square shape.
  • the image decoding apparatus 100 may not divide the first coding unit 2500 having a square shape into four second coding units 2530a, 2530b, 2530c, and 2530d having a square shape.
  • the image decoding apparatus 100 may determine the non-square second coding units 2510a, 2510b, 2520a, 2520b, and the like based on the segmentation information.
  • the image decoding apparatus 100 may independently split the non-square second coding units 2510a, 2510b, 2520a, 2520b, and the like.
  • Each of the second coding units 2510a, 2510b, 2520a, 2520b, etc. may be split in a predetermined order through a recursive method, which is based on at least one of block shape information and split shape information 2500. ) May be a division method corresponding to the division method.
  • the image decoding apparatus 100 may determine the third coding units 2512a and 2512b having a square shape by dividing the left second coding unit 2510a in the horizontal direction, and the right second coding unit 2510b The third coding units 2514a and 2514b having a square shape may be determined by being split in the horizontal direction. Furthermore, the image decoding apparatus 100 may divide the left second coding unit 2510a and the right second coding unit 2510b in the horizontal direction to determine the third coding units 2516a, 2516b, 2516c, and 2516d having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 2500 is divided into four square second coding units 2530a, 2530b, 2530c, and 2530d.
  • the image decoding apparatus 100 may determine the third coding units 2522a and 2522b having a square shape by dividing the upper second coding unit 2520a in the vertical direction, and lower second coding unit 2520b. ) May be divided in a vertical direction to determine third coding units 2524a and 2524b having a square shape. Furthermore, the image decoding apparatus 100 may divide the upper second coding unit 2520a and the lower second coding unit 2520b in the vertical direction to determine the third coding units 2526a, 2526b, 2526a, and 2526b having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 2500 is divided into four square second coding units 2530a, 2530b, 2530c, and 2530d.
  • FIG. 26 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
  • the image decoding apparatus 100 may divide the first coding unit 2600 based on the block shape information and the split shape information.
  • the image decoding apparatus 100 may determine the first coding unit 2600.
  • the second coding units 2610a, 2610b, 2620a, and 2620b of the non-square shape determined by dividing the first coding unit 2600 only in the horizontal direction or the vertical direction may each have block shape information and split shape information.
  • the image decoding apparatus 100 divides the second coding units 2610a and 2610b, which are generated by splitting the first coding unit 2600 in the vertical direction, in the horizontal direction, respectively, to separate the third coding units 2616a and 2616b, 2616c and 2616d, and the second coding units 2620a and 2620b generated by dividing the first coding unit 2600 in the horizontal direction are divided in the horizontal direction, respectively, and the third coding units 2626a, 2626b and 2626c. , 2626d). Since the splitting process of the second coding units 2610a, 2610b, 2620a, and 2620b has been described above with reference to FIG. 25, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may process coding units in a predetermined order. Features of the processing of coding units according to a predetermined order have been described above with reference to FIG. 21, and thus a detailed description thereof will be omitted. Referring to FIG. 26, the image decoding apparatus 100 splits a first coding unit 2600 having a square shape to form four square third coding units 2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, and 2626d. ) Can be determined.
  • the image decoding apparatus 100 may process a sequence of the third coding units 2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, and 2626d according to a form in which the first coding unit 2600 is divided. You can decide.
  • the image decoding apparatus 100 divides the second coding units 2610a and 2610b generated by splitting in the vertical direction in the horizontal direction, respectively, to determine the third coding units 2616a, 2616b, 2616c, and 2616d.
  • the image decoding apparatus 100 may first process the third coding units 2616a and 2616c included in the left second coding unit 2610a in the vertical direction, and then include the right coding unit 2610b in the right second coding unit 2610b.
  • the third coding units 2616a, 2616b, 2616c, and 2616d may be processed according to an order 2615 that processes the third coding units 2616b and 2616d in the vertical direction.
  • the image decoding apparatus 100 determines the third coding units 2626a, 2626b, 2626c, and 2626d by dividing the second coding units 2620a and 2620b generated by dividing in the horizontal direction, respectively.
  • the image decoding apparatus 100 may first process the third coding units 2626a and 2626b included in the upper second coding unit 2620a in the horizontal direction, and then include the lower coding unit 2620b.
  • the third coding units 2626a, 2626b, 2626c, and 2626d may be processed according to an order 2627 that processes the third coding units 2626c and 2626d in the horizontal direction.
  • second coding units 2610a, 2610b, 2620a, and 2620b may be divided, respectively, and square third coding units 2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, and 2626d may be determined. have.
  • the second coding units 2610a and 2610b that are determined by dividing in the vertical direction and the second coding units 2620a and 2620b that are determined by dividing in the horizontal direction are divided into different forms, but are determined later.
  • 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, and 2626d eventually result in splitting the first coding unit 2600 into coding units having the same type.
  • the apparatus 100 for decoding an image recursively splits a coding unit through a different process based on at least one of block shape information and split shape information, and as a result, even if the coding units having the same shape are determined, the plurality of pictures determined in the same shape are determined. Coding units may be processed in different orders.
  • FIG. 27 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the image decoding apparatus 100 may determine the depth of a coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before the split. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the image decoding apparatus 100 may have a square shape, based on block shape information indicating a square shape (for example, block shape information may indicate '0: SQUARE').
  • the first coding unit 2700 may be divided to determine a second coding unit 2702, a third coding unit 2704, or the like of a lower depth. If the size of the square first coding unit 2700 is 2Nx2N, the second coding unit 2702 determined by dividing the width and height of the first coding unit 2700 by 1/2 times may have a size of NxN. have.
  • the third coding unit 2704 determined by dividing the width and the height of the second coding unit 2702 into 1/2 size may have a size of N / 2 ⁇ N / 2.
  • the width and height of the third coding unit 2704 correspond to 1/4 times the first coding unit 2700.
  • the depth of the first coding unit 2700 is D
  • the depth of the second coding unit 2702, which is 1/2 the width and height of the first coding unit 2700 may be D + 1
  • the depth of the third coding unit 2704, which is 1/4 of the width and the height of 2700 may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2: may represent NS_HOR ')
  • the image decoding apparatus 100 may divide the first coding unit 2710 or 2720 having a non-square shape to divide the second coding unit 2712 or 2722 of the lower depth
  • the third coding unit 2714 or 2724 may be determined.
  • the image decoding apparatus 100 may determine a second coding unit (eg, 2702, 2712, 2722, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 2710. That is, the image decoding apparatus 100 may divide the first coding unit 2710 in the horizontal direction to determine a second coding unit 2702 of NxN size or a second coding unit 2722 of NxN / 2 size.
  • the second coding unit 2712 having the size of N / 2 ⁇ N may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 100 determines at least one of a width and a height of a 2N ⁇ N sized first coding unit 2720 to determine a second coding unit (eg, 2702, 2712, 2722, etc.). It may be. That is, the image decoding apparatus 100 may divide the first coding unit 2720 in the vertical direction to determine a second coding unit 2702 of size NxN or a second coding unit 2712 of size N / 2xN.
  • the second coding unit 2722 having the size of NxN / 2 may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 100 determines at least one of a width and a height of the NxN-sized second coding unit 2702 to determine a third coding unit (eg, 2704, 2714, 2724, etc.). It may be. That is, the image decoding apparatus 100 determines the third coding unit 2704 having the size of N / 2xN / 2 by dividing the second coding unit 2702 in the vertical direction and the horizontal direction, or the N / 4xN / 2 size 3 coding units 2714 may be determined, or a third coding unit 2724 having a size of N / 2 ⁇ N / 4 may be determined.
  • a third coding unit eg, 2704, 2714, 2724, etc.
  • the image decoding apparatus 100 splits at least one of a width and a height of the N / 2xN sized second coding unit 2712, for example, a third coding unit (eg, 2704, 2714, 2724, etc.). May be determined. That is, the image decoding apparatus 100 divides the second coding unit 2712 in the horizontal direction, so that the third coding unit 2704 having N / 2xN / 2 size or the third coding unit 2724 having N / 2xN / 4 size. ) May be determined or divided into vertical and horizontal directions to determine a third coding unit 2714 having an N / 4xN / 2 size.
  • a third coding unit eg, 2704, 2714, 2724, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of the second coding unit 2722 having an N ⁇ N / 2 size to form a third coding unit (eg, 2704, 2714, 2724, etc.). May be determined. That is, the image decoding apparatus 100 divides the second coding unit 2722 in the vertical direction to form a third coding unit 2704 of size N / 2xN / 2 or a third coding unit 2714 of size N / 4xN / 2. ) May be determined or divided in the vertical direction and the horizontal direction to determine the third coding unit 2724 having the size of N / 2 ⁇ N / 4.
  • the image decoding apparatus 100 may divide a coding unit having a square shape (for example, 2700, 2702, and 2704) in a horizontal direction or a vertical direction.
  • the first coding unit 2700 of size 2Nx2N is split in the vertical direction to determine the first coding unit 2710 of size Nx2N, or the first coding unit 2720 of size 2NxN is determined by splitting in the horizontal direction.
  • the depth of the coding unit determined by dividing the first coding unit 2700 having a 2N ⁇ 2N size in the horizontal direction or the vertical direction may be determined by the first encoding. It may be equal to the depth of the unit 2700.
  • the width and height of the third coding unit 2714 or 2724 may correspond to 1/4 times the first coding unit 2710 or 2720.
  • the depth of the first coding unit 2710 or 2720 is D
  • the depth of the second coding unit 2712 or 2722 that is 1/2 times the width and the height of the first coding unit 2710 or 2720 may be D + 1.
  • the depth of the third coding unit 2714 or 2724, which is 1/4 of the width and the height of the first coding unit 2710 or 2720, may be D + 2.
  • FIG. 28 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • the image decoding apparatus 100 may determine a second coding unit having various forms by dividing the first coding unit 2800 having a square shape. Referring to FIG. 28, the image decoding apparatus 100 divides the first coding unit 2800 in at least one of a vertical direction and a horizontal direction according to the split type information to form second coding units 2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, and 2806d. That is, the image decoding apparatus 100 may determine the second coding units 2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, and 2806d based on the split shape information about the first coding unit 2800.
  • the second coding units 2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, and 2806d which are determined according to split shape information about the first coding unit 2800 having a square shape, have a long side length. Depth can be determined based on this. For example, since the length of one side of the first coding unit 2800 having a square shape and the length of the long side of the second coding units 2802a, 2802b, 2804a, and 2804b having a non-square shape are the same, the first coding unit ( 2800 and the non-square second coding units 2802a, 2802b, 2804a, and 2804b have the same depth as D.
  • the image decoding apparatus 100 divides the first coding unit 2800 into four square coding units 2806a, 2806b, 2806c, and 2806d based on the split shape information, Since the length of one side of the two coding units 2806a, 2806b, 2806c, and 2806d is 1/2 times the length of one side of the first coding unit 2800, the depth of the second coding units 2806a, 2806b, 2806c, and 2806d is increased. May be a depth of D + 1 that is one depth lower than D, which is a depth of the first coding unit 2800.
  • the image decoding apparatus 100 divides a first coding unit 2810 having a shape having a height greater than a width in a horizontal direction according to split shape information, thereby providing a plurality of second coding units 2812a, 2812b, 2814a, 2814b, 2814c.
  • the image decoding apparatus 100 divides a first coding unit 2820 having a shape having a width greater than a height in a vertical direction according to split shape information, thereby providing a plurality of second coding units 2822a, 2822b, 2824a, 2824b, 2824c).
  • second coding units 2812a, 2812b, 2814a, 2814b, 2814c, 2822a, 2822b, 2824a, and 2824b that are determined according to split shape information about the first coding unit 2810 or 2820 having a non-square shape. , 2824c) may be determined based on the length of the long side.
  • the length of one side of the second coding units 2812a and 2812b having a square shape is 1/2 times the length of one side of the first coding unit 2810 having a non-square shape having a height greater than the width
  • the depths of the second coding units 2812a and 2812b of the shape are D + 1, which is one depth lower than the depth D of the first coding unit 2810 of the non-square shape.
  • the image decoding apparatus 100 may divide the non-square first coding unit 2810 into odd second coding units 2814a, 2814b, and 2814c based on the split shape information.
  • the odd-numbered second coding units 2814a, 2814b, and 2814c may include second coding units 2814a and 2814c having a non-square shape and second coding units 2814b having a square shape.
  • the length of the long side of the second coding units 2814a and 2814c of the non-square shape and the length of one side of the second coding unit 2814b of the square shape are 1 / time of the length of one side of the first coding unit 2810.
  • the depths of the second coding units 2814a, 2814b, and 2814c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 2810.
  • the image decoding apparatus 100 corresponds to the above-described method of determining depths of coding units related to the first coding unit 2810 and is related to the first coding unit 2820 having a non-square shape having a width greater than the height. Depth of coding units may be determined.
  • the image decoding apparatus 100 may determine the size ratio between the coding units.
  • the index can be determined based on this. Referring to FIG. 28, a coding unit 2814b positioned in the center of odd-numbered split coding units 2814a, 2814b, and 2814c has the same width as the other coding units 2814a and 2814c but has a different height. It may be twice the height of the fields 2814a, 2814c. That is, in this case, the coding unit 2814b positioned in the middle may include two of the other coding units 2814a and 2814c.
  • the image decoding apparatus 100 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
  • the image decoding apparatus 100 may determine whether the image decoding apparatus 100 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 28, the image decoding apparatus 100 determines an even number of coding units 2812a and 2812b by dividing a first coding unit 2810 having a rectangular shape whose height is greater than a width, or may determine an odd number of coding units 2814a and 2814b. 2814c). The image decoding apparatus 100 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 100 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for dividing coding units. According to an embodiment, when the split type information of the first coding unit 2810 having a height greater than the width is divided into three coding units, the image decoding apparatus 100 may determine the first coding unit 2810. It may be divided into three coding units 2814a, 2814b, and 2814c. The image decoding apparatus 100 may allocate an index for each of three coding units 2814a, 2814b, and 2814c. The image decoding apparatus 100 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units.
  • the image decoding apparatus 100 encodes a coding unit 2814b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 2810. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, the image decoding apparatus 100 may determine the indexes based on the size ratio between the coding units when the coding units are not the same size. . Referring to FIG. 28, the coding unit 2814b generated by dividing the first coding unit 2810 may include the coding units 2814a and 2814c having the same width but different heights as the other coding units 2814a and 2814c.
  • the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of coding units including a coding unit having a different size from other coding units. In this case, when the split form information is divided into odd coding units, the image decoding apparatus 100 may have a shape different from a coding unit having a different coding unit (for example, a middle coding unit) at a predetermined position among the odd coding units.
  • the current coding unit can be divided by.
  • the image decoding apparatus 100 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the image decoding apparatus 100 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 29 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block shape information and split shape information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the image decoding apparatus 100 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 100 may divide a plurality of reference data units for dividing a current picture by using split type information for each reference data unit. The division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the image decoding apparatus 100 may predetermine the minimum size of the reference data unit included in the current picture. Accordingly, the image decoding apparatus 100 may determine a reference data unit having various sizes having a minimum size or more, and determine at least one coding unit by using block shape information and split shape information based on the determined reference data unit. You can decide.
  • the image decoding apparatus 100 may use a reference coding unit 2900 in a square shape, or may use a reference coding unit 2902 in a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
  • the receiving unit 110 of the image decoding apparatus 100 may obtain at least one of information on the shape of a reference coding unit and information on the size of the reference coding unit from each bitstream. .
  • the process of determining at least one coding unit included in the reference coding unit 2900 having a square shape is described above by splitting the current coding unit 1700 of FIG. 17, and the reference coding unit having a non-square shape 2902 is described. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 1800 or 1850 of FIG. 18, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit predetermined based on a predetermined condition.
  • a predetermined condition for example, a data unit having a size less than or equal to a slice
  • the various data units eg, sequence, picture, slice, slice segment, maximum coding unit, etc.
  • the image decoding apparatus 100 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the use efficiency of the bitstream may not be good, and thus the shape of the reference coding unit
  • only the index may be obtained and used.
  • at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 100 selects at least one of the predetermined size and shape of the reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the reference for obtaining the index. You can decide.
  • the image decoding apparatus 100 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure.
  • the image decoding apparatus 100 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, the reference coding unit may include at least one of block shape information and split shape information. Can be divided based on.
  • FIG. 30 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 3000, according to an exemplary embodiment.
  • the image decoding apparatus 100 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
  • the image decoding apparatus 100 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the image decoding apparatus 100 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the receiver 110 of the image decoding apparatus 100 may obtain information about the size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the receiver 110 may obtain information about the size of the processing block from the bitstream for each of the various data units, and the image decoding apparatus 100 may at least divide the picture using the information about the size of the acquired processing block.
  • the size of one processing block may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
  • the image decoding apparatus 100 may determine the sizes of the processing blocks 3002 and 3012 included in the picture 3000. For example, the image decoding apparatus 100 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 30, the image decoding apparatus 100 according to an embodiment may include a horizontal size of the processing blocks 3002 and 3012 as four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit. You can decide. The image decoding apparatus 100 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the image decoding apparatus 100 may determine each processing block 3002 and 3012 included in the picture 3000 based on the size of the processing block, and include the processing block 3002 and 3012 in the processing block 3002 and 3012.
  • a determination order of at least one reference coding unit may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the image decoding apparatus 100 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream, and based on the obtained determination order The order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 100 may obtain information about a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the receiver 110 may obtain information about a determination order of a reference coding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 100 may determine at least one reference coding unit based on the order determined according to the embodiment.
  • the receiver 110 may obtain information on a determination order of a reference coding unit from the bitstream as information related to the processing blocks 3002 and 3012, and the image decoding apparatus 100 may process the processing block ( An order of determining at least one reference coding unit included in 3002 and 3012 may be determined, and at least one reference coding unit included in the picture 3000 may be determined according to the determination order of the coding unit. Referring to FIG. 30, the image decoding apparatus 100 may determine the determination order 3004 and 3014 of at least one reference coding unit associated with each processing block 3002 and 3012.
  • the reference coding unit determination order associated with each processing block 3002 or 3012 may be different for each processing block.
  • the reference coding unit determination order 3004 associated with the processing block 3002 is a raster scan order
  • the reference coding unit included in the processing block 3002 may be determined according to the raster scan order.
  • the reference coding unit determination order 3014 associated with another processing block 3012 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 3012 may be determined according to the reverse order of the raster scan order.
  • the image decoding apparatus 100 may decode at least one determined reference coding unit according to an embodiment.
  • the image decoding apparatus 100 may decode an image based on the reference coding unit determined through the above-described embodiment.
  • the method of decoding the reference coding unit may include various methods of decoding an image.
  • the image decoding apparatus 100 may obtain and use block shape information indicating a shape of a current coding unit or split shape information indicating a method of dividing a current coding unit from a bitstream.
  • Block type information or split type information may be included in a bitstream associated with various data units.
  • the image decoding apparatus 100 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. block type information or segmentation type information included in a segment header) may be used.
  • the image decoding apparatus 100 may obtain and use syntax corresponding to block type information or split type information from the bitstream from the bitstream for each maximum coding unit, reference coding unit, and processing block.
  • the above-described embodiments of the present disclosure may be written as a program executable on a computer, and may be implemented in a general-purpose digital computer operating the program using a computer-readable recording medium.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Abstract

The present disclosure is to more accurately predict motion information of pixels of a current block on the basis of a plurality of pieces of motion information associated with the current block. A method for video decoding comprises the steps of: when a prediction mode of the current block is an affine mode, obtaining motion components of first and second directions included in motion information of a first reference pixel of the current block from a received bitstream; obtaining a motion component of a first direction included in motion information of a second reference pixel from the bitstream; obtaining a motion component of a second direction included in the motion information of the second reference pixel; obtaining motion information of a third reference pixel of the current block on the basis of the motion information of the first and the second reference pixels; and obtaining motion information of the pixels included in the current block on the basis of the length of the height and the width of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel.

Description

비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치Video encoding method and apparatus, video decoding method and apparatus
본 명세서는 영상 부호화, 영상 복호화 방법 및 장치에 관한 것으로 보다 상세하게는 현재 블록과 관련된 복수의 움직임 정보에 기초하여 현재 블록의 픽셀들의 움직임 정보를 보다 정확하게 예측하기 위한 영상 부호화 또는 복호화 방법 및 장치에 관한 것이다.The present specification relates to an image encoding, an image decoding method, and an apparatus, and more particularly, to an image encoding or decoding method and apparatus for more accurately predicting motion information of pixels of a current block based on a plurality of motion information associated with a current block. It is about.
고해상도 또는 고화질 비디오 컨텐트를 재생, 저장할 수 있는 하드웨어의 개발 및 보급에 따라, 고해상도 또는 고화질 비디오 컨텐트를 효과적으로 부호화하거나 복호화하는 비디오 코덱의 필요성이 증대하고 있다. With the development and dissemination of hardware capable of playing and storing high resolution or high definition video content, there is an increasing need for a video codec for efficiently encoding or decoding high resolution or high definition video content.
비디오 부호화, 복호화 방법에서는 영상을 부호화하기 위해 하나의 픽처를 복수의 블록들로 분할하고, 인터 예측(inter prediction) 또는 인트라 예측(intra prediction)을 이용해 각각의 블록들을 예측 부호화할 수 있다. In the video encoding and decoding method, one picture may be divided into a plurality of blocks to encode an image, and each block may be predictively encoded using inter prediction or intra prediction.
인터 예측은 픽처들 사이의 시간적인 중복성을 제거하여 영상을 압축하는 방법이다. 인터 예측은 적어도 하나의 참조 픽처를 이용해 현재 픽처의 블록들을 각각 예측할 수 있다. 또한 인터 예측은 소정의 평가 함수를 이용하여 현재 블록과 가장 유사한 참조 블록을 참조 픽처의 소정의 검색 범위에서 검색할 수 있다. 또한 인터 예측은 가장 유사한 참조 블록을 이용하여 현재 블록을 예측할 수 있다. 또한 인터 예측은 가장 유사한 참조 블록과 현재 블록의 위치의 차이를 움직임 정보로 획득할 수 있다. 하지만 기존의 움직임 정보는 줌(zoom), 회전 또는 비틀림과 같은 영상의 변화를 나타낼 수 없는 문제가 있었다.Inter prediction is a method of compressing an image by removing temporal redundancy between pictures. Inter prediction may predict blocks of the current picture using at least one reference picture, respectively. In addition, the inter prediction may search a reference block most similar to the current block in a predetermined search range of the reference picture by using a predetermined evaluation function. In addition, inter prediction may predict the current block using the most similar reference block. In addition, inter prediction may obtain, as motion information, a difference between positions of the most similar reference block and the current block. However, there is a problem that the existing motion information cannot represent the change of the image such as zoom, rotation, or torsion.
본 개시는 현재 블록과 관련된 복수의 움직임 정보에 기초하여 현재 블록의 픽셀들의 움직임 정보를 보다 정확하게 예측하기 위한 부호화 또는 복호화하는 방법 및 장치를 제공한다.The present disclosure provides a method and apparatus for encoding or decoding to more accurately predict motion information of pixels of a current block based on a plurality of motion information associated with a current block.
본 개시의 일 실시예에 따른 영상 복호화 방법은 현재 블록의 예측 모드가 어파인 모드인 경우, 수신된 비트스트림으로부터 상기 현재 블록의 제 1 위치에 위치하는 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계, 상기 비트스트림으로부터 상기 현재 블록의 제 2 위치에 위치하는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록의 제 3 위치에 위치하는 제 3 기준 픽셀의 움직임 정보를 획득하는 단계, 및 상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present disclosure, in the image decoding method, when the prediction mode of the current block is the affine mode, the image decoding method includes: Acquiring a first directional motion component and a second directional motion component, acquiring a first directional motion component included in motion information of a second reference pixel located at a second position of the current block from the bitstream; Acquiring a second directional motion component included in motion information of a second reference pixel, and positioned at a third position of the current block based on motion information of the first reference pixel and motion information of the second reference pixel; Acquiring motion information of a third reference pixel, length of a width and height of the current block, motion motion of the first reference pixel, and Characterized in that it comprises the step of: on the basis of the motion information of the second reference pixel motion information, and the third reference pixel in obtaining the motion information on the pixels included in the current block.
본 개시의 일 실시예에 따른 영상 복호화 방법은 현재 블록의 너비의 길이, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보의 차이(difference)인 제 1 차이 정보를 획득하는 단계, 상기 현재 블록의 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보의 차이(difference)인 제 2 차이 정보를 획득하는 단계, 상기 현재 블록에 포함된 픽셀의 위치 정보, 상기 제 1 차이 정보 및 상기 제 2 차이 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 한다.An image decoding method according to an embodiment of the present disclosure includes obtaining first difference information that is a difference between a length of a current block, a motion information of the first reference pixel, and a motion information of the second reference pixel. Acquiring second difference information which is a difference between a length of the height of the current block, motion information of the first reference pixel, and motion information of the third reference pixel, and a position of a pixel included in the current block. And acquiring motion information of a pixel included in the current block based on the information, the first difference information, and the second difference information.
본 개시의 일 실시예에 따른 영상 복호화 방법은 상기 비트스트림으로부터 상기 제 2 기준 픽셀의 움직임 정보에 포함된 상기 제 2 방향 움직임 성분으로 획득하는 단계를 포함하는 것을 특징으로 한다.An image decoding method according to an embodiment of the present disclosure may include acquiring, from the bitstream, the second directional motion component included in the motion information of the second reference pixel.
본 개시의 일 실시예에 따른 영상 복호화 방법은 비트스트림으로부터 현재 블록의 움직임 타입(type)에 관한 정보를 획득하는 단계를 더 포함하고, 움직임 타입이 줌(zoom)을 나타내는 경우 상기 제 1 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분에 기초하여 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계를 포함하고, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분은 x 방향 움직임 성분이고 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분은 y 방향 움직임 성분인 것을 특징으로 한다.An image decoding method according to an embodiment of the present disclosure further includes obtaining information about a motion type of a current block from a bitstream, and when the motion type indicates zoom, the first reference pixel Obtaining a second directional motion component included in the motion information of the second reference pixel based on the second directional motion component included in the motion information of the second reference pixel; The one-way motion component is an x-direction motion component and the second direction motion component included in the motion information of the second reference pixel is a y-direction motion component.
본 개시의 일 실시예에 따른 영상 복호화 방법은 상기 비트스트림으로부터 현재 블록의 움직임 타입(type)에 관한 정보를 획득하는 단계를 더 포함하고, 상기 움직임 타입이 회전(rotation)을 나타내는 경우 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 중 적어도 하나에 기초하여 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계를 포함하고, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분은 y 방향 움직임 성분이고 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분은 x 방향 움직임 성분인 것을 특징으로 한다.The image decoding method according to an embodiment of the present disclosure further includes obtaining information about a motion type of a current block from the bitstream, and when the motion type indicates rotation, the first Obtaining a second directional motion component included in the motion information of the second reference pixel based on at least one of the motion information of the reference pixel and the first directional motion component included in the motion information of the second reference pixel. The first direction motion component included in the motion information of the second reference pixel is a y direction motion component, and the second direction motion component included in the motion information of the second reference pixel is an x direction motion component. .
본 개시의 일 실시예에 따른 영상 복호화 방법은 상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보의 y 방향 움직임 성분에 기초하여 상기 제 3 기준 픽셀의 움직임 정보의 x 방향 움직임 성분을 획득하는 단계, 및 상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보의 x 방향 움직임 성분에 기초하여 상기 제 3 기준 픽셀의 움직임 정보의 y 방향 움직임 성분을 획득하는 단계를 포함하는 것을 특징으로한다.An image decoding method according to an embodiment of the present disclosure may include the third method based on a y-direction motion component of a width and a height of the current block, motion information of the first reference pixel, and motion information of the second reference pixel. Obtaining an x-direction motion component of the motion information of the reference pixel, and based on the x-direction motion component of the width and height of the current block, the motion information of the first reference pixel, and the motion information of the second reference pixel Acquiring a y-direction motion component of the motion information of the third reference pixel.
본 개시의 일 실시예에 따른 영상 복호화 방법은 상기 현재 블록의 크기가 임계크기보다 큰 경우 상기 비트스트림으로부터 어파인 모드(affine mode)에 대한 정보를 획득하는 단계, 상기 어파인 모드에 대한 정보가 어파인 모드를 수행함을 나타내는 경우 상기 비트스트림으로부터 움직임 타입에 관한 정보를 획득하는 단계, 상기 움직임 타입에 관한 정보가 상기 비트스트림으로부터 3 개의 방향 움직임 성분을 획득하는 것을 나타내는 경우, 상기 비트스트림으로부터 상기 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계, 및The image decoding method according to an embodiment of the present disclosure, when the size of the current block is larger than a threshold size, obtaining information about an affine mode from the bitstream; Acquiring information about a motion type from the bitstream when performing the affine mode; and when the information about the motion type indicates acquiring three directional motion components from the bitstream; Obtaining a first directional motion component and a second directional motion component included in the motion information of the first reference pixel, a first directional motion component included in the motion information of the second reference pixel, and
상기 움직임 타입에 관한 정보가 상기 비트스트림으로부터 4 개의 방향 움직임 성분을 획득하는 것을 나타내는 경우, 상기 비트스트림으로부터 상기 제 1 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분및 y 방향 움직임 성분, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분 및 y 방향 움직임 성분을 획득하는 단계를 더 포함하는 것을 특징으로 한다.When the information about the motion type indicates obtaining four directional motion components from the bitstream, an x-direction motion component and a y-direction motion component included in the motion information of the first reference pixel from the bitstream; And acquiring the x-direction motion component and the y-direction motion component included in the motion information of the two reference pixels.
본 개시의 일 실시예에 따른 영상 복호화 방법은 현재 블록의 예측 모드가 어파인 모드인 경우, 상기 현재 블록의 이전에 복원된 주변 블록들의 제 1 위치의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보를 획득하는 단계, 상기 주변 블록들의 제 2 위치의 움직임 정보에 기초하여 제 2 기준 픽셀의 움직임 정보를 획득하는 단계, 상기 주변 블록들의 제 3 위치의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득하는 단계, 및 상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 포함하고, 상기 주변 블록들은 상기 현재 블록에 시간적 또는 공간적으로 인접한 것을 특징으로 한다.According to an embodiment of the present disclosure, when the prediction mode of the current block is the affine mode, the motion of the first reference pixel is based on the motion information of the first position of previously reconstructed neighboring blocks of the current block. Acquiring information, acquiring motion information of a second reference pixel based on motion information of the second position of the neighboring blocks, and moving the third reference pixel based on the motion information of the third position of the neighboring blocks Acquiring information, and based on the length of the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. Obtaining motion information of an included pixel, wherein the neighboring blocks are temporally or spatially adjacent to the current block. The features.
본 개시의 일 실시예에 따른 영상 복호화 방법은 상기 현재 블록의 크기가 임계크기보다 크거나, 상기 주변 블록들 중 적어도 하나가 어파인 모드인 경우 수신된 비트스트림으로부터 어파인 모드에 대한 정보를 획득하는 단계, 상기 어파인 모드에 대한 정보에 기초하여 현재 블록의 예측 모드를 어파인 모드로 결정하는 단계를 더 포함하는 것을 특징으로 한다.An image decoding method according to an embodiment of the present disclosure obtains information on an affine mode from a received bitstream when the size of the current block is larger than a threshold size or at least one of the neighboring blocks is an affine mode. The method may further include determining a prediction mode of the current block as an affine mode based on the information on the affine mode.
본 개시의 일 실시예에 따른 영상 복호화 방법은 좌하측 주변 블록으로부터 우상측 주변 블록까지 순서대로 상기 주변 블록들이 어파인 모드인지 식별하는 단계, 및 상기 주변 블록들 중 어파인 모드로 식별된 최초 주변 블록의 상기 제 1 위치의 움직임 정보에 기초하여 상기 제 1 기준 픽셀의 움직임 정보를 획득하는 단계를 특징으로 한다.According to an embodiment of the present disclosure, an image decoding method includes identifying whether neighboring blocks are in an affine mode from a lower left neighboring block to a right upper neighboring block, and an initial neighbor identified in an affine mode among the neighboring blocks. Acquiring motion information of the first reference pixel based on motion information of the first position of the block.
본 개시의 일 실시예에 따른 영상 복호화 방법은 좌상측 주변 블록으로부터 우상측 주변 블록 또는 좌하측 주변 블록까지 지그재그(zigzag) 순서대로 상기 주변 블록들이 어파인 모드인지 식별하는 단계 및 상기 주변 블록들 중 어파인 모드로 식별된 최초 주변 블록의 상기 제 2 위치의 움직임 정보에 기초하여 상기 제 2 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 한다.An image decoding method according to an embodiment of the present disclosure includes identifying whether the neighboring blocks are in an affine mode in a zigzag order from an upper left neighboring block to a right upper neighboring block or a lower left neighboring block, and among the neighboring blocks. And obtaining motion information of the second reference pixel based on the motion information of the second position of the first neighboring block identified in the affine mode.
본 개시의 일 실시예에 따른 영상 복호화 방법은 우상측 주변 블록으로부터 좌하측 주변 블록까지 순서대로 상기 주변 블록들이 어파인 모드인지 식별하는 단계, 및 상기 주변 블록들 중 어파인 모드로 식별된 최초 주변 블록의 상기 제 3 위치의 움직임 정보에 기초하여 상기 제 3 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present disclosure, an image decoding method includes identifying whether neighboring blocks are in an affine mode from an upper right neighboring block to a lower left neighboring block, and an initial neighbor identified in an affine mode among the neighboring blocks. And obtaining motion information of the third reference pixel based on the motion information of the third position of the block.
본 개시의 일 실시예에 따른 영상 복호화 방법은 상기 현재 블록의 좌상측 픽셀에 인접한 주변 블록의 움직임 정보에 기초하여, 상기 현재 블록의 좌상측 픽셀의 움직임 정보인, 상기 제 1 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하고, 상기 현재 블록의 우상측 픽셀에 인접한 주변 블록의 움직임 정보에 기초하여, 상기 현재 블록의 우상측 픽셀의 움직임 정보인, 상기 제 2 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하고, 상기 현재 블록의 좌하측 픽셀에 인접한 주변 블록의 움직임 정보에 기초하여, 상기 현재 블록의 좌하측 픽셀의 움직임 정보인, 상기 제 3 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present disclosure, an image decoding method includes motion information of a first reference pixel, which is motion information of a left upper pixel of the current block, based on motion information of a neighboring block adjacent to an upper left pixel of the current block. Obtaining motion information of the second reference pixel, the motion information of the upper right pixel of the current block, based on the motion information of the neighboring block adjacent to the upper right pixel of the current block. And obtaining motion information of the third reference pixel, which is motion information of the lower left pixel of the current block, based on the motion information of the neighboring block adjacent to the lower left pixel of the current block. It features.
본 개시의 일 실시예에 따른 영상 복호화 장치는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 현재 블록의 예측 모드가 어파인 모드인 경우, 수신된 비트스트림으로부터 상기 현재 블록의 제 1 위치에 위치하는 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계, 상기 비트스트림으로부터 상기 현재 블록의 제 2 위치에 위치하는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록의 제 3 위치에 위치하는 제 3 기준 픽셀의 움직임 정보를 획득하는 단계, 및 상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 수행하도록 구성되는 것을 특징으로 한다.An image decoding apparatus according to an embodiment of the present disclosure includes at least one processor, wherein the at least one processor is configured to generate a first block of the current block from a received bitstream when the prediction mode of the current block is an affine mode. Acquiring a first directional motion component and a second directional motion component included in the motion information of the first reference pixel located at a position; movement of a second reference pixel located at a second position of the current block from the bitstream Acquiring a first directional motion component included in the information, acquiring a second directional motion component included in the motion information of the second reference pixel, motion information of the first reference pixel and the second reference pixel Acquiring motion information of a third reference pixel located at a third position of the current block based on the motion information, and Motion information of a pixel included in the current block based on a width and a height of a current block, motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel. And to perform the acquiring step.
본 개시의 일 실시예에 따른 영상 복호화 장치는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 현재 블록의 예측 모드가 어파인 모드인 경우, 상기 현재 블록의 이전에 복원된 주변 블록들의 제 1 위치의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보를 획득하는 단계, 상기 주변 블록들의 제 2 위치의 움직임 정보에 기초하여 제 2 기준 픽셀의 움직임 정보를 획득하는 단계, 상기 주변 블록들의 제 3 위치의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득하는 단계, 및 상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 수행하도록 구성되고, 상기 주변 블록들은 상기 현재 블록에 시간적 또는 공간적으로 인접한 것을 특징으로 한다.An image decoding apparatus according to an embodiment of the present disclosure includes at least one processor, wherein the at least one processor is configured to determine previously reconstructed neighboring blocks of the current block when the prediction mode of the current block is an affine mode. Acquiring motion information of a first reference pixel based on motion information of a first position; acquiring motion information of a second reference pixel based on motion information of a second position of the neighboring blocks; Obtaining motion information of a third reference pixel based on motion information of a third position, length of a width and height of the current block, motion information of the first reference pixel, motion information of the second reference pixel, and To acquire motion information of a pixel included in the current block based on the motion information of the third reference pixel. And the neighboring blocks are temporally or spatially adjacent to the current block.
본 개시의 일 실시예에 따른 영상 부호화 방법은 원본 영상에 포함된 현재 블록과 상기 현재 블록의 이전에 복원된 영상에 기초하여, 상기 현재 블록의 제 1 위치에 대한 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계, 상기 현재 블록과 상기 이전에 복원된 영상에 기초하여, 상기 현재 블록의 제 2 위치에 대한 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록의 제 3 위치에 대한 제 3 기준 픽셀의 움직임 정보를 획득하는 단계, 상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계, 및 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분에 기초하여 비트스트림을 생성하는 단계를 포함하는 것을 특징으로 한다.According to an embodiment of the present disclosure, a method of encoding an image is based on motion information of a first reference pixel for a first position of the current block based on a current block included in an original image and a previously reconstructed image of the current block. Obtaining an included first directional motion component and a second directional motion component, included in the motion information of a second reference pixel for a second position of the current block based on the current block and the previously reconstructed image Acquiring a first directional motion component, obtaining a second directional motion component included in the motion information of the second reference pixel, moving information of the first reference pixel, and motion information of the second reference pixel. Acquiring motion information of a third reference pixel with respect to a third position of the current block based on the length of the width and height of the current block; Acquiring motion information of a pixel included in the current block based on motion information of a quasi-pixel, motion information of the second reference pixel, and motion information of the third reference pixel, and motion information of the first reference pixel And generating a bitstream based on the first direction motion component included in the motion information of the second reference pixel.
본 개시의 일 실시예에 따른 영상 부호화 방법은 상기 현재 블록과 상기 이전에 복원된 영상에 기초하여, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계를 포함하고, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분에 기초하여 비트스트림을 생성하는 단계를 포함하는 것을 특징으로 한다.An image encoding method according to an embodiment of the present disclosure includes obtaining a second directional motion component included in motion information of the second reference pixel based on the current block and the previously reconstructed image, And generating a bitstream based on the second direction motion component included in the motion information of the second reference pixel.
본 개시의 일 실시예에 따른 영상 부호화 방법은 상기 제 1 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분에 기초하여 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 경우, 현재 블록의 움직임 타입(type)은 줌(zoom)임을 결정하는 단계를 포함하고, 상기 움직임 타입에 기초하여 비트스트림을 생성하는 단계를 포함하고, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분은 x 방향 움직임 성분이고 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분은 y 방향 움직임 성분인 것을 특징으로 한다.An image encoding method according to an embodiment of the present disclosure obtains a second directional motion component included in the motion information of the second reference pixel based on a second directional motion component included in the motion information of the first reference pixel. In this case, the method includes determining that the motion type of the current block is zoom, generating a bitstream based on the motion type, and included in the motion information of the second reference pixel. The first direction motion component is an x direction motion component and the second direction motion component included in the motion information of the second reference pixel is a y direction motion component.
본 개시의 일 실시예에 따른 영상 부호화 방법은 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분에 기초하여 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 경우, 현재 블록의 움직임 타입(type)은 회전(rotation)임을 결정하는 단계를 포함하고, 상기 움직임 타입에 기초하여 비트스트림을 생성하는 단계를 포함하고, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분은 y 방향 움직임 성분이고 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분은 x 방향 움직임 성분인 것을 특징으로 한다.An image encoding method according to an embodiment of the present disclosure is included in the motion information of the second reference pixel based on the motion information of the first reference pixel and the first direction motion component included in the motion information of the second reference pixel. When acquiring a second directional motion component, determining that the motion type of the current block is rotation, and generating a bitstream based on the motion type. The first direction motion component included in the motion information of the second reference pixel is a y direction motion component, and the second direction motion component included in the motion information of the second reference pixel is an x direction motion component.
본 개시의 일 실시예에 따른 영상 부호화 장치는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 원본 영상에 포함된 현재 블록과 상기 현재 블록의 이전에 복원된 영상에 기초하여, 상기 현재 블록의 제 1 위치에 대한 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계, 상기 현재 블록과 상기 이전에 복원된 영상에 기초하여, 상기 현재 블록의 제 2 위치에 대한 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록의 제 3 위치에 대한 제 3 기준 픽셀의 움직임 정보를 획득하는 단계, 상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계, 및 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분에 기초하여 비트스트림을 생성하는 단계를 수행하도록 구성되는 것을 특징으로 한다.An image encoding apparatus according to an embodiment of the present disclosure includes at least one processor, wherein the at least one processor is based on a current block included in an original image and a previously reconstructed image of the current block. Acquiring a first directional motion component and a second directional motion component included in the motion information of the first reference pixel with respect to the first position of the block; based on the current block and the previously reconstructed image, the current block Acquiring a first directional motion component included in motion information of a second reference pixel for a second position of, acquiring a second directional motion component included in motion information of the second reference pixel, the first Motion definition of a third reference pixel relative to a third position of the current block based on motion information of a reference pixel and motion information of the second reference pixel Acquiring a value included in the current block based on a width and a height of the current block, motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel. Acquiring motion information of the pixel and generating a bitstream based on the motion information of the first reference pixel and the first directional motion component included in the motion information of the second reference pixel. It features.
도 1은 일 실시예에 따라 영상 복호화 장치의 개략적인 블록도를 도시한다.1 is a schematic block diagram of an image decoding apparatus according to an embodiment.
도 2는 일 실시예에 따라 영상 복호화 방법의 흐름도를 도시한다.2 is a flowchart of an image decoding method, according to an exemplary embodiment.
도 3 은 일 실시예에 따라 현재 블록의 픽셀들의 움직임 정보를 예측하는 방법에 관련된 도면이다.3 is a diagram illustrating a method of predicting motion information of pixels of a current block according to an embodiment.
도 4 는 일 실시예에 따라 현재 블록의 움직임 타입이 줌 타입인 경우, 현재 블록의 픽셀들의 움직임 정보를 예측하는 방법에 관련된 도면이다.4 is a diagram illustrating a method of predicting motion information of pixels of a current block when the motion type of the current block is a zoom type according to an embodiment.
도 5 는 일 실시예에 따라 현재 블록의 움직임 타입이 회전 타입인 경우, 현재 블록의 픽셀들의 움직임 정보를 예측하는 방법에 관련된 도면이다.5 is a diagram illustrating a method of predicting motion information of pixels of a current block when a motion type of a current block is a rotation type according to an embodiment.
도 6 은 일 실시예에 따라 차분 움직임 벡터를 수신하는 어파인 모드를 설명하기 위한 도면이다.6 is a diagram for describing an affine mode for receiving a differential motion vector, according to an exemplary embodiment.
도 7 은 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 흐름도이다.7 is a flowchart for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
도 8 은 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.8 illustrates an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
도 9 는 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.9 is a diagram for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
도 10 는 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.10 is a diagram for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
도 11 는 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.FIG. 11 illustrates an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
도 12 은 다른 실시예에 따라 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.12 is a diagram for describing an affine mode in which a motion vector is not received, according to another embodiment.
도 13 은 본 개시의 일 실시예에 따라 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 방법을 설명하기 위한 도면이다.FIG. 13 is a diagram for describing a method of obtaining motion information of a pixel included in a current block according to one embodiment of the present disclosure.
도 14는 일 실시예에 따라 인터 예측을 하기 위한 흐름도이다.14 is a flowchart for inter prediction according to an embodiment.
도 15는 일 실시예에 따라 영상 부호화 장치의 개략적인 블록도를 도시한다.15 is a schematic block diagram of an image encoding apparatus, according to an embodiment.
도 16은 일 실시예에 따라 영상 부호화 방법의 흐름도를 도시한다.16 is a flowchart of a video encoding method, according to an embodiment.
도 17은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.FIG. 17 is a diagram of a process of determining, by an image decoding apparatus, at least one coding unit by dividing a current coding unit according to an embodiment.
도 18은 일 실시예에 따라 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.FIG. 18 illustrates a process of determining, by an image decoding apparatus, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
도 19는 일 실시예에 따라 영상 복호화 장치가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.19 illustrates a process of splitting a coding unit based on at least one of block shape information and split shape information, according to an embodiment.
도 20은 일 실시예에 따라 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다. 20 is a diagram for a method of determining, by an image decoding apparatus, a predetermined coding unit among odd number of coding units according to an embodiment.
도 21는 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.FIG. 21 is a diagram illustrating an order in which a plurality of coding units are processed when the image decoding apparatus determines a plurality of coding units by dividing a current coding unit.
도 22는 일 실시예에 따라 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.FIG. 22 illustrates a process of determining that a current coding unit is divided into odd coding units when the image decoding apparatus cannot process the coding units in a predetermined order, according to an embodiment.
도 23은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다. FIG. 23 is a diagram of a process of determining, by an image decoding apparatus, at least one coding unit by dividing a first coding unit.
도 24은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.FIG. 24 is a view illustrating that a shape in which a second coding unit may be split is limited when a non-square type second coding unit determined by splitting a first coding unit according to an embodiment satisfies a predetermined condition. Shows that.
도 25은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.FIG. 25 is a diagram illustrating a process of splitting a coding unit having a square shape by the image decoding apparatus when the split shape information cannot be divided into four square coding units according to an embodiment.
도 26는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.FIG. 26 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
도 27은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.FIG. 27 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
도 28은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.FIG. 28 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
도 29는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.FIG. 29 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
도 30은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.30 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture, according to an embodiment.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments, and methods of achieving them will be apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, but may be implemented in various forms, and the present embodiments are merely provided to make the present disclosure complete, and those of ordinary skill in the art to which the present disclosure belongs. It is merely provided to fully inform the scope of the invention.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. Terms used herein will be briefly described, and the disclosed embodiments will be described in detail.
본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terminology used herein has been selected among general terms that are currently widely used while considering the functions of the present disclosure, but may vary according to the intention or precedent of a person skilled in the relevant field, the emergence of a new technology, and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present disclosure should be defined based on the meanings of the terms and the contents throughout the present disclosure, rather than simply the names of the terms.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.A singular expression in this specification includes a plural expression unless the context clearly indicates that it is singular.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.Also, as used herein, the term "part" means a software or hardware component, and "part" plays certain roles. However, "part" is not meant to be limited to software or hardware. The “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors. Thus, as an example, a "part" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. The functionality provided within the components and "parts" may be combined into a smaller number of components and "parts" or further separated into additional components and "parts".
본 개시의 일 실시예에 따르면 "부"는 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신, 및 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA), 등을 지칭할 수도 있다. 용어 "프로세서" 는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.According to an embodiment of the present disclosure, the “unit” may be implemented with a processor and a memory. The term “processor” should be interpreted broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, and the like. In some circumstances, a “processor” may refer to an application specific semiconductor (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA), or the like. The term "processor" refers to a combination of processing devices such as, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in conjunction with a DSP core, or a combination of any other such configuration. May be referred to.
용어 "메모리" 는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 용어 메모리는 임의 액세스 메모리 (RAM), 판독-전용 메모리 (ROM), 비-휘발성 임의 액세스 메모리 (NVRAM), 프로그램가능 판독-전용 메모리 (PROM), 소거-프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능 PROM (EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들, 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리에 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.The term "memory" should be interpreted broadly to include any electronic component capable of storing electronic information. The term memory refers to random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erase-programmable read-only memory (EPROM), electrical And may refer to various types of processor-readable media, such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, and the like. If the processor can read information from and / or write information to the memory, the memory is said to be in electronic communication with the processor. The memory integrated in the processor is in electronic communication with the processor.
이하, "영상"은 비디오의 정지영상와 같은 정적 이미지이거나 동영상, 즉 비디오 그 자체와 같은 동적 이미지를 나타낼 수 있다.Hereinafter, the "image" may be a static image such as a still image of a video or may represent a dynamic image such as a video, that is, the video itself.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.Hereinafter, "sample" means data to be processed as data allocated to a sampling position of an image. For example, pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain. A unit including the at least one sample may be defined as a block.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 개시를을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the embodiments. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present disclosure.
이하 도 1 내지 도 30를 참조하여 일 실시예에 따라 영상 부호화 장치 및 영상 복호화 장치, 영상 부호화 방법 및 영상 복호화 방법이 상술된다. 도 1 내지 도 16을 참조하여 일 실시예에 따라 영상 예측을 이용한 부호화 또는 복호화 방법 및 장치가 설명되고, 도 17 내지 도 30을 참조하여 일 실시예에 따라 영상의 데이터 단위를 결정하는 방법이 설명된다.Hereinafter, an image encoding apparatus, an image decoding apparatus, an image encoding method, and an image decoding method will be described in detail with reference to FIGS. 1 to 30. An encoding or decoding method using image prediction according to an embodiment will be described with reference to FIGS. 1 through 16, and a method of determining a data unit of an image according to an embodiment will be described with reference to FIGS. 17 through 30. do.
이하 도 1 내지 도 16를 참조하여 본 개시의 일 실시예에 따라 현재 블록의 복수의 움직임 정보들에 기초하여 효율적으로 현재 블록을 예측하는 방법 및 장치가 상술된다.Hereinafter, a method and apparatus for efficiently predicting a current block based on a plurality of motion information of the current block according to an embodiment of the present disclosure will be described with reference to FIGS. 1 to 16.
도 1은 일 실시예에 따라 영상 복호화 장치(100)의 개략적인 블록도를 도시한다.1 is a schematic block diagram of an image decoding apparatus 100 according to an embodiment.
영상 복호화 장치(100)는 수신부(110) 및 복호화부(120)를 포함할 수 있다. 수신부(110) 및 복호화부(120)는 적어도 하나의 프로세서를 포함할 수 있다. 또한 수신부(110) 및 복호화부(120)는 적어도 하나의 프로세서가 수행할 명령어들을 저장하는 메모리를 포함할 수 있다. The image decoding apparatus 100 may include a receiver 110 and a decoder 120. The receiver 110 and the decoder 120 may include at least one processor. Also, the receiver 110 and the decoder 120 may include a memory that stores instructions to be executed by at least one processor.
수신부(110)는 비트스트림을 수신할 수 있다. 비트스트림은 후술되는 영상 부호화 장치(1500)가 영상을 부호화한 정보를 포함하고 있다. 또한 비트스트림은 영상 부호화 장치(1500)로부터 송신될 수 있다. 영상 부호화 장치(1500) 및 영상 복호화 장치(100)는 유선 또는 무선으로 연결될 수 있으며, 수신부(110)는 유선 또는 무선을 통하여 비트스트림을 수신할 수 있다. 수신부(110)는 광학미디어, 하드디스크 등과 같은 저장매체로부터 비트스트림을 수신할 수 있다. 복호화부(120)는 수신된 비트스트림으로부터 정보를 획득하여 영상을 복원할 수 있다. 복호화부(120)의 동작에 대해서는 도 2와 함께 보다 자세히 설명한다.The receiver 110 may receive a bitstream. The bitstream includes information encoded by an image encoding apparatus 1500, which will be described later. In addition, the bitstream may be transmitted from the image encoding apparatus 1500. The image encoding apparatus 1500 and the image decoding apparatus 100 may be connected by wire or wirelessly, and the receiver 110 may receive a bitstream through wire or wirelessly. The receiver 110 may receive a bitstream from a storage medium such as an optical media or a hard disk. The decoder 120 may reconstruct an image by obtaining information from the received bitstream. The operation of the decoder 120 will be described in more detail with reference to FIG. 2.
도 2는 일 실시예에 따라 영상 복호화 방법의 흐름도를 도시한다.2 is a flowchart of an image decoding method, according to an exemplary embodiment.
본 개시의 일 실시예에 다르면 수신부(110)는 비트스트림을 수신할 수 있다. According to an embodiment of the present disclosure, the receiver 110 may receive a bitstream.
복호화부(120)는 현재 블록의 예측 모드가 어파인 모드인 경우, 수신된 비트스트림으로부터 현재 블록의 제 1 위치에 위치하는 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계(210)를 수행한다. 복호화부(120)는 비트스트림으로부터 현재 블록의 제 2 위치에 위치하는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계(220)를 수행한다. 복호화부(120)는 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계(230)를 수행한다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 현재 블록의 제 3 위치에 위치하는 제 3 기준 픽셀의 움직임 정보를 획득하는 단계(240)를 수행한다. 복호화부(120)는 현재 블록의 너비 및 높이의 길이, 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록에 포함된 픽셀의 움직임 정보을 획득하는 단계(250)를 수행한다.When the prediction mode of the current block is the affine mode, the decoder 120 includes the first direction motion component and the second direction motion component included in the motion information of the first reference pixel located at the first position of the current block from the received bitstream. Acquiring a directional motion component (210). The decoder 120 acquires a first direction motion component included in the motion information of the second reference pixel located at the second position of the current block from the bitstream (220). The decoder 120 acquires a second direction motion component included in the motion information of the second reference pixel (230). The decoder 120 acquires the motion information of the third reference pixel located at the third position of the current block based on the motion information of the first reference pixel and the motion information of the second reference pixel (240). . The decoder 120 may determine the motion information of the pixel included in the current block based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. Acquisition step 250 is performed.
영상은 최대 부호화 단위로 분할될 수 있다. 최대 부호화 단위의 크기는 비트스트림으로부터 획득된 정보에 기초하여 결정될 수 있다. 최대 부호화 단위의 모양은 동일 크기의 정사각형을 가질 수 있다. 하지만 이에 한정되는 것은 아니다. 또한 최대 부호화 단위는 비트스트림으로부터 획득된 분할 형태 정보에 기초하여 부호화 단위로 계층적으로 분할될 수 있다. 부호화 단위는 최대 부호화 단위보다 작거나 같을 수 있다. 예를 들어 분할 형태 정보가 분할되지 않음을 나타내는 경우 부호화 단위는 최대 부호화 단위와 같은 크기를 가진다. 분할 형태 정보가 분할됨을 나타내는 경우 최대 부호화 단위는 부호화 단위들로 분할 될 수 있다. 또한 부호화 단위들에 대한 분할 형태 정보가 분할을 나타내는 경우 부호화 단위들은 더 작은 크기의 부호화 단위들로 분할 될 수 있다. 다만, 영상의 분할은 이에 한정되는 것은 아니며 최대 부호화 단위 및 부호화 단위는 구별되지 않을 수 있다. 부호화 단위의 분할에 대해서는 도 17 내지 도 30에서 보다 자세히 설명한다.The image may be divided into maximum coding units. The size of the largest coding unit may be determined based on information obtained from the bitstream. The shape of the largest coding unit may have a square of the same size. But it is not limited thereto. In addition, the maximum coding unit may be hierarchically divided into coding units based on split type information obtained from the bitstream. The coding unit may be smaller than or equal to the maximum coding unit. For example, when indicating that split type information is not split, a coding unit has the same size as a maximum coding unit. When the split type information is split, the maximum coding unit may be split into coding units. In addition, when split type information of coding units indicates splitting, coding units may be split into coding units having a smaller size. However, segmentation of an image is not limited thereto, and a maximum coding unit and a coding unit may not be distinguished. Splitting of coding units will be described in more detail with reference to FIGS. 17 to 30.
또한 부호화 단위는 영상의 예측을 위한 예측 단위로 분할될 수 있다. 예측 단위는 부호화 단위와 같거나 작을 수 있다. 또한 부호화 단위는 영상의 변환을 위한 변환 단위로 분할될 수 있다. 변환 단위는 부호화 단위와 같거나 작을 수 있다. 변환 단위와 예측 단위의 모양 및 크기는 서로 관련 없을 수 있다. 부호화 단위는 예측 단위 및 변환 단위와 구별될 수도 있지만, 부호화 단위, 예측 단위 및 변환 단위는 서로 동일할 수 있다. 예측 단위 및 변환 단위의 분할은 부호화 단위의 분할과 동일한 방식으로 수행될 수 있다. 부호화 단위의 분할에 대해서는 도 17 내지 도 30에서 보다 자세히 설명한다. 본 개시의 현재 블록은 최대 부호화 단위, 부호화 단위, 예측 단위 및 변환 단위 중 하나를 나타낼 수 있다. 또한, 현재 블록은 현재 복호화 또는 부호화가 진행되는 블록이다. 주변 블록은 현재 블록 이전에 복원된 블록일 수 있다. 주변 블록은 현재 블록으로부터 공간적 또는 시간적으로 인접할 수 있다. 주변 블록은 현재 블록의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측, 우하측 중 하나에 위치할 수 있다.In addition, the coding unit may be divided into a prediction unit for prediction of an image. The prediction unit may be equal to or smaller than the coding unit. In addition, the coding unit may be divided into a transformation unit for transformation of an image. The transformation unit may be equal to or smaller than the coding unit. The shape and size of the transform unit and the prediction unit may not be related to each other. The coding unit may be distinguished from the prediction unit and the transformation unit, but the coding unit, the prediction unit, and the transformation unit may be the same. The division of the prediction unit and the transformation unit may be performed in the same manner as the division of the coding unit. Splitting of coding units will be described in more detail with reference to FIGS. 17 to 30. The current block of the present disclosure may indicate one of a maximum coding unit, a coding unit, a prediction unit, and a transformation unit. In addition, the current block is a block in which decoding or encoding is currently performed. The neighboring block may be a block restored before the current block. The neighboring blocks can be spatially or temporally adjacent from the current block. The neighboring block may be located at one of the lower left side, left side, upper left side, upper side, upper right side, right side, and lower side of the current block.
복호화부(120)는 현재 블록의 예측 모드를 인터 예측 모드 또는 인트라 예측 모드로 결정할 수 있다. 인터 예측 모드는 영상들 사이의 시간적인 중복성을 제거하여 영상을 압축하는 방법이다. 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 현재 블록이 인터 예측 모드인지 여부를 결정할 수 있다. The decoder 120 may determine the prediction mode of the current block as the inter prediction mode or the intra prediction mode. The inter prediction mode is a method of compressing an image by removing temporal redundancy between the images. The decoder 120 may determine whether the current block is an inter prediction mode based on information obtained from the bitstream.
현재 블록이 인터 예측 모드인 경우, 복호화부(120)는 현재 블록이 어파인 모드(affine mode)인지 여부를 결정할 수 있다. 복호화부(120)가 어파인 모드를 결정하는 방법에 대해서는 도 14와 함께 설명한다. 어파인 모드가 아닌 경우 복호화부(120)는 기존의 인터 예측 모드에 기초하여 예측을 수행할 수 있다. 어파인 모드는 현재 블록의 일부 픽셀에 대한 움직임 정보 또는 현재 블록의 주변 블록의 움직임 정보에 기초하여 현재 블록의 픽셀들의 움직임 정보를 예측하는 모드를 의미한다. 어파인 모드의 복호화 방법에 대해서는 도 3 내지 도 14와 함께 더 자세히 설명한다.When the current block is in the inter prediction mode, the decoder 120 may determine whether the current block is in an affine mode. A method of determining the affine mode by the decoder 120 will be described with reference to FIG. 14. When not in the affine mode, the decoder 120 may perform prediction based on an existing inter prediction mode. The affine mode refers to a mode for predicting motion information of pixels of the current block based on motion information of some pixels of the current block or motion information of neighboring blocks of the current block. The decoding method of the affine mode will be described in more detail with reference to FIGS. 3 to 14.
도 3 은 일 실시예에 따라 현재 블록의 픽셀들의 움직임 정보를 예측하는 방법에 관련된 도면이다.3 is a diagram illustrating a method of predicting motion information of pixels of a current block according to an embodiment.
복호화부(120)는 현재 블록(310)을 어파인 모드로 예측할 수 있다. 복호화부(120)는 현재 블록(310) 안과 밖의 복수의 위치들에 위치하는 기준 픽셀의 움직임 정보들을 획득할 수 있다. 기준 픽셀들은 영상 부호화 장치(1500) 및 영상 복호화 장치(100) 사이에 미리 결정된 위치들일 수 있다. 또한 기준 픽셀들은 부호화 장치(1500)로부터 복호화 장치(100)로 전송되는 비트스트림에 포함될 수 있다. 복호화부(120)는 현재 블록의 좌상측, 우상측, 좌하측, 우하측 픽셀 중 적어도 두개를 기준 픽셀들의 위치들로 결정할 수 있다. 도 3을 참조하면, 설명의 편의를 위하여 복호화부(120)는 현재 블록(310)의 좌상측 픽셀(320)을 제 1 기준 픽셀로, 우상측 픽셀(330)을 제 2 기준 픽셀로, 좌하측 픽셀(340)을 제 3 기준 픽셀로 결정한 것으로 한다.The decoder 120 may predict the current block 310 in the affine mode. The decoder 120 may acquire motion information of a reference pixel located at a plurality of positions inside and outside the current block 310. The reference pixels may be predetermined positions between the image encoding apparatus 1500 and the image decoding apparatus 100. In addition, the reference pixels may be included in a bitstream transmitted from the encoding apparatus 1500 to the decoding apparatus 100. The decoder 120 may determine at least two of the upper left, upper right, lower left and lower right pixels of the current block as positions of the reference pixels. Referring to FIG. 3, for convenience of description, the decoder 120 may use the upper left pixel 320 of the current block 310 as the first reference pixel, the upper right pixel 330 as the second reference pixel, and the lower left corner. It is assumed that the side pixel 340 is determined as the third reference pixel.
움직임 정보는 움직임 벡터일 수 있다. 움직임 정보는 예측 움직임 벡터일 수 있다. 움직임 정보는 직교 좌표계의 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 움직임 정보는 극좌표계의 각도 방향 움직임 성분 및 길이 방향 움직임 성분을 포함할 수 있다. 본 개시에서 제 1 방향 움직임 성분은 x 방향 움직임 성분 또는 y 방향 움직임 성분일 수 있다. 또한 본 개시의 제 2 방향 움직임 성분은 y 방향 움직임 성분 또는 x 방향 움직임 성분일 수 있다.The motion information may be a motion vector. The motion information may be a predicted motion vector. The motion information may include an x direction motion component and a y direction motion component of the Cartesian coordinate system. The motion information may include an angular motion component and a longitudinal motion component of the polar coordinate system. In the present disclosure, the first direction motion component may be an x direction motion component or a y direction motion component. Also, the second direction motion component of the present disclosure may be a y direction motion component or an x direction motion component.
복호화부(120)는 부호화 장치(1500)로부터 비트스트림을 수신하여 움직임 정보를 획득할 수 있다. 또한 복호화부(120)는 부호화 장치(1500)로부터 일부 움직임 정보를 수신하고, 나머지 움직임 정보를 예측할 수 있다. 예를 들어 복호화부(120)는 움직임 정보의 x 방향 움직임 성분 또는 y 방향 움직임 성분만 수신하고 수신되지 않은 방향 움직임 성분를 유도할 수 있다. 또한 복호화부(120)는 하나의 움직임 정보에 포함된 x 방향 움직임 성분 및 y 방향 움직임 성분을 수신하고, 다른 움직임 정보의 x 방향 움직임 성분 및 y 방향 움직임 성분을 유도할 수 있다. 또한 복호화부(120)는 현재 블록(310) 이전에 복원된 블록들로부터 움직임 정보를 획득할 수 있다. 도 3 을 참조하면 복호화부(120)는 현재 블록(310)의 좌상측 픽셀(320)의 제 1 기준 픽셀의 움직임 정보(MV0), 우상측 픽셀(330)의 제 2 기준 픽셀의 움직임 정보(MV1) 및 좌하측 픽셀(340)의 제 3 기준 픽셀의 움직임 정보(MV2)를 결정할 수 있다.The decoder 120 may receive a bitstream from the encoding apparatus 1500 to obtain motion information. In addition, the decoder 120 may receive some motion information from the encoding apparatus 1500 and predict the remaining motion information. For example, the decoder 120 may receive only the x-direction motion component or the y-direction motion component of the motion information and derive an unreceived direction motion component. In addition, the decoder 120 may receive an x-direction motion component and a y-direction motion component included in one piece of motion information and derive the x-direction motion component and the y-direction motion component of other motion information. In addition, the decoder 120 may obtain motion information from blocks reconstructed before the current block 310. Referring to FIG. 3, the decoder 120 may perform motion information MV0 of the first reference pixel of the upper left pixel 320 of the current block 310, and motion information of the second reference pixel of the right upper pixel 330. The motion information MV2 of the third reference pixel of the MV1 and the lower left pixel 340 may be determined.
움직임 정보들(MV0, MV1 및 MV2)은 각각 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 따라서, 복호화부(120)는 총 6개의 방향 움직임 성분을 이용하여 현재 블록(310)의 픽셀들의 움직임 정보를 예측할 수 있다. The motion information MV0, MV1, and MV2 may include an x direction motion component and a y direction motion component, respectively. Therefore, the decoder 120 may predict the motion information of the pixels of the current block 310 using a total of six directional motion components.
움직임 벡터는 현재 블록(310) 내에서 픽셀의 위치에 따라 선형적으로 변화할 수 있다. 복호화부(120)는 움직임 정보들(MV0, MV1 및 MV2)에 기초하여 현재 블록(310)에 포함된 픽셀들의 움직임 정보를 획득할 수 있다. 복호화부(120)는 현재 블록(310)의 너비의 길이(w), 제 1 기준 픽셀의 움직임 정보(MV0) 및 제 2 기준 픽셀의 움직임 정보(MV1)의 차이(difference)인 제 1 차이 정보를 획득할 수 있다. 복호화부(120)는 현재 블록(310)의 높이의 길이(h), 제 1 기준 픽셀의 움직임 정보(MV0) 및 제 3 기준 픽셀의 움직임 정보(MV2)의 차이인 제 2 차이 정보를 획득할 수 있다. 복호화부(120)는 현재 블록에 포함된 픽셀들의 위치 정보(x, y), 제 1 차이 정보 및 제 2 차이 정보에 기초하여 현재 블록에 포함된 픽셀들의 움직임 정보(MV)를 획득할 수 있다.The motion vector may change linearly with the position of the pixel within the current block 310. The decoder 120 may obtain motion information of pixels included in the current block 310 based on the motion information MV0, MV1, and MV2. The decoder 120 includes first difference information that is a difference between the length w of the current block 310, the motion information MV0 of the first reference pixel, and the motion information MV1 of the second reference pixel. Can be obtained. The decoder 120 may acquire second difference information, which is a difference between the length h of the height of the current block 310, the motion information MV0 of the first reference pixel, and the motion information MV2 of the third reference pixel. Can be. The decoder 120 may obtain the motion information MV of the pixels included in the current block based on the position information (x, y), the first difference information, and the second difference information of the pixels included in the current block. .
보다 구체적으로 제 1 차이 정보는 이하와 같이 수식 1 로 나타낼 수 있다.More specifically, the first difference information may be represented by Equation 1 as follows.
[수식 1][Equation 1]
dMVx = (MV1 - MV0)/w dMVx = (MV1-MV0) / w
여기서 dMVx는 제 1 차이 정보를 나타내고, MV0은 제 1 기준 픽셀의 움직임 정보를 나타내고, MV1은 제 2 기준 픽셀의 움직임 정보를 나타고, w는 현재 블록(310)의 너비의 길이를 나타낸다. Here, dMVx represents first difference information, MV0 represents motion information of the first reference pixel, MV1 represents motion information of the second reference pixel, and w represents the length of the width of the current block 310.
또한 제 2 차이 정보는 이하와 같이 수식 2로 나타낼 수 있다.In addition, the second difference information may be represented by Equation 2 as follows.
[수식 2][Formula 2]
dMVy = (MV2 - MV0)/h dMVy = (MV2-MV0) / h
여기서 dMVy는 제 2 차이 정보를 나타내고, MV0은 제 1 기준 픽셀의 움직임 정보를 나타내고, MV2은 제 3 기준 픽셀의 움직임 정보를 나타고, h는 현재 블록(310)의 높이의 길이를 나타낸다.Here, dMVy represents second difference information, MV0 represents motion information of the first reference pixel, MV2 represents motion information of the third reference pixel, and h represents the length of the height of the current block 310.
또한 복호화부(120)는 소정의 가중치를 이용하여 제 1 차이 정보 및 제 2 차이 정보를 획득할 수 있다. 예를 들어 제 1 기준 픽셀의 움직임 정보(MV0), 제 2 기준 픽셀의 움직임 정보(MV1) 또는 제 3 기준 픽셀의 움직임 정보(MV2) 중 적어도 하나에 가중치를 적용하여 제 1 차이 정보 또는 제 2 차이 정보(dMVy)를 획득할 수 있다.In addition, the decoder 120 may obtain the first difference information and the second difference information by using a predetermined weight. For example, the first difference information or the second is applied by applying a weight to at least one of the motion information MV0 of the first reference pixel, the motion information MV1 of the second reference pixel, or the motion information MV2 of the third reference pixel. Difference information dMVy may be obtained.
또한, 복호화부(120)는 제 1 차이 정보 및 제 2 차이 정보에 기초하여, 현재 블록(310)에 포함된 픽셀의 움직임 정보(MV)를 수식 3으로 획득할 수 있다.In addition, the decoder 120 may obtain the motion information MV of the pixel included in the current block 310 by Equation 3 based on the first difference information and the second difference information.
[수식 3][Equation 3]
MV = MV0 + x * dMVx + y * dMVy MV = MV0 + x * dMVx + y * dMVy
여기서 MV는 픽셀의 움직임 정보를 나타내고, MV0는 제 1 기준 픽셀의 움직임 정보를 나타내고, x는 현재 블록(310)에 포함된 픽셀의 x 축 좌표값을 나타내고, y는 현재 블록(310)에 포함된 픽셀의 y 축 좌표값을 나타내고, dMVx는 제 1 차이 정보를 나타내고 dMVy는 제 2 차이 정보를 나타낸다.Where MV represents the motion information of the pixel, MV0 represents the motion information of the first reference pixel, x represents the x-axis coordinate value of the pixel included in the current block 310, y is included in the current block 310 Represents the y-axis coordinate value of the pixel, dMVx represents the first difference information and dMVy represents the second difference information.
또한 복호화부(120)는 소정의 가중치를 이용하여 현재 블록(310)에 포함된 픽셀의 움직임 정보(MV)를 획득할 수 있다. 예를 들어 복호화부(120)는 제 1 기준 픽셀의 움직임 정보(MV0), 제 1 차이 정보(dMVx) 또는 제 2 차이 정보(dMVy) 중 적어도 하나에 가중치를 적용하여 움직임 정보(MV)를 획득할 수 있다.Also, the decoder 120 may acquire motion information MV of pixels included in the current block 310 by using a predetermined weight. For example, the decoder 120 obtains the motion information MV by applying a weight to at least one of the motion information MV0, the first difference information dMVx, or the second difference information dMVy of the first reference pixel. can do.
도 4 는 일 실시예에 따라 현재 블록의 움직임 타입이 줌 타입인 경우, 현재 블록의 픽셀들의 움직임 정보를 예측하는 방법에 관련된 도면이다.4 is a diagram illustrating a method of predicting motion information of pixels of a current block when the motion type of the current block is a zoom type according to an embodiment.
도 4 는 현재 블록(410)의 움직임 타입이 줌(zoom)인 경우를 나타낸다. 복호화부(120)는 현재 블록(410)이 포함된 현재 영상의 이전에 복원된 참조 영상에 기초하여 현재 블록(410)을 예측할 수 있다. 예를 들어 복호화부(120)는 참조 영상에 포함된 참조 블록(415)에 기초하여 현재 블록(410)을 예측할 수 있다. 도 4 에서는 참조 블록(415)의 크기가 현재 블록(410)의 크기보다 큰 경우를 도시하였으나, 이에 한정되는 것은 아니다. 참조 블록(415)의 크기는 현재 블록(410)의 크기보다 작거나 같을 수 있다. 복호화부(120)는 참조 블록(415)에 기초하여 현재 블록(410)을 예측하기 위하여 현재 블록(410)에 포함된 픽셀의 움직임 정보를 획득할 수 있다.4 illustrates a case in which the motion type of the current block 410 is zoom. The decoder 120 may predict the current block 410 based on a previously reconstructed reference image of the current image including the current block 410. For example, the decoder 120 may predict the current block 410 based on the reference block 415 included in the reference image. In FIG. 4, the size of the reference block 415 is larger than the size of the current block 410, but is not limited thereto. The size of the reference block 415 may be less than or equal to the size of the current block 410. The decoder 120 may acquire motion information of pixels included in the current block 410 in order to predict the current block 410 based on the reference block 415.
도 4 을 참조하면 복호화부(120)는 현재 블록(410)의 제 1 위치(420)의 제 1 기준 픽셀의 움직임 정보(MV0), 제 2 위치(430)의 제 2 기준 픽셀의 움직임 정보(MV1) 및 제 3 위치(440)의 제 3 기준 픽셀의 움직임 정보(MV2)를 획득할 수 있다. 이하, 도 4와 함께 움직임 타입이 줌인 경우, 복호화부(120)가 움직임 정보들(MV0, MV1및 MV2)을 획득하는 방법에 대하여 자세히 설명한다.Referring to FIG. 4, the decoder 120 may perform motion information MV0 of the first reference pixel at the first position 420 of the current block 410, and motion information of the second reference pixel at the second position 430. MV1 and the motion information MV2 of the third reference pixel at the third position 440 may be obtained. Hereinafter, a method in which the decoder 120 acquires the motion information MV0, MV1, and MV2 when the motion type is zoomed together with FIG. 4 will be described in detail.
복호화부(120)는 비트스트림으로부터 현재 블록(410)의 움직임 타입(type)에 관한 정보를 획득할 수 있다. 움직임 타입은 줌(zoom) 타입, 회전(rotation) 타입, 줌과 회전을 동시에 나타내는 타입, 비틀림 타입을 포함할 수 있다. 복호화부(120)는 현재 블록(410)의 움직임 타입에 관한 정보에 기초하여 움직임 타입을 결정할 수 있다. 도 4는 현재 블록(410)의 움직임 타입에 관한 정보가 줌인 경우를 나타낸다.The decoder 120 may obtain information about a motion type of the current block 410 from the bitstream. The movement type may include a zoom type, a rotation type, a type simultaneously indicating zoom and rotation, and a torsion type. The decoder 120 may determine the motion type based on the information about the motion type of the current block 410. 4 illustrates a case in which information about a motion type of the current block 410 is zoomed.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보(MV0)를 비트스트림으로부터 획득된 정보에 기초하여 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보(MV0)는 움직임 벡터일 수 있다. 예를 들어 복호화부(120)는 비트스트림으로부터 제 1 기준 픽셀의 움직임 정보(MV0)와 관련된 차분 움직임 벡터를 획득할 수 있다. 복호화부(120)는 현재 블록(410)의 이전에 복원된 주변 블록의 움직임 정보에 기초하여 예측 움직임 벡터를 획득할 수 있다. 복호화부(120)는 주변 블록들에 기초하여 후보 블록들을 결정할 수 있다. 주변 블록들은 현재 블록(410)에 시간적 또는 공간적으로 인접한 블록일 수 있다. 복호화부(120)는 비트스트림으로부터 획득된 인덱스에 기초하여 후보 블록들 중 하나의 후보 블록을 선택할 수 있다. 복호화부(120)는 선택된 후보 블록의 움직임 정보를 예측 움직임 벡터로 결정할 수 있다. 복호화부(120)는 차분 움직임 벡터 및 예측 움직임 벡터에 기초하여 제 1 기준 픽셀의 움직임 정보(MV0)를 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보(MV0)는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. The decoder 120 may obtain the motion information MV0 of the first reference pixel based on the information obtained from the bitstream. The motion information MV0 of the first reference pixel may be a motion vector. For example, the decoder 120 may obtain a differential motion vector associated with the motion information MV0 of the first reference pixel from the bitstream. The decoder 120 may obtain the predicted motion vector based on the motion information of the neighboring block previously reconstructed of the current block 410. The decoder 120 may determine candidate blocks based on neighboring blocks. The neighboring blocks may be blocks temporally or spatially adjacent to the current block 410. The decoder 120 may select one candidate block among candidate blocks based on the index obtained from the bitstream. The decoder 120 may determine the motion information of the selected candidate block as a predicted motion vector. The decoder 120 may obtain motion information MV0 of the first reference pixel based on the differential motion vector and the predicted motion vector. The motion information MV0 of the first reference pixel may include an x direction motion component and a y direction motion component.
복호화부(120)는 움직임 타입에 따라 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 1 방향 움직임 성분이 x 방향 움직임 성분인지 또는 y 방향 움직임 성분인지 결정할 수 있다. 예를 들어, 움직임 타입이 줌을 나타내는 경우, 복호화부(120)는 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 1 방향 움직임 성분이 x 방향 움직임 성분임을 결정할 수 있다. 또한, 움직임 타입이 줌(zoom)을 나타내는 경우, 복호화부(120)는 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분이 y 방향 움직임 성분임을 결정할 수 있다. The decoder 120 may determine whether the first direction motion component included in the motion information MV1 of the second reference pixel is an x direction motion component or a y direction motion component according to the motion type. For example, when the motion type indicates zoom, the decoder 120 may determine that the first direction motion component included in the motion information MV1 of the second reference pixel is the x direction motion component. In addition, when the motion type indicates a zoom, the decoder 120 may determine that the second direction motion component included in the motion information of the second reference pixel is the y direction motion component.
또한 움직임 타입이 줌을 나타내는 경우, 복호화부(120)는 제 2 기준 픽셀의 움직임 정보(MV1)의 제 1 방향 움직임 성분을 비트스트림으로부터 획득된 정보에 기초하여 획득할 수 있다. 예를 들어 복호화부(120)는 비트스트림으로부터 제 2 기준 픽셀의 움직임 정보(MV1)와 관련된 차분 움직임 벡터를 획득할 수 있다. 차분 움직임 벡터는 제 2 기준 픽셀의 움직임 정보(MV1)의 x 방향 움직임 성분 또는 y 방향 움직임 성분 중 하나에 관련될 수 있다. 복호화부(120)는 현재 블록(410)의 이전에 복원된 주변 블록의 움직임 정보에 기초하여 예측 움직임 벡터를 획득할 수 있다. 복호화부(120)는 주변 블록들에 기초하여 후보 블록들을 결정할 수 있다. 주변 블록들은 현재 블록(410)에 시간적 또는 공간적으로 인접한 블록일 수 있다. 복호화부(120)는 비트스트림으로부터 획득된 인덱스에 기초하여 후보 블록들 중 하나의 후보 블록을 선택할 수 있다. 복호화부(120)는 선택된 후보 블록의 움직임 정보를 예측 움직임 벡터로 결정할 수 있다. 복호화부(120)는 예측 움직임 벡터는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 복호화부(120)는 차분 움직임 벡터에 포함된 x 방향 움직임 성분 및 예측 움직임 벡터에 포함된 x 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분(즉, x 방향 움직임 성분)을 획득할 수 있다. In addition, when the motion type indicates zoom, the decoder 120 may obtain the first direction motion component of the motion information MV1 of the second reference pixel based on the information obtained from the bitstream. For example, the decoder 120 may obtain a differential motion vector associated with the motion information MV1 of the second reference pixel from the bitstream. The differential motion vector may be related to either the x direction motion component or the y direction motion component of the motion information MV1 of the second reference pixel. The decoder 120 may obtain the predicted motion vector based on the motion information of the neighboring block previously reconstructed of the current block 410. The decoder 120 may determine candidate blocks based on neighboring blocks. The neighboring blocks may be blocks temporally or spatially adjacent to the current block 410. The decoder 120 may select one candidate block among candidate blocks based on the index obtained from the bitstream. The decoder 120 may determine the motion information of the selected candidate block as a predicted motion vector. The decoder 120 may include the x direction motion component and the y direction motion component. The decoder 120 may determine the first direction motion component (ie, the x direction motion component) of the motion information of the second reference pixel based on the x direction motion component included in the differential motion vector and the x direction motion component included in the predicted motion vector. ) Can be obtained.
도 4를 참조하면 움직임 타입이 줌을 나타내는 경우, 제 1 기준 픽셀의 움직임 정보(MV0)에 포함된 y 방향 움직임 성분은 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 2 방향 움직임 성분과 유사할 수 있다. 따라서, 복호화부(120)는 제 1 기준 픽셀의 움직임 정보(MV0)에 포함된 y 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 2 방향 움직임 성분(즉, y 방향 움직임 성분)을 획득할 수 있다. 보다 구체적으로 제 2 방향 움직임 성분은 이하와 같은 수식 4에 의하여 결정될 수 있다.Referring to FIG. 4, when the motion type indicates zoom, the y-direction motion component included in the motion information MV0 of the first reference pixel may correspond to the second direction motion component included in the motion information MV1 of the second reference pixel. May be similar. Accordingly, the decoder 120 may determine the second direction motion component (ie, y) included in the motion information MV1 of the second reference pixel based on the y direction motion component included in the motion information MV0 of the first reference pixel. Directional motion component) can be obtained. More specifically, the second direction motion component may be determined by Equation 4 as follows.
[수식 4][Equation 4]
MV1[y] = MV0 [y] MV1 [y] = MV0 [y]
여기서, MV1[y]는 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 2 방향 움직임 성분을 나타내고 MV0[y] 은 제 1 기준 픽셀의 움직임 정보의 y 방향 움직임 성분을 나타낸다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보의 y 방향 움직임 성분에 소정의 가중치를 곱하여 제 2 방향 움직임 성분을 획득할 수 있다.Here, MV1 [y] represents the second direction motion component included in the motion information MV1 of the second reference pixel, and MV0 [y] represents the y direction motion component of the motion information of the first reference pixel. The decoder 120 may obtain the second direction motion component by multiplying the y direction motion component of the motion information of the first reference pixel by a predetermined weight.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보 중 적어도 하나에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 본 개시의 일 실시예에 따라 복호화부(120)는 현재 블록의 너비 및 높이의 길이, 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보의 y 방향 움직임 성분에 기초하여 제 3 기준 픽셀의 움직임 정보의 x 방향 움직임 성분을 획득할 수 있다. 또한 복호화부(120)는 현재 블록의 너비 및 높이의 길이 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보의 x 방향 움직임 성분에 기초하여 제 3 기준 픽셀의 움직임 정보의 y 방향 움직임 성분을 획득할 수 있다. 본 개시의 다른 실시예에 따라 복호화부(120)는 수식 5 에 따라 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다.The decoder 120 may acquire motion information of the third reference pixel based on at least one of motion information of the first reference pixel and motion information of the second reference pixel. According to an embodiment of the present disclosure, the decoder 120 may determine a third reference pixel based on the y-direction motion component of the width and height of the current block, the motion information of the first reference pixel, and the motion information of the second reference pixel. It is possible to obtain a motion component of the x direction of the motion information. Also, the decoder 120 may determine the y-direction motion component of the motion information of the third reference pixel based on the motion information of the first reference pixel and the x-direction motion component of the motion information of the second reference pixel. Can be obtained. According to another embodiment of the present disclosure, the decoder 120 may obtain motion information of the third reference pixel according to Equation 5.
[수식 5][Equation 5]
MV2[x] = -(MV1[y] - MV0[y])*h/w + MV0[x]MV2 [x] =-(MV1 [y]-MV0 [y]) * h / w + MV0 [x]
MV2[y] = (MV1[x] - MV0[x])*h/w + MV0[y]MV2 [y] = (MV1 [x]-MV0 [x]) * h / w + MV0 [y]
여기서 MV2[x]는 제 3 기준 픽셀의 움직임 정보의 x 방향 움직임 성분을 나타내고, MV1[y]는 제 2 기준 픽셀의 움직임 정보의 y 방향 움직임 성분을 나타내고, MV0[y]는 제 1 기준 픽셀의 움직임 정보의 y방향 움직임 성분을 나타내고 h는 현재 블록(410)의 높이를 나타내고, w는 현재 블록(410)의 너비를 나타내고, MV0[x]는 제 1 기준 픽셀의 움직임 정보의 x방향 움직임 성분을 나타낼 수 있다.Where MV2 [x] represents the x-direction motion component of the motion information of the third reference pixel, MV1 [y] represents the y-direction motion component of the motion information of the second reference pixel, and MV0 [y] represents the first reference pixel. Represents the y-direction motion component of the motion information, h represents the height of the current block 410, w represents the width of the current block 410, MV0 [x] is the x-direction motion of the motion information of the first reference pixel Components may be indicated.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록(410)의 임의의 위치(450)의 움직임 정보를 획득할 수 있다. 복호화부(120)는 수식 3 에 기초하여 임의의 위치(450)의 움직임 정보를 획득할 수 있다. 현재 블록(410)의 픽셀의 움직임 정보를 획득하는 방법에 대해서는 도 3 과 함께 설명하였으므로 중복되는 설명은 생략한다. The decoder 120 may acquire motion information of an arbitrary position 450 of the current block 410 based on motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel. Can be. The decoder 120 may obtain motion information of an arbitrary location 450 based on Equation 3. Since the method of obtaining the motion information of the pixel of the current block 410 has been described with reference to FIG. 3, overlapping description thereof will be omitted.
복호화부(120)는 현재 블록(410)의 픽셀의 움직임 정보에 기초하여 현재 블록을 예측하고, 복원할 수 있다. 복호화부(120)는 비트스트림으로부터 참조 영상 인덱스를 획득할 수 있다. 복호화부(120)는 참조 영상 인덱스에 기초하여 참조 영상을 결정할 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보(MV0)에 기초하여 참조 영상에 포함된 참조 블록(415)의 위치(425)의 픽셀을 참조하여 현재 블록의 제 1 위치(420)의 픽셀을 예측할 수 있다. 복호화부(120)는 제 2 기준 픽셀의 움직임 정보(MV1)에 기초하여 참조 블록(415)의 위치(435)의 픽셀을 참조하여 현재 블록의 제 2 위치(430)의 픽셀을 예측할 수 있다. 복호화부(120)는 제 3 기준 픽셀의 움직임 정보(MV2)에 기초하여 참조 블록(415)의 위치(445)의 픽셀을 참조하여 현재 블록의 제 3 위치(440)의 픽셀을 예측할 수 있다. 복호화부(120)는 임의의 위치(450)의 움직임 정보에 기초하여 임의의 위치(450)의 픽셀을 예측할 수 있다. 복호화부(120)는 예측된 현재 블록 및 비트스트림으로부터 획득된 레지듀얼에 기초하여 현재 블록을 복원할 수 있다.The decoder 120 may predict and reconstruct the current block based on the motion information of the pixels of the current block 410. The decoder 120 may obtain a reference picture index from the bitstream. The decoder 120 may determine the reference picture based on the reference picture index. The decoder 120 refers to the pixel at the position 425 of the reference block 415 included in the reference image based on the motion information MV0 of the first reference pixel, and the pixel at the first position 420 of the current block. Can be predicted. The decoder 120 may predict the pixel at the second position 430 of the current block by referring to the pixel at the position 435 of the reference block 415 based on the motion information MV1 of the second reference pixel. The decoder 120 may predict the pixel at the third position 440 of the current block by referring to the pixel at the position 445 of the reference block 415 based on the motion information MV2 of the third reference pixel. The decoder 120 may predict the pixel at the arbitrary position 450 based on the motion information at the arbitrary position 450. The decoder 120 may reconstruct the current block based on the predicted current block and the residual obtained from the bitstream.
도 5 는 일 실시예에 따라 현재 블록의 움직임 타입이 회전 타입인 경우, 현재 블록의 픽셀들의 움직임 정보를 예측하는 방법에 관련된 도면이다.5 is a diagram illustrating a method of predicting motion information of pixels of a current block when a motion type of a current block is a rotation type according to an embodiment.
도 5 는 현재 블록(510)의 움직임 타입이 회전(rotation)인 경우를 나타낸다. 복호화부(120)는 현재 블록(510)이 포함된 현재 영상의 이전에 복원된 참조 영상에 기초하여 현재 블록(510)을 예측할 수 있다. 예를 들어 복호화부(120)는 참조 영상에 포함된 참조 블록(515)에 기초하여 현재 블록(510)을 예측할 수 있다. 도 4 에서는 참조 블록(515)의 크기는 현재 블록(510)의 크기와 동일할 수 있다. 복호화부(120)는 참조 블록(515)에 기초하여 현재 블록(510)을 예측하기 위하여 현재 블록(510)에 포함된 픽셀의 움직임 정보를 획득할 수 있다.5 illustrates a case in which the movement type of the current block 510 is rotation. The decoder 120 may predict the current block 510 based on a previously reconstructed reference image of the current image including the current block 510. For example, the decoder 120 may predict the current block 510 based on the reference block 515 included in the reference image. In FIG. 4, the size of the reference block 515 may be the same as that of the current block 510. The decoder 120 may obtain motion information of the pixels included in the current block 510 to predict the current block 510 based on the reference block 515.
도 5 를 참조하면 복호화부(120)는 현재 블록(510)의 제 1 위치(520)의 제 1 기준 픽셀의 움직임 정보(MV0), 제 2 위치(530)의 제 2 기준 픽셀의 움직임 정보(MV1) 및 제 3 위치(540)의 제 3 기준 픽셀의 움직임 정보(MV2)를 획득할 수 있다. 이하, 움직임 타입인 회전인 경우, 복호화부(120)가 움직임 정보들(MV0, MV1및 MV2)을 획득하는 방법에 대하여 자세히 설명한다.Referring to FIG. 5, the decoder 120 may perform motion information MV0 of the first reference pixel at the first position 520 of the current block 510, and motion information of the second reference pixel at the second position 530. MV1 and the motion information MV2 of the third reference pixel at the third position 540 may be obtained. Hereinafter, a method in which the decoder 120 acquires the motion information MV0, MV1, and MV2 when the motion type is rotation will be described in detail.
복호화부(120)는 비트스트림으로부터 현재 블록(510)의 움직임 타입(type)에 관한 정보를 획득할 수 있다. 복호화부(120)는 현재 블록(510)의 움직임 타입에 관한 정보에 기초하여 현재 블록(510)의 움직임 타입을 결정할 수 있다. 도 5는 현재 블록(510)의 움직임 타입(type)이 회전인 경우를 나타낸다.The decoder 120 may obtain information about a motion type of the current block 510 from the bitstream. The decoder 120 may determine the motion type of the current block 510 based on the information about the motion type of the current block 510. 5 illustrates a case in which the movement type of the current block 510 is rotation.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보(MV0)를 비트스트림으로부터 획득된 정보에 기초하여 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보(MV0)는 움직임 벡터일 수 있다. 복호화부(120)는 비트스트림으로부터 획득된 차분 움직임 벡터에 기초하여 제 1 기준 픽셀의 움직임 정보(MV0)를 획득할 수 있다. 비트스트림으로부터 획득된 정보에 기초하여 제 1 기준 픽셀의 움직임 정보(MV0)를 획득하는 방법에 대해서는 도 4와 함께 설명하였으므로 중복되는 설명은 생략한다. 제 1 기준 픽셀의 움직임 정보(MV0)는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. The decoder 120 may obtain the motion information MV0 of the first reference pixel based on the information obtained from the bitstream. The motion information MV0 of the first reference pixel may be a motion vector. The decoder 120 may obtain motion information MV0 of the first reference pixel based on the differential motion vector obtained from the bitstream. Since the method of obtaining the motion information MV0 of the first reference pixel based on the information obtained from the bitstream has been described with reference to FIG. 4, overlapping description thereof will be omitted. The motion information MV0 of the first reference pixel may include an x direction motion component and a y direction motion component.
복호화부(120)는 움직임 타입에 따라 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 1 방향 움직임 성분이 x 방향 움직임 성분인지 또는 y 방향 움직임 성분인지 결정할 수 있다. 예를 들어, 움직임 타입이 회전을 나타내는 경우, 복호화부(120)는 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 1 방향 움직임 성분이 y 방향 움직임 성분임을 결정할 수 있다. 또한, 움직임 타입이 회전을 나타내는 경우, 복호화부(120)는 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분이 x 방향 움직임 성분임을 결정할 수 있다. The decoder 120 may determine whether the first direction motion component included in the motion information MV1 of the second reference pixel is an x direction motion component or a y direction motion component according to the motion type. For example, when the motion type indicates rotation, the decoder 120 may determine that the first direction motion component included in the motion information MV1 of the second reference pixel is the y direction motion component. In addition, when the motion type indicates rotation, the decoder 120 may determine that the second direction motion component included in the motion information of the second reference pixel is the x direction motion component.
움직임 타입이 회전을 나타내는 경우, 복호화부(120)는 제 2 기준 픽셀의 움직임 정보(MV1)의 제 1 방향 움직임 성분을 비트스트림으로부터 획득된 정보에 기초하여 획득할 수 있다. 예를 들어 복호화부(120)는 비트스트림으로부터 제 2 기준 픽셀의 움직임 정보(MV1)와 관련된 차분 움직임 벡터를 획득할 수 있다. 차분 움직임 벡터는 제 2 기준 픽셀의 움직임 정보(MV1)의 x 방향 움직임 성분 또는 y 방향 움직임 성분 중 하나에 관련될 수 있다. When the motion type indicates rotation, the decoder 120 may obtain a first directional motion component of the motion information MV1 of the second reference pixel based on the information obtained from the bitstream. For example, the decoder 120 may obtain a differential motion vector associated with the motion information MV1 of the second reference pixel from the bitstream. The differential motion vector may be related to either the x direction motion component or the y direction motion component of the motion information MV1 of the second reference pixel.
복호화부(120)는 현재 블록(510)의 이전에 복원된 주변 블록의 움직임 정보에 기초하여 예측 움직임 벡터를 획득할 수 있다. 복호화부(120)는 주변 블록들에 기초하여 후보 블록들을 결정할 수 있다. 복호화부(120)는 비트스트림으로부터 획득된 인덱스에 기초하여 후보 블록들 중 하나의 후보 블록을 선택할 수 있다. 복호화부(120)는 선택된 후보 블록의 움직임 정보를 예측 움직임 벡터로 결정할 수 있다. 복호화부(120)는 예측 움직임 벡터는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 복호화부(120)는 차분 움직임 벡터에 포함된 x 방향 움직임 성분 및 예측 움직임 벡터에 포함된 x 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분을 획득할 수 있다. The decoder 120 may obtain a predicted motion vector based on the motion information of the neighboring block previously reconstructed of the current block 510. The decoder 120 may determine candidate blocks based on neighboring blocks. The decoder 120 may select one candidate block among candidate blocks based on the index obtained from the bitstream. The decoder 120 may determine the motion information of the selected candidate block as a predicted motion vector. The decoder 120 may include the x direction motion component and the y direction motion component. The decoder 120 may acquire the first direction motion component of the motion information of the second reference pixel based on the x direction motion component included in the differential motion vector and the x direction motion component included in the predicted motion vector.
도 5를 참조하면 움직임 타입이 회전을 나타내는 경우, 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분 중 적어도 하나에 기초하여 제 2 기준 픽셀의 움직임 정보의 제 2 방향 움직임 성분을 획득할 수 있다. 제 2 기준 픽셀의 움직임 정보의 제 2 방향 움직임 성분은 이하와 같은 방법으로 획득될 수 있다. Referring to FIG. 5, when the motion type indicates rotation, the decoder 120 may generate a second reference pixel based on at least one of the first direction motion component of the motion information of the first reference pixel and the motion information of the second reference pixel. The second directional motion component of the motion information of may be obtained. The second direction motion component of the motion information of the second reference pixel may be obtained by the following method.
본 개시의 일 실시예에 따르면, 복호화부(120)는 제 1 위치(520)의 좌표(0,0)를 획득할 수 있다. 또한 복호화부(120)는 제 1 기준 픽셀의 움직임 정보(MV0)에 기초하여 참조 블록(515)의 위치(525)의 좌표(x0, y0)를 획득할 수 있다. 복호화부(120)는 제 2 위치(530)의 좌표(w,0)를 획득할 수 있다. w 는 현재 블록(510)의 너비의 길이 일 수 있다. 제 2 기준 픽셀의 움직임 정보(MV1)의 제 1 방향 움직임 성분은 y 방향 움직임 성분일 수 있다. 복호화부(120)는 획득된 제 2 기준 픽셀의 움직임 정보(MV1)의 제 1 방향 움직임 성분에 기초하여, 참조 블록(515)의 위치(535)의 y좌표 값(y1)을 획득할 수 있다. 복호화부(120)는 피타고라스 정리에 기초하여 참조 블록(515)의 위치(535)의 x좌표 값(x1)을 획득할 수 있다. 예를 들어, 복호화부(120)는 수식 6에 의하여 위치(535)의 x좌표 값(x1)을 획득될 수 있다.According to an embodiment of the present disclosure, the decoder 120 may acquire the coordinates (0,0) of the first position 520. Also, the decoder 120 may acquire the coordinates x0 and y0 of the position 525 of the reference block 515 based on the motion information MV0 of the first reference pixel. The decoder 120 may acquire the coordinates (w, 0) of the second position 530. w may be the length of the width of the current block 510. The first direction motion component of the motion information MV1 of the second reference pixel may be a y direction motion component. The decoder 120 may obtain the y-coordinate value y1 of the position 535 of the reference block 515 based on the obtained first direction motion component of the motion information MV1 of the second reference pixel. . The decoder 120 may obtain the x-coordinate value x1 of the position 535 of the reference block 515 based on the Pythagorean theorem. For example, the decoder 120 may obtain the x-coordinate value x1 of the position 535 by Equation 6.
[수식 6][Equation 6]
x1 = sqrt(w2 - (y1-y0)2) + x0 x1 = sqrt (w 2- (y1-y0) 2 ) + x0
복호화부(120)는 위치(535)의 x좌표 값(x1)에 기초하여 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분을 획득할 수 있다. 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분은 x 방향 움직임 성분일 수 있다. 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분은 수식 7과 같을 수 있다.The decoder 120 may obtain a second direction motion component of the motion information MV1 of the second reference pixel based on the x coordinate value x1 of the position 535. The second direction motion component of the motion information MV1 of the second reference pixel may be an x direction motion component. The second direction motion component of the motion information MV1 of the second reference pixel may be equal to Equation 7.
[수식 7][Formula 7]
MV1 [x] = x1 - wMV1 [x] = x1-w
여기서 MV1[x]는 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분 일 수 있다. 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분은 제 2 기준 픽셀의 움직임 정보(MV1)의 x 방향 움직임 성분 일 수 있다. x1 은 참조 블록(515)의 위치(535)의 x좌표 값일 수 있다. w 는 현재 블록(510)의 너비의 길이 일 수 있다.Here, MV1 [x] may be a second direction motion component of the motion information MV1 of the second reference pixel. The second direction motion component of the motion information MV1 of the second reference pixel may be the x direction motion component of the motion information MV1 of the second reference pixel. x1 may be the x-coordinate value of position 535 of reference block 515. w may be the length of the width of the current block 510.
복호화부(120)는 수식 5 에 따라 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득하는 방법에 대해서는 이미 도 4 와 함께 설명한 바 있으므로 중복되는 설명은 생략한다.The decoder 120 may obtain motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel according to Equation 5. Since the method of obtaining the motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel has already been described with reference to FIG. 4, redundant description thereof will be omitted.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록(510)의 임의의 위치(550)의 움직임 정보를 획득할 수 있다. 복호화부(120)는 수식 3 에 기초하여 임의의 위치(450)의 움직임 정보를 획득할 수 있다. 현재 블록(410)의 픽셀의 움직임 정보를 획득하는 방법에 대해서는 도 3 과 함께 설명하였으므로 중복되는 설명은 생략한다. 복호화부(120)는 현재 블록(510)의 픽셀의 움직임 정보에 기초하여 현재 블록을 예측하고, 복원할 수 있다.The decoder 120 may acquire motion information of an arbitrary position 550 of the current block 510 based on motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel. Can be. The decoder 120 may obtain motion information of an arbitrary location 450 based on Equation 3. Since the method of obtaining the motion information of the pixel of the current block 410 has been described with reference to FIG. 3, overlapping description thereof will be omitted. The decoder 120 may predict and reconstruct the current block based on the motion information of the pixels of the current block 510.
도 4 및 도 5를 참조하면 복호화부(120)는 제 1 기준 픽셀의 움직임 정보의 x 방향 움직임 성분, 제 1 기준 픽셀의 움직임 정보의 y 방향 움직임 성분 및 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분에 기초하여 현재 블록의 픽셀의 움직임 정보를 획득할 수 있다. 또한 복호화부(120)는 현재 블록의 픽셀의 움직임 정보에 기초하여 현재 블록을 예측하고, 복원할 수 있다. 영상 복호화 장치(100) 및 영상 부호화 장치(1500)는 3 개의 방향 움직임 성분만을 이용하여 현재 블록의 복수의 픽셀들의 움직임 정보들을 획득할 수 있으므로 영상의 압축 효율을 높일 수 있고, 고화질의 영상을 복원할 수 있다.4 and 5, the decoder 120 may determine the x-direction motion component of the motion information of the first reference pixel, the y-direction motion component of the motion information of the first reference pixel, and the first motion information of the second reference pixel. The motion information of the pixel of the current block may be obtained based on the directional motion component. Also, the decoder 120 may predict and reconstruct the current block based on the motion information of the pixels of the current block. Since the image decoding apparatus 100 and the image encoding apparatus 1500 may obtain motion information of a plurality of pixels of the current block using only three directional motion components, the image decoding apparatus 100 and the image encoding apparatus 1500 may increase the compression efficiency of the image and restore the high quality image. can do.
본 개시의 다른 실시예에 따르면, 복호화부(120)는 움직인 타입에 관련 없이 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 1 방향 움직임 성분을 x 방향 움직임 성분으로 결정할 수 있다. 또한 복호화부(120)는 움직인 타입에 관련 없이 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 2 방향 움직임 성분을 y 방향 움직임 성분으로 결정할 수 있다. 복호화부(120)는 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 2 방향 움직임 성분을 획득하기 위한 수식을 움직임 타입에 따라 달리 할 수 있다.According to another embodiment of the present disclosure, the decoder 120 may determine the first direction motion component included in the motion information MV1 of the second reference pixel as the x direction motion component regardless of the moved type. In addition, the decoder 120 may determine the second direction motion component included in the motion information MV1 of the second reference pixel as the y direction motion component regardless of the type of movement. The decoder 120 may vary a formula for acquiring the second direction motion component included in the motion information MV1 of the second reference pixel according to the motion type.
예를 들어, 움직임 타입이 줌인 경우, 복호화부(120)는 수식 4와 같이 제 1 기준 픽셀의 움직임 정보(MV0)에 포함된 y 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보(MV1)에 포함된 제 2 방향 움직임 성분(즉, y 방향 움직임 성분)을 획득할 수 있다.For example, when the motion type is zoom, the decoder 120 may move the motion information MV1 of the second reference pixel based on the y-direction motion component included in the motion information MV0 of the first reference pixel as shown in Equation 4. It is possible to obtain a second direction motion component (ie, y direction motion component) included in.
또한, 움직임 타입이 회전인 경우, 복호화부(120)는 제 1 기준 픽셀의 움직임 정보(MV0)에 기초하여 참조 블록(515)의 위치(525)의 좌표(x0, y0)를 획득할 수 있다. 복호화부(120)는 획득된 제 2 기준 픽셀의 움직임 정보(MV1)의 제 1 방향 움직임 성분(즉, x 방향 움직임 성분)에 기초하여, 참조 블록(515)의 위치(535)의 x좌표 값(x1)을 획득할 수 있다. 복호화부(120)는 피타고라스 정리에 기초하여 참조 블록(515)의 위치(535)의 y좌표 값(y1)을 획득할 수 있다. 예를 들어, 복호화부(120)는 수식 8에 의하여 위치(535)의 y좌표 값(y1)을 획득될 수 있다.In addition, when the motion type is rotation, the decoder 120 may acquire the coordinates (x0, y0) of the position 525 of the reference block 515 based on the motion information MV0 of the first reference pixel. . The decoder 120 determines an x-coordinate value of the position 535 of the reference block 515 based on the first direction motion component (that is, the x direction motion component) of the obtained motion information MV1 of the second reference pixel. (x1) can be obtained. The decoder 120 may obtain a y-coordinate value y1 of the position 535 of the reference block 515 based on the Pythagorean theorem. For example, the decoder 120 may obtain the y-coordinate value y1 of the position 535 by Equation 8.
[수식 8]Equation 8
y1 = sqrt(w2 - (x1-x0)2) + y0 y1 = sqrt (w 2- (x1-x0) 2 ) + y0
복호화부(120)는 위치(535)의 y좌표 값(y1)에 기초하여 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분(즉, y 방향 움직임 성분)을 획득할 수 있다. 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분은 수식 9과 같을 수 있다.The decoder 120 may obtain a second direction motion component (ie, a y direction motion component) of the motion information MV1 of the second reference pixel based on the y coordinate value y1 of the position 535. The second direction motion component of the motion information MV1 of the second reference pixel may be the same as Equation 9.
[수식 9][Equation 9]
MV1 [y] = y1MV1 [y] = y1
여기서 MV1[y]는 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분 일 수 있다. 제 2 기준 픽셀의 움직임 정보(MV1)의 제 2 방향 움직임 성분은 제 2 기준 픽셀의 움직임 정보(MV1)의 y 방향 움직임 성분 일 수 있다. y1 은 참조 블록(515)의 위치(535)의 y좌표 값일 수 있다.Here, MV1 [y] may be a second direction motion component of the motion information MV1 of the second reference pixel. The second direction motion component of the motion information MV1 of the second reference pixel may be a y direction motion component of the motion information MV1 of the second reference pixel. y1 may be the y-coordinate value of position 535 of reference block 515.
복호화부(120)는 수식 5 에 따라 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득하는 방법에 대해서는 이미 도 4 와 함께 설명한 바 있으므로 중복되는 설명은 생략한다.The decoder 120 may obtain motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel according to Equation 5. Since the method of obtaining the motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel has already been described with reference to FIG. 4, redundant description thereof will be omitted.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보의 x 방향 움직임 성분, 제 1 기준 픽셀의 움직임 정보의 y 방향 움직임 성분 및 제 2 기준 픽셀의 움직임 정보의 제 x 방향 움직임 성분에 기초하여 현재 블록의 픽셀의 움직임 정보를 획득할 수 있다. 또한 복호화부(120)는 현재 블록의 픽셀의 움직임 정보에 기초하여 현재 블록을 예측하고, 복원할 수 있다. 영상 복호화 장치(100) 및 영상 부호화 장치(1500)는 3 개의 방향 움직임 성분만을 이용하여 현재 블록의 복수의 픽셀들의 움직임 정보들을 획득할 수 있으므로 영상의 압축 효율을 높일 수 있고, 고화질의 영상을 복원할 수 있다.The decoder 120 performs a current block based on the x direction motion component of the motion information of the first reference pixel, the y direction motion component of the motion information of the first reference pixel, and the x direction motion component of the motion information of the second reference pixel. The motion information of the pixel may be obtained. Also, the decoder 120 may predict and reconstruct the current block based on the motion information of the pixels of the current block. Since the image decoding apparatus 100 and the image encoding apparatus 1500 may obtain motion information of a plurality of pixels of the current block using only three directional motion components, the image decoding apparatus 100 and the image encoding apparatus 1500 may increase the compression efficiency of the image and restore the high quality image. can do.
본 개시의 다른 실시예에 따르면, 복호화부(120)는 비트스트림으로부터 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득할 수 있다. 즉, 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 각각 포함된 x 방향 움직임 성분 및 y 방향 움직임 성분을 비트스트림으로부터 획득된 정보에 기초하여 획득할 수 있다. 예를 들어 복호화부(120)는 비트스트림으로부터 제 2 기준 픽셀의 움직임 정보와 관련된 차분 움직임 벡터를 획득할 수 있다. 복호화부(120)는 현재 블록의 이전에 복원된 주변 블록의 움직임 정보에 기초하여 예측 움직임 벡터를 획득할 수 있다. 복호화부(120)는 주변 블록들에 기초하여 후보 블록들을 결정할 수 있다. 주변 블록들은 현재 블록에 시간적 또는 공간적으로 인접한 블록일 수 있다. 복호화부(120)는 비트스트림으로부터 획득된 인덱스에 기초하여 후보 블록들 중 하나의 후보 블록을 선택할 수 있다. 복호화부(120)는 후보 블록의 움직임 정보를 예측 움직임 벡터로 결정할 수 있다. 복호화부(120)는 차분 움직임 벡터 및 예측 움직임 벡터에 기초하여 제 2 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 2 기준 픽셀의 움직임 정보는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. According to another embodiment of the present disclosure, the decoder 120 may obtain a second direction motion component included in the motion information of the second reference pixel from the bitstream. That is, the decoder 120 may obtain the x direction motion component and the y direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel, respectively, based on the information obtained from the bitstream. . For example, the decoder 120 may obtain a differential motion vector related to motion information of the second reference pixel from the bitstream. The decoder 120 may obtain the predicted motion vector based on the motion information of the neighboring block previously reconstructed in the current block. The decoder 120 may determine candidate blocks based on neighboring blocks. The neighboring blocks may be blocks that are temporally or spatially adjacent to the current block. The decoder 120 may select one candidate block among candidate blocks based on the index obtained from the bitstream. The decoder 120 may determine the motion information of the candidate block as the predicted motion vector. The decoder 120 may obtain motion information of the second reference pixel based on the differential motion vector and the predictive motion vector. The motion information of the second reference pixel may include an x direction motion component and a y direction motion component.
복호화부(120)는 4개의 방향 움직임 성분을 이용하여 줌 및 회전의 움직임을 동시에 나타낼 수 있다. 복호화부(120)는 수식 5에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 복호화부(120)는 수식 3 에 기초하여 현재 블록의 픽셀의 움직임 정보를 획득할 수 있다. 복호화부(120)는 현재 블록의 복수의 기준 픽셀들의 움직임 정보들에 기초하여 현재 블록을 예측할 수 있다. 복호화부(120)는 4 개의 방향 움직임 성분을 이용하여 예측의 정확도를 높일 수 있다.The decoder 120 may simultaneously display the movement of the zoom and the rotation by using the four directional motion components. The decoder 120 may obtain motion information of the third reference pixel based on Equation 5. The decoder 120 may obtain motion information of pixels of the current block based on Equation 3. The decoder 120 may predict the current block based on the motion information of the plurality of reference pixels of the current block. The decoder 120 may increase the accuracy of prediction by using four directional motion components.
인터 예측 모드는 차분 움직임 벡터를 수신하는 모드와 차분 움직임 벡터를 수신하지 않는 모드가 있을 수 있다. 복호화부(120)는 예측된 움직임 정보에 수신된 차분 움직임 벡터를 적용하여 보다 정확한 움직임 정보를 획득할 수 있다. 이하 도 6 내지 도 13과 함께 차분 움직임 벡터를 수신하는 어파인 모드 및 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명한다.The inter prediction mode may include a mode for receiving a differential motion vector and a mode for not receiving a differential motion vector. The decoder 120 may obtain more accurate motion information by applying the received differential motion vector to the predicted motion information. Hereinafter, the affine mode for receiving the differential motion vector and the affine mode for not receiving the differential motion vector will be described with reference to FIGS. 6 to 13.
도 6 은 일 실시예에 따라 차분 움직임 벡터를 수신하는 어파인 모드를 설명하기 위한 도면이다.6 is a diagram for describing an affine mode for receiving a differential motion vector, according to an exemplary embodiment.
복호화부(120)는 주변 블록들로부터 예측 움직임 벡터를 획득할 수 있다. 예를 들어 복호화부(120)는 주변 블록들을 후보 블록들로 결정할 수 있다. 주변 블록들은 현재 블록에 공간적으로 인접한 블록일 수 있다. 도 6에 도시되어 있지 않으나, 주변 블록들은 현재 블록에 시간적으로 인접한 블록일 수 있다. 복호화부(120)는 비트스트림으로부터 인덱스를 획득할 수 있다. 복호화부(120)는 인덱스에 기초하여 후보 블록들 중 하나의 후보 블록을 선택할 수 있다. 복호화부(120)는 선택된 후보 블록의 움직임 벡터에 기초하여 현재 블록의 예측 움직임 벡터를 획득할 수 있다.The decoder 120 may obtain a predictive motion vector from neighboring blocks. For example, the decoder 120 may determine neighboring blocks as candidate blocks. The neighboring blocks may be blocks spatially adjacent to the current block. Although not shown in FIG. 6, the neighboring blocks may be blocks temporally adjacent to the current block. The decoder 120 may obtain an index from the bitstream. The decoder 120 may select one candidate block among candidate blocks based on the index. The decoder 120 may obtain the predicted motion vector of the current block based on the motion vector of the selected candidate block.
본 개시의 일 실시예에 따르면, 복호화부(120)는 현재 블록(600)을 예측하기 위하여 제 1 위치의 예측 움직임 벡터, 제 2 위치의 예측 움직임 벡터, 제 3 위치의 예측 움직임 벡터를 획득할 수 있다. 제 1 위치, 제 2 위치 및 제 3 위치는 각각 현재 블록(600)의 좌상측 픽셀(610), 우상측 픽셀(620), 좌하측 픽셀(630), 좌하측 픽셀(640) 위치 중 어느하나에 대응될 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain a predicted motion vector of the first position, a predicted motion vector of the second position, and a predicted motion vector of the third position to predict the current block 600. Can be. The first position, the second position, and the third position may be any one of the positions of the upper left pixel 610, the upper right pixel 620, the lower left pixel 630, and the lower left pixel 640 of the current block 600, respectively. May correspond to.
복호화부(120)는 주변 블록들(611, 612, 613)의 움직임 벡터에 기초하여 좌상측 픽셀(610)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다. 주변 블록들(611, 612, 613)은 현재 블록(600)이전에 복원된 블록일 수 있다. The decoder 120 may obtain a predicted motion vector corresponding to the position of the upper left pixel 610 based on the motion vectors of the neighboring blocks 611, 612, and 613. The neighboring blocks 611, 612, and 613 may be blocks restored before the current block 600.
본 개시의 일 실시예에 따라 복호화부(120)는 부호화 장치(1500)로부터 수신한 비트스트림으로부터 획득된 인덱스에 기초하여 주변 블록들(611, 612, 613) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 선택된 블록의 움직임 벡터에 기초하여 좌상측 픽셀(610)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may select one of the neighboring blocks 611, 612, and 613 based on an index obtained from the bitstream received from the encoding apparatus 1500. The decoder 120 may obtain a predicted motion vector corresponding to the position of the upper left pixel 610 based on the motion vector of the selected block.
본 개시의 일 실시예에 따라 복호화부(120)는 미리 정해진 규칙에 따라 주변 블록들(611, 612, 613) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 소정의 순서로 주변 블록들(611, 612, 613)의 움직임 벡터가 이용가능한지 판단할 수 있다. 예를 들어 복호화부(120)는 좌상측 주변 블록(611), 좌하측 주변 블록(613), 우상측 주변 블록(612)의 순서로 움직임 벡터가 이용가능한지 판단할 수 있다. 다만 이에 한정되는 것은 아니며 다양한 순서가 사용될 수 있다. 복호화부(120)는 이용가능한 첫 번째 움직임 벡터에 기초하여 좌상측 픽셀(610)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may select one of the neighboring blocks 611, 612, and 613 according to a predetermined rule. The decoder 120 may determine whether the motion vectors of the neighboring blocks 611, 612, and 613 are available in a predetermined order. For example, the decoder 120 may determine whether the motion vector is available in the order of the upper left peripheral block 611, the lower left peripheral block 613, and the right upper peripheral block 612. However, the present invention is not limited thereto, and various orders may be used. The decoder 120 may obtain a predicted motion vector corresponding to the position of the upper left pixel 610 based on the first available motion vector.
본 개시의 일 실시예에 따라 복호화부(120)는 주변 블록들(611, 612, 613)의 움직임 벡터의 평균에 기초하여 좌상측 픽셀(610)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain a predicted motion vector corresponding to the position of the upper left pixel 610 based on the average of the motion vectors of the neighboring blocks 611, 612, and 613. have.
복호화부(120)는 주변 블록들(621, 622, 623)의 움직임 벡터에 기초하여 우상측 픽셀(620)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다. 주변 블록들(621, 622, 623)은 현재 블록(600)이전에 복원된 블록일 수 있다. The decoder 120 may obtain a prediction motion vector corresponding to the position of the upper right pixel 620 based on the motion vectors of the neighboring blocks 621, 622, and 623. The neighboring blocks 621, 622, and 623 may be blocks reconstructed before the current block 600.
본 개시의 일 실시예에 따라 복호화부(120)는 부호화 장치(1500)로부터 수신한 비트스트림으로부터 획득된 인덱스에 기초하여 주변 블록들(621, 622, 623) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 선택된 블록의 움직임 벡터에 기초하여 우상측 픽셀(620)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may select one of the neighboring blocks 621, 622, and 623 based on an index obtained from the bitstream received from the encoding apparatus 1500. The decoder 120 may obtain a predicted motion vector corresponding to the position of the upper right pixel 620 based on the motion vector of the selected block.
본 개시의 일 실시예에 따라 복호화부(120)는 소정의 순서로 주변 블록들(621, 622, 623)의 움직임 벡터가 이용가능한지 판단할 수 있다. 예를 들어 복호화부(120)는 우하측 주변 블록(623), 우상측 주변 블록(622), 좌상측 주변 블록(621)의 순서로 움직임 벡터가 이용가능한지 판단할 수 있다. 다만 이에 한정되는 것은 아니며 다양한 순서가 사용될 수 있다. 복호화부(120)는 이용가능한 첫 번째 움직임 벡터에 기초하여 우상측 픽셀(620)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may determine whether the motion vectors of the neighboring blocks 621, 622, and 623 are available in a predetermined order. For example, the decoder 120 may determine whether the motion vector is available in the order of the lower right peripheral block 623, the upper right peripheral block 622, and the upper left peripheral block 621. However, the present invention is not limited thereto, and various orders may be used. The decoder 120 may obtain a predicted motion vector corresponding to the position of the upper right pixel 620 based on the first available motion vector.
본 개시의 일 실시예에 따라 복호화부(120)는 주변 블록들(621, 622, 623)의 움직임 벡터의 평균에 기초하여 우상측 픽셀(620)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain a predicted motion vector corresponding to the position of the upper right pixel 620 based on the average of the motion vectors of the neighboring blocks 621, 622, and 623. have.
복호화부(120)는 주변 블록들(631, 632)의 움직임 벡터에 기초하여 좌하측 픽셀(630)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다. 주변 블록들(631, 632)은 현재 블록(600)이전에 복원된 블록일 수 있다. The decoder 120 may obtain a predicted motion vector corresponding to the position of the lower left pixel 630 based on the motion vectors of the neighboring blocks 631 and 632. The neighboring blocks 631 and 632 may be blocks restored before the current block 600.
본 개시의 일 실시예에 따라 복호화부(120)는 부호화 장치(1500)로부터 수신한 비트스트림으로부터 획득된 인덱스에 기초하여 주변 블록들(631, 632) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 선택된 블록의 움직임 벡터에 기초하여 좌하측 픽셀(630)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may select one of the neighboring blocks 631 and 632 based on an index obtained from the bitstream received from the encoding apparatus 1500. The decoder 120 may obtain a predicted motion vector corresponding to the position of the lower left pixel 630 based on the motion vector of the selected block.
본 개시의 일 실시예에 따라 복호화부(120)는 소정의 순서로 주변 블록들(631, 632)의 움직임 벡터가 이용가능한지 판단할 수 있다. 예를 들어 복호화부(120)는 좌하측 주변 블록(632), 좌상측 주변 블록(631) 의 순서로 움직임 벡터가 이용가능한지 판단할 수 있다. 다만 이에 한정되는 것은 아니며 다양한 순서가 사용될 수 있다. 복호화부(120)는 이용가능한 첫 번째 움직임 벡터에 기초하여 좌하측 픽셀(630)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may determine whether the motion vectors of the neighboring blocks 631 and 632 are available in a predetermined order. For example, the decoder 120 may determine whether a motion vector is available in the order of the lower left peripheral block 632 and the upper left peripheral block 631. However, the present invention is not limited thereto, and various orders may be used. The decoder 120 may obtain a predicted motion vector corresponding to the position of the lower left pixel 630 based on the first available motion vector.
본 개시의 일 실시예에 따라 복호화부(120)는 주변 블록들(631, 632)의 움직임 벡터의 평균에 기초하여 좌하측 픽셀(630)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain a predicted motion vector corresponding to the position of the lower left pixel 630 based on the average of the motion vectors of the neighboring blocks 631 and 632.
복호화부(120)는 주변 블록들(641, 642)의 움직임 벡터에 기초하여 우하측 픽셀(640)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다. 주변 블록들(641, 642)은 현재 블록(600)이전에 복원된 블록일 수 있다. The decoder 120 may obtain a predicted motion vector corresponding to the position of the lower right pixel 640 based on the motion vectors of the neighboring blocks 641 and 642. The neighboring blocks 641 and 642 may be blocks that are restored before the current block 600.
본 개시의 일 실시예에 따라 복호화부(120)는 부호화 장치(1500)로부터 수신한 비트스트림으로부터 획득된 인덱스에 기초하여 주변 블록들(641, 642) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 선택된 블록의 움직임 벡터에 기초하여 우하측 픽셀(640)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may select one of the neighboring blocks 641 and 642 based on an index obtained from the bitstream received from the encoding apparatus 1500. The decoder 120 may obtain a predicted motion vector corresponding to the position of the lower right pixel 640 based on the motion vector of the selected block.
본 개시의 일 실시예에 따라 복호화부(120)는 소정의 순서로 주변 블록들(641, 642)의 움직임 벡터가 이용가능한지 판단할 수 있다. 예를 들어 복호화부(120)는 우하측 주변 블록(642), 우상측 주변 블록(641) 의 순서로 움직임 벡터가 이용가능한지 판단할 수 있다. 다만 이에 한정되는 것은 아니며 다양한 순서가 사용될 수 있다. 복호화부(120)는 이용가능한 첫 번째 움직임 벡터에 기초하여 우하측 픽셀(640)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may determine whether motion vectors of the neighboring blocks 641 and 642 are available in a predetermined order. For example, the decoder 120 may determine whether the motion vector is available in the order of the lower right peripheral block 642 and the upper right peripheral block 641. However, the present invention is not limited thereto, and various orders may be used. The decoder 120 may obtain a predicted motion vector corresponding to the position of the lower right pixel 640 based on the first available motion vector.
본 개시의 일 실시예에 따라 복호화부(120)는 주변 블록들(641, 642)의 움직임 벡터의 평균에 기초하여 우하측 픽셀(640)의 위치에 대응하는 예측 움직임 벡터를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain a predicted motion vector corresponding to the position of the lower right pixel 640 based on the average of the motion vectors of the neighboring blocks 641 and 642.
복호화부(120)는 좌상측 픽셀(610), 우상측 픽셀(620), 좌하측 픽셀(630), 좌하측 픽셀(640)의 위치 중 미리 정해진 기준에 따라 제 1 위치 내지 제 3 위치를 결정할 수 있다. 또한 복호화부(120)는 수신된 비트스트림으로부터획득된 정보에 기초하여 제 1 위치 내지 제 3 위치를 결정할 수 있다. 제 1 위치 내지 제 3 위치는 좌상측 픽셀(610), 우상측 픽셀(620), 좌하측 픽셀(630), 좌하측 픽셀(640)의 위치에 기초하여 만들어진 다양한 조합일 수 있다. 설명의 편의를 위하여 제 1 위치는 좌상측 픽셀(610)의 위치에 대응되고, 제 2 위치는 우상측 픽셀(620)의 위치에 대응되고, 제 3 위치는 좌하측 픽셀(630)의 위치에 대응되는 것으로 한다.The decoder 120 determines the first to third positions based on a predetermined reference among the positions of the upper left pixel 610, the upper right pixel 620, the lower left pixel 630, and the lower left pixel 640. Can be. In addition, the decoder 120 may determine the first to third positions based on the information obtained from the received bitstream. The first to third positions may be various combinations created based on the positions of the upper left pixel 610, the upper right pixel 620, the lower left pixel 630, and the lower left pixel 640. For convenience of description, the first position corresponds to the position of the upper left pixel 610, the second position corresponds to the position of the upper right pixel 620, and the third position corresponds to the position of the lower left pixel 630. It shall correspond.
본 개시의 일 실시예에 따라 복호화부(120)는 제 1 위치 내지 제 2 위치의 예측 움직임 벡터들을 획득할 수 있다. 또한 복호화부(120)는 비트스트림으로부터 차분 움직임 벡터들을 획득할 수 있다. 복호화부(120)는 예측 움직임 벡터들 및 차분 움직임 벡터들에 기초하여 제 1 위치에 대응하는 제 1 기준 픽셀의 움직임 정보 및 제 2 위치에 대응하는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain prediction motion vectors of the first to second positions. In addition, the decoder 120 may obtain differential motion vectors from the bitstream. The decoder 120 includes first motion information included in the motion information of the first reference pixel corresponding to the first position and the motion information of the second reference pixel corresponding to the second position based on the predicted motion vectors and the differential motion vectors. Directional motion components can be obtained.
본 개시의 일 실시예에 따르면, 복호화부(120)는 비트스트림으로부터 제 1 위치에 대한 차분 움직임 벡터를 획득할 수 있다. 제 1 위치에 대한 차분 움직임 벡터는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 복호화부(120)는 제 1 위치에 대한 차분 움직임 벡터 및 제 1 위치의 예측 움직임 벡터에 기초하여 제 1 위치의 제 1 기준 픽셀의 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain a differential motion vector for the first position from the bitstream. The differential motion vector for the first position may include an x direction motion component and a y direction motion component. The decoder 120 may obtain motion information of the first reference pixel of the first position based on the differential motion vector of the first position and the predicted motion vector of the first position.
복호화부(120)는 비트스트림으로부터 제 2 위치에 대한 차분 움직임 벡터의 x 방향 움직임 성분 또는 y 방향 움직임 성분 중 어느 하나를 획득할 수 있다. 현재 블록(600)의 움직임 타입이 줌을 나타내는 경우 복호화부(120)는 비트스트림으로부터 차분 움직임 벡터의 x 방향 움직임 성분을 획득할 수 있다. 복호화부(120)는 제 2 위치에 대한 차분 움직임 벡터의 x 방향 움직임 성분 및 예측 움직임 벡터의 x 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분을 획득할 수 있다.The decoder 120 may obtain any one of an x-direction motion component and a y-direction motion component of the differential motion vector with respect to the second position from the bitstream. When the motion type of the current block 600 indicates zoom, the decoder 120 may obtain an x-direction motion component of the differential motion vector from the bitstream. The decoder 120 may acquire the first direction motion component of the motion information of the second reference pixel based on the x direction motion component of the differential motion vector and the x direction motion component of the predicted motion vector with respect to the second position.
또한 현재 블록(600)의 움직임 타입이 회전을 나타내는 경우 복호화부(120)는 비트스트림으로부터 차분 움직임 벡터의 y 방향 움직임 성분을 획득할 수 있다. 또한 복호화부(120)는 제 2 위치에 대한 차분 움직임 벡터의 y 방향 움직임 성분 및 예측 움직임 벡터의 y 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분(즉, y 방향 움직임 성분)을 획득할 수 있다.In addition, when the motion type of the current block 600 indicates rotation, the decoder 120 may obtain a y-direction motion component of the differential motion vector from the bitstream. Also, the decoder 120 may determine the first direction motion component (ie, the y direction) of the motion information of the second reference pixel based on the y direction motion component of the differential motion vector and the y direction motion component of the predicted motion vector for the second position. Motion component) can be obtained.
또한 현재 블록(600)의 움직임 타입이 회전을 나타내는 경우 복호화부(120)는 비트스트림으로부터 차분 움직임 벡터의 x 방향 움직임 성분을 획득할 수 있다. 또한 복호화부(120)는 제 2 위치에 대한 차분 움직임 벡터의 x 방향 움직임 성분 및 예측 움직임 벡터의 x 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분(즉, x 방향 움직임 성분)을 획득할 수 있다. Also, when the motion type of the current block 600 indicates rotation, the decoder 120 may obtain the x direction motion component of the differential motion vector from the bitstream. Also, the decoder 120 may determine the first direction motion component (ie, the x direction) of the motion information of the second reference pixel based on the x direction motion component of the differential motion vector and the x direction motion component of the predicted motion vector for the second position. Motion component) can be obtained.
도 4 및 도 5와 함께 설명된 바와 같이, 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득할 수 있다. 또한 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득할 수 있다. 도 4 및 도 5와 함께 설명된 바와 같이, 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 3 기준 픽셀의 움직임 정보 제 3 위치에 대한 움직임 벡터에 대응될 수 있다.As described with reference to FIGS. 4 and 5, the decoder 120 may move the second reference pixel based on the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel. The second directional motion component included in the information may be obtained. Also, the decoder 120 may acquire a second direction motion component included in the motion information of the second reference pixel based on the information obtained from the bitstream. As described with reference to FIGS. 4 and 5, the decoder 120 may acquire motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel. The motion information of the third reference pixel may correspond to the motion vector of the third position.
도 3과 함께 설명된 바와 같이 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록(600)에 포함된 픽셀의 움직임 정보를 획득할 수 있다.As described with reference to FIG. 3, the decoder 120 may acquire motion information of a pixel included in the current block 600 based on the motion information of the first reference pixel or the motion information of the third reference pixel.
복호화부(120)는 현재 블록의 픽셀의 움직임 정보에 기초하여 현재 블록을 예측할 수 있다. 복호화부(120)는 비트스트림으로부터 참조 영상 인덱스를 획득할 수 있다. 복호화부(120)는 참조 영상 인덱스에 기초하여 참조 영상을 결정할 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보에 기초하여 참조 영상에 포함된 참조 블록의 픽셀값으로부터 현재 블록의 제 1 위치의 픽셀의 값을 예측할 수 있다. 복호화부(120)는 제 2 기준 픽셀의 움직임 정보에 기초하여 참조 블록의 위치의 픽셀의 값으로부터 현재 블록의 제 2 위치의 픽셀의 값을 예측할 수 있다. 복호화부(120)는 제 3 기준 픽셀의 움직임 정보에 기초하여 참조 블록의 위치의 픽셀값으로부터 현재 블록의 제 3 위치의 픽셀을 예측할 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보에 기초하여 획득된 임의의 위치의 움직임 정보에 기초하여 임의의 위치의 픽셀을 예측할 수 있다. 복호화부(120)는 예측된 현재 블록 및 비트스트림으로부터 획득된 레지듀얼에 기초하여 현재 블록을 복원할 수 있다.The decoder 120 may predict the current block based on the motion information of the pixels of the current block. The decoder 120 may obtain a reference picture index from the bitstream. The decoder 120 may determine the reference picture based on the reference picture index. The decoder 120 may predict the value of the pixel at the first position of the current block from the pixel value of the reference block included in the reference image based on the motion information of the first reference pixel. The decoder 120 may predict the value of the pixel at the second position of the current block from the value of the pixel at the position of the reference block based on the motion information of the second reference pixel. The decoder 120 may predict the pixel at the third position of the current block from the pixel value of the position of the reference block based on the motion information of the third reference pixel. The decoder 120 may predict the pixel at an arbitrary position based on the motion information of the arbitrary position obtained based on the motion information of the first reference pixel or the motion information of the third reference pixel. The decoder 120 may reconstruct the current block based on the predicted current block and the residual obtained from the bitstream.
도 7 은 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 흐름도이다.7 is a flowchart for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
현재 블록의 예측 모드가 어파인 모드인 경우, 복호화부(120)는 현재 블록 이전에 복원된 주변 블록들의 제 1 위치의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보를 획득하는 단계(710)를 수행한다. 복호화부(120)는 주변 블록들의 제 2 위치의 움직임 정보에 기초하여 제 2 기준 픽셀의 움직임 정보를 획득하는 단계(720)를 수행한다. 복호화부(120)는 주변 블록들의 제 3 위치의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득하는 단계(730)를 수행한다. 복호화부(120)는 현재 블록의 너비 및 높이의 길이, 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계(740)를 수행한다. 주변 블록들은 현재 블록에 시간적 또는 공간적으로 인접할 수 있다. 주변 블록들은 현재 블록의 좌측, 상측 및 우측에 위치할 수 있다. 또한 제 1 위치, 제 2 위치 및 제 3 위치는 서로 동일 선상이 있지 않을 수 있다. 또한 제 1 위치, 제 2 위치 및 제 3 위치는 삼각형을 이룰 수 있다. 차분 움직임 벡터를 수신하지 않는 어파인 모드에 대해서는 도 8 내지 도 13과 함께 더 자세히 설명한다.When the prediction mode of the current block is the affine mode, the decoder 120 acquires the motion information of the first reference pixel based on the motion information of the first position of the neighboring blocks reconstructed before the current block (710). Do this. The decoder 120 acquires the motion information of the second reference pixel based on the motion information of the second position of the neighboring blocks (720). The decoder 120 acquires the motion information of the third reference pixel based on the motion information of the third position of the neighboring blocks (730). The decoder 120 performs motion information of a pixel included in the current block based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. Acquire a step 740. The neighboring blocks may be temporally or spatially adjacent to the current block. The neighboring blocks may be located on the left side, the upper side and the right side of the current block. In addition, the first position, the second position, and the third position may not be collinear with each other. In addition, the first position, the second position and the third position may form a triangle. Affine mode not receiving the differential motion vector will be described in more detail with reference to FIGS. 8 to 13.
도 8 은 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.8 illustrates an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
이하 도 8과 함께 복호화부(120)가 제 1 기준 픽셀의 움직임 정보를 획득하는 방법을 설명한다. 복호화부(120)는 미리 정해진 순서로 현재 블록(810)의 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 좌하측 주변 블록(821)으로부터 우상측 주변 블록(823)까지 순서대로 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 블록(821)부터 주변 블록(822)까지 어파인 모드인지 식별할 수 있다. 또한 복호화부(120)는 주변 블록(822)부터 주변 블록(823)까지 어파인 모드인지 식별할 수 있다.Hereinafter, a method in which the decoder 120 acquires motion information of the first reference pixel along with FIG. 8 will be described. The decoder 120 may identify whether neighboring blocks of the current block 810 are in an affine mode in a predetermined order. The decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the lower left neighboring block 821 to the upper right neighboring block 823. The decoder 120 may identify whether the neighboring block 821 to the neighboring block 822 is in an affine mode. In addition, the decoder 120 may identify whether the neighboring block 822 to the neighboring block 823 are in an affine mode.
본 개시의 일 실시예에 따르면, 복호화부(120)는 주변 블록들 중 어파인 모드로 식별된 주변블록의 움직임 정보들에 기초하여 제 1 기준 픽셀의 움직임 정보를 획득할 수 있다. 예를 들어 복호화부(120)는 어파인 모드로 식별된 주변 블록의 픽셀들의 움직임 정보들의 대표값을 결정할 수 있다. 복호화부(120)는 주변 블록의 픽셀들의 움직임 정보들의 평균값, 중간값, 중앙값 중 하나를 대표값으로 결정할 수 있다. 복호화부(120)는 주변 블록의 픽셀들 중 하나의 픽셀의 움직임 정보를 대표값으로 결정할 수 있다. 복호화부(120)는 대표값을 제 1 기준 픽셀의 움직임 정보로 획득할 수 있다. 복호화부(120)는 복수의 주변 블록들에 대하여 대표값들을 획득할 수 있다. 또한 복수의 주변 블록들의 대표값들에 가중치를 적용하여 제 1 기준 픽셀의 움직임 정보를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may obtain the motion information of the first reference pixel based on the motion information of the neighboring block identified in the affine mode among the neighboring blocks. For example, the decoder 120 may determine a representative value of motion information of pixels of the neighboring block identified in the affine mode. The decoder 120 may determine one of an average value, a median value, and a median value of motion information of pixels of a neighboring block as a representative value. The decoder 120 may determine motion information of one pixel among pixels of the neighboring block as a representative value. The decoder 120 may obtain the representative value as the motion information of the first reference pixel. The decoder 120 may obtain representative values of the plurality of neighboring blocks. In addition, motion information of the first reference pixel may be obtained by applying weights to representative values of the plurality of neighboring blocks.
본 개시의 다른 실시예에 따르면, 복호화부(120)는 주변 블록들(841, 842, 843) 중 어파인 모드로 식별된 최초 주변 블록의 제 1 위치(850)의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보를 획득할 수 있다. 도 8을 참조하면, 현재 블록(830)에 인접한 주변 블록들(841, 842, 843)은 어파인 모드일 수 있다. 복호화부(120)는 주변 소정의 순서로 어파인 모드인지를 식별할 수 있으며, 이 중 주변 블록(841)이 어파인 모드로 식별된 최초 주변 블록일 수 있다. 복호화부(120)는 주변 블록(841)의 제 1 위치(850)의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 1 위치(850)는 주변 블록(841)의 좌하측, 좌상측, 우상측, 우하측 중 어느하나 일 수 있다. 도 8을 참조하면 복호화부(120)는 주변 블록(841)의 좌하측을 제 1 위치로 결정할 수 있다. 제 1 기준 픽셀의 움직임 정보는 제 1 위치(850)의 움직임 정보와 동일할 수 있다. According to another embodiment of the present disclosure, the decoder 120 may generate a first block based on the motion information of the first position 850 of the first neighboring block identified in the affine mode among the neighboring blocks 841, 842, and 843. The motion information of the reference pixel may be obtained. Referring to FIG. 8, neighboring blocks 841, 842, and 843 adjacent to the current block 830 may be in an affine mode. The decoder 120 may identify whether the neighbor mode is in an affine mode in a predetermined order, and among these, the neighbor block 841 may be the first neighbor block identified in the affine mode. The decoder 120 may acquire motion information of the first reference pixel based on the motion information of the first position 850 of the neighboring block 841. The first position 850 may be any one of a lower left side, an upper left side, an upper right side, and a lower right side of the peripheral block 841. Referring to FIG. 8, the decoder 120 may determine a lower left side of the neighboring block 841 as the first position. The motion information of the first reference pixel may be the same as the motion information of the first position 850.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보를 주변 블록 내의 제 1 위치(850)의 움직임 정보로 결정할 수 있다. 또한, 복호화부(120)는 제 1 기준 픽셀의 움직임 정보를 주변 블록(841)에 인접한 현재 블록(830) 내의 소정의 위치의 움직임 정보로 결정할 수 있다. The decoder 120 may determine the motion information of the first reference pixel as the motion information of the first position 850 in the neighboring block. In addition, the decoder 120 may determine the motion information of the first reference pixel as the motion information of a predetermined position in the current block 830 adjacent to the neighboring block 841.
도 9 는 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.9 is a diagram for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
이하 도 9과 함께 복호화부(120)가 제 2 기준 픽셀의 움직임 정보를 획득하는 방법을 설명한다. 복호화부(120)는 미리 정해진 순서로 현재 블록(910)의 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 좌상측 주변 블록(921)으로부터 우상측 주변 블록(926) 또는 좌하측 주변 블록(927)까지 지그재그(zigzag) 순서대로 주변 블록들(921, 922, 923, 924, 925, 926, 927)이 어파인 모드인지 식별할 수 있다. 예를 들어, 복호화부(120)는 주변 블록(921), 주변 블록(922), 주변 블록(923), 주변 블록(924), 주변 블록(925)의 순서로 어파인 모드인지 식별할 수 있다. 또한 복호화부(120)는 주변 블록(921), 주변 블록(923), 주변 블록(922), 주변 블록(925), 주변 블록(924)의 순서로 어파인 모드인지 식별할 수 있다.Hereinafter, a method in which the decoder 120 acquires motion information of the second reference pixel along with FIG. 9 will be described. The decoder 120 may identify whether neighboring blocks of the current block 910 are in an affine mode in a predetermined order. The decoder 120 performs the neighboring blocks 921, 922, 923, 924, 925, in a zigzag order from the upper left peripheral block 921 to the upper right peripheral block 926 or the lower left peripheral block 927. 926, 927 may be identified as an affine mode. For example, the decoder 120 may identify the affine mode in the order of the neighboring block 921, the neighboring block 922, the neighboring block 923, the neighboring block 924, and the neighboring block 925. . In addition, the decoder 120 may identify the affine mode in the order of the neighboring block 921, the neighboring block 923, the neighboring block 922, the neighboring block 925, and the neighboring block 924.
본 개시의 일 실시예에 따르면, 복호화부(120)는 주변 블록들 중 어파인 모드로 식별된 최초 주변 블록의 제 2 위치의 움직임 정보에 기초하여 제 2 기준 픽셀의 움직임 정보를 획득할 수 있다. 도 9를 참조하면, 현재 블록(930)에 인접한 주변 블록들(941, 942, 943)은 어파인 모드일 수 있다. 복호화부(120)는 주변 블록(941), 주변 블록(942) 및 주변 블록(943)의 순서로 어파인 모드인지를 식별할 수 있으며, 이 중 주변 블록(941)이 어파인 모드로 식별된 최초 주변 블록일 수 있다. 복호화부(120)는 주변 블록(941)의 제 2 위치(950)의 움직임 정보에 기초하여 제 2 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 2 위치(950)는 주변 블록(941)의 좌하측, 좌상측, 우상측, 우하측 중 어느하나 일 수 있다. 도 9을 참조하면 복호화부(120)는 주변 블록(941)의 좌상측을 제 2 위치로 결정하였다. 제 2 기준 픽셀의 움직임 정보는 제 2 위치(950)의 움직임 정보와 동일할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may obtain the motion information of the second reference pixel based on the motion information of the second position of the first neighboring block identified in the affine mode among the neighboring blocks. . Referring to FIG. 9, neighboring blocks 941, 942, and 943 adjacent to the current block 930 may be in an affine mode. The decoder 120 may identify whether the neighboring block 941, the neighboring block 942, and the neighboring block 943 are in the affine mode, and the neighboring block 941 is identified as the affine mode. It may be the first peripheral block. The decoder 120 may acquire motion information of the second reference pixel based on the motion information of the second position 950 of the neighboring block 941. The second position 950 may be any one of a lower left side, an upper left side, an upper right side, and a lower right side of the peripheral block 941. Referring to FIG. 9, the decoder 120 determines the upper left side of the neighboring block 941 as the second position. The motion information of the second reference pixel may be the same as the motion information of the second position 950.
복호화부(120)는 제 2 기준 픽셀의 움직임 정보를 제 2 위치(950)의 움직임 정보로 결정할 수 있다. 또한, 복호화부(120)는 제 2 기준 픽셀의 움직임 정보를 주변 블록(941)에 인접한 현재 블록(930)의 소정의 위치의 움직임 정보로 결정할 수 있다.The decoder 120 may determine the motion information of the second reference pixel as the motion information of the second position 950. In addition, the decoder 120 may determine the motion information of the second reference pixel as the motion information of a predetermined position of the current block 930 adjacent to the neighboring block 941.
도 10 는 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.10 is a diagram for describing an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
이하 도 10과 함께 복호화부(120)가 제 3 기준 픽셀의 움직임 정보를 획득하는 방법을 설명한다. 복호화부(120)는 미리 정해진 순서로 현재 블록(1010)의 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 우상측 주변 블록(1021)으로부터 좌하측 주변 블록(1023)까지 순서대로 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 블록(1021)부터 주변 블록(1022)까지 어파인 모드인지 식별할 수 있다. 또한 복호화부(120)는 주변 블록(1022)부터 주변 블록(1023)까지 어파인 모드인지 식별할 수 있다.Hereinafter, a method in which the decoder 120 acquires motion information of the third reference pixel along with FIG. 10 will be described. The decoder 120 may identify whether neighboring blocks of the current block 1010 are in an affine mode in a predetermined order. The decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the upper right neighboring block 1021 to the lower left neighboring block 1023. The decoder 120 may identify whether the neighboring block 1021 to the neighboring block 1022 is in an affine mode. Also, the decoder 120 may identify whether the neighboring block 1022 or the neighboring block 1023 is in an affine mode.
본 개시의 일 실시예에 따르면, 복호화부(120)는 주변 블록들 중 어파인 모드로 식별된 최초 주변 블록의 제 3 위치의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 도 10를 참조하면, 현재 블록(1030)에 인접한 주변 블록들(1041, 1042, 1043)은 어파인 모드일 수 있다. 복호화부(120)는 주변 블록(1041), 주변 블록(1042) 및 주변 블록(1043)의 순서로 어파인 모드인지를 식별할 수 있으며, 이 중 주변 블록(1041)이 어파인 모드로 식별된 최초 주변 블록일 수 있다. 복호화부(120)는 주변 블록(1041)의 제 3 위치(1050)의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 3 위치(1050)는 주변 블록(1041)의 좌하측, 좌상측, 우상측, 우하측 중 어느하나 일 수 있다. 도 10을 참조하면 복호화부(120)는 주변 블록(1041)의 좌상측을 제 3 위치로 결정하였다. 제 3 기준 픽셀의 움직임 정보는 제 3 위치(1050)의 움직임 정보와 동일할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may obtain the motion information of the third reference pixel based on the motion information of the third position of the first neighboring block identified in the affine mode among the neighboring blocks. . Referring to FIG. 10, neighboring blocks 1041, 1042, and 1043 adjacent to the current block 1030 may be in an affine mode. The decoder 120 may identify whether the neighboring block 1041, the neighboring block 1042, and the neighboring block 1043 are in the affine mode, and the neighboring block 1041 is identified as the affine mode. It may be the first peripheral block. The decoder 120 may acquire motion information of the third reference pixel based on the motion information of the third position 1050 of the neighboring block 1041. The third position 1050 may be any one of a lower left side, an upper left side, an upper right side, and a lower right side of the peripheral block 1041. Referring to FIG. 10, the decoder 120 determines the upper left side of the neighboring block 1041 as the third position. The motion information of the third reference pixel may be the same as the motion information of the third location 1050.
복호화부(120)는 제 3 기준 픽셀의 움직임 정보를 제 3 위치(1050)의 움직임 정보로 결정할 수 있다. 또한, 복호화부(120)는 제 3 기준 픽셀의 움직임 정보를 주변 블록(1041)에 인접한 현재 블록(1030)의 소정의 위치의 움직임 정보로 결정할 수 있다.The decoder 120 may determine the motion information of the third reference pixel as the motion information of the third position 1050. In addition, the decoder 120 may determine the motion information of the third reference pixel as the motion information of a predetermined position of the current block 1030 adjacent to the neighboring block 1041.
복호화부(120)는 도 8 내지 도 10의 방법 중 적어도 하나의 방법에 기초하여 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록에 포함된 픽셀의 움직임 정보를 획득할 수 있다. 이에 대해서는 도 13과 함께 자세히 설명한다.The decoder 120 may acquire motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel based on at least one of the methods of FIGS. 8 to 10. The decoder 120 may obtain motion information of the pixel included in the current block based on the motion information of the first reference pixel or the motion information of the third reference pixel. This will be described in detail with reference to FIG. 13.
도 8 내지 도 10 은 현재 블록의 좌측, 좌상측, 상측 및 우상측 에 주변 블록이 있는 것을 도시하였다. 하지만 이에 한정되는 것은 아니고, 주변 블록은 현재 블록의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측 또는 우하측에 존재할 수 있다. 복호화부(120)는 좌측, 좌상측, 상측 또는 우측의 주변블록에 기초하여 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 또는 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 이하, 도 11과 함께 더 자세히 설명한다.8 to 10 illustrate that there are neighboring blocks on the left, upper left, upper and right sides of the current block. However, the present invention is not limited thereto, and the neighboring block may exist at the lower left side, left side, upper left side, upper side, right upper side, right side, or right side of the current block. The decoder 120 may acquire the motion information of the first reference pixel, the motion information of the second reference pixel, or the motion information of the third reference pixel based on the left, upper left, upper or right peripheral blocks. Hereinafter, the present invention will be described in detail with reference to FIG. 11.
도 11 는 일 실시예에 따라 차분 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.FIG. 11 illustrates an affine mode in which a differential motion vector is not received, according to an exemplary embodiment.
본 개시의 일 실시예에 따르면, 복호화부(120)는 미리 정해진 순서로 현재 블록(1100)의 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 우상측 주변 블록(1111)으로부터 우상측 주변 블록(1116) 또는 좌하측 주변 블록(1117)까지 지그재그(zigzag) 순서대로 주변 블록들(1111, 1112, 1113, 1114, 1115, 1116, 1117)이 어파인 모드인지 식별할 수 있다. 예를 들어, 복호화부(120)는 주변 블록(1111), 주변 블록(1112), 주변 블록(1113), 주변 블록(1114), 주변 블록(1115)의 순서로 어파인 모드인지 식별할 수 있다. 또한 복호화부(120)는 주변 블록(1111), 주변 블록(1113), 주변 블록(1112), 주변 블록(1115), 주변 블록(1114)의 순서로 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 블록들(1111, 1112, 1113, 1114, 1115, 1116, 1117) 중 어파인 모드로 식별된 최초 주변 블록에 기초하여 움직임 정보를 획득할 수 있다. 획득된 움직임 정보는 도 7의 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보 중 하나일 수 있다. 또한 획득된 움직임 정보에 기초하여 현재 블록(1100)에 포함된 픽셀의 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may identify whether neighboring blocks of the current block 1100 are in an affine mode in a predetermined order. The decoder 120 performs the neighboring blocks 1111, 1112, 1113, 1114, 1115, in a zigzag order from the upper right peripheral block 1111 to the upper right peripheral block 1116 or the lower left peripheral block 1117. It may be identified whether 1116 and 1117 are in affine mode. For example, the decoder 120 may identify the affine mode in the order of the neighboring block 1111, the neighboring block 1112, the neighboring block 1113, the neighboring block 1114, and the neighboring block 1115. . In addition, the decoder 120 may identify the affine mode in the order of the neighboring block 1111, the neighboring block 1113, the neighboring block 1112, the neighboring block 1115, and the neighboring block 1114. The decoder 120 may obtain motion information based on the first neighboring block identified in the affine mode among the neighboring blocks 1111, 1112, 1113, 1114, 1115, 1116, and 1117. The obtained motion information may be one of motion information of the first reference pixel and motion information of the third reference pixel of FIG. 7. In addition, the motion information of the pixel included in the current block 1100 may be obtained based on the obtained motion information.
본 개시의 일 실시예에 따르면, 복호화부(120)는 미리 정해진 순서로 현재 블록(1100)의 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 우상측 주변 블록(1111)으로부터 우하측 주변 블록(1116) 또는 좌하측 주변 블록(1117)까지 지그재그(zigzag) 순서대로 주변 블록들(1111, 1112, 1113, 1114, 1115, 1116, 1117)이 어파인 모드인지 식별할 수 있다. 예를 들어, 복호화부(120)는 주변 블록(1111), 주변 블록(1112), 주변 블록(1113), 주변 블록(1114), 주변 블록(1115)의 순서로 어파인 모드인지 식별할 수 있다. 또한 복호화부(120)는 주변 블록(1111), 주변 블록(1113), 주변 블록(1112), 주변 블록(1115), 주변 블록(1114)의 순서로 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 블록들(1111, 1112, 1113, 1114, 1115, 1116, 1117) 중 어파인 모드로 식별된 주변 블록에 기초하여 소정의 방식에 기초하여 움직임 정보를 획득할 수 있다. 예를 들어 어파인 모드로 식별된 주변 블록들의 움직임 정보의 평균, 중간값, 중앙값을 움직임 정보를 획득할 수 있다. 또한 복호화부(1200는 움직임 정보를 어파인 모드로 식별된 주변 블록들의 위치에 기초하여 획득된 소정의 위치의 움직임 정보로 결정할 수 있다. 또한 획득된 움직임 정보에 기초하여 현재 블록(1100)에 포함된 픽셀의 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may identify whether neighboring blocks of the current block 1100 are in an affine mode in a predetermined order. The decoder 120 performs the neighboring blocks 1111, 1112, 1113, 1114, 1115, in a zigzag order from the upper right peripheral block 1111 to the lower right peripheral block 1116 or the lower left peripheral block 1117. It may be identified whether 1116 and 1117 are in affine mode. For example, the decoder 120 may identify the affine mode in the order of the neighboring block 1111, the neighboring block 1112, the neighboring block 1113, the neighboring block 1114, and the neighboring block 1115. . In addition, the decoder 120 may identify the affine mode in the order of the neighboring block 1111, the neighboring block 1113, the neighboring block 1112, the neighboring block 1115, and the neighboring block 1114. The decoder 120 may obtain motion information based on a predetermined method based on the neighboring block identified in the affine mode among the neighboring blocks 1111, 1112, 1113, 1114, 1115, 1116, and 1117. For example, the motion information may be obtained from an average, a median, and a median value of motion information of neighboring blocks identified in the affine mode. In addition, the decoder 1200 may determine the motion information as the motion information of the predetermined position obtained based on the positions of the neighboring blocks identified in the affine mode, and also include the current information in the current block 1100 based on the obtained motion information. The motion information of the pixel may be obtained.
본 개시의 일 실시예에 따르면, 복호화부(120)는 미리 정해진 순서로 현재 블록(1100)의 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 미리 정해진 순서로 현재 블록(1120)의 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 우하측 주변 블록(1131)으로부터 좌상측 주변 블록(1133)까지 순서대로 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 블록(1131)부터 주변 블록(1132)까지 어파인 모드인지 식별할 수 있다. 또한, 복호화부(120)는 주변 블록(1132)부터 주변 블록(1133)까지 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 들록들(1131, 1132, 1133, 1134, 등) 중 어파인 모드로 식별된 주변 블록에 기초하여 움직임 정보를 획득할 수 있다. 획득된 움직임 정보는 도 7의 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보 중 하나일 수 있다. 또한 획득된 움직임 정보에 기초하여 현재 블록(1120)에 포함된 픽셀의 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may identify whether neighboring blocks of the current block 1100 are in an affine mode in a predetermined order. The decoder 120 may identify whether neighboring blocks of the current block 1120 are in an affine mode in a predetermined order. The decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the lower right neighboring block 1131 to the upper left neighboring block 1133. The decoder 120 may identify whether the neighboring block 1131 to the neighboring block 1132 is in an affine mode. In addition, the decoder 120 may identify whether the neighboring block 1132 to the neighboring block 1133 are in an affine mode. The decoder 120 may acquire the motion information based on the neighboring block identified in the affine mode among the neighboring blocks 1131, 1132, 1133, 1134, and the like. The obtained motion information may be one of motion information of the first reference pixel and motion information of the third reference pixel of FIG. 7. In addition, the motion information of the pixel included in the current block 1120 may be obtained based on the obtained motion information.
복호화부(120)는 우하측 주변 블록(1131)으로부터 좌하측 주변 블록(1134)까지 순서대로 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 블록(1131)부터 주변 블록(1132)까지 어파인 모드인지 식별할 수 있다. 또한, 복호화부(120)는 주변 블록(1132)부터 주변 블록(1133)까지 어파인 모드인지 식별할 수 있다. 또한, 복호화부(120)는 주변 블록(1133)부터 주변 블록(1134)까지 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 들록들 중 어파인 모드로 식별된 주변 블록에 기초하여 움직임 정보를 획득할 수 있다. 획득된 움직임 정보는 도 7의 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보 중 하나일 수 있다. 또한 복호화부(120)는 획득된 움직임 정보에 기초하여 현재 블록(1120)에 포함된 픽셀의 움직임 정보를 획득할 수 있다.The decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the lower right neighboring block 1131 to the lower left neighboring block 1134. The decoder 120 may identify whether the neighboring block 1131 to the neighboring block 1132 is in an affine mode. In addition, the decoder 120 may identify whether the neighboring block 1132 to the neighboring block 1133 are in an affine mode. In addition, the decoder 120 may identify whether the neighboring block 1133 to the neighboring block 1134 is in an affine mode. The decoder 120 may acquire motion information based on the neighboring block identified in the affine mode among the neighboring blocks. The obtained motion information may be one of motion information of the first reference pixel and motion information of the third reference pixel of FIG. 7. Also, the decoder 120 may obtain motion information of the pixel included in the current block 1120 based on the obtained motion information.
또한 복호화부(120)는 좌하측 주변 블록(1134)으로부터 우하측 주변 블록(1131)까지 순서대로 주변 블록들이 어파인 모드인지 식별할 수 있다. 복호화부(120)는 주변 블록(1134)부터 주변 블록(1133)까지 어파인 모드인지 식별할 수 있다. 또한, 복호화부(120)는 주변 블록(1133)부터 주변 블록(1132)까지 어파인 모드인지 식별할 수 있다. 또한, 복호화부(120)는 주변 블록(1132)부터 주변 블록(1131)까지 어파인 모드인지 식별할 수 있다. In addition, the decoder 120 may identify whether the neighboring blocks are in the affine mode in order from the lower left neighboring block 1134 to the lower right neighboring block 1131. The decoder 120 may identify whether the neighboring block 1134 to the neighboring block 1133 are in an affine mode. In addition, the decoder 120 may identify whether the neighboring block 1133 to the neighboring block 1132 is in an affine mode. In addition, the decoder 120 may identify whether the neighboring block 1132 to the neighboring block 1131 is in an affine mode.
복호화부(120)는 주변 들록들 중 어파인 모드로 식별된 주변 블록에 기초하여 움직임 정보를 획득할 수 있다. 예를 들어 복호화부(120)는 소정의 순서대로 어파인 모드인지 식별하여 적어도 1 개의 주변 블록들을 선택할 수 있다. 복호화부(120)는 선택된 적어도 1 개의 주변 블록들의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보, 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 예를 들어 복호화부(120)는 선택된 하나의 주변 블록 내의 서로 다른 위치의 픽셀에 대한 움직임 정보들을 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보로 획득할 수 있다. 또한 복호화부(120)는 선택된 두 개의 주변 블록 내의 서로 다른 위치의 픽셀에 대한 움직임 정보들을 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보로 획득할 수 있다. 또한 복호화부(120)는 선택된 3 개 주변 블록 내의 서로 다른 위치의 픽셀에 대한 움직임 정보들을 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보로 획득할 수 있다. 복호화부(120) 획득된 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록(1120)에 포함된 픽셀의 움직임 정보를 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 방법에 대해서는 도 13과 함께 자세히 설명한다.The decoder 120 may acquire motion information based on the neighboring block identified in the affine mode among the neighboring blocks. For example, the decoder 120 may select at least one neighboring block by identifying the affine mode in a predetermined order. The decoder 120 may acquire motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel based on the selected motion information of the at least one neighboring block. For example, the decoder 120 may obtain motion information about pixels at different positions in the selected neighboring block as motion information of the first reference pixel or motion information of the third reference pixel. Also, the decoder 120 may obtain motion information about pixels at different positions in the two selected neighboring blocks as motion information of the first reference pixel or motion information of the third reference pixel. Also, the decoder 120 may obtain motion information about pixels at different positions in the selected three neighboring blocks as motion information of the first reference pixel or motion information of the third reference pixel. The decoder 120 may acquire the motion information of the pixel included in the current block 1120 based on the obtained motion information of the first reference pixel or the motion information of the third reference pixel. A method of obtaining the motion information of the pixel included in the current block based on the motion information of the first reference pixel or the motion information of the third reference pixel will be described in detail with reference to FIG. 13.
도 12 은 다른 실시예에 따라 움직임 벡터를 수신하지 않는 어파인 모드를 설명하기 위한 도면이다.12 is a diagram for describing an affine mode in which a motion vector is not received, according to another embodiment.
복호화부(120)는 주변 블록들의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보는 움직임 벡터 일 수 있다. 복호화부(120)는 현재 블록(1200)의 좌상측 픽셀(1210), 우상측 픽셀(1220), 좌하측 픽셀(1230), 좌하측 픽셀(1240)의 위치 중 3개의 위치를 선택할 수 있다. 3개의 위치는 미리 정해진 위치일 수 있다. 하지만 이에 한정되는 것은 아니며, 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 3개의 위치를 선택할 수 있다. 이하에서는 복호화부(120)가 좌상측 픽셀(1210), 우상측 픽셀(1220), 좌하측 픽셀(1230), 좌하측 픽셀(1240)의 위치에 대한 움직임 정보를 획득하는 방법에 대하여 설명한다.The decoder 120 may acquire motion information of the first reference pixel or motion information of the third reference pixel based on the motion information of the neighboring blocks. The motion information of the first reference pixel and the motion information of the third reference pixel may be motion vectors. The decoder 120 may select three positions among the upper left pixel 1210, the upper right pixel 1220, the lower left pixel 1230, and the lower left pixel 1240 of the current block 1200. The three positions may be predetermined positions. However, the present invention is not limited thereto, and the decoder 120 may select three positions based on information obtained from the bitstream. Hereinafter, a description will be given of a method in which the decoder 120 acquires motion information about positions of an upper left pixel 1210, an upper right pixel 1220, a lower left pixel 1230, and a lower left pixel 1240.
복호화부(120)는 주변 블록들(1211, 1212, 1213)의 움직임 정보에 기초하여 좌상측 픽셀(1210)의 위치에 대응하는 움직임 정보를 획득할 수 있다. 주변 블록들(1211, 1212, 1213)은 현재 블록(1200)이전에 복원된 블록일 수 있다. The decoder 120 may acquire motion information corresponding to the position of the upper left pixel 1210 based on the motion information of the neighboring blocks 1211, 1212, and 1213. The neighboring blocks 1211, 1212, and 1213 may be blocks restored before the current block 1200.
본 개시의 일 실시예에 따라 복호화부(120)는 부호화 장치(1500)로부터 수신한 비트스트림으로부터 획득된 정보에 기초하여 주변 블록들(1211, 1212, 1213) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 선택된 블록의 움직임 정보에 기초하여 좌상측 픽셀(1210)의 위치에 대응하는 움직임 정보를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may select one of the neighboring blocks 1211, 1212, and 1213 based on information obtained from the bitstream received from the encoding apparatus 1500. The decoder 120 may acquire motion information corresponding to the position of the upper left pixel 1210 based on the motion information of the selected block.
본 개시의 다른 실시예에 따라 복호화부(120)는 소정의 순서로 주변 블록들(1211, 1212, 1213)의 움직임 정보가 이용가능한지 판단할 수 있다. 예를 들어 복호화부(120)는 좌상측 주변 블록(1211), 좌하측 주변 블록(1213), 우상측 주변 블록(1212)의 순서로 움직임 정보가 이용가능한지 판단할 수 있다. 다만 이에 한정되는 것은 아니며 다양한 순서가 사용될 수 있다. 복호화부(120)는 이용가능한 첫 번째 움직임 정보에 기초하여 좌상측 픽셀(1210)의 위치에 대응하는 움직임 정보를 획득할 수 있다.According to another exemplary embodiment of the present disclosure, the decoder 120 may determine whether motion information of the neighboring blocks 1211, 1212, and 1213 is available in a predetermined order. For example, the decoder 120 may determine whether motion information is available in the order of the upper left peripheral block 1211, the lower left peripheral block 1213, and the upper right peripheral block 1212. However, the present invention is not limited thereto, and various orders may be used. The decoder 120 may acquire motion information corresponding to the position of the upper left pixel 1210 based on the first available motion information.
본 개시의 다른 실시예에 따라 복호화부(120)는 주변 블록들(1211, 1212, 1213)의 움직임 정보의 평균에 기초하여 좌상측 픽셀(1210)의 위치에 대응하는 움직임 정보를 획득할 수 있다.According to another exemplary embodiment of the present disclosure, the decoder 120 may acquire motion information corresponding to the position of the upper left pixel 1210 based on the average of the motion information of the neighboring blocks 1211, 1212, and 1213. .
복호화부(120)는 주변 블록들(1221, 1222, 1223)의 움직임 정보에 기초하여 우상측 픽셀(1220)의 위치에 대응하는 움직임 정보를 획득할 수 있다. 주변 블록들(1221, 1222, 1223)은 현재 블록(1200)이전에 복원된 블록일 수 있다. The decoder 120 may acquire motion information corresponding to the position of the upper right pixel 1220 based on the motion information of the neighboring blocks 1221, 1222, and 1223. The neighboring blocks 1221, 1222, and 1223 may be blocks restored before the current block 1200.
본 개시의 일 실시예에 따라 복호화부(120)는 부호화 장치(1500)로부터 수신한 비트스트림으로부터 획득된 정보에 기초하여 주변 블록들(1221, 1222, 1223) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 선택된 블록의 움직임 정보에 기초하여 우상측 픽셀(1220)의 위치에 대응하는 움직임 정보를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may select one of the neighbor blocks 1221, 1222, and 1223 based on information obtained from the bitstream received from the encoding apparatus 1500. The decoder 120 may acquire motion information corresponding to the position of the upper right pixel 1220 based on the motion information of the selected block.
본 개시의 일 실시예에 따라 복호화부(120)는 소정의 순서로 주변 블록들(1221, 1222, 1223)의 움직임 정보가 이용가능한지 판단할 수 있다. 예를 들어 복호화부(120)는 우하측 주변 블록(1223), 우상측 주변 블록(1222), 좌상측 주변 블록(1221)의 순서로 움직임 정보가 이용가능한지 판단할 수 있다. 복호화부(120)는 이용가능한 첫 번째 움직임 정보에 기초하여 우상측 픽셀(1220)의 위치에 대응하는 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may determine whether motion information of the neighboring blocks 1221, 1222, and 1223 is available in a predetermined order. For example, the decoder 120 may determine whether motion information is available in the order of the lower right peripheral block 1223, the upper right peripheral block 1222, and the upper left peripheral block 1221. The decoder 120 may acquire motion information corresponding to the position of the upper right pixel 1220 based on the first motion information available.
본 개시의 일 실시예에 따라 복호화부(120)는 주변 블록들(1221, 1222, 1223)의 움직임 정보의 평균에 기초하여 우상측 픽셀(1220)의 위치에 대응하는 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain motion information corresponding to the position of the upper right pixel 1220 based on the average of the motion information of the neighboring blocks 1221, 1222, and 1223. .
복호화부(120)는 주변 블록들(1231, 1232)의 움직임 정보에 기초하여 좌하측 픽셀(1230)의 위치에 대응하는 움직임 정보를 획득할 수 있다. 주변 블록들(1231, 1232)은 현재 블록(1200)이전에 복원된 블록일 수 있다. The decoder 120 may acquire motion information corresponding to the position of the lower left pixel 1230 based on the motion information of the neighboring blocks 1231 and 1232. The neighboring blocks 1231 and 1232 may be blocks restored before the current block 1200.
본 개시의 일 실시예에 따라 복호화부(120)는 부호화 장치(1500)로부터 수신한 비트스트림으로부터 획득된 정보에 기초하여 주변 블록들(1231, 1232) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 선택된 블록의 움직임 정보에 기초하여 좌하측 픽셀(1230)의 위치에 대응하는 움직임 정보를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may select one of the neighboring blocks 1231 and 1232 based on information obtained from the bitstream received from the encoding apparatus 1500. The decoder 120 may acquire motion information corresponding to the position of the lower left pixel 1230 based on the motion information of the selected block.
본 개시의 일 실시예에 따라 복호화부(120)는 소정의 순서로 주변 블록들(1231, 1232)의 움직임 정보가 이용가능한지 판단할 수 있다. 예를 들어 복호화부(120)는 좌하측 주변 블록(1232), 좌상측 주변 블록(1231) 의 순서로 움직임 정보가 이용가능한지 판단할 수 있다. 복호화부(120)는 이용가능한 첫 번째 움직임 정보에 기초하여 좌하측 픽셀(1230)의 위치에 대응하는 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may determine whether motion information of the neighboring blocks 1231 and 1232 is available in a predetermined order. For example, the decoder 120 may determine whether motion information is available in the order of the lower left peripheral block 1232 and the upper left peripheral block 1231. The decoder 120 may acquire motion information corresponding to the position of the lower left pixel 1230 based on the first available motion information.
본 개시의 일 실시예에 따라 복호화부(120)는 주변 블록들(1231, 1232)의 움직임 정보의 평균에 기초하여 좌하측 픽셀(1230)의 위치에 대응하는 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain motion information corresponding to the position of the lower left pixel 1230 based on the average of the motion information of the neighboring blocks 1231 and 1232.
복호화부(120)는 주변 블록들(1241, 1242)의 움직임 정보에 기초하여 우하측 픽셀(1240)의 위치에 대응하는 움직임 정보를 획득할 수 있다. 주변 블록들(1241, 1242)은 현재 블록(1200)이전에 복원된 블록일 수 있다. The decoder 120 may acquire motion information corresponding to the position of the lower right pixel 1240 based on the motion information of the neighboring blocks 1241 and 1242. The neighboring blocks 1241 and 1242 may be blocks restored before the current block 1200.
본 개시의 일 실시예에 따라 복호화부(120)는 부호화 장치(1500)로부터 수신한 비트스트림으로부터 획득된 정보에 기초하여 주변 블록들(1241, 1242) 중 하나의 블록을 선택할 수 있다. 복호화부(120)는 선택된 블록의 움직임 정보에 기초하여 우하측 픽셀(1240)의 위치에 대응하는 움직임 정보를 획득할 수 있다. According to an embodiment of the present disclosure, the decoder 120 may select one of the neighboring blocks 1241 and 1242 based on information obtained from the bitstream received from the encoding apparatus 1500. The decoder 120 may acquire motion information corresponding to the position of the lower right pixel 1240 based on the motion information of the selected block.
본 개시의 일 실시예에 따라 복호화부(120)는 소정의 순서로 주변 블록들(1241, 1242)의 움직임 정보가 이용가능한지 판단할 수 있다. 예를 들어 복호화부(120)는 우하측 주변 블록(1242), 우상측 주변 블록(1241) 의 순서로 움직임 정보가 이용가능한지 판단할 수 있다. 복호화부(120)는 이용가능한 첫 번째 움직임 정보에 기초하여 우하측 픽셀(1240)의 위치에 대응하는 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may determine whether motion information of the neighboring blocks 1241 and 1242 is available in a predetermined order. For example, the decoder 120 may determine whether motion information is available in the order of the lower right peripheral block 1242 and the upper right peripheral block 1241. The decoder 120 may acquire motion information corresponding to the position of the lower right pixel 1240 based on the first available motion information.
본 개시의 일 실시예에 따라 복호화부(120)는 주변 블록들(1241, 1242)의 움직임 정보의 평균에 기초하여 우하측 픽셀(1240)의 위치에 대응하는 움직임 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the decoder 120 may obtain motion information corresponding to the position of the lower right pixel 1240 based on the average of the motion information of the neighboring blocks 1241 and 1242.
이하에서는 복호화부(120)가 주변 블록들에 기초하여 현재 블록(1200)의 좌상측 픽셀(1210)의 움직임 정보, 우상측 픽셀(1220)의 움직임 정보 및 좌하측 픽셀(1230)의 움직임 정보를 획득하는 방법을 설명한다.Hereinafter, the decoder 120 may determine the motion information of the upper left pixel 1210 of the current block 1200, the motion information of the right upper pixel 1220, and the motion information of the lower left pixel 1230 based on the neighboring blocks. Describe how to obtain.
복호화부(120)는 현재 블록(1200)의 좌상측 픽셀(1210)에 인접한 주변 블록들(1211, 1212, 1213) 중 적어도 하나의 블록의 움직임 정보에 기초하여, 현재 블록(1200)의 좌상측 픽셀(1210)의 움직임 정보인, 제 1 기준 픽셀의 움직임 정보를 획득할 수 있다. 적어도 하나의 움직임 정보는 주변 블록에 포함된 제 1 위치의 움직임 정보에 기초하여 획득될 수 있다.The decoder 120 may determine an upper left side of the current block 1200 based on the motion information of at least one of the neighboring blocks 1211, 1212, and 1213 adjacent to the upper left pixel 1210 of the current block 1200. The motion information of the first reference pixel, which is the motion information of the pixel 1210, may be obtained. The at least one motion information may be obtained based on the motion information of the first position included in the neighboring block.
복호화부(120) 현재 블록(1200)의 우상측 픽셀(1220)에 인접한 주변 블록들(1221, 1222, 1223) 중 적어도 하나의 움직임 정보에 기초하여, 현재 블록(1200)의 우상측 픽셀(1220)의 움직임 정보인, 제 2 기준 픽셀의 움직임 정보를 획득할 수 있다. 적어도 하나의 움직임 정보는 주변 블록에 포함된 제 2 위치의 움직임 정보에 기초하여 획득될 수 있다. Decoder 120 The upper right pixel 1220 of the current block 1200 is based on the motion information of at least one of the neighboring blocks 1221, 1222, 1223 adjacent to the upper right pixel 1220 of the current block 1200. Motion information of the second reference pixel may be obtained. The at least one motion information may be obtained based on the motion information of the second position included in the neighboring block.
복호화부(120)는 현재 블록(1200)의 좌하측 픽셀(1230)에 인접한 주변 블록들(1231, 1232) 중 적어도 하나의 움직임 정보에 기초하여, 현재 블록(1200)의 좌하측 픽셀(1230)의 움직임 정보인, 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 적어도 하나의 움직임 정보는 주변 블록에 포함된 제 3 위치의 움직임 정보에 기초하여 획득될 수 있다.The decoder 120 determines the lower left pixel 1230 of the current block 1200 based on the motion information of at least one of the neighboring blocks 1231 and 1232 adjacent to the lower left pixel 1230 of the current block 1200. The motion information of the third reference pixel, which is motion information of, may be obtained. The at least one motion information may be obtained based on the motion information of the third position included in the neighboring block.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록(1200)에 포함된 픽셀의 움직임 정보를 획득할 수 있다. 이에 대해서는 도 13과 함께 설명한다.The decoder 120 may acquire motion information of the pixel included in the current block 1200 based on the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. This will be described with reference to FIG. 13.
도 13 은 본 개시의 일 실시예에 따라 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 방법을 설명하기 위한 도면이다.FIG. 13 is a diagram for describing a method of obtaining motion information of a pixel included in a current block according to one embodiment of the present disclosure.
복호화부(120)는 도 7 내지 도 12에 따라 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 예를 들어, 제 1 기준 픽셀의 움직임 정보는 위치(1310)의 움직임 정보일 수 있다. 제 2 기준 픽셀의 움직임 정보는 위치(1320)의 움직임 정보일 수 있다. 제 3 기준 픽셀의 움직임 정보는 위치(1330)의 움직임 정보일 수 있다. 움직임 정보는 움직임 벡터일 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록(1300)에 포함된 픽셀의 움직임 정보를 획득할 수 있다.The decoder 120 may obtain motion information of the first reference pixel, motion information of the second reference pixel, and motion information of the third reference pixel according to FIGS. 7 to 12. For example, the motion information of the first reference pixel may be motion information of the position 1310. The motion information of the second reference pixel may be motion information of the location 1320. The motion information of the third reference pixel may be motion information of the location 1330. The motion information may be a motion vector. The decoder 120 may acquire the motion information of the pixel included in the current block 1300 based on the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel.
복호화부(120)는 y 축과 관련된 움직임 정보의 단위 변화량 및 x 축과 관련된 움직임 정보의 단위 변화량을 획득할 수 있다. y 축과 관련된 움직임 정보의 단위 변화량은 수식 10과 같을 수 있다. The decoder 120 may acquire a unit change amount of the motion information related to the y axis and a unit change amount of the motion information related to the x axis. The unit change amount of the motion information associated with the y axis may be equal to Equation 10.
[수식 10]Equation 10
dy= {(mP1 - wP2)-(mP0 - wP0)}/(mn-wh)dy = {(mP1-wP2)-(mP0-wP0)} / (mn-wh)
여기서 dy는 y 축과 관련된 움직임 정보의 단위 변화량이다. m은 위치(1310)와 위치(1330)의 x 좌표의 차(difference)이다. w는 위치(1310)와 위치(1320)의 x 좌표의 차이다. n은 위치(1310)와 위치(1320)의 y 좌표의 차(difference)이다. h는 위치(1310)와 위치(1330)의 y 좌표의 차이다. P0는 제 1 기준 픽셀의 움직임 정보다. P1은 제 2 기준 픽셀의 움직임 정보다. P2 는 제 3 기준 픽셀의 움직임 정보다.Here, dy is the unit change amount of the motion information associated with the y axis. m is the difference between the x coordinate of position 1310 and position 1330. w is the difference between the x coordinate of position 1310 and position 1320. n is the difference between the y coordinate of the position 1310 and the position 1320. h is the difference between the y coordinate of position 1310 and position 1330. P0 is motion information of the first reference pixel. P1 is motion information of the second reference pixel. P2 is motion information of the third reference pixel.
x 축과 관련된 움직임 정보의 단위 변화량은 수식 11와 같을 수 있다. The unit change amount of the motion information associated with the x axis may be equal to Equation 11.
[수식 11][Equation 11]
dx= {(hP1 - nP2)-(hP0 - nP0)}/(hw- mn)dx = {(hP1-nP2)-(hP0-nP0)} / (hw-mn)
여기서 dx는 x 축과 관련된 움직임 정보의 단위 변화량이다. m은 위치(1310)와 위치(1330)의 x 좌표의 차(difference)이다. w는 위치(1310)와 위치(1320)의 x 좌표의 차이다. n은 위치(1310)와 위치(1320)의 y 좌표의 차(difference)이다. h는 위치(1310)와 위치(1330)의 y 좌표의 차이다. P0는 제 1 기준 픽셀의 움직임 정보다. P1은 제 2 기준 픽셀의 움직임 정보다. P2 는 제 3 기준 픽셀의 움직임 정보다.Here, dx is a unit change amount of the motion information associated with the x axis. m is the difference between the x coordinate of position 1310 and position 1330. w is the difference between the x coordinate of position 1310 and position 1320. n is the difference between the y coordinate of the position 1310 and the position 1320. h is the difference between the y coordinate of position 1310 and position 1330. P0 is motion information of the first reference pixel. P1 is motion information of the second reference pixel. P2 is motion information of the third reference pixel.
복호화부(120)는 y 축과 관련된 움직임 정보의 단위 변화량 및 x 축과 관련된 움직임 정보의 단위 변화량에 기초하여 현재 블록(1300)에 포함된 픽셀의 움직임 정보를 획득할 수 있다. 현재 블록(1300)에 포함된 픽셀의 움직임 정보는 수식 10과 같을 수 있다.The decoder 120 may acquire the motion information of the pixel included in the current block 1300 based on the unit change amount of the motion information related to the y axis and the unit change amount of the motion information related to the x axis. The motion information of the pixel included in the current block 1300 may be the same as Equation 10.
[수식 10]Equation 10
Pa = P0 + idx +jdyPa = P0 + idx + jdy
여기서 P0는 제 1 기준 픽셀의 움직임 정보다. i는 위치(1310)와 픽셀의 위치(1340)의 x 좌표의 차이다. j는 위치(1310)와 픽셀의 위치(1340)의 y 좌표의 차이다. dx는 x 축과 관련된 움직임 정보의 단위 변화량이다. dy는 y 축과 관련된 움직임 정보의 단위 변화량이다. Pa는 현재 블록(1300)의 임의의 위치(1340)의 픽셀의 움직임 정보이다.Here, P0 is motion information of the first reference pixel. i is the difference between the x coordinate of position 1310 and position 1340 of the pixel. j is the difference between the y coordinate of the position 1310 and the position 1340 of the pixel. dx is a unit change amount of the motion information associated with the x axis. dy is the unit change amount of the motion information associated with the y axis. Pa is motion information of a pixel at an arbitrary position 1340 of the current block 1300.
복호화부(120)는 현재 블록(1300)의 픽셀의 움직임 정보에 기초하여 현재 블록(1300)을 인터 예측할 수 있다. 또한 복호화부(120)는 예측된 현재 블록(1300)에 기초하여 현재 블록(1300)을 복원할 수 있다.The decoder 120 may inter predict the current block 1300 based on the motion information of the pixels of the current block 1300. Also, the decoder 120 may restore the current block 1300 based on the predicted current block 1300.
도 14는 일 실시예에 따라 인터 예측을 하기 위한 흐름도이다.14 is a flowchart for inter prediction according to an embodiment.
복호화부(120)는 인터 예측 모드(1400)로 현재 블록을 예측할 것을 결정할 수 있다. 단계(1410)에서 복호화부(120)는 차분 움직임 벡터를 수신할지 여부를 나타내는 플래그를 비트스트림으로부터 획득할 수 있다. 복호화부(120)는 차분 움직임 벡터를 수신할지 여부를 나타내는 플래그에 기초하여 차분 움직임 벡터를 수신할지 또는 수신하지 않을지를 결정할 수 있다. The decoder 120 may determine to predict the current block in the inter prediction mode 1400. In operation 1410, the decoder 120 may obtain a flag indicating whether to receive a differential motion vector from the bitstream. The decoder 120 may determine whether or not to receive the differential motion vector based on a flag indicating whether to receive the differential motion vector.
차분 움직임 벡터를 수신할지 여부를 나타내는 플래그가 차분 움직임 벡터를 수신함을 나타내는 경우, 단계(1451)에서 복호화부(120)는 현재 블록이 조건 1 을 만족하는지 여부를 결정할 수 있다. 조건 1 은 현재 블록의 크기가 임계크기보다 큰지 여부일 수 있다. 복호화부(120)는 현재 블록의 너비의 길이 또는 높이의 길이가 임계 길이보다 큰지 여부를 결정할 수 있다. 예를 들어 복호화부(120)는 현재 블록의 너비의 길이가 16보다 크거나 같은지 여부를 결정할 수 있다. 복호화부(120)는 현재 블록의 높이의 길이가 16보다 크거나 같은지 여부를 결정할 수 있다 또한 복호화부(120)는 현재 블록의 넓이가 임계 넓이보다 큰지 여부를 결정할 수 있다. 현재 블록의 넓이는 현재 블록의 너비와과 높이의 곱으로 나타낼 수 있다. 예를 들어 복호화부(120)는 현재 블록의 넓이가 64보다 큰지 여부를 결정할 수 있다.If the flag indicating whether to receive the differential motion vector indicates that the differential motion vector is received, the decoder 120 may determine whether the current block satisfies condition 1 in operation 1451. Condition 1 may be whether the size of the current block is greater than the threshold size. The decoder 120 may determine whether the length or the length of the width of the current block is greater than the threshold length. For example, the decoder 120 may determine whether the width of the current block is greater than or equal to 16. The decoder 120 may determine whether the height of the current block is greater than or equal to 16. In addition, the decoder 120 may determine whether the width of the current block is greater than the threshold width. The width of the current block can be expressed as the product of the width and height of the current block. For example, the decoder 120 may determine whether the width of the current block is greater than 64.
현재 블록의 크기가 임계크기보다 큰 경우, 단계(1452)에서 복호화부(120)는 비트스트림으로부터 어파인 모드(affine mode)에 대한 정보를 획득할 수 있다. 복호화부(120)는 어파인 모드에 대한 정보에 기초하여 어파인 모드로 현재 블록을 예측할지 여부를 결정할 수 있다.If the size of the current block is larger than the threshold size, in operation 1452, the decoder 120 may obtain information about an affine mode from the bitstream. The decoder 120 may determine whether to predict the current block in the affine mode based on the information on the affine mode.
도 14는 단계(1451) 및 단계(1452)를 모두 수행하는 것을 도시했으나, 이에 한정되는 것은 아니다. 복호화부(120)는 단계(1451) 또는 단계(1452) 중 어느하나만 수행하여 어파인 모드로 현재 블록을 예측할지 여부를 결정할 수 있다.14 illustrates performing both steps 1451 and 1452, but is not limited thereto. The decoder 120 may perform only one of the operations 1451 and 1452 to determine whether to predict the current block in the affine mode.
현재 블록이 조건 1을 만족하지 못했거나, 어파인 모드에 대한 정보가 어파인 모드를 수행하지 않을 것을 나타내는 경우, 단계(1460)에서 복호화부(120)는 기존의 인터 예측모드를 수행할 수 있다. 기존의 인터 예측 모드는 HEVC (High Efficiency Video Coding) 또는 H.264과 관련된 기술일 수 있다. 복호화부(120)는 기존의 인터 예측모드 중 차분 움직임 벡터를 수신하는 예측 모드를 수행할 수 있다. 예를 들어 기존의 인터 예측 모드는 HEVC의 Advenced Motion Vector Prediction와 유사할 수 있다. If the current block does not satisfy the condition 1 or if the information on the affine mode indicates that the affine mode is not performed, the decoder 120 may perform an existing inter prediction mode in step 1460. . The existing inter prediction mode may be a technique related to high efficiency video coding (HEVC) or H.264. The decoder 120 may perform a prediction mode for receiving a differential motion vector among the existing inter prediction modes. For example, the existing inter prediction mode may be similar to the advanced motion vector prediction of HEVC.
어파인 모드에 대한 정보가 어파인 모드를 수행함을 나타내는 경우, 단계(1471)에서 복호화부(120)는 비트스트림으로부터 움직임 타입에 관한 정보를 획득할 수 있다. 움직임 타입에 관한 정보가 줌을 나타내는 경우, 단계(1472)에서 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 3개의 방향 움직임 성분을 획득할 수 있다. 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 복호화부(120)는 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분이 제 2 기준 픽셀의 움직임 정보의 x 방향 움직임 성분임을 결정할 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분에 기초하여, 제 2 기준 픽셀의 움직임 정보의 제 2 방향 움직임 성분 및 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다.  When the information about the affine mode indicates that the affine mode is performed, the decoder 120 may obtain information about a motion type from the bitstream in step 1471. When the information about the motion type indicates zooming, in operation 1472, the decoder 120 may acquire three directional motion components based on the information obtained from the bitstream. The decoder 120 may acquire the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel based on the information obtained from the bitstream. The motion information of the first reference pixel may include an x direction motion component and a y direction motion component. The decoder 120 may determine that the first direction motion component of the motion information of the second reference pixel is the x direction motion component of the motion information of the second reference pixel. The decoder 120 may determine the second directional motion component of the motion information of the second reference pixel and the third reference pixel based on the motion information of the first reference pixel and the first direction motion component of the motion information of the second reference pixel. The motion information can be obtained.
비트스트림으로부터 획득된 정보에 기초하여 획득된 3개의 방향 움직임 성분을 이용하여 현재 블록의 움직임 벡터를 예측하는 경우, 최소한의 정보로 현재 블록에 포함된 픽셀들의 움직임 벡터를 예측할 수 있으므로 비트스트림의 효율성을 높일 수 있다. 또한 줌 또는 회전에 대응할 수 있으므로 현재 블록을 정확하게 예측할 수 있다.When predicting the motion vector of the current block by using three directional motion components obtained based on the information obtained from the bitstream, the efficiency of the bitstream can be predicted because the motion vector of the pixels included in the current block can be predicted with minimal information. Can increase. It can also correspond to zooming or rotation, allowing accurate prediction of the current block.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보, 제2 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록에 포함된 픽셀의 움직임 정보를 예측할 수 있다. 복호화부(120)는 픽셀의 움직임 정보에 기초하여 현재 블록을 예측할 수 있다. 움직임 타입이 줌인 경우에 대해서는 도 3 내지 도 6과 함께 자세히 설명하였으므로 중복되는 설명은 생략한다.The decoder 120 may predict the motion information of the pixel included in the current block based on the motion information of the first reference pixel, the second motion information, and the motion information of the third reference pixel. The decoder 120 may predict the current block based on the motion information of the pixel. The case in which the motion type is zoom has been described in detail with reference to FIGS. 3 to 6, and thus redundant description thereof will be omitted.
움직임 타입에 관한 정보가 회전을 나타내는 경우, 단계(1473)에서 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 3개의 방향 움직임 성분을 획득할 수 있다. 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 복호화부(120)는 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분이 제 2 기준 픽셀의 움직임 정보의 y 방향 움직임 성분임을 결정할 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분에 기초하여, 제 2 기준 픽셀의 움직임 정보의 제 2 방향 움직임 성분 및 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. If the information about the motion type indicates rotation, in operation 1473, the decoder 120 may obtain three directional motion components based on the information obtained from the bitstream. The decoder 120 may acquire the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel based on the information obtained from the bitstream. The motion information of the first reference pixel may include an x direction motion component and a y direction motion component. The decoder 120 may determine that the first direction motion component of the motion information of the second reference pixel is the y direction motion component of the motion information of the second reference pixel. The decoder 120 may determine the second directional motion component of the motion information of the second reference pixel and the third reference pixel based on the motion information of the first reference pixel and the first direction motion component of the motion information of the second reference pixel. The motion information can be obtained.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보, 제2 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록에 포함된 픽셀의 움직임 정보를 예측할 수 있다. 복호화부(120)는 픽셀의 움직임 정보에 기초하여 현재 블록을 예측할 수 있다. 움직임 타입이 회전인 경우에 대해서는 도 3 내지 도 6과 함께 자세히 설명하였으므로 중복되는 설명은 생략한다.The decoder 120 may predict the motion information of the pixel included in the current block based on the motion information of the first reference pixel, the second motion information, and the motion information of the third reference pixel. The decoder 120 may predict the current block based on the motion information of the pixel. The case in which the movement type is rotation has been described in detail with reference to FIGS. 3 to 6, and thus redundant description thereof will be omitted.
움직임 타입이 줌과 회전을 동시에 나타내는 타입인 경우, 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 4개의 방향 움직임 성분을 획득할 수 있다. 즉, 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 제 2 기준 픽셀의 움직임 정보는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다.When the motion type is a type representing zoom and rotation at the same time, the decoder 120 may obtain four directional motion components based on information obtained from the bitstream. That is, the decoder 120 may obtain motion information of the first reference pixel and motion information of the second reference pixel based on the information obtained from the bitstream. The motion information of the first reference pixel may include an x direction motion component and a y direction motion component. The motion information of the second reference pixel may include an x direction motion component and a y direction motion component. The decoder 120 may obtain motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel.
복호화부(120)는 움직임 타입과 다른 별도의 플래그를 비트스트림으로부터 획득할 수 있다. 복호화부(120)는 플래그에 기초하여 3개의 방향 움직임 성분을 획득하거나, 4개의 방향 움직임 성분을 획득할 것을 결정할 수 있다. 플래그가 3 개의 방향 움직임 성분을 획득함을 나타내는 경우, 복호화부(120)는 움직임 타입에 관한 정보를 수신할 수 있다. 플래그가 4개의 방향 움직임 성분을 획득함을 나타내는 경우, 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 제 1 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분 및 y 방향 움직임 성분 및 제 2 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분 및 y 방향 움직임 성분을 획득할 수 있다. The decoder 120 may obtain a separate flag different from the motion type from the bitstream. The decoder 120 may determine to acquire three direction motion components or four direction motion components based on the flag. When the flag indicates that the three direction motion components are obtained, the decoder 120 may receive information about the motion type. When the flag indicates that the four direction motion components are obtained, the decoder 120 may determine the x direction motion component and the y direction motion component and the first direction motion component included in the motion information of the first reference pixel based on the information obtained from the bitstream. The x-direction motion component and the y-direction motion component included in the motion information of the two reference pixels may be obtained.
어파인 모드에 대한 정보가 어파인 모드를 수행함을 나타내는 경우, 복호화부(120)는 비트스트림으로부터 움직임 타입에 관한 정보를 획득하지 않을 수 있다. 복호화부(120)는 움직임 타입에 관한 정보 없이 비트스트림으로부터 획득된 정보에 기초하여 4개의 방향 움직임 성분을 획득할 수 있다. 즉, 복호화부(120)는 비트스트림으로부터 획득된 정보에 기초하여 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보를 획득할 수 있다. 제 1 기준 픽셀의 움직임 정보는 x 방향 움직임 성분 및 y 방향 움직임 성분을 포함할 수 있다. 복호화부(120)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 복호화부(120)는 움직임 타입에 관한 정보를 수신하지 않으므로 비트스트림의 효율성을 높일 수 있다. 또한 복호화부(120)는 4 개의 방향 움직임 성분을 이용하여 줌 및 회전에 모두 대응할 수 있다.When the information about the affine mode indicates that the affine mode is performed, the decoder 120 may not obtain information about a motion type from the bitstream. The decoder 120 may obtain four directional motion components based on information obtained from the bitstream without information on the motion type. That is, the decoder 120 may obtain motion information of the first reference pixel and motion information of the second reference pixel based on the information obtained from the bitstream. The motion information of the first reference pixel may include an x direction motion component and a y direction motion component. The decoder 120 may obtain motion information of the third reference pixel based on the motion information of the first reference pixel and the motion information of the second reference pixel. Since the decoder 120 does not receive the information on the motion type, the efficiency of the bitstream may be increased. In addition, the decoder 120 may correspond to both zoom and rotation using four directional motion components.
복호화부(120)는 제 1 기준 픽셀의 움직임 정보, 제2 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록에 포함된 픽셀의 움직임 정보를 예측할 수 있다. 복호화부(120)는 픽셀의 움직임 정보에 기초하여 현재 블록을 예측할 수 있다. The decoder 120 may predict the motion information of the pixel included in the current block based on the motion information of the first reference pixel, the second motion information, and the motion information of the third reference pixel. The decoder 120 may predict the current block based on the motion information of the pixel.
차분 움직임 벡터를 수신할지 여부를 나타내는 플래그가 차분 움직임 벡터를 수신함을 나타내는 경우, 단계(1421)에서 복호화부(120)는 현재 블록이 조건 2 를 만족하는지 여부를 결정할 수 있다. 조건 2 는 현재 블록의 크기가 임계크기보다 크거나, 주변 블록들 중 적어도 하나가 어파인 모드인지 여부일 수 있다. 예를 들어 복호화부(120)는 현재 블록의 너비의 길이가 16보다 크거나 같은지 여부를 결정할 수 있다. 복호화부(120)는 현재 블록의 높이의 길이가 16보다 크거나 같은지 여부를 결정할 수 있다 또한 복호화부(120)는 현재 블록의 넓이가 임계 넓이보다 큰지 여부를 결정할 수 있다. 현재 블록의 넓이는 현재 블록의 너비와과 높이의 곱으로 나타낼 수 있다. 예를 들어 복호화부(120)는 현재 블록의 넓이가 64보다 큰지 여부를 결정할 수 있다.If the flag indicating whether to receive the differential motion vector indicates that the differential motion vector is received, the decoder 120 may determine whether the current block satisfies condition 2 in operation 1421. Condition 2 may be whether the size of the current block is greater than the threshold size, or at least one of the neighboring blocks is in the affine mode. For example, the decoder 120 may determine whether the width of the current block is greater than or equal to 16. The decoder 120 may determine whether the height of the current block is greater than or equal to 16. In addition, the decoder 120 may determine whether the width of the current block is greater than the threshold width. The width of the current block can be expressed as the product of the width and height of the current block. For example, the decoder 120 may determine whether the width of the current block is greater than 64.
복호화부(120)는 현재 블록의 주변 블록 중 적어도 하나가 어파인 모드인지 여부를 판단할 수 있다. 주변 블록은 현재 블록의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측 및 우하측 블록일 수 있다. 복호화부(120)는 소정의 순서로 주변 블록이 어파인 모드인지 여부를 판단할 수 있다. 소정의 순서에 대해서는 도 8 내지 도11과 함께 설명하였으므로 중복되는 설명은 생략한다.The decoder 120 may determine whether at least one of the neighboring blocks of the current block is in the affine mode. The neighboring blocks may be lower left, left, upper left, upper, right upper, right and lower right blocks of the current block. The decoder 120 may determine whether neighboring blocks are in an affine mode in a predetermined order. Since the predetermined order has been described with reference to FIGS. 8 to 11, overlapping descriptions are omitted.
현재 블록의 크기가 임계크기보다 크다는 조건과 주변 블록 중 적어도 하나가 어파인 모드라는 조건은 둘 중 하나만 만족해야 할 수도 있고, 둘 모두 만족해야할 수 있다. The condition that the size of the current block is larger than the threshold size and the condition that at least one of the neighboring blocks is an affine mode may satisfy only one of the two or both.
현재 블록이 조건 2 를 만족하는 경우, 단계(1422)에서 복호화부(120)는 수신된 비트스트림으로부터 어파인 모드에 대한 정보를 획득할 수 있다. 복호화부(120)는 어파인 모드에 대한 정보에 기초하여 어파인 모드로 현재 블록을 예측할지 여부를 결정할 수 있다.If the current block satisfies condition 2, in operation 1422, the decoder 120 may obtain information about the affine mode from the received bitstream. The decoder 120 may determine whether to predict the current block in the affine mode based on the information on the affine mode.
도 14는 단계(1421) 및 단계(1422)를 모두 수행하는 것을 도시했으나, 이에 한정되는 것은 아니다. 복호화부(120)는 단계(1421) 또는 단계(1422) 중 어느하나만 수행하여 어파인 모드로 현재 블록을 예측할지 여부를 결정할 수 있다.FIG. 14 illustrates performing steps 1421 and 1422, but is not limited thereto. The decoder 120 may determine whether to predict the current block in the affine mode by performing only one of the steps 1421 or 1422.
현재 블록이 조건 1을 만족하지 못했거나, 어파인 모드에 대한 정보가 어파인 모드를 수행하지 않을 것을 나타내는 경우, 단계(1430)에서 복호화부(120)는 기존의 인터 예측모드를 수행할 수 있다. 기존의 인터 예측 모드는 HEVC (High Efficiency Video Coding) 또는 H.264과 관련된 기술일 수 있다. 복호화부(120)는 기존의 인터 예측모드 중 차분 움직임 벡터를 수신하지 않는 예측 모드를 수행할 수 있다. 예를 들어 기존의 인터 예측 모드는 HEVC의 머지(Merge) 모드 또는 스킵(Skip)모드와 유사할 수 있다.If the current block does not satisfy condition 1 or if the information on the affine mode indicates that the affine mode is not to be performed, the decoder 120 may perform the existing inter prediction mode in operation 1430. . The existing inter prediction mode may be a technique related to high efficiency video coding (HEVC) or H.264. The decoder 120 may perform a prediction mode in which the differential motion vector is not received among the existing inter prediction modes. For example, the existing inter prediction mode may be similar to the merge mode or the skip mode of HEVC.
어파인 모드에 대한 정보가 어파인 모드를 수행함을 나타내는 경우, 단계(1441)에서 복호화부(120)는 후보 관련 정보를 획득할 수 있다. 복호화부(120)는 후보 관련 정보에 기초하여 affine 후보 1 또는 affine 후보 2 중 하나를 선택할 수 있다. affine 후보 1이 선택된 경우, 단계(1442)에서 복호화부(120)는 도 8 내지 도 11와 관련된 설명에 따라 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. affine 후보 1이 선택된 경우, 단계(1443)에서 복호화부(120)는 도 12와 관련된 설명에 따라 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다.If the information on the affine mode indicates that the affine mode is performed, the decoder 120 may acquire candidate related information in operation 1442. The decoder 120 may select one of affine candidate 1 or affine candidate 2 based on the candidate related information. When affine candidate 1 is selected, in operation 1442, the decoder 120 may acquire motion information of the first reference pixel and motion information of the third reference pixel according to the description associated with FIGS. 8 to 11. If affine candidate 1 is selected, in operation 1443, the decoder 120 may acquire motion information of the first reference pixel or motion information of the third reference pixel according to the description associated with FIG. 12.
도 14와 다르게 복호화부(120)는 후보 관련 정보를 획득하지 않을 수 있다. 복호화부(120)는 하나의 후보만을 사용할 수 있다. 복호화부(120)는 도 8 내지 도 11와 관련된 설명에 따라 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다. 또는 복호화부(120)는 도 12와 관련된 설명에 따라 제 1 기준 픽셀의 움직임 정보 내지 제 3 기준 픽셀의 움직임 정보를 획득할 수 있다.Unlike FIG. 14, the decoder 120 may not acquire candidate related information. The decoder 120 may use only one candidate. The decoder 120 may obtain motion information of the first reference pixel to motion information of the third reference pixel according to the description associated with FIGS. 8 to 11. Alternatively, the decoder 120 may obtain motion information of the first reference pixel to motion information of the third reference pixel according to the description associated with FIG. 12.
도 15는 일 실시예에 따라 영상 부호화 장치의 개략적인 블록도를 도시한다.15 is a schematic block diagram of an image encoding apparatus, according to an embodiment.
영상 부호화 장치(1500)는 부호화부(1510) 및 비트스트림 생성부(1520)를 포함할 수 있다. 부호화부(1510)는 입력 영상을 수신하여 입력 영상을 부호화할 수 있다. 비트스트림 생성부(1520)는 부호화된 입력 영상에 기초하여 비트스트림을 출력할 수 있다. 또한 영상 부호화 장치(1500)는 비트스트림을 영상 복호화 장치(100)로 전송할 수 있다. 영상 부호화 장치(1500)의 자세한 동작에 대해서는 도 16 과 함께 자세히 설명한다.The image encoding apparatus 1500 may include an encoder 1510 and a bitstream generator 1520. The encoder 1510 may receive an input image and encode the input image. The bitstream generator 1520 may output a bitstream based on the encoded input image. Also, the image encoding apparatus 1500 may transmit a bitstream to the image decoding apparatus 100. Detailed operations of the video encoding apparatus 1500 will be described in detail with reference to FIG. 16.
도 16은 일 실시예에 따라 영상 부호화 방법의 흐름도를 도시한다.16 is a flowchart of a video encoding method, according to an embodiment.
도 16은 영상 부호화 방법에 관한 것으로 도 1 내지 도 14에서 설명된 영상 복호화 방법 및 장치와 유사한 내용을 포함하고 있으며, 중복되는 설명은 생략한다.FIG. 16 relates to an image encoding method and includes similar contents to those of the image decoding method and apparatus described with reference to FIGS. 1 to 14, and descriptions thereof will not be repeated.
부호화부(1510)는 원본 영상에 포함된 현재 블록과 현재 블록의 이전에 복원된 영상에 기초하여, 현재 블록의 제 1 위치에 위치하는 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계(1610)를 수행할 수 있다. 부호화부(1510)는 현재 블록과 이전에 복원된 영상의 상관도에 기초하여 제 1 위치에 대한 제 1 기준 픽셀의 움직임 정보를 획득할 수 있다. 상관도를 판단하기 위하여 부호화부(1510)는 SAD(Sum of Absolute Difference)를 이용할 수 있다.The encoder 1510 may include a first directional motion component included in motion information of a first reference pixel located at a first position of the current block based on a current block included in the original image and a previously reconstructed image of the current block. And obtaining the second directional motion component 1610. The encoder 1510 may acquire motion information of the first reference pixel with respect to the first position based on a correlation between the current block and the previously reconstructed image. In order to determine the degree of correlation, the encoder 1510 may use a sum of absolute difference (SAD).
부호화부(1510)는 현재 블록과 이전에 복원된 영상에 기초하여, 현재 블록의 제 2 위치에 위치하는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계(1620)를 수행할 수 있다. 부호화부(1510)는 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계(1630)를 수행할 수 있다. 부호화부(1510)는 현재 블록과 이전에 복원된 영상에 기초하여, 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득할 수 있다. 부호화부(1510)는 현재 블록과 이전에 복원된 영상의 상관도에 기초하여 제 2 위치에 대한 제 2 기준 픽셀의 움직임 정보를 획득할 수 있다. 상관도를 판단하기 위하여 부호화부(1510)는 SAD(Sum of Absolute Difference)를 이용할 수 있다.The encoder 1510 may acquire a first direction motion component included in the motion information of the second reference pixel located at the second position of the current block based on the current block and the previously reconstructed image. Can be done. The encoder 1510 may perform an operation 1630 of acquiring the second direction motion component included in the motion information of the second reference pixel. The encoder 1510 may acquire a second directional motion component included in the motion information of the second reference pixel based on the current block and the previously reconstructed image. The encoder 1510 may acquire motion information of the second reference pixel for the second position based on a correlation between the current block and the previously reconstructed image. In order to determine the degree of correlation, the encoder 1510 may use a sum of absolute difference (SAD).
부호화부(1510)는 제 1 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분 및 y 방향 움직임 성분과 제 2 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분 및 y 방향 움직임 성분을 비교할 수 있다. 예를 들어 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분은 x 방향 움직임 성분이고 제 2 기준 픽셀의 움직임 정보의 제 2 방향 움직임 성분은 y 방향 움직임 성분일 수 있다. 제 1 기준 픽셀의 움직임 정보에 포함된 y 방향 움직임 성분이 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분과 유사한 경우, 부호화부(1510)는 제 1 기준 픽셀의 움직임 정보에 포함된 y 방향 움직임 성분에 기초하여 제 2 방향 움직임 성분을 획득할 것을 결정할 수 있다. 또한 부호화부(1510)는 현재 블록의 움직임 타입(type)을 줌(zoom)으로 결정할 수 있다. 비트스트림 생성부(1520)는 움직임 타입에 기초하여 비트스트림을 생성할 수 있다. 비트스트림 생성부(1520)는 제 2 방향 움직임 성분을 비트스트림으로 생성하지 않을 수 있다. 즉 영상 부호화 장치(1500)는 제 2 방향 움직임 성분을 영상 복호화 장치(100)에 전송하지 않을 수 있다. 영상 부호화 장치(1500) 및 영상 복호화 장치(100)는 비트스트림의 효율성을 높일 수 있다.The encoder 1510 may compare the x direction motion component and the y direction motion component included in the motion information of the first reference pixel with the x direction motion component and the y direction motion component included in the motion information of the second reference pixel. For example, the first direction motion component of the motion information of the second reference pixel may be an x direction motion component, and the second direction motion component of the motion information of the second reference pixel may be a y direction motion component. If the y-direction motion component included in the motion information of the first reference pixel is similar to the second direction motion component included in the motion information of the second reference pixel, the encoder 1510 may include the motion information of the first reference pixel. It may be determined to obtain a second direction motion component based on the y direction motion component. Also, the encoder 1510 may determine the motion type of the current block as a zoom. The bitstream generator 1520 may generate a bitstream based on the movement type. The bitstream generator 1520 may not generate the second direction motion component as a bitstream. That is, the image encoding apparatus 1500 may not transmit the second direction motion component to the image decoding apparatus 100. The image encoding apparatus 1500 and the image decoding apparatus 100 may increase the efficiency of the bitstream.
본 개시의 일 실시예에 따라 부호화부(1510)는 제 1 기준 픽셀의 움직임 정보에 포함된 방향 움직임 성분들과 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분에 기초하여 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득할 수 있는지 확인할 수 있다. 예를 들어 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분은 y 방향 움직임 성분이고 제 2 기준 픽셀의 움직임 정보의 제 2 방향 움직임 성분은 x 방향 움직임 성분일 수 있다. According to an embodiment of the present disclosure, the encoder 1510 may include a second reference based on the directional motion components included in the motion information of the first reference pixel and the first directional motion component included in the motion information of the second reference pixel. It may be determined whether the second direction motion component included in the motion information of the pixel can be obtained. For example, the first direction motion component of the motion information of the second reference pixel may be a y direction motion component, and the second direction motion component of the motion information of the second reference pixel may be an x direction motion component.
부호화부(1510)는 수식 6 및 수식 7 에 따라 제 1 기준 픽셀의 움직임 정보 및 제 2 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분으로부터 획득된 방향 움직임 성분이 제 2 방향 움직임 성분과 유사한지 결정할 수 있다. 수식 6 및 수식 7 에 따라 획득된 방향 움직임 성분이 제 2 방향 움직임 성분과 유사한 경우 부호화부(1510)는 제 1 기준 픽셀의 움직임 정보 및 제 1 방향 움직임 성분에 기초하여 제 2 방향 움직임 성분을 획득할 것을 결정할 수 있다. The encoder 1510 determines whether the direction motion component obtained from the first direction motion component included in the motion information of the first reference pixel and the motion information of the second pixel according to Equations 6 and 7 is similar to the second direction motion component. You can decide. When the directional motion components obtained according to Equations 6 and 7 are similar to the second directional motion components, the encoder 1510 acquires the second directional motion components based on the motion information of the first reference pixel and the first directional motion components. You can decide what to do.
본 개시의 다른 실시예에 따라 제 2 기준 픽셀의 움직임 정보의 제 1 방향 움직임 성분은 x 방향 움직임 성분이고 제 2 기준 픽셀의 움직임 정보의 제 2 방향 움직임 성분은 y 방향 움직임 성분일 수 있다. 부호화부(1510)는 수식 8 및 수식 9 에 따라 제 1 기준 픽셀의 움직임 정보 및 제 2 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분으로부터 획득된 방향 움직임 성분이 제 2 방향 움직임 성분과 유사한지 결정할 수 있다. 수식 8 및 수식 9 에 따라 획득된 방향 움직임 성분이 제 2 방향 움직임 성분과 유사한 경우 부호화부(1510)는 제 1 기준 픽셀의 움직임 정보 및 제 1 방향 움직임 성분에 기초하여 제 2 방향 움직임 성분을 획득할 것을 결정할 수 있다.According to another embodiment of the present disclosure, the first direction motion component of the motion information of the second reference pixel may be an x direction motion component, and the second direction motion component of the motion information of the second reference pixel may be a y direction motion component. The encoder 1510 determines whether the direction motion component obtained from the first direction motion component included in the motion information of the first reference pixel and the motion information of the second pixel according to Equations 8 and 9 is similar to the second direction motion component. You can decide. If the directional motion components obtained according to Equations 8 and 9 are similar to the second directional motion components, the encoder 1510 acquires the second directional motion components based on the motion information of the first reference pixel and the first directional motion components. You can decide what to do.
부호화부(1510)는 제 1 기준 픽셀의 움직임 정보 및 제 1 방향 움직임 성분에 기초하여 수식 6 내지 수식 9에 따라 제 2 방향 움직임 성분을 획득하는 경우, 현재 블록의 움직임 타입(type)은 회전(rotation)임을 결정할 수 있다. 비트스트림 생성부(1520)는 움직임 타입에 기초하여 비트스트림을 생성할 수 있다. 비트스트림 생성부(1520)는 제 2 방향 움직임 성분을 비트스트림으로 생성하지 않을 수 있다. 즉 영상 부호화 장치(1500)는 제 2 방향 움직임 성분을 영상 복호화 장치(100)에 전송하지 않을 수 있다. 영상 부호화 장치(1500) 및 영상 복호화 장치(100)는 비트스트림의 효율성을 높일 수 있다.When the encoder 1510 obtains the second direction motion component according to Equations 6 to 9 based on the motion information of the first reference pixel and the first direction motion component, the motion type of the current block is rotated ( rotation). The bitstream generator 1520 may generate a bitstream based on the movement type. The bitstream generator 1520 may not generate the second direction motion component as a bitstream. That is, the image encoding apparatus 1500 may not transmit the second direction motion component to the image decoding apparatus 100. The image encoding apparatus 1500 and the image decoding apparatus 100 may increase the efficiency of the bitstream.
부호화부(1510)는 제 1 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분, 제 1 기준 픽셀의 움직임 정보에 포함된 y 방향 움직임 성분, 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분에 기초하여 비트스트림을 생성할 수 있다. 부호화부(1510)는 움직임 타입을 줌과 회전을 동시에 나타내는 타입으로 결정할 수 있다. 비트스트림 생성부(1520)는 움직임 타입에 기초하여 비트스트림을 생성할 수 있다. 다만 이에 한정되는 것은 아니며 영상 부호화 장치(1500)는 움직임 타입을 영상 복호화 장치(100)에 전송하지 않을 수 있다. 영상 복호화 장치(100)는 움직임 타입을 전송받지 못한 경우 4 개의 방향 움직임 성분을 수신하는 것으로 결정할 수 있다.The encoder 1510 may include the x direction motion component included in the motion information of the first reference pixel, the y direction motion component included in the motion information of the first reference pixel, and the first direction motion included in the motion information of the second reference pixel. The bitstream may be generated based on the component and the second direction motion component included in the motion information of the second reference pixel. The encoder 1510 may determine the movement type as a type representing zoom and rotation at the same time. The bitstream generator 1520 may generate a bitstream based on the movement type. However, the present invention is not limited thereto, and the image encoding apparatus 1500 may not transmit the motion type to the image decoding apparatus 100. The image decoding apparatus 100 may determine to receive four directional motion components when the motion type is not received.
부호화부(1510)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 기초하여 현재 블록의 제 3 위치에 위치하는 제 3 기준 픽셀의 움직임 정보를 획득하는 단계(1640)를 수행할 수 있다. 부호화부(1510)는 제 1 기준 픽셀의 움직임 정보, 제 2 기준 픽셀의 움직임 정보 및 제 3 기준 픽셀의 움직임 정보에 기초하여 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계(1650)를 수행할 수 있다. The encoder 1510 may acquire an operation 1640 of obtaining motion information of the third reference pixel located at the third position of the current block based on the motion information of the first reference pixel and the motion information of the second reference pixel. Can be. The encoder 1510 acquires the motion information of the pixel included in the current block based on the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel (1650). can do.
비트스트림 생성부(1520)는 제 1 기준 픽셀의 움직임 정보 및 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 중 적어도 하나에 기초하여 비트스트림을 생성하는 단계(1650)를 수행할 수 있다. 본 개시의 일 실시예에 따라 부호화부(1510)는 현재 블록에 인접한 미리 복원된 주변 블록의 움직임 벡터를 획득할 수 있다. 부호화부(1510)는 현재 블록의 제 1 기준 픽셀의 움직임 정보 또는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분이 주변 블록의 움직임 벡터와 유사한지를 결정할 수 있다. 유사한 경우 부호화부(1510)는 차분 움직임 벡터를 영상 복호화 장치(100)에 전송하지 않을 것을 결정할 수 있다. 비트스트림 생성부(1520)는 현재 블록의 움직임 정보와 유사한 움직임 정보를 가지고 있는 주변 블록에 대한 정보를 비트스트림으로 생성할 수 있다.The bitstream generator 1520 may perform a step 1650 of generating a bitstream based on at least one of the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel. have. According to an embodiment of the present disclosure, the encoder 1510 may obtain a motion vector of a neighboring neighbor block reconstructed adjacent to the current block. The encoder 1510 may determine whether the first direction motion component included in the motion information of the first reference pixel or the motion information of the second reference pixel of the current block is similar to the motion vector of the neighboring block. In a similar case, the encoder 1510 may determine not to transmit the differential motion vector to the image decoding apparatus 100. The bitstream generator 1520 may generate information about a neighboring block having motion information similar to motion information of the current block, as a bitstream.
본 개시의 일 실시예에 따라 부호화부(1510)는 현재 블록에 인접한 미리 복원된 주변 블록의 움직임 벡터를 획득할 수 있다. 부호화부(1510)는 현재 블록의 제 1 기준 픽셀의 움직임 정보 또는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분이 주변 블록의 움직임 벡터와 유사한지를 결정할 수 있다. 유사하지 않은 경우 부호화부(1510)는 차분 움직임 벡터를 영상 복호화 장치(100)에 전송할 것을 결정할 수 있다. 비트스트림 생성부(1520)는 현재 블록의 움직임 정보와 유사한 움직임 정보를 가지고 있는 주변 블록에 대한 정보 및 차분 움직임 벡터를 비트스트림으로 생성할 수 있다.According to an embodiment of the present disclosure, the encoder 1510 may obtain a motion vector of a neighboring neighbor block reconstructed adjacent to the current block. The encoder 1510 may determine whether the first direction motion component included in the motion information of the first reference pixel or the motion information of the second reference pixel of the current block is similar to the motion vector of the neighboring block. If not, the encoder 1510 may determine to transmit the differential motion vector to the image decoding apparatus 100. The bitstream generator 1520 may generate information on the neighboring blocks having the motion information similar to the motion information of the current block and the differential motion vector in the bitstream.
영상 복호화 장치(100)는 영상 부호화 장치(1500)로부터 수신된 비트스트림으로부터 획득된 정보에 기초하여 영상을 복원할 수 있다.The image decoding apparatus 100 may reconstruct an image based on information obtained from a bitstream received from the image encoding apparatus 1500.
이하, 도 17 내지 도 30을 참조하여 일 실시예에 따라 영상의 데이터 단위를 결정하는 방법이 상술된다.Hereinafter, a method of determining a data unit of an image according to an embodiment will be described with reference to FIGS. 17 to 30.
도 17은 일 실시예에 따라 영상 복호화 장치(100)가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.FIG. 17 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing a current coding unit according to an embodiment.
블록 형태는 4Nx4N,4Nx2N, 2Nx4N, 4NxN 또는 Nx4N을 포함할 수 있다. 여기서 N은 양의 정수일 수 있다. 블록 형태 정보는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 나타내는 정보이다. The block type may include 4Nx4N, 4Nx2N, 2Nx4N, 4NxN or Nx4N. Where N may be a positive integer. The block shape information is information indicating at least one of a shape, a direction, a width, and a ratio or size of a coding unit.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우(즉, 부호화 단위의 블록 형태가 4Nx4N 인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 정사각형으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다. The shape of the coding unit may include square and non-square. When the width and height of the coding unit have the same length (that is, when the block shape of the coding unit is 4Nx4N), the image decoding apparatus 100 may determine block shape information of the coding unit as a square. The image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
부호화 단위의 너비 및 높이의 길이가 다른 경우(즉, 부호화 단위의 블록 형태가 4Nx2N, 2Nx4N, 4NxN 또는 Nx4N인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 비-정사각형으로 결정할 수 있다. 부호화 단위의 모양이 비-정사각형인 경우, 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보 중 너비 및 높이의 비율을 1:2, 2:1, 1:4, 4:1, 1:8 또는 8:1 중 적어도 하나로 결정할 수 있다. 또한, 부호화 단위의 너비의 길이 및 높이의 길이에 기초하여, 영상 복호화 장치(100)는 부호화 단위가 수평 방향인지 수직 방향인지 결정할 수 있다. 또한, 부호화 단위의 너비의 길이, 높이의 길이 또는 넓이 중 적어도 하나에 기초하여, 영상 복호화 장치(100)는 부호화 단위의 크기를 결정할 수 있다. When the width and height of the coding unit have different lengths (that is, when the block shape of the coding unit is 4Nx2N, 2Nx4N, 4NxN, or Nx4N), the image decoding apparatus 100 may determine the block shape information of the coding unit as a non-square. Can be. When the shape of the coding unit is non-square, the image decoding apparatus 100 may determine a ratio of the width and the height of the block shape information of the coding unit to 1: 2, 2: 1, 1: 4, 4: 1, 1: 8. Or 8: 1. In addition, the image decoding apparatus 100 may determine whether the coding unit is a horizontal direction or a vertical direction, based on the length of the width of the coding unit and the length of the height. Also, the image decoding apparatus 100 may determine the size of the coding unit based on at least one of the length, the length, or the width of the coding unit.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(100)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다. According to an embodiment, the image decoding apparatus 100 may determine a shape of a coding unit by using block shape information, and determine in which form the coding unit is divided using the split shape information. That is, the method of dividing the coding unit indicated by the segmentation form information may be determined according to which block form the block form information used by the image decoding apparatus 100 represents.
일 실시예에 따라, 영상 복호화 장치(100)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(100)는 분할 형태 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 17을 참조하면, 현재 부호화 단위(1700)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(120)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(1700)와 동일한 크기를 가지는 부호화 단위(1710a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 기초하여 분할된 부호화 단위(1710b, 1710c, 1710d 등)를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may use block shape information indicating that the current coding unit is square. For example, the image decoding apparatus 100 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units according to the split type information. Referring to FIG. 17, when the block shape information of the current coding unit 1700 indicates a square shape, the decoder 120 may have the same size as the current coding unit 1700 according to the split shape information indicating that the block shape information is not divided. The split coding unit 1710a may not be divided, or the split coding unit 1710b, 1710c, 1710d, or the like may be determined based on split type information indicating a predetermined division method.
도 17을 참조하면 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1700)를 수직방향으로 분할한 두 개의 부호화 단위(1710b)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1700)를 수평방향으로 분할한 두 개의 부호화 단위(1710c)를 결정할 수 있다. 영상 복호화 장치(100)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 정보에 기초하여 현재 부호화 단위(1700)를 수직방향 및 수평방향으로 분할한 네 개의 부호화 단위(1710d)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다. Referring to FIG. 17, the image decoding apparatus 100 determines two coding units 1710b that split the current coding unit 1700 in the vertical direction based on split shape information indicating that the image is split in the vertical direction. Can be. The image decoding apparatus 100 may determine two coding units 1710c that divide the current coding unit 1700 in the horizontal direction based on the split type information indicating the split in the horizontal direction. The image decoding apparatus 100 may determine four coding units 1710d that divide the current coding unit 1700 in the vertical direction and the horizontal direction based on the split type information indicating that the image decoding apparatus 100 is split in the vertical direction and the horizontal direction. However, the divided form in which the square coding unit may be divided should not be limited to the above-described form and may include various forms represented by the divided form information. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
도 18은 일 실시예에 따라 영상 복호화 장치(100)가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.18 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing a coding unit having a non-square shape according to an embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(100)는 분할 형태 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 18을 참조하면, 현재 부호화 단위(1800 또는 1850)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(100)는 분할되지 않음을 나타내는 분할 형태 정보에 따라 현재 부호화 단위(1800 또는 1850)와 동일한 크기를 가지는 부호화 단위(1810 또는 1860)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 정보에 따라 기초하여 분할된 부호화 단위(1820a, 1820b, 1830a, 1830b, 1830c, 1870a, 1870b, 1880a, 1880b, 1880c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.According to an embodiment, the image decoding apparatus 100 may use block shape information indicating that a current coding unit is a non-square shape. The image decoding apparatus 100 may determine whether to divide the current coding unit of the non-square according to the split type information or to split it by a predetermined method. Referring to FIG. 18, when the block shape information of the current coding unit 1800 or 1850 indicates a non-square shape, the image decoding apparatus 100 may not divide the current coding unit 1800 according to the split shape information indicating that the shape is not divided. Or coding units 1820a, 1820b, 1830a, 1830b, 1830c, 1870a, which do not divide the coding units 1810 or 1860 having the same size as 1850, or are divided based on the split type information indicating a predetermined division method. 1870b, 1880a, 1880b, 1880c). A predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 18를 참조하면 분할 형태 정보가 두 개의 부호화 단위로 현재 부호화 단위(1800 또는 1850)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 분할 형태 정보에 기초하여 현재 부호화 단위(1800 또는 1850)를 분할하여 현재 부호화 단위에 포함되는 두 개의 부호화 단위(1820a, 1820b, 또는 1870a, 1870b)를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may determine a shape in which a coding unit is divided using split shape information. In this case, the split shape information may include the number of at least one coding unit generated by splitting a coding unit. Can be represented. Referring to FIG. 18, when split shape information indicates that a current coding unit 1800 or 1850 is split into two coding units, the image decoding apparatus 100 may determine a current coding unit 1800 or 1850 based on split shape information. By splitting, two coding units 1820a, 1820b, or 1870a, 1870b included in the current coding unit may be determined.
일 실시예에 따라 영상 복호화 장치(100)가 분할 형태 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(1800 또는 1850)를 분할하는 경우, 비-정사각형의 현재 부호화 단위(1800 또는 1850)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위(1800 또는 1850)의 형태를 고려하여 현재 부호화 단위(1800 또는 1850)의 긴 변을 분할하는 방향으로 현재 부호화 단위(1800 또는 1850)를 분할하여 복수개의 부호화 단위를 결정할 수 있다. According to an embodiment, when the image decoding apparatus 100 splits a current coding unit 1800 or 1850 having a non-square shape based on the split shape information, the image decoding apparatus 100 may divide the current coding unit 1800 or 1850 having a non-square shape. The current coding unit may be split in consideration of the position of the long side. For example, the image decoding apparatus 100 divides the current coding unit 1800 or 1850 in a direction of dividing a long side of the current coding unit 1800 or 1850 in consideration of the shape of the current coding unit 1800 or 1850. To determine a plurality of coding units.
일 실시예에 따라, 분할 형태 정보가 홀수개의 블록으로 부호화 단위를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(1800 또는 1850)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 정보가 3개의 부호화 단위로 현재 부호화 단위(1800 또는 1850)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(1800 또는 1850)를 3개의 부호화 단위(1830a, 1830b, 1830c, 1880a, 1880b, 1880c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(1800 또는 1850)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(1830a, 1830b, 1830c, 1880a, 1880b, 1880c) 중 소정의 부호화 단위(1830b 또는 1880b)의 크기는 다른 부호화 단위(1830a, 1830c, 1880a, 1880c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(1800 또는 1850)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(1830a, 1830b, 1830c, 1880a, 1880b, 1880c)가 각각 서로 다른 크기를 가질 수도 있다.According to an embodiment, when the split type information indicates splitting a coding unit into odd blocks, the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 1800 or 1850. For example, when the split type information indicates that the current coding unit 1800 or 1850 is divided into three coding units, the image decoding apparatus 100 may divide the current coding unit 1800 or 1850 into three coding units 1830a. , 1830b, 1830c, 1880a, 1880b, and 1880c. According to an embodiment, the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 1800 or 1850, and not all sizes of the determined coding units may be the same. For example, the size of a predetermined coding unit 1830b or 1880b among the determined odd coding units 1830a, 1830b, 1830c, 1880a, 1880b, and 1880c is different from other coding units 1830a, 1830c, 1880a, and 1880c. May have That is, the coding units that may be determined by dividing the current coding units 1800 or 1850 may have a plurality of types, and in some cases, odd number of coding units 1830a, 1830b, 1830c, 1880a, 1880b, and 1880c. Each may have a different size.
일 실시예에 따라 분할 형태 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(1800 또는 1850)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(100)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 18을 참조하면 영상 복호화 장치(100)는 현재 부호화 단위(1800 또는 1850)가 분할되어 생성된 3개의 부호화 단위(1830a, 1830b, 1830c, 1880a, 1880b, 1880c)들 중 중앙에 위치하는 부호화 단위(1830b, 1880b)에 대한 복호화 과정을 다른 부호화 단위(1830a, 1830c, 1880a, 1880c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(100)는 중앙에 위치하는 부호화 단위(1830b, 1880b)에 대하여는 다른 부호화 단위(1830a, 1830c, 1880a, 1880c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.According to an embodiment, when the split type information indicates that a coding unit is divided into odd blocks, the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 1800 or 1850. The image decoding apparatus 100 may set a predetermined limit on at least one coding unit among odd-numbered coding units generated by dividing. Referring to FIG. 18, the image decoding apparatus 100 may include a coding unit positioned at the center of three coding units 1830a, 1830b, 1830c, 1880a, 1880b, and 1880c generated by splitting a current coding unit 1800 or 1850. The decoding process for 1830b and 1880b may be different from other coding units 1830a, 1830c, 1880a, and 1880c. For example, unlike the other coding units 1830a, 1830c, 1880a, and 1880c, the image decoding apparatus 100 limits the coding units 1830b and 1880b to be no longer divided, or only a predetermined number of times. You can limit it to split.
도 19는 일 실시예에 따라 영상 복호화 장치(100)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.19 illustrates a process of splitting a coding unit by the image decoding apparatus 100 based on at least one of block shape information and split shape information, according to an embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(1900)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 정보가 수평 방향으로 제1 부호화 단위(1900)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(1900)를 수평 방향으로 분할하여 제2 부호화 단위(1910)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다. According to an embodiment, the image decoding apparatus 100 may determine to split or not split the first coding unit 1900 having a square shape into coding units based on at least one of block shape information and split shape information. According to an embodiment, when the split type information indicates splitting the first coding unit 1900 in the horizontal direction, the image decoding apparatus 100 splits the first coding unit 1900 in the horizontal direction to thereby split the second coding unit. (1910) may be determined. The first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand a before and after relationship between the coding units. For example, when the first coding unit is split, the second coding unit may be determined. When the second coding unit is split, the third coding unit may be determined. Hereinafter, it may be understood that the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
일 실시예에 따라 영상 복호화 장치(100)는 결정된 제2 부호화 단위(1910)를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 19를 참조하면 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1900)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(1910)를 적어도 하나의 제3 부호화 단위(1920a, 1920b, 1920c, 1920d 등)로 분할하거나 제2 부호화 단위(1910)를 분할하지 않을 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득할 수 있고 영상 복호화 장치(100)는 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1900)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 1910)를 분할할 수 있으며, 제2 부호화 단위(1910)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(1900)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(1900)가 제1 부호화 단위(1900)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(1910)로 분할된 경우, 제2 부호화 단위(1910) 역시 제2 부호화 단위(1910)에 대한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(예를 들면, 1920a, 1920b, 1920c, 1920d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 정보 및 블록 형태 정보 중 적어도 하나에 기초하여 재귀적으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다. According to an embodiment, the image decoding apparatus 100 may determine to divide or not split the determined second coding unit 1910 into coding units based on at least one of block shape information and split shape information. Referring to FIG. 19, the image decoding apparatus 100 may determine a second coding unit 1910 having a non-square shape determined by dividing the first coding unit 1900 based on at least one of block shape information and split shape information. It may be split into at least one third coding unit 1920a, 1920b, 1920c, 1920d, or the like, or may not split the second coding unit 1910. The image decoding apparatus 100 may obtain at least one of the block shape information and the split shape information, and the image decoding apparatus 100 may determine the first coding unit 1900 based on at least one of the obtained block shape information and the split shape information. ) May be divided into a plurality of second coding units (for example, 1910) of various types, and the second coding unit 1910 may include first coding based on at least one of block shape information and split shape information. The unit 1900 may be divided according to the divided manner. According to an embodiment, when the first coding unit 1900 is divided into the second coding unit 1910 based on at least one of the block shape information and the split shape information for the first coding unit 1900, the second The coding unit 1910 may also be divided into third coding units (eg, 1920a, 1920b, 1920c, 1920d, etc.) based on at least one of block shape information and split shape information for the second coding unit 1910. have. That is, the coding unit may be recursively divided based on at least one of the partition shape information and the block shape information associated with each coding unit. Therefore, a square coding unit may be determined in a non-square coding unit, and a coding unit of a square shape may be recursively divided to determine a coding unit of a non-square shape.
도 19를 참조하면, 비-정사각형 형태의 제2 부호화 단위(1910)가 분할되어 결정되는 홀수개의 제3 부호화 단위(1920b, 1920c, 1920d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(1920b, 1920c, 1920d) 중 하나인 정사각형 형태의 제3 부호화 단위(1920b)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위(1930a, 1930b, 1930c, 1930d) 중 하나인 비-정사각형 형태의 제4 부호화 단위(1930b 또는 1930d)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(1930b 또는 1930d)는 홀수개의 부호화 단위로 다시 분할될 수도 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.Referring to FIG. 19, a predetermined coding unit (eg, located in the center of an odd number of third coding units 1920b, 1920c, and 1920d) determined by splitting a second coding unit 1910 having a non-square shape may be included. Coding units or coding units having a square shape) may be recursively divided. According to an embodiment, the third coding unit 1920b having a square shape, which is one of odd third coding units 1920b, 1920c, and 1920d, may be divided in a horizontal direction and divided into a plurality of fourth coding units. The fourth coding unit 1930b or 1930d having a non-square shape, which is one of the plurality of fourth coding units 1930a, 1930b, 1930c, and 1930d, may be further divided into a plurality of coding units. For example, the fourth coding unit 1930b or 1930d having a non-square shape may be divided into odd coding units. A method that can be used for recursive division of coding units will be described later through various embodiments.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제3 부호화 단위(1920a, 1920b, 1920c, 1920d 등) 각각을 부호화 단위들로 분할할 수 있다. 또한 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제2 부호화 단위(1910)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(1910)를 홀수개의 제3 부호화 단위(1920b, 1920c, 1920d)로 분할할 수 있다. 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(1920b, 1920c, 1920d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(1920b, 1920c, 1920d) 중 가운데에 위치하는 부호화 단위(1920c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다. According to an embodiment, the image decoding apparatus 100 may divide each of the third coding units 1920a, 1920b, 1920c, 1920d, etc. into coding units based on at least one of block shape information and split shape information. Also, the image decoding apparatus 100 may determine not to split the second coding unit 1910 based on at least one of the block shape information and the split shape information. The image decoding apparatus 100 may divide the second coding unit 1910 having a non-square shape into an odd number of third coding units 1920b, 1920c, and 1920d. The image decoding apparatus 100 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 1920b, 1920c, and 1920d. For example, the image decoding apparatus 100 may be limited to no more division or may be divided by a set number of times for the coding unit 1920c positioned in the middle of the odd number of third coding units 1920b, 1920c, and 1920d. It can be limited to.
도 19를 참조하면, 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1910)에 포함되는 홀수개의 제3 부호화 단위(1920b, 1920c, 1920d)들 중 가운데에 위치하는 부호화 단위(1920c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(1910)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(1920c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(1920c)가 다른 부호화 단위(1920b, 1920d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.Referring to FIG. 19, the image decoding apparatus 100 may include a coding unit positioned at the center of odd-numbered third coding units 1920b, 1920c, and 1920d included in a second coding unit 1910 having a non-square shape. 1920c is no longer partitioned, or is limited to being divided into a predetermined division form (for example, divided into only four coding units or divided into a form corresponding to a divided form of the second coding unit 1910), or predetermined. It can be limited to dividing only by the number of times (eg, dividing only n times, n> 0). However, since the above limitation on the coding unit 1920c located in the center is merely a mere embodiment, it should not be construed as being limited to the above-described embodiments, and the coding unit 1920c located in the center is different from other coding units 1920b and 1920d. ), It should be interpreted as including various restrictions that can be decoded.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하기 위해 이용되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다. According to an embodiment, the image decoding apparatus 100 may obtain at least one of block shape information and split shape information used to divide a current coding unit at a predetermined position in the current coding unit.
도 20은 일 실시예에 따라 영상 복호화 장치(100)가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다. 20 illustrates a method for the image decoding apparatus 100 to determine a predetermined coding unit among odd number of coding units, according to an exemplary embodiment.
도 20을 참조하면, 현재 부호화 단위(2000)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(2000)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(2040))에서 획득될 수 있다. 다만 이러한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(2000) 내의 소정 위치가 도 20에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(2000)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(100)는 소정 위치로부터 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.Referring to FIG. 20, at least one of the block shape information and the split shape information of the current coding unit 2000 may be a sample at a predetermined position (for example, located at the center of a plurality of samples included in the current coding unit 2000). Sample 2040). However, a predetermined position in the current coding unit 2000 from which at least one of such block shape information and split shape information may be obtained should not be interpreted as being limited to the center position shown in FIG. 20, and the current coding unit 2000 is located at the predetermined position. It should be construed that various positions (eg, top, bottom, left, right, top left, bottom left, top right or bottom right, etc.) that may be included in the. The image decoding apparatus 100 may determine that the current coding unit is divided into coding units of various shapes and sizes by not obtaining at least one of block shape information and split shape information obtained from a predetermined position.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.According to an embodiment, when the current coding unit is divided into a predetermined number of coding units, the image decoding apparatus 100 may select one coding unit from among them. Methods for selecting one of a plurality of coding units may vary, which will be described below through various embodiments.
일 실시예에 따라 영상 복호화 장치(100) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may divide a current coding unit into a plurality of coding units and determine a coding unit of a predetermined position.
일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 20을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(2000)를 분할하여 홀수개의 부호화 단위들(2020a, 2020b, 2020c)을 결정할 수 있다. 영상 복호화 장치(100)는 홀수개의 부호화 단위들(2020a, 2020b, 2020c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(2020b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(100)는 부호화 단위들(2020a, 2020b, 2020c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(2020a, 2020b, 2020c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(2020b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(100)는 부호화 단위들(2020a, 2020b, 2020c)의 좌측 상단의 샘플(2030a, 2030b, 2030c)의 위치를 나타내는 정보에 기초하여 부호화 단위들(2020a, 2020b, 2020c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(2020b)를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units. Referring to FIG. 20, the image decoding apparatus 100 may divide the current coding unit 2000 to determine odd number of coding units 2020a, 2020b, and 2020c. The image decoding apparatus 100 may determine the center coding unit 2020b by using information about the positions of the odd number of coding units 2020a, 2020b, and 2020c. For example, the image decoding apparatus 100 determines the positions of the coding units 2020a, 2020b, and 2020c based on information indicating the positions of predetermined samples included in the coding units 2020a, 2020b, and 2020c. The coding unit 2020b positioned at may be determined. In detail, the image decoding apparatus 100 may encode the coding units 2020a, 2020b, and 2020c based on the information indicating the positions of the samples 2030a, 2030b, and 2030c on the upper left side of the coding units 2020a, 2020b, and 2020c. The coding unit 2020b positioned in the center may be determined by determining the position of.
일 실시예에 따라 부호화 단위들(2020a, 2020b, 2020c)에 각각 포함되는 좌측 상단의 샘플(2030a, 2030b, 2030c)의 위치를 나타내는 정보는 부호화 단위들(2020a, 2020b, 2020c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위들(2020a, 2020b, 2020c)에 각각 포함되는 좌측 상단의 샘플(2030a, 2030b, 2030c)의 위치를 나타내는 정보는 현재 부호화 단위(2000)에 포함되는 부호화 단위들(2020a, 2020b, 2020c)의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위들(2020a, 2020b, 2020c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(100)는 부호화 단위들(2020a, 2020b, 2020c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접 이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(2020b)를 결정할 수 있다. According to an embodiment, the information indicating the position of the upper left samples 2030a, 2030b, and 2030c included in the coding units 2020a, 2020b, and 2020c may be included in the picture of the coding units 2020a, 2020b, and 2020c. It may include information about the location or coordinates of. According to an embodiment, the information indicating the positions of the samples 2030a, 2030b, and 2030c in the upper left included in the coding units 2020a, 2020b, and 2020c may be encoded units 2020a included in the current coding unit 2000. , 2020b, and 2020c may include information indicating a width or a height, and the width or height may correspond to information indicating a difference between coordinates in a picture of the coding units 2020a, 2020b, and 2020c. That is, the image decoding apparatus 100 directly uses information about the position or coordinates in the pictures of the coding units 2020a, 2020b, and 2020c or information about the width or height of the coding unit corresponding to the difference between the coordinates. By using, the coding unit 2020b located in the center may be determined.
일 실시예에 따라, 상단 부호화 단위(2020a)의 좌측 상단의 샘플(2030a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(2020b)의 좌측 상단의 샘플(1930b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(2020c)의 좌측 상단의 샘플(2030c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(100)는 부호화 단위들(2020a, 2020b, 2020c)에 각각 포함되는 좌측 상단의 샘플(2030a, 2030b, 2030c)의 좌표를 이용하여 가운데 부호화 단위(2020b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(2030a, 2030b, 2030c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(2030b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(2020b)를 현재 부호화 단위(2000)가 분할되어 결정된 부호화 단위들(2020a, 2020b, 2020c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(2030a, 2030b, 2030c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(2020a)의 좌측 상단의 샘플(2030a)의 위치를 기준으로, 가운데 부호화 단위(2020b)의 좌측 상단의 샘플(2030b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(2020c)의 좌측 상단의 샘플(2030c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.According to an embodiment, the information indicating the position of the sample 2030a at the upper left of the upper coding unit 2020a may indicate (xa, ya) coordinates, and the sample 1930b at the upper left of the middle coding unit 2020b. The information indicating the position of) may indicate (xb, yb) coordinates, and the information indicating the position of the sample 2030c on the upper left side of the lower coding unit 2020c may indicate (xc, yc) coordinates. The image decoding apparatus 100 may determine the center coding unit 2020b using the coordinates of the samples 2030a, 2030b, and 2030c in the upper left included in the coding units 2020a, 2020b, and 2020c, respectively. For example, when the coordinates of the samples 2030a, 2030b, and 2030c in the upper left are arranged in ascending or descending order, the coding unit 2020b including (xb, yb), which is the coordinates of the sample 2030b located in the center, is arranged. May be determined as a coding unit located in the middle of the coding units 2020a, 2020b, and 2020c determined by splitting the current coding unit 2000. However, the coordinates indicating the positions of the samples 2030a, 2030b, and 2030c in the upper left corner may indicate coordinates indicating an absolute position in the picture, and further, the positions of the samples 2030a in the upper left corner of the upper coding unit 2020a may be determined. As a reference, the (dxb, dyb) coordinate, which is information indicating the relative position of the sample 2030b at the upper left of the center coding unit 2020b, and the relative position of the sample 2030c at the upper left of the lower coding unit 2020c. Information (dxc, dyc) coordinates can also be used. In addition, the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be interpreted to be limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample It should be interpreted in a way.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(2000)를 복수개의 부호화 단위들(2020a, 2020b, 2020c)로 분할할 수 있고, 부호화 단위들(2020a, 2020b, 2020c) 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(100)는 부호화 단위들(2020a, 2020b, 2020c) 중 크기가 다른 부호화 단위(2020b)를 선택할 수 있다.According to an embodiment, the image decoding apparatus 100 may split the current coding unit 2000 into a plurality of coding units 2020a, 2020b, and 2020c, and may select one of the coding units 2020a, 2020b, and 2020c. The coding unit may be selected according to the standard. For example, the image decoding apparatus 100 may select coding units 2020b having different sizes from among coding units 2020a, 2020b, and 2020c.
일 실시예에 따라 영상 복호화 장치(100)는 상단 부호화 단위(2020a)의 좌측 상단의 샘플(2030a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(2020b)의 좌측 상단의 샘플(2030b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(2020c)의 좌측 상단의 샘플(2030c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위들(2020a, 2020b, 2020c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(2020a, 2020b, 2020c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위들(2020a, 2020b, 2020c) 각각의 크기를 결정할 수 있다. According to an exemplary embodiment, the image decoding apparatus 100 may include (xa, ya) coordinates, which are information indicating a position of the sample 2030a on the upper left side of the upper coding unit 2020a, and a sample on the upper left side of the center coding unit 2020b. Coding units 2020a using (xb, yb) coordinates indicating information of position of 2030b and (xc, yc) coordinates indicating information of sample 2030c on the upper left of lower coding unit 2020c. 2020b, 2020c) may determine the width or height of each. The image decoding apparatus 100 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 2020a, 2020b, and 2020c. 2020c) may determine the size of each.
일 실시예에 따라, 영상 복호화 장치(100)는 상단 부호화 단위(2020a)의 너비를 현재 부호화 단위(2000)의 너비 로 결정할 수 있고 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(2020b)의 너비를 현재 부호화 단위(2000)의 너비 로 결정할 수 있고 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(2020a) 및 가운데 부호화 단위(2020b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(2020a, 2020b, 2020c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 20을 참조하면, 영상 복호화 장치(100)는 상단 부호화 단위(2020a) 및 하단 부호화 단위(2020c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(2020b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다. According to an embodiment, the image decoding apparatus 100 may determine the width of the upper coding unit 2020a as the width of the current coding unit 2000 and the height as yb-ya. According to an embodiment, the image decoding apparatus 100 may determine the width of the central coding unit 2020b as the width of the current coding unit 2000 and the height as yc-yb. According to an embodiment, the image decoding apparatus 100 may determine the width or height of the lower coding unit using the width or height of the current coding unit, and the width and height of the upper coding unit 2020a and the center coding unit 2020b. . The image decoding apparatus 100 may determine a coding unit having a different size from other coding units based on the width and the height of the determined coding units 2020a, 2020b, and 2020c. Referring to FIG. 20, the image decoding apparatus 100 may determine a coding unit 2020b as a coding unit having a predetermined position while having a size different from that of the upper coding unit 2020a and the lower coding unit 2020c. However, in the above-described process of determining, by the image decoding apparatus 100, a coding unit having a different size from another coding unit, the coding unit at a predetermined position may be determined using the size of the coding unit determined based on the sample coordinates. In this regard, various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다. However, the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. According to an embodiment, the image decoding apparatus 100 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit has a non-square shape having a width greater than the height, the image decoding apparatus 100 may determine the coding unit at a predetermined position in the horizontal direction. That is, the image decoding apparatus 100 may determine one of the coding units having different positions in the horizontal direction to limit the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the image decoding apparatus 100 may determine a coding unit of a predetermined position in the vertical direction. That is, the image decoding apparatus 100 may determine one of the coding units having different positions in the vertical direction to limit the corresponding coding unit.
일 실시예에 따라 영상 복호화 장치(100)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위를 분할하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 20에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.According to an embodiment, the image decoding apparatus 100 may use information indicating the positions of each of the even coding units to determine the coding unit of the predetermined position among the even coding units. The image decoding apparatus 100 may determine an even number of coding units by dividing a current coding unit and determine a coding unit of a predetermined position by using information about the positions of the even coding units. A detailed process thereof may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a center position) among the odd number of coding units described above with reference to FIG. 20, and thus will be omitted.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(100)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. According to an embodiment, when the current coding unit having a non-square shape is divided into a plurality of coding units, a predetermined value for a coding unit of a predetermined position in the splitting process is determined to determine a coding unit of a predetermined position among the plurality of coding units. Information is available. For example, the image decoding apparatus 100 may determine block shape information and a split shape stored in a sample included in a middle coding unit in a splitting process in order to determine a coding unit located in a center among coding units having a plurality of current coding units split. At least one of the information may be used.
도 20을 참조하면 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(2000)를 복수개의 부호화 단위들(2020a, 2020b, 2020c)로 분할할 수 있으며, 복수개의 부호화 단위들(2020a, 2020b, 2020c) 중 가운데에 위치하는 부호화 단위(2020b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(2020b)를 결정할 수 있다. 즉, 현재 부호화 단위(2000)의 블록 형태 정보 및 분할 형태 정보 중 적어도 하나는 현재 부호화 단위(2000)의 가운데에 위치하는 샘플(2040)에서 획득될 수 있으며, 상기 블록 형태 정보 및 상기 분할 형태 정보 중 적어도 하나에 기초하여 현재 부호화 단위(2000)가 복수개의 부호화 단위들(2020a, 2020b, 2020c)로 분할된 경우 상기 샘플(2040)을 포함하는 부호화 단위(2020b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.Referring to FIG. 20, the image decoding apparatus 100 may divide the current coding unit 2000 into a plurality of coding units 2020a, 2020b, and 2020c based on at least one of block shape information and split shape information. A coding unit 2020b positioned in the center of the plurality of coding units 2020a, 2020b, and 2020c may be determined. Furthermore, the image decoding apparatus 100 may determine a coding unit 2020b located in the center in consideration of a position where at least one of block shape information and split shape information is obtained. That is, at least one of the block shape information and the split shape information of the current coding unit 2000 may be obtained from a sample 2040 located in the center of the current coding unit 2000. The block shape information and the split shape information may be obtained. When the current coding unit 2000 is divided into a plurality of coding units 2020a, 2020b, and 2020c based on at least one of the elements, the coding unit 2020b including the sample 2040 is a coding unit positioned at the center. You can decide. However, the information used to determine the coding unit located in the middle should not be interpreted as being limited to at least one of the block type information and the split type information, and various types of information may be used in the process of determining the coding unit located in the center. Can be.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 20을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(2000)가 분할되어 결정된 복수개의 부호화 단위들(2020a, 2020b, 2020c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(2000) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(2000)의 가운데에 위치하는 샘플)에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. . 즉, 영상 복호화 장치(100)는 현재 부호화 단위(2000)의 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위(2000)가 분할되어 결정되는 복수개의 부호화 단위들(2020a, 2020b, 2020c) 중, 소정의 정보(예를 들면, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나)가 획득될 수 있는 샘플이 포함된 부호화 단위(2020b)를 결정하여 소정의 제한을 둘 수 있다. 도 20을 참조하면 일 실시예에 따라 영상 복호화 장치(100)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(2000)의 가운데에 위치하는 샘플(2040)을 결정할 수 있고, 영상 복호화 장치(100)는 이러한 샘플(2040)이 포함되는 부호화 단위(2020b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(2020b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.According to an embodiment, predetermined information for identifying a coding unit of a predetermined position may be obtained from a predetermined sample included in the coding unit to be determined. Referring to FIG. 20, the image decoding apparatus 100 may divide a plurality of coding units (eg, divided into a plurality of coding units 2020a, 2020b, and 2020c) determined by splitting a current coding unit 2000. Block shape information obtained from a sample at a predetermined position in the current coding unit 2000 (for example, a sample located in the center of the current coding unit 2000) in order to determine a coding unit located in the middle of the coding units. At least one of the partition type information may be used. . That is, the image decoding apparatus 100 may determine a sample of the predetermined position in consideration of the block shape of the current coding unit 2000, and the image decoding apparatus 100 may determine a plurality of pieces in which the current coding unit 2000 is divided and determined. Among the coding units 2020a, 2020b, and 2020c, a coding unit 2020b including a sample from which predetermined information (for example, at least one of block shape information and split shape information) may be obtained may be determined and determined. Can be limited. Referring to FIG. 20, according to an embodiment, the image decoding apparatus 100 may determine a sample 2040 positioned in the center of the current coding unit 2000 as a sample from which predetermined information may be obtained, and the image decoding apparatus may be used. 100 may set a predetermined limit in the decoding process of the coding unit 2020b including the sample 2040. However, the position of the sample from which the predetermined information can be obtained should not be interpreted as being limited to the above-described position, but may be interpreted as samples of arbitrary positions included in the coding unit 2020b to be determined for the purpose of limitation.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(2000)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. According to an embodiment, a position of a sample from which predetermined information may be obtained may be determined according to the shape of the current coding unit 2000. According to an embodiment, the block shape information may determine whether the shape of the current coding unit is square or non-square, and determine the position of a sample from which the predetermined information may be obtained according to the shape. For example, the image decoding apparatus 100 may be positioned on a boundary that divides at least one of the width and the height of the current coding unit in half using at least one of information about the width and the height of the current coding unit. The sample may be determined as a sample from which predetermined information can be obtained. As another example, when the image decoding apparatus 100 indicates that the block shape information related to the current coding unit is a non-square shape, the image decoding apparatus 100 may select one of samples adjacent to a boundary that divides the long side of the current coding unit in half. May be determined as a sample from which information may be obtained.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 정보 및 블록 형태 정보 중 적어도 하나를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 19를 통해 상술하였으므로 자세한 설명은 생략하도록 한다. According to an embodiment, when the image decoding apparatus 100 divides a current coding unit into a plurality of coding units, at least one of block shape information and split shape information may be used to determine a coding unit of a predetermined position among a plurality of coding units. You can use one. According to an embodiment, the image decoding apparatus 100 may obtain at least one of block shape information and split shape information from a sample at a predetermined position included in a coding unit, and the image decoding apparatus 100 may divide the current coding unit. The generated plurality of coding units may be divided using at least one of split shape information and block shape information obtained from a sample of a predetermined position included in each of the plurality of coding units. That is, the coding unit may be recursively split using at least one of block shape information and split shape information obtained from a sample of a predetermined position included in each coding unit. Since the recursive division process of the coding unit has been described above with reference to FIG. 19, a detailed description thereof will be omitted.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
도 21는 일 실시예에 따라 영상 복호화 장치(100)가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.FIG. 21 is a diagram illustrating an order in which a plurality of coding units is processed when the image decoding apparatus 100 determines a plurality of coding units by dividing a current coding unit.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보에 따라 제1 부호화 단위(2100)를 수직 방향으로 분할하여 제2 부호화 단위(2110a, 2110b)를 결정하거나 제1 부호화 단위(2100)를 수평 방향으로 분할하여 제2 부호화 단위(2130a, 2130b)를 결정하거나 제1 부호화 단위(2100)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(2150a, 2150b, 2150c, 2150d)를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 determines the second coding units 2110a and 2110b by dividing the first coding unit 2100 in the vertical direction according to the block shape information and the split shape information. The second coding units 2130a and 2130b are determined by dividing the 2100 in the horizontal direction, or the second coding units 2150a, 2150b, 2150c and 2150d by dividing the first coding unit 2100 in the vertical and horizontal directions. Can be determined.
도 21를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(2100)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(2110a, 2110b)를 수평 방향(2110c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(2100)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(2130a, 2130b)의 처리 순서를 수직 방향(2130c)으로 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(2100)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(2150a, 2150b, 2150c, 2150d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(2150e) 등)에 따라 결정할 수 있다. Referring to FIG. 21, the image decoding apparatus 100 may determine an order such that the second coding units 2110a and 2110b determined by dividing the first coding unit 2100 in the vertical direction are processed in the horizontal direction 2110c. . The image decoding apparatus 100 may determine the processing order of the second coding units 2130a and 2130b determined by dividing the first coding unit 2100 in the horizontal direction, in the vertical direction 2130c. After decoding the first coding unit 2100 in the vertical direction and the horizontal direction, the image decoding apparatus 100 processes the coding units in which the second coding units 2150a, 2150b, 2150c, and 2150d are positioned in one row. It may be determined according to a predetermined order (for example, raster scan order or z scan order 2150e, etc.) in which coding units located in a next row are processed.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 21를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(2100)를 분할하여 복수개의 부호화 단위들(2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, 2150d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, 2150d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, 2150d)을 분할하는 방법은 제1 부호화 단위(2100)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, 2150d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 21를 참조하면 영상 복호화 장치(100)는 제1 부호화 단위(2100)를 수직 방향으로 분할하여 제2 부호화 단위(2110a, 2110b)를 결정할 수 있고, 나아가 제2 부호화 단위(2110a, 2110b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may recursively split coding units. Referring to FIG. 21, the image decoding apparatus 100 may determine a plurality of coding units 2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, and 2150d by dividing the first coding unit 2100. Each of the determined coding units 2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, and 2150d may be recursively divided. The method of dividing the plurality of coding units 2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, and 2150d may correspond to a method of dividing the first coding unit 2100. Accordingly, the plurality of coding units 2110a, 2110b, 2130a, 2130b, 2150a, 2150b, 2150c, and 2150d may be independently divided into a plurality of coding units. Referring to FIG. 21, the image decoding apparatus 100 may determine the second coding units 2110a and 2110b by dividing the first coding unit 2100 in the vertical direction, and further, respectively, the second coding units 2110a and 2110b. It can be decided to split independently or not.
일 실시예에 따라 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(2110a)를 수평 방향으로 분할하여 제3 부호화 단위(2120a, 2120b)로 분할할 수 있고, 우측의 제2 부호화 단위(2110b)는 분할하지 않을 수 있다. According to an exemplary embodiment, the image decoding apparatus 100 may divide the second coding unit 2110a on the left side into a horizontal coding direction and divide the second coding unit 2120a and 2120b into a second coding unit 2110b. ) May not be divided.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(2110a)가 분할되어 결정된 제3 부호화 단위(2120a, 2120b)가 처리되는 순서를 우측의 제2 부호화 단위(2110b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(2110a)가 수평 방향으로 분할되어 제3 부호화 단위(2120a, 2120b)가 결정되었으므로 제3 부호화 단위(2120a, 2120b)는 수직 방향(2120c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(2110a) 및 우측의 제2 부호화 단위(2110b)가 처리되는 순서는 수평 방향(2110c)에 해당하므로, 좌측의 제2 부호화 단위(2110a)에 포함되는 제3 부호화 단위(2120a, 2120b)가 수직 방향(2120c)으로 처리된 후에 우측 부호화 단위(2110b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.According to an embodiment, the processing order of coding units may be determined based on a split process of the coding units. In other words, the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split. The image decoding apparatus 100 may independently determine the order in which the third coding units 2120a and 2120b determined by splitting the second coding unit 2110a on the left side from the second coding unit 2110b on the right side. Since the second coding unit 2110a on the left is divided in the horizontal direction to determine the third coding units 2120a and 2120b, the third coding units 2120a and 2120b may be processed in the vertical direction 2120c. In addition, since the order in which the second coding unit 2110a on the left side and the second coding unit 2110b on the right side is processed corresponds to the horizontal direction 2110c, the third coding unit included in the second coding unit 2110a on the left side. After the 2120a and 2120b are processed in the vertical direction 2120c, the right coding unit 2110b may be processed. The above description is intended to explain a process in which processing units are determined according to coding units before splitting, respectively, and thus should not be interpreted to be limited to the above-described embodiment. It should be interpreted as being used in a variety of ways that can be processed independently in order.
도 22는 일 실시예에 따라 영상 복호화 장치(100)가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.22 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus 100 may not process the coding units in a predetermined order, according to an exemplary embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 획득된 블록 형태 정보 및 분할 형태 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 22를 참조하면 정사각형 형태의 제1 부호화 단위(2200)가 비-정사각형 형태의 제2 부호화 단위(2210a, 2210b)로 분할될 수 있고, 제2 부호화 단위(2210a, 2210b)는 각각 독립적으로 제3 부호화 단위(2220a, 2220b, 2220c, 2220d, 2220e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제2 부호화 단위 중 좌측 부호화 단위(2210a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(2220a, 2220b)를 결정할 수 있고, 우측 부호화 단위(2210b)는 홀수개의 제3 부호화 단위(2220c, 2220d, 2220e)로 분할할 수 있다. According to an embodiment, the image decoding apparatus 100 may determine that the current coding unit is split into odd coding units based on the obtained block shape information and the split shape information. Referring to FIG. 22, a first coding unit 2200 having a square shape may be divided into second coding units 2210a and 2210b having a non-square shape, and each of the second coding units 2210a and 2210b may be independently formed. It may be divided into three coding units 2220a, 2220b, 2220c, 2220d, and 2220e. According to an embodiment, the image decoding apparatus 100 may determine a plurality of third coding units 2220a and 2220b by dividing the left coding unit 2210a in the horizontal direction among the second coding units, and may include the right coding unit 2210b. ) May be divided into an odd number of third coding units 2220c, 2220d, and 2220e.
일 실시예에 따라 영상 복호화 장치(100)는 제3 부호화 단위들(2220a, 2220b, 2220c, 2220d, 2220e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 22를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(2200)를 재귀적으로 분할하여 제3 부호화 단위(2220a, 2220b, 2220c, 2220d, 2220e)를 결정할 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(2200), 제2 부호화 단위(2210a, 2210b) 또는 제3 부호화 단위(2220a, 2220b, 2220c, 2220d, 2220e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(2210a, 2210b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(2220c, 2220d, 2220e)로 분할될 수 있다. 제1 부호화 단위(2200)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(2230))가 될 수 있고, 영상 복호화 장치(100)는 우측 제2 부호화 단위(2210b)가 홀수개로 분할되어 결정된 제3 부호화 단위(2220c, 2220d, 2220e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.According to an embodiment, the image decoding apparatus 100 determines whether the third coding units 2220a, 2220b, 2220c, 2220d, and 2220e may be processed in a predetermined order to determine whether there are oddly divided coding units. You can decide. Referring to FIG. 22, the image decoding apparatus 100 may determine the third coding units 2220a, 2220b, 2220c, 2220d, and 2220e by recursively dividing the first coding unit 2200. The image decoding apparatus 100 may include a first coding unit 2200, a second coding unit 2210a, 2210b, or a third coding unit 2220a, 2220b, 2220c, based on at least one of block shape information and split shape information. It may be determined whether 2220d and 2220e are divided into odd coding units among the split forms. For example, a coding unit positioned on the right side of the second coding units 2210a and 2210b may be divided into odd third coding units 2220c, 2220d, and 2220e. The order in which the plurality of coding units included in the first coding unit 2200 is processed may be a predetermined order (for example, a z-scan order 2230), and the image decoding apparatus ( 100 may determine whether the third coding units 2220c, 2220d, and 2220e determined by splitting the right second coding unit 2210b into an odd number satisfy the condition in which the right coding units 2210b are processed in the predetermined order.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(2200)에 포함되는 제3 부호화 단위(2220a, 2220b, 2220c, 2220d, 2220e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(2220a, 2220b, 2220c, 2220d, 2220e)의 경계에 따라 제2 부호화 단위(2210a, 2210b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(2210a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(2220a, 2220b)는 조건을 만족할 수 있다. 우측 제2 부호화 단위(2210b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(2220c, 2220d, 2220e)들의 경계가 우측 제2 부호화 단위(2210b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(2220c, 2220d, 2220e)는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(2210b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.According to an embodiment, the image decoding apparatus 100 may satisfy a condition that the third coding units 2220a, 2220b, 2220c, 2220d, and 2220e included in the first coding unit 2200 may be processed in a predetermined order. Whether the at least one of the width and the height of the second coding unit 2210a, 2210b is divided in half according to the boundary of the third coding unit 2220a, 2220b, 2220c, 2220d, 2220e. Related. For example, the third coding units 2220a and 2220b, which are determined by dividing the height of the left second coding unit 2210a having a non-square shape in half, may satisfy the condition. A boundary of the third coding units 2220c, 2220d, and 2220e determined by dividing the right second coding unit 2210b into three coding units may not divide the width or height of the right second coding unit 2210b in half. Therefore, the third coding units 2220c, 2220d, and 2220e may be determined to not satisfy the condition. In case of such a condition dissatisfaction, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the right second coding unit 2210b is divided into odd coding units based on the determination result. According to an embodiment, when the image decoding apparatus 100 is divided into an odd number of coding units, the image decoding apparatus 100 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, detailed description thereof will be omitted.
도 23은 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(2300)를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다. FIG. 23 illustrates a process of determining, by the image decoding apparatus 100, at least one coding unit by dividing the first coding unit 2300, according to an exemplary embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(110)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(2300)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(2300)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 23을 참조하면, 블록 형태 정보가 제1 부호화 단위(2300)는 정사각형임을 나타내고 분할 형태 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(2300)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 정보가 제1 부호화 단위(2300)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(2300)를 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(2310a, 2310b, 2310c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(2320a, 2320b, 2320c)로 분할할 수 있다. According to an embodiment, the image decoding apparatus 100 may divide the first coding unit 2300 based on at least one of the block shape information and the split shape information acquired through the receiver 110. The first coding unit 2300 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape. For example, referring to FIG. 23, when the block shape information indicates that the first coding unit 2300 is square and the split shape information is divided into non-square coding units, the image decoding apparatus 100 may determine the first coding unit. 2300 may be divided into a plurality of non-square coding units. In detail, when the split type information indicates that the first coding unit 2300 is divided into horizontal or vertical directions to determine an odd number of coding units, the image decoding apparatus 100 may form a square first coding unit 2300. ) May be divided into second coding units 2310a, 2310b, and 2310c determined by being split in the vertical direction as odd coding units, or second coding units 2320a, 2320b, and 2320c by splitting into the horizontal direction.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(2300)에 포함되는 제2 부호화 단위(2310a, 2310b, 2310c, 2320a, 2320b, 2320c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(2310a, 2310b, 2310c, 2320a, 2320b, 2320c)의 경계에 따라 제1 부호화 단위(2300)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 23를 참조하면 정사각형 형태의 제1 부호화 단위(2300)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(2310a, 2310b, 2310c)들의 경계가 제1 부호화 단위(2300)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(2300)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(2300)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(2320a, 2320b, 2320c)들의 경계가 제1 부호화 단위(2300)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(2300)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(2300)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.According to an embodiment, the image decoding apparatus 100 may process the second coding units 2310a, 2310b, 2310c, 2320a, 2320b, and 2320c included in the first coding unit 2300 in a predetermined order. The condition is whether the at least one of the width and height of the first coding unit 2300 is divided in half according to the boundary of the second coding unit (2310a, 2310b, 2310c, 2320a, 2320b, 2320c). Related to whether or not. Referring to FIG. 23, a boundary between second coding units 2310a, 2310b, and 2310c, which is determined by dividing a square first coding unit 2300 in a vertical direction, divides the width of the first coding unit 2300 in half. As a result, the first coding unit 2300 may be determined to not satisfy a condition that may be processed in a predetermined order. In addition, since the boundary between the second coding units 2320a, 2320b, and 2320c, which is determined by dividing the first coding unit 2300 having a square shape in the horizontal direction, does not divide the width of the first coding unit 2300 in half, The one coding unit 2300 may be determined as not satisfying a condition that may be processed in a predetermined order. In case of such a condition dissatisfaction, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the first coding unit 2300 is divided into odd coding units based on the determination result. According to an embodiment, when the image decoding apparatus 100 is divided into an odd number of coding units, the image decoding apparatus 100 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, detailed description thereof will be omitted.
일 실시예에 따라, 영상 복호화 장치(100)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.According to an embodiment, the image decoding apparatus 100 may determine various coding units by dividing the first coding unit.
도 23을 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(2300), 비-정사각형 형태의 제1 부호화 단위(2330 또는 2350)를 다양한 형태의 부호화 단위들로 분할할 수 있다. Referring to FIG. 23, the image decoding apparatus 100 may split a first coding unit 2300 having a square shape and a first coding unit 2330 or 2350 having a non-square shape into various coding units. .
도 24은 일 실시예에 따라 영상 복호화 장치(100)가 제1 부호화 단위(2400)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.FIG. 24 illustrates that the second coding unit is split when the second coding unit having a non-square shape determined by splitting the first coding unit 2400 meets a predetermined condition, according to an embodiment. It shows that the form that can be limited.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(110)를 통해 획득한 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(2400)를 비-정사각형 형태의 제2 부호화 단위(2410a, 2410b, 2420a, 2420b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(2410a, 2410b, 2420a, 2420b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(100)는 제2 부호화 단위(2410a, 2410b, 2420a, 2420b) 각각에 관련된 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 제1 부호화 단위(2400)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(2410a)를 수평 방향으로 분할하여 제3 부호화 단위(2412a, 2412b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 좌측 제2 부호화 단위(2410a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(2410b)는 좌측 제2 부호화 단위(2410a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(2410b)가 동일한 방향으로 분할되어 제3 부호화 단위(2414a, 2414b)가 결정된 경우, 좌측 제2 부호화 단위(2410a) 및 우측 제2 부호화 단위(2410b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(2412a, 2412b, 2414a, 2414b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(100)가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(2400)를 4개의 정사각형 형태의 제2 부호화 단위(2430a, 2430b, 2430c, 2430d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.According to an exemplary embodiment, the image decoding apparatus 100 may determine a square-type first coding unit 2400 having a non-square shape based on at least one of block shape information and segmentation shape information acquired through the receiver 110. It may be determined by dividing into two coding units 2410a, 2410b, 2420a, and 2420b. The second coding units 2410a, 2410b, 2420a, and 2420b may be split independently. Accordingly, the image decoding apparatus 100 determines whether to split or not split into a plurality of coding units based on at least one of block shape information and split shape information related to each of the second coding units 2410a, 2410b, 2420a, and 2420b. Can be. According to an exemplary embodiment, the image decoding apparatus 100 divides the left second coding unit 2410a having a non-square shape in a horizontal direction by dividing the first coding unit 2400 in a vertical direction to form a third coding unit ( 2412a, 2412b) can be determined. However, when the image decoding apparatus 100 divides the left second coding unit 2410a in the horizontal direction, the right second coding unit 2410b may have the same horizontal direction as the direction in which the left second coding unit 2410a is divided. It can be limited to not be divided into. If the right second coding unit 2410b is divided in the same direction and the third coding units 2414a and 2414b are determined, the left second coding unit 2410a and the right second coding unit 2410b are respectively horizontal. By splitting independently, the third coding units 2412a, 2412b, 2414a, and 2414b may be determined. However, this means that the image decoding apparatus 100 divides the first coding unit 2400 into four square second coding units 2430a, 2430b, 2430c, and 2430d based on at least one of block shape information and split shape information. This is the same result as the above, which may be inefficient in terms of image decoding.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 제1 부호화 단위(2400)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(2420a 또는 2420b)를 수직 방향으로 분할하여 제3 부호화 단위(2422a, 2422b, 2424a, 2424b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(2420a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(2420b))는 상단 제2 부호화 단위(2420a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다. According to an exemplary embodiment, the image decoding apparatus 100 divides a second coding unit 2420a or 2420b having a non-square shape, determined by dividing the first coding unit 2400 in a horizontal direction, in a vertical direction, to thereby form a third coding unit. (2422a, 2422b, 2424a, 2424b) can be determined. However, when the image decoding apparatus 100 divides one of the second coding units (for example, the upper second coding unit 2420a) in the vertical direction, another image coding unit (for example, the lower end) may be used according to the above reason. The coding unit 2420b may restrict the upper second coding unit 2420a from being split in the vertical direction in the same direction as the split direction.
도 25은 일 실시예에 따라 분할 형태 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치(100)가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.FIG. 25 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus 100 when the split shape information cannot be divided into four square coding units according to an exemplary embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(2500)를 분할하여 제2 부호화 단위(2510a, 2510b, 2520a, 2520b 등)를 결정할 수 있다. 분할 형태 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 정보에 따르면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(2500)를 4개의 정사각형 형태의 제2 부호화 단위(2530a, 2530b, 2530c, 2530d)로 분할하지 못한다. 분할 형태 정보에 기초하여 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(2510a, 2510b, 2520a, 2520b 등)를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 divides the first coding unit 2500 based on at least one of the block shape information and the split shape information to divide the second coding units 2510a, 2510b, 2520a, 2520b, and the like. You can decide. The split type information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into four coding units having a square shape. According to the divided form information, the image decoding apparatus 100 may not divide the first coding unit 2500 having a square shape into four second coding units 2530a, 2530b, 2530c, and 2530d having a square shape. The image decoding apparatus 100 may determine the non-square second coding units 2510a, 2510b, 2520a, 2520b, and the like based on the segmentation information.
일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(2510a, 2510b, 2520a, 2520b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(2510a, 2510b, 2520a, 2520b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 제1 부호화 단위(2500)가 분할되는 방법에 대응하는 분할 방법일 수 있다. According to an embodiment, the image decoding apparatus 100 may independently split the non-square second coding units 2510a, 2510b, 2520a, 2520b, and the like. Each of the second coding units 2510a, 2510b, 2520a, 2520b, etc. may be split in a predetermined order through a recursive method, which is based on at least one of block shape information and split shape information 2500. ) May be a division method corresponding to the division method.
예를 들면 영상 복호화 장치(100)는 좌측 제2 부호화 단위(2510a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2512a, 2512b)를 결정할 수 있고, 우측 제2 부호화 단위(2510b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2514a, 2514b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 좌측 제2 부호화 단위(2510a) 및 우측 제2 부호화 단위(2510b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2516a, 2516b, 2516c, 2516d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(2500)가 4개의 정사각형 형태의 제2 부호화 단위(2530a, 2530b, 2530c, 2530d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다. For example, the image decoding apparatus 100 may determine the third coding units 2512a and 2512b having a square shape by dividing the left second coding unit 2510a in the horizontal direction, and the right second coding unit 2510b The third coding units 2514a and 2514b having a square shape may be determined by being split in the horizontal direction. Furthermore, the image decoding apparatus 100 may divide the left second coding unit 2510a and the right second coding unit 2510b in the horizontal direction to determine the third coding units 2516a, 2516b, 2516c, and 2516d having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 2500 is divided into four square second coding units 2530a, 2530b, 2530c, and 2530d.
또 다른 예를 들면 영상 복호화 장치(100)는 상단 제2 부호화 단위(2520a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2522a, 2522b)를 결정할 수 있고, 하단 제2 부호화 단위(2520b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2524a, 2524b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 상단 제2 부호화 단위(2520a) 및 하단 제2 부호화 단위(2520b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(2526a, 2526b, 2526a, 2526b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(2500)가 4개의 정사각형 형태의 제2 부호화 단위(2530a, 2530b, 2530c, 2530d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.  For another example, the image decoding apparatus 100 may determine the third coding units 2522a and 2522b having a square shape by dividing the upper second coding unit 2520a in the vertical direction, and lower second coding unit 2520b. ) May be divided in a vertical direction to determine third coding units 2524a and 2524b having a square shape. Furthermore, the image decoding apparatus 100 may divide the upper second coding unit 2520a and the lower second coding unit 2520b in the vertical direction to determine the third coding units 2526a, 2526b, 2526a, and 2526b having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 2500 is divided into four square second coding units 2530a, 2530b, 2530c, and 2530d.
도 26는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.FIG. 26 illustrates that a processing order between a plurality of coding units may vary according to a division process of coding units, according to an embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보에 기초하여 제1 부호화 단위(2600)를 분할할 수 있다. 블록 형태 정보가 정사각형 형태를 나타내고, 분할 형태 정보가 제1 부호화 단위(2600)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(2600)를 분할하여 제2 부호화 단위(예를 들면, 2610a, 2610b, 2620a, 2620b 등)를 결정할 수 있다. 도 26를 참조하면 제1 부호화 단위2600)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(2610a, 2610b, 2620a, 2620b)는 각각에 대한 블록 형태 정보 및 분할 형태 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(100)는 제1 부호화 단위(2600)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(2610a, 2610b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(2616a, 2616b, 2616c, 2616d)를 결정할 수 있고, 제1 부호화 단위(2600)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(2620a, 2620b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(2626a, 2626b, 2626c, 2626d)를 결정할 수 있다. 이러한 제2 부호화 단위(2610a, 2610b, 2620a, 2620b)의 분할 과정은 도 25과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. According to an embodiment, the image decoding apparatus 100 may divide the first coding unit 2600 based on the block shape information and the split shape information. When the block shape information indicates a square shape and the split shape information indicates that the first coding unit 2600 is split in at least one of a horizontal direction and a vertical direction, the image decoding apparatus 100 may determine the first coding unit 2600. ) May be determined to determine a second coding unit (eg, 2610a, 2610b, 2620a, 2620b, etc.). Referring to FIG. 26, the second coding units 2610a, 2610b, 2620a, and 2620b of the non-square shape determined by dividing the first coding unit 2600 only in the horizontal direction or the vertical direction may each have block shape information and split shape information. It can be divided independently based on. For example, the image decoding apparatus 100 divides the second coding units 2610a and 2610b, which are generated by splitting the first coding unit 2600 in the vertical direction, in the horizontal direction, respectively, to separate the third coding units 2616a and 2616b, 2616c and 2616d, and the second coding units 2620a and 2620b generated by dividing the first coding unit 2600 in the horizontal direction are divided in the horizontal direction, respectively, and the third coding units 2626a, 2626b and 2626c. , 2626d). Since the splitting process of the second coding units 2610a, 2610b, 2620a, and 2620b has been described above with reference to FIG. 25, a detailed description thereof will be omitted.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 21와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 26를 참조하면 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(2600)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, 2626d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(2600)가 분할되는 형태에 따라 제3 부호화 단위(2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, 2626d)의 처리 순서를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may process coding units in a predetermined order. Features of the processing of coding units according to a predetermined order have been described above with reference to FIG. 21, and thus a detailed description thereof will be omitted. Referring to FIG. 26, the image decoding apparatus 100 splits a first coding unit 2600 having a square shape to form four square third coding units 2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, and 2626d. ) Can be determined. According to an exemplary embodiment, the image decoding apparatus 100 may process a sequence of the third coding units 2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, and 2626d according to a form in which the first coding unit 2600 is divided. You can decide.
일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(2610a, 2610b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(2616a, 2616b, 2616c, 2616d)를 결정할 수 있고, 영상 복호화 장치(100)는 좌측 제2 부호화 단위(2610a)에 포함되는 제3 부호화 단위(2616a, 2616c)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(2610b)에 포함되는 제3 부호화 단위(2616b, 2616d)를 수직 방향으로 처리하는 순서(2617)에 따라 제3 부호화 단위(2616a, 2616b, 2616c, 2616d)를 처리할 수 있다. According to an embodiment, the image decoding apparatus 100 divides the second coding units 2610a and 2610b generated by splitting in the vertical direction in the horizontal direction, respectively, to determine the third coding units 2616a, 2616b, 2616c, and 2616d. The image decoding apparatus 100 may first process the third coding units 2616a and 2616c included in the left second coding unit 2610a in the vertical direction, and then include the right coding unit 2610b in the right second coding unit 2610b. The third coding units 2616a, 2616b, 2616c, and 2616d may be processed according to an order 2615 that processes the third coding units 2616b and 2616d in the vertical direction.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(2620a, 2620b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(2626a, 2626b, 2626c, 2626d)를 결정할 수 있고, 영상 복호화 장치(100)는 상단 제2 부호화 단위(2620a)에 포함되는 제3 부호화 단위(2626a, 2626b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(2620b)에 포함되는 제3 부호화 단위(2626c, 2626d)를 수평 방향으로 처리하는 순서(2627)에 따라 제3 부호화 단위(2626a, 2626b, 2626c, 2626d)를 처리할 수 있다.According to an embodiment, the image decoding apparatus 100 determines the third coding units 2626a, 2626b, 2626c, and 2626d by dividing the second coding units 2620a and 2620b generated by dividing in the horizontal direction, respectively. The image decoding apparatus 100 may first process the third coding units 2626a and 2626b included in the upper second coding unit 2620a in the horizontal direction, and then include the lower coding unit 2620b. The third coding units 2626a, 2626b, 2626c, and 2626d may be processed according to an order 2627 that processes the third coding units 2626c and 2626d in the horizontal direction.
도 26를 참조하면, 제2 부호화 단위(2610a, 2610b, 2620a, 2620b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, 2626d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(2610a, 2610b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(2620a, 2620b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, 2626d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(2600)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.Referring to FIG. 26, second coding units 2610a, 2610b, 2620a, and 2620b may be divided, respectively, and square third coding units 2616a, 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, and 2626d may be determined. have. The second coding units 2610a and 2610b that are determined by dividing in the vertical direction and the second coding units 2620a and 2620b that are determined by dividing in the horizontal direction are divided into different forms, but are determined later. , 2616b, 2616c, 2616d, 2626a, 2626b, 2626c, and 2626d eventually result in splitting the first coding unit 2600 into coding units having the same type. Accordingly, the apparatus 100 for decoding an image recursively splits a coding unit through a different process based on at least one of block shape information and split shape information, and as a result, even if the coding units having the same shape are determined, the plurality of pictures determined in the same shape are determined. Coding units may be processed in different orders.
도 27은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.FIG. 27 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.According to an embodiment, the image decoding apparatus 100 may determine the depth of a coding unit according to a predetermined criterion. For example, the predetermined criterion may be the length of the long side of the coding unit. When the length of the long side of the current coding unit is divided by 2n (n> 0) times the length of the long side of the coding unit before the split, the depth of the current coding unit is greater than the depth of the coding unit before the split. It can be determined that the depth is increased by n. Hereinafter, a coding unit having an increased depth is expressed as a coding unit of a lower depth.
도 27을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(100)는 정사각형 형태인 제1 부호화 단위(2700)를 분할하여 하위 심도의 제2 부호화 단위(2702), 제3 부호화 단위(2704) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(2700)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(2700)의 너비 및 높이를 1/2배로 분할하여 결정된 제2 부호화 단위(2702)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(2702)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(2704)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(2704)의 너비 및 높이는 제1 부호화 단위(2700)의 1/4배에 해당한다. 제1 부호화 단위(2700)의 심도가 D인 경우 제1 부호화 단위(2700)의 너비 및 높이의 1/2배인 제2 부호화 단위(2702)의 심도는 D+1일 수 있고, 제1 부호화 단위(2700)의 너비 및 높이의 1/4배인 제3 부호화 단위(2704)의 심도는 D+2일 수 있다. Referring to FIG. 27, according to an embodiment, the image decoding apparatus 100 may have a square shape, based on block shape information indicating a square shape (for example, block shape information may indicate '0: SQUARE'). The first coding unit 2700 may be divided to determine a second coding unit 2702, a third coding unit 2704, or the like of a lower depth. If the size of the square first coding unit 2700 is 2Nx2N, the second coding unit 2702 determined by dividing the width and height of the first coding unit 2700 by 1/2 times may have a size of NxN. have. Furthermore, the third coding unit 2704 determined by dividing the width and the height of the second coding unit 2702 into 1/2 size may have a size of N / 2 × N / 2. In this case, the width and height of the third coding unit 2704 correspond to 1/4 times the first coding unit 2700. When the depth of the first coding unit 2700 is D, the depth of the second coding unit 2702, which is 1/2 the width and height of the first coding unit 2700, may be D + 1, and the first coding unit The depth of the third coding unit 2704, which is 1/4 of the width and the height of 2700, may be D + 2.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(100)는 비-정사각형 형태인 제1 부호화 단위(2710 또는 2720)를 분할하여 하위 심도의 제2 부호화 단위(2712 또는 2722), 제3 부호화 단위(2714 또는 2724) 등을 결정할 수 있다. According to one embodiment, block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height). 2: may represent NS_HOR '), the image decoding apparatus 100 may divide the first coding unit 2710 or 2720 having a non-square shape to divide the second coding unit 2712 or 2722 of the lower depth, The third coding unit 2714 or 2724 may be determined.
영상 복호화 장치(100)는 Nx2N 크기의 제1 부호화 단위(2710)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 2702, 2712, 2722 등)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(2710)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(2702) 또는 NxN/2 크기의 제2 부호화 단위(2722)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(2712)를 결정할 수도 있다.The image decoding apparatus 100 may determine a second coding unit (eg, 2702, 2712, 2722, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 2710. That is, the image decoding apparatus 100 may divide the first coding unit 2710 in the horizontal direction to determine a second coding unit 2702 of NxN size or a second coding unit 2722 of NxN / 2 size. The second coding unit 2712 having the size of N / 2 × N may be determined by splitting in the horizontal direction and the vertical direction.
일 실시예에 따라 영상 복호화 장치(100)는 2NxN 크기의 제1 부호화 단위(2720) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 2702, 2712, 2722 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(2720)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(2702) 또는 N/2xN 크기의 제2 부호화 단위(2712)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(2722)를 결정할 수도 있다.According to an embodiment, the image decoding apparatus 100 determines at least one of a width and a height of a 2N × N sized first coding unit 2720 to determine a second coding unit (eg, 2702, 2712, 2722, etc.). It may be. That is, the image decoding apparatus 100 may divide the first coding unit 2720 in the vertical direction to determine a second coding unit 2702 of size NxN or a second coding unit 2712 of size N / 2xN. The second coding unit 2722 having the size of NxN / 2 may be determined by splitting in the horizontal direction and the vertical direction.
일 실시예에 따라 영상 복호화 장치(100)는 NxN 크기의 제2 부호화 단위(2702) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2704, 2714, 2724 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(2702)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2704)를 결정하거나 N/4xN/2 크기의 제3 부호화 단위(2714)를 결정하거나 N/2xN/4 크기의 제3 부호화 단위(2724)를 결정할 수 있다.According to an embodiment, the image decoding apparatus 100 determines at least one of a width and a height of the NxN-sized second coding unit 2702 to determine a third coding unit (eg, 2704, 2714, 2724, etc.). It may be. That is, the image decoding apparatus 100 determines the third coding unit 2704 having the size of N / 2xN / 2 by dividing the second coding unit 2702 in the vertical direction and the horizontal direction, or the N / 4xN / 2 size 3 coding units 2714 may be determined, or a third coding unit 2724 having a size of N / 2 × N / 4 may be determined.
일 실시예에 따라 영상 복호화 장치(100)는 N/2xN 크기의 제2 부호화 단위(2712)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2704, 2714, 2724 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(2712)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2704) 또는 N/2xN/4 크기의 제3 부호화 단위(2724)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/4xN/2 크기의 제3 부호화 단위(2714)를 결정할 수 있다.According to an embodiment, the image decoding apparatus 100 splits at least one of a width and a height of the N / 2xN sized second coding unit 2712, for example, a third coding unit (eg, 2704, 2714, 2724, etc.). May be determined. That is, the image decoding apparatus 100 divides the second coding unit 2712 in the horizontal direction, so that the third coding unit 2704 having N / 2xN / 2 size or the third coding unit 2724 having N / 2xN / 4 size. ) May be determined or divided into vertical and horizontal directions to determine a third coding unit 2714 having an N / 4xN / 2 size.
일 실시예에 따라 영상 복호화 장치(100)는 NxN/2 크기의 제2 부호화 단위(2722)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 2704, 2714, 2724 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(2722)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(2704) 또는 N/4xN/2 크기의 제3 부호화 단위(2714)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/4크기의 제3 부호화 단위(2724)를 결정할 수 있다.According to an embodiment, the image decoding apparatus 100 divides at least one of a width and a height of the second coding unit 2722 having an N × N / 2 size to form a third coding unit (eg, 2704, 2714, 2724, etc.). May be determined. That is, the image decoding apparatus 100 divides the second coding unit 2722 in the vertical direction to form a third coding unit 2704 of size N / 2xN / 2 or a third coding unit 2714 of size N / 4xN / 2. ) May be determined or divided in the vertical direction and the horizontal direction to determine the third coding unit 2724 having the size of N / 2 × N / 4.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 부호화 단위(예를 들면, 2700, 2702, 2704)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(2700)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(2710)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(2720)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(2700)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(2700)의 심도와 동일할 수 있다.According to an embodiment, the image decoding apparatus 100 may divide a coding unit having a square shape (for example, 2700, 2702, and 2704) in a horizontal direction or a vertical direction. For example, the first coding unit 2700 of size 2Nx2N is split in the vertical direction to determine the first coding unit 2710 of size Nx2N, or the first coding unit 2720 of size 2NxN is determined by splitting in the horizontal direction. Can be. According to an embodiment, when the depth is determined based on the length of the longest side of the coding unit, the depth of the coding unit determined by dividing the first coding unit 2700 having a 2N × 2N size in the horizontal direction or the vertical direction may be determined by the first encoding. It may be equal to the depth of the unit 2700.
일 실시예에 따라 제3 부호화 단위(2714 또는 2724)의 너비 및 높이는 제1 부호화 단위(2710 또는 2720)의 1/4배에 해당할 수 있다. 제1 부호화 단위(2710 또는 2720)의 심도가 D인 경우 제1 부호화 단위(2710 또는 2720)의 너비 및 높이의 1/2배인 제2 부호화 단위(2712 또는 2722)의 심도는 D+1일 수 있고, 제1 부호화 단위(2710 또는 2720)의 너비 및 높이의 1/4배인 제3 부호화 단위(2714 또는 2724)의 심도는 D+2일 수 있다. According to an embodiment, the width and height of the third coding unit 2714 or 2724 may correspond to 1/4 times the first coding unit 2710 or 2720. When the depth of the first coding unit 2710 or 2720 is D, the depth of the second coding unit 2712 or 2722 that is 1/2 times the width and the height of the first coding unit 2710 or 2720 may be D + 1. The depth of the third coding unit 2714 or 2724, which is 1/4 of the width and the height of the first coding unit 2710 or 2720, may be D + 2.
도 28은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.FIG. 28 illustrates a depth and a part index (PID) for classifying coding units, which may be determined according to the shape and size of coding units, according to an embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(2800)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 28를 참조하면, 영상 복호화 장치(100)는 분할 형태 정보에 따라 제1 부호화 단위(2800)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, 2806d)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(2800)에 대한 분할 형태 정보에 기초하여 제2 부호화 단위(2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, 2806d)를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may determine a second coding unit having various forms by dividing the first coding unit 2800 having a square shape. Referring to FIG. 28, the image decoding apparatus 100 divides the first coding unit 2800 in at least one of a vertical direction and a horizontal direction according to the split type information to form second coding units 2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, and 2806d. That is, the image decoding apparatus 100 may determine the second coding units 2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, and 2806d based on the split shape information about the first coding unit 2800.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(2800)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, 2806d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(2800)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(2802a, 2802b, 2804a, 2804b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(2800)와 비-정사각형 형태의 제2 부호화 단위(2802a, 2802b, 2804a, 2804b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(100)가 분할 형태 정보에 기초하여 제1 부호화 단위(2800)를 4개의 정사각형 형태의 제2 부호화 단위(2806a, 2806b, 2806c, 2806d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(2806a, 2806b, 2806c, 2806d)의 한 변의 길이는 제1 부호화 단위(2800)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(2806a, 2806b, 2806c, 2806d)의 심도는 제1 부호화 단위(2800)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.According to an embodiment, the second coding units 2802a, 2802b, 2804a, 2804b, 2806a, 2806b, 2806c, and 2806d, which are determined according to split shape information about the first coding unit 2800 having a square shape, have a long side length. Depth can be determined based on this. For example, since the length of one side of the first coding unit 2800 having a square shape and the length of the long side of the second coding units 2802a, 2802b, 2804a, and 2804b having a non-square shape are the same, the first coding unit ( 2800 and the non-square second coding units 2802a, 2802b, 2804a, and 2804b have the same depth as D. In contrast, when the image decoding apparatus 100 divides the first coding unit 2800 into four square coding units 2806a, 2806b, 2806c, and 2806d based on the split shape information, Since the length of one side of the two coding units 2806a, 2806b, 2806c, and 2806d is 1/2 times the length of one side of the first coding unit 2800, the depth of the second coding units 2806a, 2806b, 2806c, and 2806d is increased. May be a depth of D + 1 that is one depth lower than D, which is a depth of the first coding unit 2800.
일 실시예에 따라 영상 복호화 장치(100)는 높이가 너비보다 긴 형태의 제1 부호화 단위(2810)를 분할 형태 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(2812a, 2812b, 2814a, 2814b, 2814c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 너비가 높이보다 긴 형태의 제1 부호화 단위(2820)를 분할 형태 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(2822a, 2822b, 2824a, 2824b, 2824c)로 분할할 수 있다.According to an exemplary embodiment, the image decoding apparatus 100 divides a first coding unit 2810 having a shape having a height greater than a width in a horizontal direction according to split shape information, thereby providing a plurality of second coding units 2812a, 2812b, 2814a, 2814b, 2814c. According to an exemplary embodiment, the image decoding apparatus 100 divides a first coding unit 2820 having a shape having a width greater than a height in a vertical direction according to split shape information, thereby providing a plurality of second coding units 2822a, 2822b, 2824a, 2824b, 2824c).
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(2810 또는 2820)에 대한 분할 형태 정보에 따라 결정되는 제2 부호화 단위(2812a, 2812b, 2814a, 2814b, 2814c. 2822a, 2822b, 2824a, 2824b, 2824c)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(2812a, 2812b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(2810)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(2812a, 2812b)의 심도는 비-정사각형 형태의 제1 부호화 단위(2810)의 심도 D보다 한 심도 하위의 심도인 D+1이다. According to an embodiment, second coding units 2812a, 2812b, 2814a, 2814b, 2814c, 2822a, 2822b, 2824a, and 2824b that are determined according to split shape information about the first coding unit 2810 or 2820 having a non-square shape. , 2824c) may be determined based on the length of the long side. For example, since the length of one side of the second coding units 2812a and 2812b having a square shape is 1/2 times the length of one side of the first coding unit 2810 having a non-square shape having a height greater than the width, The depths of the second coding units 2812a and 2812b of the shape are D + 1, which is one depth lower than the depth D of the first coding unit 2810 of the non-square shape.
나아가 영상 복호화 장치(100)가 분할 형태 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(2810)를 홀수개의 제2 부호화 단위(2814a, 2814b, 2814c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(2814a, 2814b, 2814c)는 비-정사각형 형태의 제2 부호화 단위(2814a, 2814c) 및 정사각형 형태의 제2 부호화 단위(2814b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(2814a, 2814c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(2814b)의 한 변의 길이는 제1 부호화 단위(2810)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(2814a, 2814b, 2814c)의 심도는 제1 부호화 단위(2810)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(2810)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(2820)와 관련된 부호화 단위들의 심도를 결정할 수 있다.Furthermore, the image decoding apparatus 100 may divide the non-square first coding unit 2810 into odd second coding units 2814a, 2814b, and 2814c based on the split shape information. The odd-numbered second coding units 2814a, 2814b, and 2814c may include second coding units 2814a and 2814c having a non-square shape and second coding units 2814b having a square shape. In this case, the length of the long side of the second coding units 2814a and 2814c of the non-square shape and the length of one side of the second coding unit 2814b of the square shape are 1 / time of the length of one side of the first coding unit 2810. Since the depth is twice, the depths of the second coding units 2814a, 2814b, and 2814c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 2810. The image decoding apparatus 100 corresponds to the above-described method of determining depths of coding units related to the first coding unit 2810 and is related to the first coding unit 2820 having a non-square shape having a width greater than the height. Depth of coding units may be determined.
일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 28를 참조하면, 홀수개로 분할된 부호화 단위들(2814a, 2814b, 2814c) 중 가운데에 위치하는 부호화 단위(2814b)는 다른 부호화 단위들(2814a, 2814c)와 너비는 동일하지만 높이가 다른 부호화 단위들(2814a, 2814c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(2814b)는 다른 부호화 단위들(2814a, 2814c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(2814b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(2814c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다. According to an embodiment, when the image decoding apparatus 100 determines an index (PID) for dividing the divided coding units, when the odd-numbered split coding units are not the same size, the image decoding apparatus 100 may determine the size ratio between the coding units. The index can be determined based on this. Referring to FIG. 28, a coding unit 2814b positioned in the center of odd-numbered split coding units 2814a, 2814b, and 2814c has the same width as the other coding units 2814a and 2814c but has a different height. It may be twice the height of the fields 2814a, 2814c. That is, in this case, the coding unit 2814b positioned in the middle may include two of the other coding units 2814a and 2814c. Therefore, if the index (PID) of the coding unit 2814b located in the center according to the scan order is 1, the coding unit 2814c located in the next order may be 3 having an index of 2 increased. That is, there may be a discontinuity in the value of the index. According to an embodiment, the image decoding apparatus 100 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 28를 참조하면 영상 복호화 장치(100)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(2810)를 분할하여 짝수개의 부호화 단위(2812a, 2812b)를 결정하거나 홀수개의 부호화 단위(2814a, 2814b, 2814c)를 결정할 수 있다. 영상 복호화 장치(100)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다. According to an embodiment, the image decoding apparatus 100 may determine whether the image decoding apparatus 100 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 28, the image decoding apparatus 100 determines an even number of coding units 2812a and 2812b by dividing a first coding unit 2810 having a rectangular shape whose height is greater than a width, or may determine an odd number of coding units 2814a and 2814b. 2814c). The image decoding apparatus 100 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(2810)에 대한 분할 형태 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(2810)를 3개의 부호화 단위(2814a, 2814b, 2814c)로 분할할 수 있다. 영상 복호화 장치(100)는 3개의 부호화 단위(2814a, 2814b, 2814c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(100)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(100)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(2814b)를, 제1 부호화 단위(2810)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 28를 참조하면, 제1 부호화 단위(2810)가 분할되어 생성된 부호화 단위(2814b)는 다른 부호화 단위들(2814a, 2814c)와 너비는 동일하지만 높이가 다른 부호화 단위들(2814a, 2814c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(2814b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(2814c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(100)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(100)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다. According to an embodiment, the image decoding apparatus 100 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for dividing coding units. According to an embodiment, when the split type information of the first coding unit 2810 having a height greater than the width is divided into three coding units, the image decoding apparatus 100 may determine the first coding unit 2810. It may be divided into three coding units 2814a, 2814b, and 2814c. The image decoding apparatus 100 may allocate an index for each of three coding units 2814a, 2814b, and 2814c. The image decoding apparatus 100 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units. The image decoding apparatus 100 encodes a coding unit 2814b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 2810. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, the image decoding apparatus 100 may determine the indexes based on the size ratio between the coding units when the coding units are not the same size. . Referring to FIG. 28, the coding unit 2814b generated by dividing the first coding unit 2810 may include the coding units 2814a and 2814c having the same width but different heights as the other coding units 2814a and 2814c. It can be twice the height. In this case, if the index (PID) of the coding unit 2814b positioned in the center is 1, the coding unit 2814c located in the next order may be 3 having an index increased by 2. In this case, when the index is uniformly increased and the increment is changed, the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of coding units including a coding unit having a different size from other coding units. In this case, when the split form information is divided into odd coding units, the image decoding apparatus 100 may have a shape different from a coding unit having a different coding unit (for example, a middle coding unit) at a predetermined position among the odd coding units. The current coding unit can be divided by. In this case, the image decoding apparatus 100 may determine a coding unit having a different size by using an index (PID) for the coding unit. However, the above-described index, the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다. According to an embodiment, the image decoding apparatus 100 may use a predetermined data unit at which recursive division of coding units begins.
도 29는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.FIG. 29 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 블록 형태 정보 및 분할 형태 정보 중 적어도 하나를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다. According to an embodiment, the predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using at least one of block shape information and split shape information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture. Hereinafter, for convenience of description, such a predetermined data unit will be referred to as a reference data unit.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다. According to an embodiment, the reference data unit may represent a predetermined size and shape. According to an embodiment, the reference coding unit may include samples of M × N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 형태 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다. According to an embodiment, the image decoding apparatus 100 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 100 may divide a plurality of reference data units for dividing a current picture by using split type information for each reference data unit. The division process of the reference data unit may correspond to the division process using a quad-tree structure.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(100)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 블록 형태 정보 및 분할 형태 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다. According to an embodiment, the image decoding apparatus 100 may predetermine the minimum size of the reference data unit included in the current picture. Accordingly, the image decoding apparatus 100 may determine a reference data unit having various sizes having a minimum size or more, and determine at least one coding unit by using block shape information and split shape information based on the determined reference data unit. You can decide.
도 29를 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 기준 부호화 단위(2900)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(2902)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 최대부호화단위 등)에 따라 결정될 수 있다. Referring to FIG. 29, the image decoding apparatus 100 may use a reference coding unit 2900 in a square shape, or may use a reference coding unit 2902 in a non-square shape. According to an embodiment, the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, maximum coding unit, etc.).
일 실시예에 따라 영상 복호화 장치(100)의 수신부(110)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(2900)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 17의 현재 부호화 단위(1700)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(2902)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 18의 현재 부호화 단위(1800 또는 1850)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.According to an exemplary embodiment, the receiving unit 110 of the image decoding apparatus 100 may obtain at least one of information on the shape of a reference coding unit and information on the size of the reference coding unit from each bitstream. . The process of determining at least one coding unit included in the reference coding unit 2900 having a square shape is described above by splitting the current coding unit 1700 of FIG. 17, and the reference coding unit having a non-square shape 2902 is described. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 1800 or 1850 of FIG. 18, a detailed description thereof will be omitted.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(110)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(100)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(100)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.According to an embodiment, the image decoding apparatus 100 may determine the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit predetermined based on a predetermined condition. Can be used. That is, the receiver 110 may determine a predetermined condition (for example, a data unit having a size less than or equal to a slice) among the various data units (eg, sequence, picture, slice, slice segment, maximum coding unit, etc.) from the bitstream. For each slice, slice segment, maximum coding unit, or the like as a data unit satisfying, only an index for identifying the size and shape of the reference coding unit may be obtained. The image decoding apparatus 100 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index. When information on the shape of the reference coding unit and information on the size of the reference coding unit are obtained from the bitstream for each data unit having a relatively small size, the use efficiency of the bitstream may not be good, and thus the shape of the reference coding unit Instead of directly acquiring information about the information and the size of the reference coding unit, only the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined. That is, the image decoding apparatus 100 selects at least one of the predetermined size and shape of the reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the reference for obtaining the index. You can decide.
일 실시예에 따라 영상 복호화 장치(100)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(100)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 정보 중 적어도 하나에 기초하여 분할할 수 있다.According to an embodiment, the image decoding apparatus 100 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure. That is, the image decoding apparatus 100 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, the reference coding unit may include at least one of block shape information and split shape information. Can be divided based on.
도 30은 일 실시예에 따라 픽쳐(3000)에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.30 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture 3000, according to an exemplary embodiment.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다. According to an embodiment, the image decoding apparatus 100 may determine at least one processing block for dividing a picture. The processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block. The order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be construed as being limited to the scan orders.
일 실시예에 따라 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다. According to an embodiment, the image decoding apparatus 100 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block. The image decoding apparatus 100 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream. The size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(110)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(110)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다. According to an embodiment, the receiver 110 of the image decoding apparatus 100 may obtain information about the size of a processing block from a bitstream for each specific data unit. For example, the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, and a slice segment. That is, the receiver 110 may obtain information about the size of the processing block from the bitstream for each of the various data units, and the image decoding apparatus 100 may at least divide the picture using the information about the size of the acquired processing block. The size of one processing block may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐(3000)에 포함되는 프로세싱 블록(3002, 3012)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 30을 참조하면, 영상 복호화 장치(100)는 일 실시예에 따라 프로세싱 블록(3002, 3012)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(100)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.According to an embodiment, the image decoding apparatus 100 may determine the sizes of the processing blocks 3002 and 3012 included in the picture 3000. For example, the image decoding apparatus 100 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 30, the image decoding apparatus 100 according to an embodiment may include a horizontal size of the processing blocks 3002 and 3012 as four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit. You can decide. The image decoding apparatus 100 may determine an order in which at least one reference coding unit is determined in at least one processing block.
일 실시예에 따라, 영상 복호화 장치(100)는 프로세싱 블록의 크기에 기초하여 픽쳐(3000)에 포함되는 각각의 프로세싱 블록(3002, 3012)을 결정할 수 있고, 프로세싱 블록(3002, 3012)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.According to an embodiment, the image decoding apparatus 100 may determine each processing block 3002 and 3012 included in the picture 3000 based on the size of the processing block, and include the processing block 3002 and 3012 in the processing block 3002 and 3012. A determination order of at least one reference coding unit may be determined. According to an embodiment, the determination of the reference coding unit may include the determination of the size of the reference coding unit.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.According to an embodiment, the image decoding apparatus 100 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream, and based on the obtained determination order The order in which at least one reference coding unit is determined may be determined. The information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
일 실시예에 따라 영상 복호화 장치(100)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(110)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.According to an embodiment, the image decoding apparatus 100 may obtain information about a determination order of a reference coding unit from a bitstream for each specific data unit. For example, the receiver 110 may obtain information about a determination order of a reference coding unit from a bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, and a processing block. Since the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block, the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
영상 복호화 장치(100)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.The image decoding apparatus 100 may determine at least one reference coding unit based on the order determined according to the embodiment.
일 실시예에 따라 수신부(110)는 비트스트림으로부터 프로세싱 블록(3002, 3012)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(100)는 상기 프로세싱 블록(3002, 3012)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(3000)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 30을 참조하면, 영상 복호화 장치(100)는 각각의 프로세싱 블록(3002, 3012)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(3004, 3014)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(3002, 3012)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(3002)과 관련된 기준 부호화 단위 결정 순서(3004)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(3002)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(3012)과 관련된 기준 부호화 단위 결정 순서(3014)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(3012)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.According to an embodiment, the receiver 110 may obtain information on a determination order of a reference coding unit from the bitstream as information related to the processing blocks 3002 and 3012, and the image decoding apparatus 100 may process the processing block ( An order of determining at least one reference coding unit included in 3002 and 3012 may be determined, and at least one reference coding unit included in the picture 3000 may be determined according to the determination order of the coding unit. Referring to FIG. 30, the image decoding apparatus 100 may determine the determination order 3004 and 3014 of at least one reference coding unit associated with each processing block 3002 and 3012. For example, when information about a determination order of a reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 3002 or 3012 may be different for each processing block. When the reference coding unit determination order 3004 associated with the processing block 3002 is a raster scan order, the reference coding unit included in the processing block 3002 may be determined according to the raster scan order. In contrast, when the reference coding unit determination order 3014 associated with another processing block 3012 is the reverse order of the raster scan order, the reference coding units included in the processing block 3012 may be determined according to the reverse order of the raster scan order.
영상 복호화 장치(100)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 영상 복호화 장치(100)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.The image decoding apparatus 100 may decode at least one determined reference coding unit according to an embodiment. The image decoding apparatus 100 may decode an image based on the reference coding unit determined through the above-described embodiment. The method of decoding the reference coding unit may include various methods of decoding an image.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 블록 형태 정보 또는 분할 형태 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header)에 포함된 블록 형태 정보 또는 분할 형태 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(100)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 정보에 대응하는 신택스를 비트스트림으로부터 획득하여 이용할 수 있다.According to an embodiment, the image decoding apparatus 100 may obtain and use block shape information indicating a shape of a current coding unit or split shape information indicating a method of dividing a current coding unit from a bitstream. Block type information or split type information may be included in a bitstream associated with various data units. For example, the image decoding apparatus 100 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. block type information or segmentation type information included in a segment header) may be used. In addition, the image decoding apparatus 100 may obtain and use syntax corresponding to block type information or split type information from the bitstream from the bitstream for each maximum coding unit, reference coding unit, and processing block.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 본 개시가 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the various embodiments. Those skilled in the art will appreciate that the present disclosure may be implemented in a modified form without departing from the essential characteristics of the present disclosure. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present disclosure is set forth in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be interpreted as being included in the present disclosure.
한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present disclosure may be written as a program executable on a computer, and may be implemented in a general-purpose digital computer operating the program using a computer-readable recording medium. The computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical reading medium (eg, a CD-ROM, a DVD, etc.).

Claims (20)

  1. 현재 블록의 예측 모드가 어파인 모드인 경우, 수신된 비트스트림으로부터 상기 현재 블록의 제 1 위치에 위치하는 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계;When the prediction mode of the current block is the affine mode, the first direction motion component and the second direction motion component included in the motion information of the first reference pixel located at the first position of the current block are obtained from the received bitstream. Doing;
    상기 비트스트림으로부터 상기 현재 블록의 제 2 위치에 위치하는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계;Obtaining a first directional motion component included in motion information of a second reference pixel located at a second position of the current block from the bitstream;
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계;Obtaining a second directional motion component included in the motion information of the second reference pixel;
    상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록의 제 3 위치에 위치하는 제 3 기준 픽셀의 움직임 정보를 획득하는 단계; 및Obtaining motion information of a third reference pixel located at a third position of the current block based on the motion information of the first reference pixel and the motion information of the second reference pixel; And
    상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.The motion information of the pixels included in the current block is based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. The image decoding method comprising the step of obtaining.
  2. 제 1 항에 있어서 The method of claim 1
    상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계는,Acquiring the motion information of the pixel included in the current block,
    상기 현재 블록의 너비의 길이, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보의 차이(difference)인 제 1 차이 정보를 획득하는 단계;Acquiring first difference information which is a difference between a length of the width of the current block, motion information of the first reference pixel, and motion information of the second reference pixel;
    상기 현재 블록의 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보의 차이(difference)인 제 2 차이 정보를 획득하는 단계; 및 Obtaining second difference information which is a difference between a length of the height of the current block, motion information of the first reference pixel, and motion information of the third reference pixel; And
    상기 현재 블록에 포함된 픽셀의 위치 정보, 상기 제 1 차이 정보 및 상기 제 2 차이 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.And obtaining motion information of the pixels included in the current block based on the position information of the pixels included in the current block, the first difference information, and the second difference information.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계는,Acquiring a second direction motion component included in the motion information of the second reference pixel,
    상기 비트스트림으로부터 상기 제 2 기준 픽셀의 움직임 정보에 포함된 상기 제 2 방향 움직임 성분으로 획득하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.And obtaining the second direction motion component included in the motion information of the second reference pixel from the bitstream.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 비트스트림으로부터 현재 블록의 움직임 타입(type)에 관한 정보를 획득하는 단계를 더 포함하고,Obtaining information about a motion type of a current block from the bitstream;
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계는, 상기 움직임 타입이 줌(zoom)을 나타내는 경우 상기 제 1 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분에 기초하여 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계를 포함하고,The acquiring of the second direction motion component included in the motion information of the second reference pixel may include obtaining a second direction motion component included in the motion information of the first reference pixel when the motion type indicates zoom. Obtaining a second directional motion component included in the motion information of the second reference pixel based on the
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분은 x 방향 움직임 성분이고 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분은 y 방향 움직임 성분인 것을 특징으로 하는 영상 복호화 방법.The first direction motion component included in the motion information of the second reference pixel is an x direction motion component and the second direction motion component included in the motion information of the second reference pixel is a y direction motion component. Way.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 비트스트림으로부터 현재 블록의 움직임 타입(type)에 관한 정보를 획득하는 단계를 더 포함하고,Obtaining information about a motion type of a current block from the bitstream;
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계는, 상기 움직임 타입이 회전(rotation)을 나타내는 경우 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 중 적어도 하나에 기초하여 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계를 포함하고,Acquiring a second direction motion component included in the motion information of the second reference pixel may include: motion information of the first reference pixel and motion information of the second reference pixel when the motion type indicates rotation; Obtaining a second directional motion component included in the motion information of the second reference pixel based on at least one of the first directional motion components included in,
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분은 y 방향 움직임 성분이고 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분은 x 방향 움직임 성분인 것을 특징으로 하는 영상 복호화 방법.Image decoding, characterized in that the first direction motion component included in the motion information of the second reference pixel is a y direction motion component and the second direction motion component included in the motion information of the second reference pixel is an x direction motion component. Way.
  6. 제 1 항에 있어서,The method of claim 1,
    상기 제 3 기준 픽셀의 움직임 정보를 획득하는 단계는,Acquiring the motion information of the third reference pixel,
    상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보의 y 방향 움직임 성분에 기초하여 상기 제 3 기준 픽셀의 움직임 정보의 x 방향 움직임 성분을 획득하는 단계; 및Acquire an x-direction motion component of the motion information of the third reference pixel based on a length of the width and height of the current block, motion information of the first reference pixel, and y-direction motion component of the motion information of the second reference pixel. Doing; And
    상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보의 x 방향 움직임 성분에 기초하여 상기 제 3 기준 픽셀의 움직임 정보의 y 방향 움직임 성분을 획득하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.Obtain a y-direction motion component of the motion information of the third reference pixel based on the length of the width and height of the current block, the motion information of the first reference pixel and the x-direction motion component of the motion information of the second reference pixel. The image decoding method comprising the step of.
  7. 제 1 항에 있어서,The method of claim 1,
    상기 현재 블록의 크기가 임계크기보다 큰 경우 상기 비트스트림으로부터 어파인 모드(affine mode)에 대한 정보를 획득하는 단계;Obtaining information about an affine mode from the bitstream when the size of the current block is larger than a threshold size;
    상기 어파인 모드에 대한 정보가 어파인 모드를 수행함을 나타내는 경우 상기 비트스트림으로부터 움직임 타입에 관한 정보를 획득하는 단계;Acquiring information on a motion type from the bitstream when the information on the affine mode indicates performing the affine mode;
    상기 움직임 타입에 관한 정보가 상기 비트스트림으로부터 3 개의 방향 움직임 성분을 획득하는 것을 나타내는 경우, 상기 비트스트림으로부터 상기 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계; 및A first direction motion component and a second direction motion component included in the motion information of the first reference pixel from the bitstream when the information about the motion type indicates obtaining three direction motion components from the bitstream; Obtaining a first directional motion component included in the motion information of the second reference pixel; And
    상기 움직임 타입에 관한 정보가 상기 비트스트림으로부터 4 개의 방향 움직임 성분을 획득하는 것을 나타내는 경우, 상기 비트스트림으로부터 상기 제 1 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분및 y 방향 움직임 성분, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 x 방향 움직임 성분 및 y 방향 움직임 성분을 획득하는 단계를 더 포함하는 것을 특징으로 하는 영상 복호화 방법.When the information about the motion type indicates obtaining four directional motion components from the bitstream, an x-direction motion component and a y-direction motion component included in the motion information of the first reference pixel from the bitstream; And acquiring an x-direction motion component and a y-direction motion component included in the motion information of the two reference pixels.
  8. 현재 블록의 예측 모드가 어파인 모드인 경우, 상기 현재 블록의 이전에 복원된 주변 블록들의 제 1 위치의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보를 획득하는 단계;If the prediction mode of the current block is an affine mode, obtaining motion information of a first reference pixel based on motion information of a first position of previously reconstructed neighboring blocks of the current block;
    상기 주변 블록들의 제 2 위치의 움직임 정보에 기초하여 제 2 기준 픽셀의 움직임 정보를 획득하는 단계;Obtaining motion information of a second reference pixel based on motion information of a second position of the neighboring blocks;
    상기 주변 블록들의 제 3 위치의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득하는 단계; 및Acquiring motion information of a third reference pixel based on motion information of a third position of the neighboring blocks; And
    상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 포함하고,The motion information of the pixels included in the current block is based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. Including acquiring
    상기 주변 블록들은 상기 현재 블록에 시간적 또는 공간적으로 인접한 것을 특징으로 하는 영상 복호화 방법.The neighboring blocks are temporally or spatially adjacent to the current block.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 현재 블록의 크기가 임계크기보다 크거나, 상기 주변 블록들 중 적어도 하나가 어파인 모드인 경우 수신된 비트스트림으로부터 어파인 모드에 대한 정보를 획득하는 단계;Acquiring information about an affine mode from a received bitstream when the size of the current block is larger than a threshold size or at least one of the neighboring blocks is an affine mode;
    상기 어파인 모드에 대한 정보에 기초하여 현재 블록의 예측 모드를 어파인 모드로 결정하는 단계를 더 포함하는 것을 특징으로 하는 영상 복호화 방법.And determining the prediction mode of the current block as the affine mode based on the information on the affine mode.
  10. 제 8 항에 있어서,The method of claim 8,
    상기 제 1 기준 픽셀의 움직임 정보를 획득하는 단계는,Acquiring the motion information of the first reference pixel,
    좌하측 주변 블록으로부터 우상측 주변 블록까지 순서대로 상기 주변 블록들이 어파인 모드인지 식별하는 단계; 및 Identifying whether the neighboring blocks are in an affine mode in order from a lower left neighboring block to a right upper neighboring block; And
    상기 주변 블록들 중 어파인 모드로 식별된 최초 주변 블록의 상기 제 1 위치의 움직임 정보에 기초하여 상기 제 1 기준 픽셀의 움직임 정보를 획득하는 단계를 특징으로 하는 영상 복호화 방법.And obtaining motion information of the first reference pixel based on motion information of the first location of the first neighboring block identified in the affine mode among the neighboring blocks.
  11. 제 8 항에 있어서,The method of claim 8,
    상기 제 2 기준 픽셀의 움직임 정보를 획득하는 단계는,Acquiring the motion information of the second reference pixel,
    좌상측 주변 블록으로부터 우상측 주변 블록 또는 좌하측 주변 블록까지 지그재그(zigzag) 순서대로 상기 주변 블록들이 어파인 모드인지 식별하는 단계; 및 Identifying whether the peripheral blocks are in an azimuth mode in a zigzag order from an upper left peripheral block to a right upper peripheral block or a lower left peripheral block; And
    상기 주변 블록들 중 어파인 모드로 식별된 최초 주변 블록의 상기 제 2 위치의 움직임 정보에 기초하여 상기 제 2 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.And obtaining motion information of the second reference pixel based on motion information of the second location of the first neighboring block identified in the affine mode among the neighboring blocks.
  12. 제 8 항에 있어서,The method of claim 8,
    상기 제 3 기준 픽셀의 움직임 정보를 획득하는 단계는,Acquiring the motion information of the third reference pixel,
    우상측 주변 블록으로부터 좌하측 주변 블록까지 순서대로 상기 주변 블록들이 어파인 모드인지 식별하는 단계; 및 Identifying whether the neighboring blocks are in an affine mode in order from the upper right neighboring block to the lower left neighboring block; And
    상기 주변 블록들 중 어파인 모드로 식별된 최초 주변 블록의 상기 제 3 위치의 움직임 정보에 기초하여 상기 제 3 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.And obtaining motion information of the third reference pixel based on motion information of the third location of the first neighboring block identified in the affine mode among the neighboring blocks.
  13. 제 8 항에 있어서,The method of claim 8,
    상기 제 1 기준 픽셀의 움직임 정보를 획득하는 단계는,Acquiring the motion information of the first reference pixel,
    상기 현재 블록의 좌상측 픽셀에 인접한 주변 블록의 움직임 정보에 기초하여, 상기 현재 블록의 좌상측 픽셀의 움직임 정보인, 상기 제 1 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하고,Obtaining motion information of the first reference pixel, which is motion information of the upper left pixel of the current block, based on the motion information of the neighboring block adjacent to the upper left pixel of the current block;
    상기 제 2 기준 픽셀의 움직임 정보를 획득하는 단계는,Acquiring the motion information of the second reference pixel,
    상기 현재 블록의 우상측 픽셀에 인접한 주변 블록의 움직임 정보에 기초하여, 상기 현재 블록의 우상측 픽셀의 움직임 정보인, 상기 제 2 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하고,Obtaining motion information of the second reference pixel, which is motion information of a right upper pixel of the current block, based on motion information of a neighboring block adjacent to the right upper pixel of the current block;
    상기 제 3 기준 픽셀의 움직임 정보를 획득하는 단계는,Acquiring the motion information of the third reference pixel,
    상기 현재 블록의 좌하측 픽셀에 인접한 주변 블록의 움직임 정보에 기초하여, 상기 현재 블록의 좌하측 픽셀의 움직임 정보인, 상기 제 3 기준 픽셀의 움직임 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 복호화 방법.And obtaining motion information of the third reference pixel, which is motion information of the lower left pixel of the current block, based on the motion information of the neighboring block adjacent to the lower left pixel of the current block. Decryption method.
  14. 영상 복호화 장치는 적어도 하나의 프로세서를 포함하고,The image decoding apparatus includes at least one processor,
    상기 적어도 하나의 프로세서는,The at least one processor,
    현재 블록의 예측 모드가 어파인 모드인 경우, 수신된 비트스트림으로부터 상기 현재 블록의 제 1 위치에 위치하는 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계;When the prediction mode of the current block is the affine mode, the first direction motion component and the second direction motion component included in the motion information of the first reference pixel located at the first position of the current block are obtained from the received bitstream. Doing;
    상기 비트스트림으로부터 상기 현재 블록의 제 2 위치에 위치하는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계;Obtaining a first directional motion component included in motion information of a second reference pixel located at a second position of the current block from the bitstream;
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계;Obtaining a second directional motion component included in the motion information of the second reference pixel;
    상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록의 제 3 위치에 위치하는 제 3 기준 픽셀의 움직임 정보를 획득하는 단계; 및Obtaining motion information of a third reference pixel located at a third position of the current block based on the motion information of the first reference pixel and the motion information of the second reference pixel; And
    상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 수행하도록 구성되는 것을 특징으로 하는 영상 복호화 장치.The motion information of the pixels included in the current block is based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. The image decoding device, characterized in that configured to perform the obtaining step.
  15. 영상 복호화 장치는 적어도 하나의 프로세서를 포함하고,The image decoding apparatus includes at least one processor,
    상기 적어도 하나의 프로세서는,The at least one processor,
    현재 블록의 예측 모드가 어파인 모드인 경우, 상기 현재 블록의 이전에 복원된 주변 블록들의 제 1 위치의 움직임 정보에 기초하여 제 1 기준 픽셀의 움직임 정보를 획득하는 단계;If the prediction mode of the current block is an affine mode, obtaining motion information of a first reference pixel based on motion information of a first position of previously reconstructed neighboring blocks of the current block;
    상기 주변 블록들의 제 2 위치의 움직임 정보에 기초하여 제 2 기준 픽셀의 움직임 정보를 획득하는 단계;Obtaining motion information of a second reference pixel based on motion information of a second position of the neighboring blocks;
    상기 주변 블록들의 제 3 위치의 움직임 정보에 기초하여 제 3 기준 픽셀의 움직임 정보를 획득하는 단계; 및Acquiring motion information of a third reference pixel based on motion information of a third position of the neighboring blocks; And
    상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계를 수행하도록 구성되고,The motion information of the pixels included in the current block is based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. Configured to perform the acquiring step,
    상기 주변 블록들은 상기 현재 블록에 시간적 또는 공간적으로 인접한 것을 특징으로 하는 영상 복호화 장치.And the neighboring blocks are temporally or spatially adjacent to the current block.
  16. 원본 영상에 포함된 현재 블록과 상기 현재 블록의 이전에 복원된 영상에 기초하여, 상기 현재 블록의 제 1 위치에 위치하는 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계;A first direction motion component and a second direction included in motion information of a first reference pixel positioned at a first position of the current block based on a current block included in an original image and a previously reconstructed image of the current block; Obtaining a motion component;
    상기 현재 블록과 상기 이전에 복원된 영상에 기초하여, 상기 현재 블록의 제 2 위치에 위치하는 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계;Acquiring a first directional motion component included in motion information of a second reference pixel located at a second position of the current block based on the current block and the previously reconstructed image;
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계;Obtaining a second directional motion component included in the motion information of the second reference pixel;
    상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록의 제 3 위치에 위치하는 제 3 기준 픽셀의 움직임 정보를 획득하는 단계;Obtaining motion information of a third reference pixel located at a third position of the current block based on the motion information of the first reference pixel and the motion information of the second reference pixel;
    상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계; 및The motion information of the pixels included in the current block is based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. Obtaining; And
    상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분에 기초하여 비트스트림을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 부호화 방법.And generating a bitstream based on the motion information of the first reference pixel and the first direction motion component included in the motion information of the second reference pixel.
  17. 제 16 항에 있어서,The method of claim 16,
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계는,Acquiring a second direction motion component included in the motion information of the second reference pixel,
    상기 현재 블록과 상기 이전에 복원된 영상에 기초하여, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계를 포함하고,Obtaining a second directional motion component included in motion information of the second reference pixel based on the current block and the previously reconstructed image,
    상기 비트스트림을 생성하는 단계는,Generating the bitstream,
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분에 기초하여 비트스트림을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 부호화 방법.And generating a bitstream based on a second direction motion component included in the motion information of the second reference pixel.
  18. 제 16 항에 있어서,The method of claim 16,
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계는,Acquiring a second direction motion component included in the motion information of the second reference pixel,
    상기 제 1 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분에 기초하여 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 경우, 현재 블록의 움직임 타입(type)은 줌(zoom)임을 결정하는 단계를 포함하고,When acquiring the second direction motion component included in the motion information of the second reference pixel based on the second direction motion component included in the motion information of the first reference pixel, the motion type of the current block is zoomed. determining a zoom level,
    상기 비트스트림을 생성하는 단계는,Generating the bitstream,
    상기 움직임 타입에 기초하여 비트스트림을 생성하는 단계를 포함하고,Generating a bitstream based on the motion type,
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분은 x 방향 움직임 성분이고 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분은 y 방향 움직임 성분인 것을 특징으로 하는 영상 부호화 방법.Image encoding, characterized in that the first direction motion component included in the motion information of the second reference pixel is an x direction motion component and the second direction motion component included in the motion information of the second reference pixel is a y direction motion component. Way.
  19. 제 16 항에 있어서,The method of claim 16,
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계는,Acquiring a second direction motion component included in the motion information of the second reference pixel,
    상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분에 기초하여 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 경우, 현재 블록의 움직임 타입(type)은 회전(rotation)임을 결정하는 단계를 포함하고,When acquiring a second direction motion component included in the motion information of the second reference pixel based on the first direction motion component included in the motion information of the first reference pixel and the motion information of the second reference pixel, Determining that the type of motion of the block is rotation;
    상기 비트스트림을 생성하는 단계는,Generating the bitstream,
    상기 움직임 타입에 기초하여 비트스트림을 생성하는 단계를 포함하고,Generating a bitstream based on the motion type,
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분은 y 방향 움직임 성분이고 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분은 x 방향 움직임 성분인 것을 특징으로 하는 영상 부호화 방법.Image encoding, characterized in that the first direction motion component included in the motion information of the second reference pixel is a y direction motion component and the second direction motion component included in the motion information of the second reference pixel is an x direction motion component. Way.
  20. 영상 부호화 장치는 적어도 하나의 프로세서를 포함하고,The image encoding apparatus includes at least one processor,
    상기 적어도 하나의 프로세서는,The at least one processor,
    원본 영상에 포함된 현재 블록과 상기 현재 블록의 이전에 복원된 영상에 기초하여, 상기 현재 블록의 제 1 위치에 대한 제 1 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분 및 제 2 방향 움직임 성분을 획득하는 단계;A first directional motion component and a second directional motion included in motion information of a first reference pixel with respect to a first position of the current block based on a current block included in an original image and a previously reconstructed image of the current block; Obtaining a component;
    상기 현재 블록과 상기 이전에 복원된 영상에 기초하여, 상기 현재 블록의 제 2 위치에 대한 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분을 획득하는 단계;Acquiring a first directional motion component included in motion information of a second reference pixel with respect to a second position of the current block based on the current block and the previously reconstructed image;
    상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 2 방향 움직임 성분을 획득하는 단계;Obtaining a second directional motion component included in the motion information of the second reference pixel;
    상기 제 1 기준 픽셀의 움직임 정보 및 상기 제 2 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록의 제 3 위치에 대한 제 3 기준 픽셀의 움직임 정보를 획득하는 단계;Obtaining motion information of a third reference pixel with respect to a third position of the current block based on the motion information of the first reference pixel and the motion information of the second reference pixel;
    상기 현재 블록의 너비 및 높이의 길이, 상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보 및 상기 제 3 기준 픽셀의 움직임 정보에 기초하여 상기 현재 블록에 포함된 픽셀의 움직임 정보를 획득하는 단계; 및The motion information of the pixels included in the current block is based on the width and height of the current block, the motion information of the first reference pixel, the motion information of the second reference pixel, and the motion information of the third reference pixel. Obtaining; And
    상기 제 1 기준 픽셀의 움직임 정보, 상기 제 2 기준 픽셀의 움직임 정보에 포함된 제 1 방향 움직임 성분에 기초하여 비트스트림을 생성하는 단계를 수행하도록 구성되는 것을 특징으로 하는 영상 부호화 장치.And generating a bitstream based on the motion information of the first reference pixel and the first direction motion component included in the motion information of the second reference pixel.
PCT/KR2018/003658 2017-03-28 2018-03-28 Method and apparatus for video encoding, and method and apparatus for video decoding WO2018182310A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020197019480A KR102243215B1 (en) 2017-03-28 2018-03-28 Video encoding method and apparatus, video decoding method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762477694P 2017-03-28 2017-03-28
US62/477,694 2017-03-28

Publications (1)

Publication Number Publication Date
WO2018182310A1 true WO2018182310A1 (en) 2018-10-04

Family

ID=63676333

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/003658 WO2018182310A1 (en) 2017-03-28 2018-03-28 Method and apparatus for video encoding, and method and apparatus for video decoding

Country Status (2)

Country Link
KR (1) KR102243215B1 (en)
WO (1) WO2018182310A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200112752A (en) * 2019-03-21 2020-10-05 삼성전자주식회사 Method and apparatus for video decoding in which block size varies according to block shapes, method and apparatus for video encoding thereof
US11425416B2 (en) 2018-12-07 2022-08-23 Samsung Electronics Co., Ltd. Video decoding method and device, and video encoding method and device
US11546602B2 (en) 2018-08-24 2023-01-03 Samsung Electronics Co., Ltd. Method and apparatus for image encoding, and method and apparatus for image decoding
US11558622B2 (en) 2018-10-09 2023-01-17 Samsung Electronics Co., Ltd. Video decoding method and apparatus, and video encoding method and apparatus involving sub-block merge index context and bypass model

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101003105B1 (en) * 2008-01-29 2010-12-21 한국전자통신연구원 Method for encoding and decoding video signal using motion compensation based on affine transform and apparatus thereof
KR101366242B1 (en) * 2007-03-29 2014-02-20 삼성전자주식회사 Method for encoding and decoding motion model parameter, and method and apparatus for video encoding and decoding using motion model parameter
KR20150087207A (en) * 2013-07-12 2015-07-29 삼성전자주식회사 Method and apparatus for video encoding for using disparity vector derivation, method and apparatus for video decoding for using disparity vector derivation
KR20170001704A (en) * 2016-12-26 2017-01-04 삼성전자주식회사 Method and apparatus for decoding image
WO2017022973A1 (en) * 2015-08-04 2017-02-09 엘지전자 주식회사 Inter prediction method and device in video coding system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101366242B1 (en) * 2007-03-29 2014-02-20 삼성전자주식회사 Method for encoding and decoding motion model parameter, and method and apparatus for video encoding and decoding using motion model parameter
KR101003105B1 (en) * 2008-01-29 2010-12-21 한국전자통신연구원 Method for encoding and decoding video signal using motion compensation based on affine transform and apparatus thereof
KR20150087207A (en) * 2013-07-12 2015-07-29 삼성전자주식회사 Method and apparatus for video encoding for using disparity vector derivation, method and apparatus for video decoding for using disparity vector derivation
WO2017022973A1 (en) * 2015-08-04 2017-02-09 엘지전자 주식회사 Inter prediction method and device in video coding system
KR20170001704A (en) * 2016-12-26 2017-01-04 삼성전자주식회사 Method and apparatus for decoding image

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11546602B2 (en) 2018-08-24 2023-01-03 Samsung Electronics Co., Ltd. Method and apparatus for image encoding, and method and apparatus for image decoding
US11558622B2 (en) 2018-10-09 2023-01-17 Samsung Electronics Co., Ltd. Video decoding method and apparatus, and video encoding method and apparatus involving sub-block merge index context and bypass model
US11425416B2 (en) 2018-12-07 2022-08-23 Samsung Electronics Co., Ltd. Video decoding method and device, and video encoding method and device
US11943469B2 (en) 2018-12-07 2024-03-26 Samsung Electronics Co., Ltd. Video decoding method and device, and video encoding method and device
KR20200112752A (en) * 2019-03-21 2020-10-05 삼성전자주식회사 Method and apparatus for video decoding in which block size varies according to block shapes, method and apparatus for video encoding thereof
KR102213901B1 (en) 2019-03-21 2021-02-08 삼성전자주식회사 Method and apparatus for video decoding in which block size varies according to block shapes, method and apparatus for video encoding thereof
US11431975B2 (en) 2019-03-21 2022-08-30 Samsung Electronics Co., Ltd. Method and device for encoding video having block size set for each block shape, and method and device for decoding video
US11979569B2 (en) 2019-03-21 2024-05-07 Samsung Electronics Co., Ltd. Method and device for encoding video having block size set for each block shape, and method and device for decoding video

Also Published As

Publication number Publication date
KR20190088557A (en) 2019-07-26
KR102243215B1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
WO2019168244A1 (en) Encoding method and device thereof, and decoding method and device thereof
WO2017090993A1 (en) Method and device for video decoding and method and device for video encoding
WO2017082698A1 (en) Method and apparatus for decoding video, and method and apparatus for encoding video
WO2018084523A1 (en) Encoding method and device therefor, and decoding method and device therefor
WO2017171107A1 (en) Inter-prediction mode based image processing method, and apparatus therefor
WO2017026681A1 (en) Inter prediction method and apparatus in video coding system
WO2021025451A1 (en) Video encoding/decoding method and apparatus using motion information candidate, and method for transmitting bitstream
WO2018182310A1 (en) Method and apparatus for video encoding, and method and apparatus for video decoding
WO2017142335A1 (en) Video decoding method and device for same and video encoding method and device for same
WO2017105097A1 (en) Video decoding method and video decoding apparatus using merge candidate list
WO2017135759A1 (en) Video decoding method and apparatus by chroma-multi-transform, and video encoding method and apparatus by chroma-multi-transform
WO2011068360A2 (en) Method and apparatus for encoding/decoding high resolution images
WO2012005520A2 (en) Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
WO2019216716A2 (en) Encoding method and device therefor, and decoding method and device therefor
WO2017209394A1 (en) Methods and apparatuses for encoding and decoding video according to coding order
WO2017105141A1 (en) Method for encoding/decoding image and device thereof
WO2020027551A1 (en) Method and apparatus for image encoding, and method and apparatus for image decoding
WO2019199127A1 (en) Encoding method and device therefor and decoding method and device therefor
WO2021054676A1 (en) Image encoding/decoding method and device for performing prof, and method for transmitting bitstream
WO2018124627A1 (en) Encoding method and device therefor, and decoding method and device therefor
WO2020130745A1 (en) Encoding method and device thereof, and decoding method and device thereof
WO2017090968A1 (en) Method for encoding/decoding image and device therefor
WO2019093598A1 (en) Apparatus and method for encoding motion information, and decoding apparatus and method
WO2020040623A1 (en) Method and apparatus for image encoding, and method and apparatus for image decoding
WO2019139309A1 (en) Encoding method and apparatus therefor, and decoding method and apparatus therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18778027

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197019480

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18778027

Country of ref document: EP

Kind code of ref document: A1