WO2021086153A1 - 어파인 모델에 따른 인터 예측을 수행하는 비디오 복호화 방법 및 그 장치, 비디오 부호화 방법 및 그 장치 - Google Patents

어파인 모델에 따른 인터 예측을 수행하는 비디오 복호화 방법 및 그 장치, 비디오 부호화 방법 및 그 장치 Download PDF

Info

Publication number
WO2021086153A1
WO2021086153A1 PCT/KR2020/015146 KR2020015146W WO2021086153A1 WO 2021086153 A1 WO2021086153 A1 WO 2021086153A1 KR 2020015146 W KR2020015146 W KR 2020015146W WO 2021086153 A1 WO2021086153 A1 WO 2021086153A1
Authority
WO
WIPO (PCT)
Prior art keywords
boundary
current block
axis coordinate
coding unit
picture
Prior art date
Application number
PCT/KR2020/015146
Other languages
English (en)
French (fr)
Inventor
박민우
박민수
최나래
정승수
템즈아니쉬
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP20880908.7A priority Critical patent/EP4054192A4/en
Priority to KR1020227008516A priority patent/KR20220046656A/ko
Publication of WO2021086153A1 publication Critical patent/WO2021086153A1/ko
Priority to US17/728,222 priority patent/US11985326B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Definitions

  • the present disclosure relates to the field of video encoding and decoding. More specifically, the present disclosure relates to a method and apparatus for encoding and decoding a video by performing inter prediction according to an affine model.
  • the present disclosure relates to a video decoding method and apparatus, and to a video encoding method and apparatus, and provides a method of performing motion compensation when a reference region indicated by a motion vector deviates from the boundary of a reference picture when inter prediction is performed in an Matte mode. do.
  • the video decoding method when an Rastere model-based inter prediction is performed in a current block, determining a center motion vector of the current block using a basic motion vector of the current block ; Determining a reference range of a referenceable area of the current block based on the size of the current block; When a reference region having a size of the reference range in the reference picture of the current block centered on a point indicated by the center motion vector of the current block is out of or includes the boundary of the reference picture, the reference region is referred to as the current picture. Changing the reference area by translating inward; Determining prediction samples of sub-blocks of the current block within the changed reference region of the reference picture; And determining reconstructed samples of the current block by using the prediction samples of the current block.
  • FIG. 1 is a schematic block diagram of an image decoding apparatus according to an embodiment.
  • FIG. 2 is a flowchart of an image decoding method according to an embodiment.
  • FIG. 3 is a diagram illustrating a process of determining at least one coding unit by dividing a current coding unit by an image decoding apparatus, according to an embodiment.
  • FIG. 4 is a diagram illustrating a process of determining at least one coding unit by dividing a coding unit having a non-square shape by an image decoding apparatus, according to an embodiment.
  • FIG. 5 illustrates a process of splitting a coding unit based on at least one of block type information and split type mode information, by an image decoding apparatus, according to an embodiment.
  • FIG. 6 illustrates a method for an image decoding apparatus to determine a predetermined coding unit among odd coding units, according to an embodiment.
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when a plurality of coding units are determined by dividing a current coding unit by an image decoding apparatus according to an embodiment.
  • FIG. 8 is a diagram illustrating a process of determining that a current coding unit is divided into odd number of coding units when coding units cannot be processed in a predetermined order, according to an embodiment.
  • FIG 9 illustrates a process in which an image decoding apparatus determines at least one coding unit by dividing a first coding unit, according to an embodiment.
  • FIG. 10 illustrates that, according to an embodiment, when a second coding unit of a non-square shape determined by splitting a first coding unit satisfies a predetermined condition, a form in which the second coding unit can be split is limited. Shows that.
  • FIG. 11 illustrates a process in which an image decoding apparatus splits a square coding unit when it is not possible to indicate that split mode information is split into four square coding units, according to an embodiment.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of a coding unit according to an embodiment.
  • FIG. 13 illustrates a process of determining a depth of a coding unit according to a change in a shape and size of a coding unit when a coding unit is recursively split to determine a plurality of coding units, according to an embodiment.
  • PID 14 illustrates a depth that may be determined according to a shape and size of coding units and a part index (hereinafter referred to as PID) for classifying coding units, according to an embodiment.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture, according to an embodiment.
  • 16 is a diagram showing a block diagram of an image encoding and decoding system.
  • FIG. 17 is a block diagram of a video decoding apparatus according to an embodiment.
  • FIG. 18 is a flowchart of a video decoding method according to an embodiment.
  • 19 is a block diagram of a video encoding apparatus according to an embodiment.
  • FIG. 20 is a flowchart of a video encoding method according to an embodiment.
  • 21 illustrates a reference region in which prediction blocks of sub-blocks can be determined based on a point indicated by a motion vector of a current block during inter prediction based on affine model.
  • FIG. 22 illustrates a case where a reference region according to a motion vector of a current block deviates from or includes a boundary of a reference picture during inter prediction based on an affine model.
  • 23 to 25 illustrate a case in which a reference region according to a motion vector of a current block includes a boundary of a reference picture during inter prediction based on an affine model, according to an embodiment, in which the video decoding apparatus 1700 clips the reference region. Shows how.
  • 26 to 28 show, according to another embodiment, when a reference region according to a motion vector of a current block includes a boundary of a reference picture during inter prediction based on an affine model, according to another embodiment, the video decoding apparatus 1700 refers to the reference region. Shows how to translate into.
  • the video decoding apparatus 1700 refers to the reference region at the boundary of the reference picture or It shows how to move it on a point.
  • 31 to 33 show, according to another embodiment, when a reference region according to a motion vector of a current block deviates from a reference picture during inter prediction based on an affine model, according to another embodiment, the video decoding apparatus 1700 moves the reference region into the reference picture. Shows how.
  • FIG. 34 illustrates a method of deriving a motion vector for determining an Bennette parameter when the video decoding apparatus 1700 performs Bennette inter prediction according to a 4-parameter model or a 6-parameter model.
  • FIG. 35 illustrates a prediction block rotated and translated from a current block when the video decoding apparatus 1700 performs Adjuste inter prediction according to a 4-parameter model.
  • FIG. 36 illustrates a prediction block zoomed and moved from a current block when the video decoding apparatus 1700 performs
  • a prediction block zoomed and moved from a current block when the video decoding apparatus 1700 performs
  • a 4-parameter model illustrates a prediction block zoomed and moved from a current block when the video decoding apparatus 1700 performs
  • a 4-parameter model illustrates a prediction block zoomed and moved from a current block when the video decoding apparatus 1700 performs
  • FIG. 37 illustrates a prediction block rotated, zoomed, and moved from a current block when the video decoding apparatus 1700 performs Bennette inter prediction according to a 4-parameter model.
  • 38 illustrates a method of configuring an Matte merge candidate list when the video decoding apparatus 1700 performs inter prediction in the Matte merge mode.
  • 39 illustrates a method in which the video decoding apparatus 1700 determines motion information of a control point of a current block by using motion information of a control point of a neighboring block.
  • 40 illustrates a method of performing motion compensation in units of a control point motion vector and a subblock when the video decoding apparatus 1700 performs Matte inter prediction according to a 4-parameter model or a 6-parameter model.
  • the video decoding method when an Rastere model-based inter prediction is performed in a current block, determining a center motion vector of the current block using a basic motion vector of the current block ; Determining a reference range of a referenceable area of the current block based on the size of the current block; When a reference region having a size of the reference range in the reference picture of the current block centered on a point indicated by the center motion vector of the current block is out of or includes the boundary of the reference picture, the reference region is referred to as the current picture. Changing the reference area by translating inward; Determining prediction samples of sub-blocks of the current block within the changed reference region of the reference picture; And determining reconstructed samples of the current block by using the prediction samples of the current block.
  • the reference The x-axis coordinate of the left boundary of the region is changed to the x-axis coordinate of the left boundary of the current picture, and the x-axis coordinate of the right boundary of the reference region is added to the x-axis coordinate of the left boundary of the current picture. It may include the step of changing to a value.
  • the reference Change the x-axis coordinate of the right border of the area to the x-axis coordinate of the right border of the current picture, and subtract the reference range from the x-axis coordinate of the left border of the reference area from the x-axis coordinate of the right border of the current picture. It may include the step of changing to a value.
  • the reference The y-axis coordinate of the upper boundary of the region is changed to the y-axis coordinate of the upper boundary of the current picture, and the y-axis coordinate of the lower boundary of the reference region is added to the y-axis coordinate of the upper boundary of the current picture. It may include the step of changing to a value.
  • the reference The y-axis coordinate of the lower boundary of the region is changed to the y-axis coordinate of the lower boundary of the current picture, and the y-axis coordinate of the upper boundary of the reference region is subtracted from the y-axis coordinate of the lower boundary of the current picture. It may include the step of changing to a value.
  • the reference The x-axis coordinate of the left boundary of the region is changed to the x-axis coordinate of the left boundary of the current picture, and the x-axis coordinate of the right boundary of the reference region is added to the x-axis coordinate of the left boundary of the current picture. It may include the step of changing to a value.
  • the reference Change the x-axis coordinate of the left border of the area to the x-axis coordinate of the right border of the current picture, and subtract the reference range from the x-axis coordinate of the right border of the reference area from the x-axis coordinate of the right border of the current picture. It may include the step of changing to a value.
  • the reference The y-axis coordinate of the upper boundary of the region is changed to the y-axis coordinate of the upper boundary of the current picture, and the y-axis coordinate of the lower boundary of the reference region is added to the y-axis coordinate of the upper boundary of the current picture. It may include the step of changing to a value.
  • the reference The y-axis coordinate of the upper boundary of the region is changed to the y-axis coordinate of the lower boundary of the current picture, and the y-axis coordinate of the lower boundary of the reference region is subtracted from the y-axis coordinate of the lower boundary of the current picture. It may include the step of changing to a value.
  • a video decoding apparatus includes: an Bennette model inter prediction unit that obtains a basic motion vector of the current block when an Bennette model-based inter prediction is performed in a current block; A center motion vector of the current block is determined using the basic motion vector, a reference range of a referenced region of the current block is determined based on the size of the current block, and the reference picture of the current block When the reference area having the size of the reference range around the point indicated by the center motion vector of the current block is out of or includes the boundary of the reference picture, the reference area is moved in parallel to the inside of the current picture.
  • An inter prediction sample determiner configured to change and determine prediction samples of subblocks of the current block within the changed reference region of the reference picture; And a reconstructor configured to determine reconstructed samples of the current block by using prediction samples of the current block.
  • a video encoding method includes determining a center motion vector of the current block using a basic motion vector of the current block when an Rane model-based inter prediction is performed in a current block. ; Determining a reference range of a referenceable area of the current block based on the size of the current block; When a reference region having a size of the reference range in the reference picture of the current block centered on a point indicated by the center motion vector of the current block is out of or includes the boundary of the reference picture, the reference region is referred to as the current picture. Changing the reference area by translating inward; Determining prediction samples of sub-blocks of the current block within the changed reference region of the reference picture; And encoding residual samples of the current block by using the prediction samples of the current block.
  • the reference The x-axis coordinate of the left boundary of the region is changed to the x-axis coordinate of the left boundary of the current picture, and the x-axis coordinate of the right boundary of the reference region is added to the x-axis coordinate of the left boundary of the current picture. It may include the step of changing to a value.
  • the reference The y-axis coordinate of the upper boundary of the region is changed to the y-axis coordinate of the upper boundary of the current picture, and the y-axis coordinate of the lower boundary of the reference region is added to the y-axis coordinate of the upper boundary of the current picture. It may include the step of changing to a value.
  • the reference The x-axis coordinate of the left boundary of the region is changed to the x-axis coordinate of the left boundary of the current picture, and the x-axis coordinate of the right boundary of the reference region is added to the x-axis coordinate of the left boundary of the current picture. It may include the step of changing to a value.
  • the reference The y-axis coordinate of the upper boundary of the region is changed to the y-axis coordinate of the upper boundary of the current picture, and the y-axis coordinate of the lower boundary of the reference region is added to the y-axis coordinate of the upper boundary of the current picture. It may include the step of changing to a value.
  • a computer-readable recording medium in which a program for implementing a video decoding method according to an embodiment of the present disclosure is recorded with a computer is disclosed.
  • a computer-readable recording medium in which a program for implementing a video encoding method according to an embodiment of the present disclosure is recorded with a computer is disclosed.
  • one component when one component is referred to as “connected” or “connected” to another component, the one component may be directly connected or directly connected to the other component, but specially It should be understood that as long as there is no opposite substrate, it may be connected or may be connected via another component in the middle.
  • each of the components to be described below may additionally perform some or all of the functions that other components are responsible for in addition to its own main function, and some of the main functions that each component is responsible for are different. It goes without saying that it may be performed exclusively by components.
  • 'image' or'picture' may represent a still image of a video or a moving picture, that is, the video itself.
  • sample refers to data allocated to a sampling position of an image and to be processed.
  • a pixel value in an image in a spatial domain and transform coefficients in a transform domain may be samples.
  • a unit including these at least one sample may be defined as a block.
  • a'current block' may mean a block of a largest coding unit, a coding unit, a prediction unit, or a transformation unit of a current image to be encoded or decoded.
  • a motion vector when a motion vector is in the direction of list 0, it may mean that it is a motion vector used to indicate a block in a reference picture included in list 0, and that a motion vector is in the direction of list 1, It may mean that it is a motion vector used to indicate a block in the reference picture included in List 1.
  • a motion vector when a motion vector is unidirectional, it may mean that it is a motion vector used to point to a block in a reference picture included in list 0 or list 1, and that a motion vector is bidirectional means that the motion vector is in the direction of list 0. It may mean that a motion vector and a motion vector in the direction of list 1 are included.
  • a'binary split' of a block means a division in which two sub-blocks having half the width or height of the block are generated.
  • division is performed in the vertical direction (vertical direction) at half the width of the current block, so the height of the current block and the height of the current block Two sub-blocks having the same height may be created.
  • division is performed horizontally (horizontal direction) at half the height of the current block, so the current block has a height that is half the height of the current block and the width of the current block is the same. Branches can be created with two sub-blocks.
  • a'ternary split' of a block means a division in which the width or height of a block is divided in a ratio of 1:2:1 to generate three sub-blocks. Specifically, when a'ternary vertical division' is performed on the current block, division is performed in the vertical direction (vertical direction) at a ratio of 1:2:1 of the width of the current block. Two sub-blocks having a width and the same height as the current block, and one sub-block having a width that is 2/4 of the width of the current block and having the same height as the current block may be created.
  • the division is performed in the horizontal direction (horizontal direction) at a ratio of 1:2:1 of the height of the current block.
  • Two sub-blocks having the same width as the width of the current block and one sub-block having a height that is 2/4 of the height of the current block and having the same width as the width of the current block may be generated.
  • a'quadsplit' of a block means a division in which the width and height of a block are divided in a 1:1 ratio to generate four sub-blocks. Specifically, when'quad division' is performed on the current block, division is performed vertically (vertical direction) at half the width of the current block, and horizontally (horizontal direction) at half the height of the current block. Since this is performed, four sub-blocks having a width of 1/2 of the width of the current block and a height of 1/2 of the height of the current block can be created.
  • FIGS. 1 to 16 A method of determining a data unit of an image according to an embodiment is described with reference to FIGS. 3 to 16, and a video encoding/decoding method according to an embodiment using the determined data unit is described with reference to FIGS. It will be described later.
  • FIGS. 1 and 2 a method and an apparatus for adaptively selecting based on various types of coding units according to an embodiment of the present disclosure will be described with reference to FIGS. 1 and 2.
  • FIG. 1 is a schematic block diagram of an image decoding apparatus according to an embodiment.
  • the image decoding apparatus 100 may include a receiver 110 and a decoder 120.
  • the receiving unit 110 and the decoding unit 120 may include at least one processor.
  • the receiving unit 110 and the decoding unit 120 may include a memory that stores instructions to be executed by at least one processor.
  • the receiver 110 may receive a bitstream.
  • the bitstream includes information obtained by encoding an image by the image encoding apparatus 2200, which will be described later. Also, the bitstream may be transmitted from the image encoding apparatus 2200.
  • the image encoding apparatus 2200 and the image decoding apparatus 100 may be connected by wire or wirelessly, and the receiving unit 110 may receive a bitstream through wired or wireless.
  • the receiving unit 110 may receive a bitstream from a storage medium such as an optical media or a hard disk.
  • the decoder 120 may reconstruct an image based on information obtained from the received bitstream.
  • the decoder 120 may obtain a syntax element for reconstructing an image from the bitstream.
  • the decoder 120 may reconstruct an image based on the syntax element.
  • FIG. 2 is a flowchart of an image decoding method according to an embodiment.
  • the receiver 110 receives a bitstream.
  • the image decoding apparatus 100 performs an operation 210 of obtaining a binstring corresponding to a split mode mode of a coding unit from a bitstream.
  • the image decoding apparatus 100 performs an operation 220 of determining a partitioning rule of a coding unit.
  • the image decoding apparatus 100 performs an operation 230 of dividing the coding unit into a plurality of coding units based on at least one of the binstring corresponding to the split mode and the splitting rule.
  • the image decoding apparatus 100 may determine an allowable first range of the size of the coding unit according to a ratio of the width and height of the coding unit to determine a splitting rule.
  • the image decoding apparatus 100 may determine an allowable second range of a size of a coding unit according to a split type mode of a coding unit in order to determine a splitting rule.
  • one picture may be divided into one or more slices or one or more tiles.
  • One slice or one tile may be a sequence of one or more largest coding units (CTU).
  • CTU largest coding unit
  • CTB largest coding block
  • the largest coding block CTB means an NxN block including NxN samples (N is an integer). Each color component may be divided into one or more maximum coding blocks.
  • the maximum coding unit is a maximum coding block of luma samples and two maximum coding blocks of chroma samples corresponding to the maximum coding block and luma.
  • the maximum coding unit is a unit including a maximum coding block of a monochrome sample and syntax structures used to encode the monochrome samples.
  • the maximum coding unit is a unit including the picture and syntax structures used to encode samples of the picture.
  • One maximum coding block CTB may be divided into MxN coding blocks including MxN samples (M and N are integers).
  • a coding unit is a coding block of a luma sample, two coding blocks of chroma samples corresponding to the coding block, and coding luma samples and chroma samples. It is a unit that contains syntax structures used to do so.
  • the coding unit is a unit including a coding block of a monochrome sample and syntax structures used to encode the monochrome samples.
  • the coding unit is a unit including the picture and syntax structures used to encode samples of the picture.
  • a largest coding block and a largest coding unit are concepts that are distinguished from each other, and a coding block and a coding unit are concepts that are distinguished from each other. That is, the (maximum) coding unit refers to a data structure including a (maximum) coding block including a corresponding sample and a syntax structure corresponding thereto.
  • the (maximum) coding unit or the (maximum) coding block refers to a block of a predetermined size including a predetermined number of samples, the following specification describes the largest coding block and the largest coding unit, or the coding block and coding unit. Is mentioned without distinction unless there are special circumstances.
  • An image may be divided into a maximum coding unit (CTU).
  • the size of the largest coding unit may be determined based on information obtained from the bitstream.
  • the shape of the largest coding unit may have a square of the same size. However, it is not limited thereto.
  • information on the maximum size of the luma coding block may be obtained from the bitstream.
  • the maximum size of the luma coded block indicated by information on the maximum size of the luma coded block may be one of 4x4, 8x8, 16x16, 32x32, 64x64, 128x128, and 256x256.
  • information about a maximum size of a luma coded block that can be divided into two and a difference in the size of the luma block may be obtained from the bitstream.
  • the information on the difference in the size of the luma block may indicate a difference in size between the largest luma coding unit and the largest luma coding block that can be split into two.
  • the size of the largest luma coding unit may be determined. If the size of the largest luma coding unit is used, the size of the largest chroma coding unit may also be determined.
  • the size of the chroma block may be half the size of the luma block, and similarly, the size of the chroma largest coding unit is the size of the luma largest coding unit. It can be half the size.
  • the maximum size of a luma coded block capable of binary splitting may be determined variably.
  • the maximum size of a luma coding block capable of ternary splitting may be fixed.
  • a maximum size of a luma coded block capable of ternary division in an I picture may be 32x32
  • a maximum size of a luma coded block capable of ternary division in a P picture or B picture may be 64x64.
  • the largest coding unit may be hierarchically split into coding units based on split type mode information obtained from the bitstream.
  • split type mode information at least one of information indicating whether or not quad splitting, information indicating whether or not multi-dividing, information indicating a division direction, and information about a split type may be obtained from the bitstream.
  • information indicating whether or not the current coding unit is quad split may indicate whether the current coding unit is to be quad split (QUAD_SPLIT) or not quad split.
  • the information indicating whether the current coding unit is not divided into multiple divisions may indicate whether the current coding unit is no longer divided (NO_SPLIT) or binary/ternary division.
  • the splitting direction information indicates that the current coding unit is split in either a horizontal direction or a vertical direction.
  • the split type information indicates that the current coding unit is split into binary split) or ternary split.
  • a split mode of the current coding unit may be determined according to split direction information and split type information.
  • the division mode when the current coding unit is binary divided in the horizontal direction is binary horizontal division (SPLIT_BT_HOR), ternary horizontal division when ternary division in the horizontal direction (SPLIT_TT_HOR), and division mode when binary division in the vertical direction is The binary vertical division (SPLIT_BT_VER) and the division mode in the case of ternary division in the vertical direction may be determined as ternary vertical division (SPLIT_BT_VER).
  • the image decoding apparatus 100 may obtain split mode mode information from a bitstream from one binstring.
  • the type of the bitstream received by the video decoding apparatus 100 may include a fixed length binary code, an unary code, a truncated unary code, a predetermined binary code, and the like.
  • An empty string is a binary representation of information.
  • the binstring may consist of at least one bit.
  • the image decoding apparatus 100 may obtain information about a division type mode corresponding to a binstring based on a division rule.
  • the image decoding apparatus 100 may determine whether to divide the coding unit into quads or not, or determine a division direction and a division type based on one binstring.
  • the coding unit may be less than or equal to the largest coding unit.
  • the largest coding unit is also a coding unit having a maximum size, it is one of the coding units.
  • a coding unit determined in the largest coding unit has the same size as the largest coding unit.
  • the largest coding unit may be split into coding units.
  • the split type mode information for the coding unit indicates splitting, the coding units may be split into coding units having smaller sizes.
  • the division of the image is not limited thereto, and the largest coding unit and the coding unit may not be distinguished. Splitting of the coding unit will be described in more detail with reference to FIGS. 3 to 16.
  • one or more prediction blocks for prediction may be determined from the coding unit.
  • the prediction block may be equal to or smaller than the coding unit.
  • one or more transform blocks for transformation may be determined from the coding unit.
  • the transform block may be equal to or smaller than the coding unit.
  • the shape and size of the transform block and the prediction block may not be related to each other.
  • the coding unit may be a prediction block, and prediction may be performed using the coding unit.
  • the coding unit may be a transform block and transformation may be performed using the coding unit.
  • the current block and the neighboring block of the present disclosure may represent one of a largest coding unit, a coding unit, a prediction block, and a transform block.
  • the current block or the current coding unit is a block currently undergoing decoding or encoding or a block currently undergoing splitting.
  • the neighboring block may be a block restored before the current block.
  • the neighboring blocks may be spatially or temporally adjacent to the current block.
  • the neighboring block may be located in one of the lower left, left, upper left, upper, upper right, right and lower right of the current block.
  • FIG. 3 is a diagram illustrating a process of determining at least one coding unit by dividing a current coding unit by an image decoding apparatus, according to an embodiment.
  • the block shape may include 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN, or Nx8N.
  • N may be a positive integer.
  • the block shape information is information indicating at least one of a shape, a direction, a ratio or a size of a width and a height of a coding unit.
  • the shape of the coding unit may include a square and a non-square.
  • the image decoding apparatus 100 may determine block type information of the coding unit as a square.
  • the image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
  • the image decoding apparatus 100 Block type information of the coding unit may be determined as a non-square.
  • the image decoding apparatus 100 adjusts the ratio of the width and the height among block type information of the coding unit to 1:2, 2:1, 1:4, 4:1, and 1:8. , 8:1, 1:16, 16:1, 1:32, 32:1.
  • the image decoding apparatus 100 may determine whether the coding unit is in a horizontal direction or a vertical direction. In addition, the image decoding apparatus 100 may determine the size of the coding unit based on at least one of the width, height, or width of the coding unit.
  • the image decoding apparatus 100 may determine a type of a coding unit using block type information, and may determine in what type a coding unit is divided using the split type mode information. That is, a method of dividing the coding unit indicated by the division type mode information may be determined according to which block type the block type information used by the image decoding apparatus 100 represents.
  • the image decoding apparatus 100 may obtain split type mode information from a bitstream. However, the present invention is not limited thereto, and the image decoding apparatus 100 and the image encoding apparatus 2200 may determine predetermined split type mode information based on the block type information.
  • the image decoding apparatus 100 may determine split type mode information predetermined for the largest coding unit or the smallest coding unit. For example, the image decoding apparatus 100 may determine split type mode information for the largest coding unit as a quad split. Also, the image decoding apparatus 100 may determine the split type mode information as "do not split" with respect to the minimum coding unit. In more detail, the image decoding apparatus 100 may determine the size of the largest coding unit to be 256x256.
  • the image decoding apparatus 100 may determine pre-promised segmentation mode information as quad segmentation.
  • Quad splitting is a split mode in which both the width and height of a coding unit are bisected.
  • the image decoding apparatus 100 may obtain a coding unit having a size of 128x128 from the largest coding unit having a size of 256x256 based on the split type mode information.
  • the image decoding apparatus 100 may determine the size of the minimum coding unit to be 4x4.
  • the image decoding apparatus 100 may obtain split type mode information indicating "no splitting" with respect to the minimum coding unit.
  • the image decoding apparatus 100 may use block type information indicating that the current coding unit is a square shape. For example, the image decoding apparatus 100 may determine whether to split a square coding unit, split it vertically, split it horizontally, split it horizontally, or split it into four coding units according to split mode information.
  • the decoder 120 when block type information of the current coding unit 300 represents a square shape, the decoder 120 has the same size as the current coding unit 300 according to split type mode information indicating that it is not split.
  • the coding unit 310a having a is not split, or split coding units 310b, 310c, 310d, 310e, 310f, etc. may be determined based on split mode information indicating a predetermined splitting method.
  • the image decoding apparatus 100 uses two coding units 310b obtained by vertically splitting a current coding unit 300 based on split type mode information indicating vertically splitting. You can decide.
  • the image decoding apparatus 100 may determine two coding units 310c obtained by splitting the current coding unit 300 in the horizontal direction based on split mode information indicating that the image is split in the horizontal direction.
  • the image decoding apparatus 100 may determine four coding units 310d obtained by splitting the current coding unit 300 vertically and horizontally based on split mode information indicating splitting in the vertical and horizontal directions.
  • the image decoding apparatus 100 may generate three coding units 310e obtained by vertically splitting the current coding unit 300 based on split type mode information indicating that ternary splitting is performed in the vertical direction. You can decide.
  • the image decoding apparatus 100 may determine three coding units 310f obtained by horizontally splitting the current coding unit 300 based on split mode information indicating that ternary splitting is performed in the horizontal direction.
  • the split form in which the square coding unit can be split is limited to the above-described form and should not be interpreted, and various forms that can be represented by the split form mode information may be included. Predetermined split forms in which a square coding unit is split will be described in detail through various embodiments below.
  • FIG. 4 is a diagram illustrating a process of determining at least one coding unit by dividing a coding unit having a non-square shape by an image decoding apparatus, according to an embodiment.
  • the image decoding apparatus 100 may use block type information indicating that a current coding unit is a non-square type.
  • the image decoding apparatus 100 may determine whether to split the non-square current coding unit or split it by a predetermined method according to the split type mode information.
  • the image decoding apparatus 100 may use the current coding unit ( Coding units 410 or 460 having the same size as 400 or 450) are determined, or coding units 420a, 420b, 430a, 430b, 430c, and 470a that are split based on split mode information indicating a predetermined splitting method. , 470b, 480a, 480b, 480c) can be determined.
  • a predetermined splitting method in which a non-square coding unit is split will be described in detail through various embodiments below.
  • the image decoding apparatus 100 may determine a form in which a coding unit is split by using split form mode information, and in this case, the split form mode information includes at least one coding unit generated by splitting the coding unit. Can represent the number.
  • the image decoding apparatus 100 may determine the current coding unit 400 or 450 based on the split type mode information. 450) may be split to determine two coding units 420a and 420b or 470a and 470b included in the current coding unit.
  • the image decoding apparatus 100 when the image decoding apparatus 100 divides a non-square type of current coding unit 400 or 450 based on the division type mode information, the image decoding apparatus 100
  • the current coding unit may be split in consideration of the position of the long side of the coding unit 400 or 450.
  • the image decoding apparatus 100 splits the current coding unit 400 or 450 in a direction for dividing the long side of the current coding unit 400 or 450 in consideration of the shape of the current coding unit 400 or 450
  • a plurality of coding units may be determined.
  • the image decoding apparatus 100 when the split mode information indicates that coding units are split into odd-numbered blocks (ternary splitting), the image decoding apparatus 100 encodes an odd number of coding units included in the current coding unit (400 or 450). You can decide the unit. For example, when the split mode information indicates that the current coding unit 400 or 450 is split into three coding units, the image decoding apparatus 100 may convert the current coding unit 400 or 450 into three coding units ( 430a, 430b, 430c, 480a, 480b, 480c).
  • a ratio of the width and height of the current coding unit 400 or 450 may be 4:1 or 1:4.
  • the ratio of the width and the height is 4:1, since the length of the width is longer than the length of the height, the block shape information may be in the horizontal direction.
  • the ratio of the width and height is 1:4, since the length of the width is shorter than the length of the height, the block shape information may be in the vertical direction.
  • the image decoding apparatus 100 may determine to divide the current coding unit into odd-numbered blocks based on the split type mode information. In addition, the image decoding apparatus 100 may determine a split direction of the current coding unit 400 or 450 based on block type information of the current coding unit 400 or 450.
  • the image decoding apparatus 100 may determine the coding units 430a, 430b, and 430c by dividing the current coding unit 400 in the horizontal direction. Also, when the current coding unit 450 is in the horizontal direction, the image decoding apparatus 100 may determine the coding units 480a, 480b, and 480c by dividing the current coding unit 450 in the vertical direction.
  • the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 400 or 450, and all sizes of the determined coding units may not be the same. For example, the size of a predetermined coding unit 430b or 480b among the determined odd number of coding units 430a, 430b, 430c, 480a, 480b, 480c is different from other coding units 430a, 430c, 480a, 480c.
  • a coding unit that can be determined by splitting the current coding unit 400 or 450 may have a plurality of types of sizes, and in some cases, an odd number of coding units 430a, 430b, 430c, 480a, 480b, 480c May each have a different size.
  • the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 400 or 450, and Furthermore, the image decoding apparatus 100 may place a predetermined limit on at least one coding unit among odd number of coding units generated by dividing.
  • the image decoding apparatus 100 is a coding unit positioned at the center of three coding units 430a, 430b, 430c, 480a, 480b, and 480c generated by splitting a current coding unit 400 or 450.
  • a decoding process for 430b and 480b may be different from that of other coding units 430a, 430c, 480a, and 480c.
  • the image decoding apparatus 100 limits the coding units 430b and 480b located at the center so that they are not further divided, or limited to a predetermined number of times. It can be restricted to be divided.
  • FIG. 5 illustrates a process of splitting a coding unit based on at least one of block type information and split type mode information, by an image decoding apparatus, according to an embodiment.
  • the image decoding apparatus 100 may determine that the square-shaped first coding unit 500 is divided into coding units or not divided based on at least one of block type information and split type mode information. .
  • the image decoding apparatus 100 splits the first coding unit 500 in the horizontal direction to perform the second encoding.
  • the unit 510 can be determined.
  • a first coding unit, a second coding unit, and a third coding unit used according to an embodiment are terms used to understand a relationship before and after splitting between coding units.
  • a second coding unit when the first coding unit is split, a second coding unit may be determined, and when the second coding unit is split, a third coding unit may be determined.
  • a third coding unit may be determined when the second coding unit is split.
  • the image decoding apparatus 100 may determine that the determined second coding unit 510 is split into coding units or not split based on split type mode information. Referring to FIG. 5, the image decoding apparatus 100 divides a first coding unit 500 based on split mode information to perform at least one third coding on a second coding unit 510 having a non-square shape determined by dividing the first coding unit 500. The units 520a, 520b, 520c, 520d, etc.) may be divided, or the second coding unit 510 may not be divided. The image decoding apparatus 100 may obtain split type mode information, and the image decoding apparatus 100 divides the first coding unit 500 based on the obtained split type mode information to perform a plurality of second encodings of various types.
  • a unit (eg, 510) may be divided, and the second coding unit 510 may be divided according to a method in which the first coding unit 500 is divided based on the split type mode information.
  • the second coding unit 510 when the first coding unit 500 is split into second coding units 510 based on split mode information for the first coding unit 500, the second coding unit 510 is also The second coding unit 510 may be split into third coding units (eg, 520a, 520b, 520c, 520d, etc.) based on split type mode information. That is, the coding units may be recursively split based on split type mode information related to each coding unit. Accordingly, a square coding unit may be determined from a non-square coding unit, and a non-square coding unit may be determined by recursively splitting the square coding unit.
  • a predetermined coding unit (for example, among odd-numbered third coding units 520b, 520c, 520d) determined by splitting a second coding unit 510 in a non-square shape
  • the coding unit or the square coding unit may be recursively divided.
  • a square-shaped third coding unit 520b which is one of the odd number of third coding units 520b, 520c, and 520d, may be split in a horizontal direction and split into a plurality of fourth coding units.
  • One of the plurality of fourth coding units 530a, 530b, 530c, and 530d which is a non-square type fourth coding unit 530b or 530d, may be further divided into a plurality of coding units.
  • the fourth coding unit 530b or 530d having a non-square shape may be split again into odd number of coding units.
  • a method that can be used for recursive partitioning of coding units will be described later through various embodiments.
  • the image decoding apparatus 100 may divide each of the third coding units 520a, 520b, 520c, and 520d into coding units based on split mode information. Also, the image decoding apparatus 100 may determine not to split the second coding unit 510 based on the split type mode information. The image decoding apparatus 100 may divide the second coding unit 510 in a non-square shape into odd third coding units 520b, 520c, and 520d according to an embodiment. The image decoding apparatus 100 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 520b, 520c, and 520d.
  • the image decoding apparatus 100 should limit the coding unit 520c located in the middle of the odd number of third coding units 520b, 520c, and 520d to no longer be divided or be divided by a setable number of times. You can limit yourself to what you do.
  • the image decoding apparatus 100 includes an odd number of third coding units 520b, 520c, and 520d included in a second coding unit 510 having a non-square shape.
  • 520c) is not further divided or is divided into a predetermined division type (e.g., divided into only four coding units or divided into a shape corresponding to the divided shape of the second coding unit 510), or a predetermined It can be limited to dividing only by the number of times (for example, dividing only n times, n>0).
  • the limitation on the centrally located coding unit 520c is only for simple embodiments and should not be interpreted as being limited to the above-described embodiments, and the centrally located coding unit 520c is different from the other coding units 520b and 520d. It should be interpreted as including various restrictions that can be decrypted differently from ).
  • the image decoding apparatus 100 may obtain split type mode information used to split a current coding unit at a predetermined position within the current coding unit.
  • FIG. 6 illustrates a method for an image decoding apparatus to determine a predetermined coding unit among odd coding units, according to an embodiment.
  • split mode information of the current coding units 600 and 650 is a sample at a predetermined position among a plurality of samples included in the current coding units 600 and 650 (for example, a sample located in the center ( 640, 690)).
  • a predetermined position in the current coding unit 600 in which at least one of the split mode information can be obtained should not be interpreted as being limited to the center position shown in FIG. 6, and the predetermined position is included in the current coding unit 600 It should be construed that a variety of possible positions (eg, top, bottom, left, right, top left, bottom left, top right, or bottom right, etc.) can be included.
  • the image decoding apparatus 100 may determine that the current coding unit is divided into coding units of various types and sizes or not divided by obtaining split type mode information obtained from a predetermined location.
  • the image decoding apparatus 100 may select one of the coding units.
  • Methods for selecting one of a plurality of coding units may be various, and a description of these methods will be described later through various embodiments below.
  • the image decoding apparatus 100 may divide a current coding unit into a plurality of coding units and determine a coding unit at a predetermined location.
  • the image decoding apparatus 100 may use information indicating a location of each of the odd number of coding units to determine a coding unit located in the middle of the odd number of coding units. Referring to FIG. 6, the image decoding apparatus 100 divides a current coding unit 600 or a current coding unit 650 into odd number of coding units 620a, 620b, and 620c or odd number of coding units 660a. 660b, 660c) can be determined.
  • the image decoding apparatus 100 uses the information on the positions of the odd number of coding units 620a, 620b, and 620c or the odd number of coding units 660a, 660b, 660c, and the middle coding unit 620b or the middle coding unit (660b) can be determined. For example, the image decoding apparatus 100 determines the location of the coding units 620a, 620b, and 620c based on information indicating the location of a predetermined sample included in the coding units 620a, 620b, and 620c. The coding unit 620b positioned at may be determined.
  • the image decoding apparatus 100 includes coding units 620a, 620b, and 620c based on information indicating a location of the upper left sample 630a, 630b, and 630c of the coding units 620a, 620b, and 620c.
  • the coding unit 620b positioned in the center may be determined by determining the position of.
  • information indicating the location of the upper left sample 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c, respectively is within a picture of the coding units 620a, 620b, and 620c. It may include information about the location or coordinates of. According to an embodiment, information indicating the location of the upper left sample 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c, respectively, is the coding units 620a included in the current coding unit 600. , 620b, 620c) may include information indicating the width or height of the coding units 620a, 620b, and 620c.
  • the width or height may correspond to information indicating a difference between coordinates in a picture of the coding units 620a, 620b, and 620c. That is, the image decoding apparatus 100 directly uses information on a location or coordinates within a picture of the coding units 620a, 620b, and 620c, or information on a width or height of a coding unit corresponding to a difference value between coordinates.
  • the coding unit 620b positioned in the center may be determined by using.
  • information indicating the location of the upper left sample 630a of the upper coding unit 620a may represent (xa, ya) coordinates
  • Information indicating the location of) may indicate (xb, yb) coordinates
  • information indicating the location of the upper left sample 630c of the lower coding unit 620c may indicate (xc, yc) coordinates.
  • the image decoding apparatus 100 may determine the center coding unit 620b by using coordinates of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c, respectively.
  • the coding unit 620b including (xb, yb), which is the coordinates of the sample 630b located in the center
  • the current coding unit 600 may be determined as a coding unit positioned in the middle of the coding units 620a, 620b, and 620c determined by splitting.
  • the coordinates indicating the position of the upper left samples 630a, 630b, 630c may indicate the coordinates indicating the absolute position in the picture, and furthermore, the position of the upper left sample 630a of the upper coding unit 620a
  • (dxb, dyb) coordinates which is information indicating the relative position of the upper left sample 630b of the center coding unit 620b, indicating the relative position of the upper left sample 630c of the lower coding unit 620c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined location by using the coordinates of the sample should not be interpreted limited to the above-described method. It should be interpreted in a way.
  • the image decoding apparatus 100 may divide the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c, and a predetermined number of coding units 620a, 620b, and 620c Coding units can be selected according to the criteria. For example, the image decoding apparatus 100 may select a coding unit 620b having a different size among coding units 620a, 620b, and 620c.
  • the image decoding apparatus 100 includes (xa, ya) coordinates, which is information indicating the location of the upper left sample 630a of the upper coding unit 620a, and the upper left sample of the center coding unit 620b. Coding units 620a using (xb, yb) coordinates, which are information indicating the location of 630b, and (xc, yc) coordinates, which are information indicating the location of the upper left sample 630c of the lower coding unit 620c. , 620b, 620c) it is possible to determine the width or height of each.
  • the image decoding apparatus 100 uses the coding units 620a and 620b using (xa, ya), (xb, yb), and (xc, yc), which are coordinates representing the positions of the coding units 620a, 620b, and 620c. , 620c) each size can be determined.
  • the image decoding apparatus 100 may determine the width of the upper coding unit 620a as the width of the current coding unit 600.
  • the image decoding apparatus 100 may determine the height of the upper coding unit 620a as yb-ya.
  • the image decoding apparatus 100 may determine the width of the center coding unit 620b as the width of the current coding unit 600.
  • the image decoding apparatus 100 may determine the height of the central coding unit 620b as yc-yb. According to an embodiment, the image decoding apparatus 100 may determine the width or height of the lower coding unit using the width or height of the current coding unit and the width and height of the upper coding unit 620a and the center coding unit 620b. . The image decoding apparatus 100 may determine a coding unit having a size different from other coding units based on the determined width and height of the coding units 620a, 620b, and 620c. Referring to FIG.
  • the image decoding apparatus 100 may determine a coding unit 620b having a size different from the size of the upper coding unit 620a and the lower coding unit 620c as a coding unit at a predetermined position.
  • the process of determining a coding unit having a size different from that of other coding units the process of determining a coding unit at a predetermined location by using a size of a coding unit determined based on sample coordinates. Therefore, various processes of determining a coding unit at a predetermined location by comparing sizes of coding units determined according to predetermined sample coordinates may be used.
  • the image decoding apparatus 100 includes (xd, yd) coordinates, which are information indicating the location of the upper left sample 670a of the left coding unit 660a, and the location of the upper left sample 670b of the center coding unit 660b. Coding units 660a, 660b, and 660c using (xe, ye) coordinates, which is information indicating the position, and (xf, yf) coordinates, which are information indicating the location of the upper left sample 670c of the right coding unit 660c. You can decide the width or height of each.
  • the image decoding apparatus 100 uses the coding units 660a and 660b using (xd, yd), (xe, ye), and (xf, yf), which are coordinates representing the positions of the coding units 660a, 660b, and 660c. , 660c) Each size can be determined.
  • the image decoding apparatus 100 may determine the width of the left coding unit 660a as xe-xd.
  • the image decoding apparatus 100 may determine the height of the left coding unit 660a as the height of the current coding unit 650.
  • the image decoding apparatus 100 may determine the width of the center coding unit 660b as xf-xe.
  • the image decoding apparatus 100 may determine the height of the center coding unit 660b as the height of the current coding unit 600.
  • the width or height of the right coding unit 660c is the width or height of the current coding unit 650 and the width and height of the left coding unit 660a and the center coding unit 660b. It can be determined using.
  • the image decoding apparatus 100 may determine a coding unit having a size different from other coding units based on the determined widths and heights of the coding units 660a, 660b, and 660c. Referring to FIG. 6, the image decoding apparatus 100 may determine a coding unit 660b having a size different from the size of the left coding unit 660a and the right coding unit 660c as the coding unit at a predetermined position.
  • the process of determining a coding unit at a predetermined location by using a size of a coding unit determined based on sample coordinates Therefore, various processes of determining a coding unit at a predetermined location by comparing sizes of coding units determined according to predetermined sample coordinates may be used.
  • the location of the sample considered to determine the location of the coding unit should not be interpreted as being limited to the upper left corner described above, but it may be interpreted that information on the location of an arbitrary sample included in the coding unit can be used.
  • the image decoding apparatus 100 may select a coding unit at a predetermined position from among odd number of coding units determined by splitting the current coding unit in consideration of a shape of a current coding unit. For example, if the current coding unit has a non-square shape whose width is longer than the height, the image decoding apparatus 100 may determine the coding unit at a predetermined position according to the horizontal direction. That is, the image decoding apparatus 100 may determine one of coding units that set different positions in the horizontal direction and place restrictions on the corresponding coding unit. If the current coding unit has a non-square shape whose height is longer than the width, the image decoding apparatus 100 may determine a coding unit at a predetermined location according to the vertical direction. That is, the image decoding apparatus 100 may determine one of coding units that set different positions in the vertical direction and place restrictions on the corresponding coding unit.
  • the image decoding apparatus 100 may use information indicating a position of each of the even number of coding units to determine a coding unit of a predetermined position among even number of coding units.
  • the image decoding apparatus 100 may determine the even number of coding units by dividing the current coding unit (binary division), and may determine the coding unit at a predetermined position by using information on the positions of the even number of coding units.
  • a detailed process for this may be a process corresponding to a process of determining a coding unit at a predetermined position (eg, a center position) among the odd numbered coding units described above in FIG. 6, and thus will be omitted.
  • a predetermined coding unit at a certain position is determined during the splitting process in order to determine a coding unit at a certain position among the plurality of coding units.
  • the image decoding apparatus 100 may use block type information and split type stored in a sample included in the center coding unit during the splitting process. At least one of the mode information may be used.
  • the image decoding apparatus 100 may split a current coding unit 600 into a plurality of coding units 620a, 620b, and 620c based on split type mode information, and the plurality of coding units ( A coding unit 620b positioned in the middle of 620a, 620b, and 620c may be determined. Furthermore, the image decoding apparatus 100 may determine a coding unit 620b positioned in the center in consideration of a location at which split mode information is obtained. That is, the split type mode information of the current coding unit 600 may be obtained from a sample 640 positioned in the center of the current coding unit 600, and the current coding unit 600 is based on the split type mode information.
  • the coding unit 620b including the sample 640 may be determined as a coding unit positioned at the center.
  • information used to determine the centrally located coding unit should not be interpreted as being limited to the split mode information, and various types of information may be used in the process of determining the centrally located coding unit.
  • predetermined information for identifying a coding unit at a predetermined location may be obtained from a predetermined sample included in a coding unit to be determined.
  • the image decoding apparatus 100 includes coding units (e.g., split into a plurality of coding units 620a, 620b, 620c) of a plurality of coding units 620a, 620b, and 620c determined by splitting the current coding unit 600.
  • Split type mode information obtained from a sample at a predetermined position in the current coding unit 600 (for example, a sample located in the center of the current coding unit 600) to determine a coding unit located in the middle of the coding units Can be used.
  • the image decoding apparatus 100 may determine a sample at the predetermined position in consideration of the block shape of the current coding unit 600, and the image decoding apparatus 100 may determine a plurality of samples determined by dividing the current coding unit 600 Among the three coding units 620a, 620b, and 620c, a coding unit 620b including a sample from which predetermined information (eg, split mode information) can be obtained may be determined and a predetermined limit may be set.
  • predetermined information eg, split mode information
  • the image decoding apparatus 100 may determine a sample 640 located in the center of the current coding unit 600 as a sample from which predetermined information may be obtained, and the image decoding apparatus 100 may place a predetermined limit in the decoding process of the coding unit 620b including the sample 640.
  • the location of a sample from which predetermined information can be obtained should not be interpreted as being limited to the above-described location, and may be interpreted as samples at an arbitrary location included in the coding unit 620b to be determined to impose restrictions.
  • the location of a sample from which predetermined information can be obtained may be determined according to the shape of the current coding unit 600.
  • the block shape information may determine whether the shape of a current coding unit is a square or a non-square shape, and a location of a sample from which predetermined information can be obtained may be determined according to the shape.
  • the image decoding apparatus 100 uses at least one of information about the width and height of the current coding unit to be positioned on a boundary that divides at least one of the width and height of the current coding unit in half. The sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 100 selects one of samples including a boundary that divides the long side of the current coding unit in half. It can be determined as a sample from which the information of can be obtained.
  • the image decoding apparatus 100 may use split type mode information to determine a coding unit at a predetermined position among the plurality of coding units.
  • the image decoding apparatus 100 may obtain split type mode information from a sample at a predetermined location included in a coding unit, and the image decoding apparatus 100 may obtain a plurality of encodings generated by splitting a current coding unit.
  • the units may be split using split type mode information obtained from samples at a predetermined location included in each of a plurality of coding units. That is, the coding units may be recursively split using split mode information obtained from a sample at a predetermined location included in each coding unit. Since the recursive partitioning process of the coding unit has been described above with reference to FIG. 5, detailed descriptions will be omitted.
  • the image decoding apparatus 100 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded by a predetermined block (eg, a current coding unit). ) Can be determined.
  • a predetermined block eg, a current coding unit
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when a plurality of coding units are determined by dividing a current coding unit by an image decoding apparatus according to an embodiment.
  • the image decoding apparatus 100 determines the second coding units 710a and 710b by dividing the first coding unit 700 in a vertical direction according to the split mode information, or the first coding unit 700
  • the second coding units 750a, 750b, 750c, and 750d may be determined by splitting in the horizontal direction to determine the second coding units 730a and 730b, or splitting the first coding unit 700 in the vertical and horizontal directions. have.
  • the image decoding apparatus 100 may determine an order so that the second coding units 710a and 710b determined by dividing the first coding unit 700 in the vertical direction are processed in the horizontal direction 710c. .
  • the image decoding apparatus 100 may determine a processing order of the second coding units 730a and 730b determined by dividing the first coding unit 700 in the horizontal direction as the vertical direction 730c.
  • the image decoding apparatus 100 divides the first coding unit 700 in the vertical direction and the horizontal direction, and processes the second coding units 750a, 750b, 750c, and 750d determined by processing the coding units located in one row.
  • the coding units located in the next row may be determined according to a predetermined order (eg, a raster scan order or a z scan order 750e).
  • the image decoding apparatus 100 may recursively split coding units.
  • the image decoding apparatus 100 may divide a first coding unit 700 to determine a plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d, and Each of the determined coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be recursively split.
  • a method of dividing the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be a method corresponding to a method of dividing the first coding unit 700. Accordingly, the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be independently divided into a plurality of coding units. Referring to FIG. 7, the image decoding apparatus 100 may determine the second coding units 710a and 710b by dividing the first coding unit 700 in a vertical direction, and further, the second coding units 710a and 710b, respectively. It can be decided to divide independently or not to divide.
  • the image decoding apparatus 100 may split the second coding unit 710a on the left side in a horizontal direction and divide it into third coding units 720a and 720b, and the second coding unit 710b on the right side. ) May not be divided.
  • the processing order of coding units may be determined based on a splitting process of the coding units.
  • the processing order of the split coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 100 may independently determine an order in which the third coding units 720a and 720b determined by splitting the left second coding unit 710a and processing the determined third coding unit 710b independently from the right second coding unit 710b. Since the left second coding unit 710a is split in the horizontal direction to determine the third coding units 720a and 720b, the third coding units 720a and 720b may be processed in the vertical direction 720c.
  • FIG. 8 is a diagram illustrating a process of determining that a current coding unit is divided into odd number of coding units when coding units cannot be processed in a predetermined order, according to an embodiment.
  • the image decoding apparatus 100 may determine that the current coding unit is divided into odd number of coding units based on the obtained split type mode information.
  • a first coding unit 800 having a square shape may be divided into second coding units 810a and 810b having a non-square shape, and the second coding units 810a and 810b are each independently It may be divided into 3 coding units 820a, 820b, 820c, 820d, and 820e.
  • the image decoding apparatus 100 may determine a plurality of third coding units 820a and 820b by splitting the left coding unit 810a among the second coding units in a horizontal direction, and determining the plurality of third coding units 820a and 820b, and the right coding unit 810b ) May be divided into odd number of third coding units 820c, 820d, and 820e.
  • the image decoding apparatus 100 determines whether or not the third coding units 820a, 820b, 820c, 820d, and 820e can be processed in a predetermined order to determine whether there are coding units divided into odd numbers. You can decide. Referring to FIG. 8, the image decoding apparatus 100 may determine third coding units 820a, 820b, 820c, 820d and 820e by recursively dividing the first coding unit 800. Based on at least one of block type information and split type mode information, the image decoding apparatus 100 may be configured to provide a first coding unit 800, a second coding unit 810a, 810b, or a third coding unit 820a, 820b, 820c.
  • a coding unit positioned to the right of the second coding units 810a and 810b may be split into odd number of third coding units 820c, 820d, and 820e.
  • An order in which a plurality of coding units included in the first coding unit 800 are processed may be a predetermined order (for example, a z-scan order 830), and the image decoding apparatus ( 100) may determine whether the third coding units 820c, 820d, and 820e determined by dividing the right second coding unit 810b into odd numbers satisfies a condition capable of being processed according to the predetermined order.
  • the image decoding apparatus 100 satisfies a condition in which the third coding units 820a, 820b, 820c, 820d, and 820e included in the first coding unit 800 can be processed in a predetermined order. Whether or not at least one of the widths and heights of the second coding units 810a and 810b is divided in half according to the boundary of the third coding units 820a, 820b, 820c, 820d, 820e, and It is related. For example, the third coding units 820a and 820b determined by dividing the height of the left second coding unit 810a in a non-square shape in half may satisfy the condition.
  • the boundary of the third coding units 820c, 820d, 820e which is determined by dividing the right second coding unit 810b into three coding units, cannot divide the width or height of the right second coding unit 810b in half. Therefore, it may be determined that the third coding units 820c, 820d, and 820e do not satisfy the condition. In the case of dissatisfaction with this condition, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the right second coding unit 810b is divided into odd number of coding units based on the determination result.
  • a predetermined restriction may be placed on a coding unit at a predetermined position among the divided coding units. Since it has been described above through the embodiment, detailed description will be omitted.
  • FIG 9 illustrates a process in which an image decoding apparatus determines at least one coding unit by dividing a first coding unit, according to an embodiment.
  • the image decoding apparatus 100 may split the first coding unit 900 based on split mode information obtained through the receiver 110.
  • the first coding unit 900 having a square shape may be divided into four coding units having a square shape or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 100 may refer to the first coding unit 900. It can be divided into a plurality of non-square coding units.
  • the image decoding apparatus 100 includes a first coding unit having a square shape ( 900) may be divided into odd-numbered coding units, and may be split into second coding units 910a, 910b, and 910c that are determined by being split in the vertical direction or second coding units 920a, 920b, and 920c that are split in the horizontal direction and determined.
  • the image decoding apparatus 100 may process the second coding units 910a, 910b, 910c, 920a, 920b, and 920c included in the first coding unit 900 in a predetermined order. Is satisfied, and the condition is whether at least one of the width and height of the first coding unit 900 is divided in half according to the boundary of the second coding units 910a, 910b, 910c, 920a, 920b, and 920c. It is related to whether or not. Referring to FIG. 9, a boundary of second coding units 910a, 910b, and 910c determined by dividing a square-shaped first coding unit 900 in a vertical direction divides the width of the first coding unit 900 in half.
  • the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the first coding unit 900 is divided into odd number of coding units based on the determination result.
  • a predetermined restriction may be placed on a coding unit at a predetermined position among the divided coding units. Since it has been described above through the embodiment, detailed description will be omitted.
  • the image decoding apparatus 100 may determine various types of coding units by dividing the first coding unit.
  • the image decoding apparatus 100 may split a square type first coding unit 900 and a non-square type first coding unit 930 or 950 into various types of coding units. .
  • FIG. 10 illustrates that, according to an embodiment, when a second coding unit of a non-square shape determined by splitting a first coding unit satisfies a predetermined condition, a form in which the second coding unit can be split is limited. Shows that.
  • the image decoding apparatus 100 may convert the first coding unit 1000 in a square shape to a second coding unit 1010a in a non-square shape, based on the split mode information obtained through the receiver 110. 1010b, 1020a, 1020b).
  • the second coding units 1010a, 1010b, 1020a, and 1020b may be independently split. Accordingly, the image decoding apparatus 100 may determine that the second coding units 1010a, 1010b, 1020a, and 1020b are split into a plurality of coding units or not split based on split mode information related to each of the second coding units 1010a, 1010b, 1020a, and 1020b.
  • the image decoding apparatus 100 splits the second coding unit 1010a in a non-square shape determined by splitting the first coding unit 1000 in a vertical direction and splitting the second coding unit 1010a in a horizontal direction to obtain a third coding unit ( 1012a, 1012b) can be determined.
  • the image decoding apparatus 100 splits the left second coding unit 1010a in the horizontal direction
  • the right second coding unit 1010b is in the horizontal direction in the same direction as the left second coding unit 1010a. It can be restricted so that it cannot be divided into.
  • the left second coding unit 1010a and the right second coding unit 1010b are respectively in the horizontal direction.
  • the third coding units 1012a, 1012b, 1014a, and 1014b may be determined.
  • the image decoding apparatus 100 splitting the first coding unit 1000 into four square second coding units 1030a, 1030b, 1030c, and 1030d based on the split mode information. It may be inefficient in terms of image decoding.
  • the image decoding apparatus 100 divides the second coding unit 1020a or 1020b in a non-square shape determined by dividing the first coding unit 1000 in the horizontal direction in a vertical direction to obtain a third coding unit. (1022a, 1022b, 1024a, 1024b) can be determined.
  • a third coding unit. (1022a, 1022b, 1024a, 1024b) can be determined.
  • another second coding unit for example, the lower The coding unit 1020b may be limited so that the upper second coding unit 1020a cannot be split in the vertical direction in the same way as the split direction.
  • FIG. 11 illustrates a process in which an image decoding apparatus splits a square coding unit when it is not possible to indicate that split mode information is split into four square coding units, according to an embodiment.
  • the image decoding apparatus 100 may determine the second coding units 1110a, 1110b, 1120a, 1120b, etc. by dividing the first coding unit 1100 based on the split mode information.
  • the split type mode information may include information on various types in which a coding unit can be split, but information on various types may not include information for splitting into four coding units having a square shape. According to the split mode information, the image decoding apparatus 100 cannot split the square-shaped first coding unit 1100 into four square-shaped second coding units 1130a, 1130b, 1130c, and 1130d.
  • the image decoding apparatus 100 may determine non-square second coding units 1110a, 1110b, 1120a, 1120b, etc. based on the split mode information.
  • the image decoding apparatus 100 may independently divide the second coding units 1110a, 1110b, 1120a, 1120b, etc. of a non-square shape, respectively.
  • Each of the second coding units 1110a, 1110b, 1120a, 1120b, etc. may be divided in a predetermined order through a recursive method, and this is a method in which the first coding unit 1100 is divided based on the division type mode information. It may be a corresponding segmentation method.
  • the image decoding apparatus 100 may determine the third coding units 1112a and 1112b in a square shape by splitting the left second coding unit 1110a in a horizontal direction, and the second coding unit 1110b on the right
  • the third coding units 1114a and 1114b having a square shape may be determined by being split in a horizontal direction.
  • the image decoding apparatus 100 may determine the third coding units 1116a, 1116b, 1116c, and 1116d in a square shape by splitting both the left second coding unit 1110a and the right second coding unit 1110b in the horizontal direction. have.
  • the coding unit may be determined in the same form as the first coding unit 1100 is divided into four square-shaped second coding units 1130a, 1130b, 1130c, and 1130d.
  • the image decoding apparatus 100 may determine the third coding units 1122a and 1122b in a square shape by dividing the upper second coding unit 1120a in a vertical direction, and the lower second coding unit 1120b ) Is divided in a vertical direction to determine the third coding units 1124a and 1124b having a square shape. Furthermore, the image decoding apparatus 100 may determine the third coding units 1126a, 1126b, 1126a, and 1126b in a square shape by splitting both the upper second coding units 1120a and the lower second coding units 1120b in the vertical direction. have. In this case, the coding unit may be determined in the same form as the first coding unit 1100 is divided into four square-shaped second coding units 1130a, 1130b, 1130c, and 1130d.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of a coding unit according to an embodiment.
  • the image decoding apparatus 100 may split the first coding unit 1200 based on split type mode information.
  • the block shape is a square and the split mode information indicates that the first coding unit 1200 is split in at least one of a horizontal direction and a vertical direction
  • the image decoding apparatus 100 uses the first coding unit 1200.
  • Second coding units eg, 1210a, 1210b, 1220a, 1220b, etc.
  • the image decoding apparatus 100 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction and splitting the second coding units 1210a and 1210b in the horizontal direction, respectively, and the third coding units 1216a and 1216b, respectively. 1216c and 1216d) may be determined, and the second coding units 1220a and 1220b generated by splitting the first coding unit 1200 in the horizontal direction are respectively divided in the horizontal direction, and the third coding units 1226a, 1226b, and 1226c , 1226d) can be determined. Since the dividing process of the second coding units 1210a, 1210b, 1220a, and 1220b has been described above with reference to FIG. 11, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may process coding units according to a predetermined order. Features of processing of coding units according to a predetermined order have been described above with reference to FIG. 7, and thus detailed descriptions thereof will be omitted. Referring to FIG. 12, the image decoding apparatus 100 divides the first coding unit 1200 in a square shape to form four square-shaped third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. ) Can be determined.
  • the image decoding apparatus 100 performs a processing order of the third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d according to a form in which the first coding unit 1200 is split. You can decide.
  • the image decoding apparatus 100 determines the third coding units 1216a, 1216b, 1216c, and 1216d by dividing the second coding units 1210a and 1210b generated by being split in the vertical direction, respectively, in the horizontal direction.
  • the image decoding apparatus 100 may first process the third coding units 1216a and 1216c included in the left second coding unit 1210a in the vertical direction, and then process the third coding units 1216a and 1216c included in the right second coding unit 1210b.
  • the third coding units 1216a, 1216b, 1216c, and 1216d may be processed according to an order 1217 of processing the third coding units 1216b and 1216d in the vertical direction.
  • the image decoding apparatus 100 determines the third coding units 1226a, 1226b, 1226c, and 1226d by dividing the second coding units 1220a and 1220b generated by splitting in the horizontal direction, respectively, in the vertical direction.
  • the image decoding apparatus 100 may first process the third coding units 1226a and 1226b included in the upper second coding unit 1220a in the horizontal direction, and then process the third coding units 1226a and 1226b included in the upper second coding unit 1220a.
  • the third coding units 1226a, 1226b, 1226c, and 1226d may be processed according to an order 1227 of processing the third coding units 1226c and 1226d in the horizontal direction.
  • second coding units 1210a, 1210b, 1220a, and 1220b are respectively divided to determine square-shaped third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. have.
  • the second coding units 1210a and 1210b determined by splitting in the vertical direction and the second coding units 1220a and 1220b determined by splitting in the horizontal direction are split into different forms, but the third coding unit 1216a determined later , 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d), eventually, the first coding unit 1200 is split into coding units of the same type.
  • the image decoding apparatus 100 may recursively divide coding units through different processes based on the split mode information, and consequently determine the coding units of the same type, but the plurality of coding units determined in the same type are different from each other. Can be processed in order.
  • FIG. 13 illustrates a process of determining a depth of a coding unit according to a change in a shape and size of a coding unit when a coding unit is recursively split to determine a plurality of coding units, according to an embodiment.
  • the image decoding apparatus 100 may determine a depth of a coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before splitting. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit having a lower depth.
  • the image decoding apparatus 100 may be split to determine a second coding unit 1302 and a third coding unit 1304 having a lower depth. If the size of the square-shaped first coding unit 1300 is 2Nx2N, the second coding unit 1302 determined by dividing the width and height of the first coding unit 1300 by 1/2 times may have a size of NxN. have. Furthermore, the third coding unit 1304 determined by dividing the width and height of the second coding unit 1302 into 1/2 size may have a size of N/2xN/2.
  • the width and height of the third coding unit 1304 are 1/4 times that of the first coding unit 1300.
  • the depth of the second coding unit 1302 that is 1/2 times the width and height of the first coding unit 1300 may be D+1, and the first coding unit
  • the depth of the third coding unit 1304 that is 1/4 times the width and height of 1300 may be D+2.
  • block shape information indicating a non-square shape (for example, block shape information is '1: NS_VER' indicating that the height is a non-square that is longer than the width, or ′ indicating that the width is a non-square shape that is longer than the height. 2: NS_HOR′), the image decoding apparatus 100 divides the first coding unit 1310 or 1320 having a non-square shape to a second coding unit 1312 or 1322 having a lower depth, The third coding unit 1314 or 1324 may be determined.
  • the image decoding apparatus 100 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of the width and height of the first coding unit 1310 having a size of Nx2N. That is, the image decoding apparatus 100 may split the first coding unit 1310 in a horizontal direction to determine a second coding unit 1302 having a size of NxN or a second coding unit 1322 having a size of NxN/2, A second coding unit 1312 having a size of N/2xN may be determined by dividing in a horizontal direction and a vertical direction.
  • a second coding unit eg, 1302, 1312, 1322, etc.
  • the image decoding apparatus 100 determines a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the first coding unit 1320 having a size of 2NxN. May be. That is, the image decoding apparatus 100 may determine a second coding unit 1302 having a size of NxN or a second coding unit 1312 having a size of N/2xN by dividing the first coding unit 1320 in a vertical direction, The second coding unit 1322 having a size of NxN/2 may be determined by dividing in the horizontal direction and the vertical direction.
  • a second coding unit eg, 1302, 1312, 1322, etc.
  • the image decoding apparatus 100 determines a third coding unit (eg, 1304, 1314, 1324, etc.) by dividing at least one of a width and a height of the second coding unit 1302 of size NxN. May be. That is, the image decoding apparatus 100 determines the third coding unit 1304 having a size of N/2xN/2 by dividing the second coding unit 1302 in a vertical direction and a horizontal direction, or The 3 coding units 1314 may be determined or a third coding unit 1324 having a size of N/2xN/4 may be determined.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of the second coding unit 1312 having a size of N/2xN to a third coding unit (eg, 1304, 1314, 1324, etc.). You can also decide. That is, the image decoding apparatus 100 splits the second coding unit 1312 in a horizontal direction to obtain a third coding unit 1304 having a size of N/2xN/2 or a third coding unit 1304 having a size of N/2xN/4. ) May be determined or divided in a vertical direction and a horizontal direction to determine the third coding unit 1314 having a size of N/4xN/2.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of a second coding unit 1322 having a size of NxN/2 to a third coding unit (eg, 1304, 1314, 1324, etc.). You can also decide. That is, the image decoding apparatus 100 splits the second coding unit 1322 in a vertical direction to provide a third coding unit 1304 having a size of N/2xN/2 or a third coding unit 1304 having a size of N/4xN/2. ) May be determined or the third coding unit 1324 having a size of N/2xN/4 may be determined by dividing it in a vertical direction and a horizontal direction.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 may divide a square coding unit (eg, 1300, 1302, 1304) in a horizontal direction or a vertical direction.
  • a square coding unit eg, 1300, 1302, 1304
  • the first coding unit 1300 having a size of 2Nx2N is split in a vertical direction to determine a first coding unit 1310 having a size of Nx2N, or split in a horizontal direction to determine the first coding unit 1300 having a size of 2NxN.
  • I can.
  • the depth of the coding unit determined by splitting the first coding unit 1300 having a size of 2Nx2N in a horizontal direction or a vertical direction is the first coding It may be the same as the depth of the unit 1300.
  • the width and height of the third coding unit 1314 or 1324 may be 1/4 times that of the first coding unit 1310 or 1320.
  • the depth of the second coding unit 1312 or 1322 that is 1/2 times the width and height of the first coding unit 1310 or 1320 may be D+1
  • a depth of the third coding unit 1314 or 1324 that is 1/4 times the width and height of the first coding unit 1310 or 1320 may be D+2.
  • PID 14 illustrates a depth that may be determined according to a shape and size of coding units and a part index (hereinafter referred to as PID) for classifying coding units, according to an embodiment.
  • the image decoding apparatus 100 may determine various types of second coding units by dividing the first coding unit 1400 having a square shape. Referring to FIG. 14, the image decoding apparatus 100 divides a first coding unit 1400 in at least one of a vertical direction and a horizontal direction according to split type mode information, and divides the second coding units 1402a, 1402b, and 1404a. , 1404b, 1406a, 1406b, 1406c, 1406d). That is, the image decoding apparatus 100 may determine the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d based on the split type mode information for the first coding unit 1400. .
  • the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d which are determined according to split mode information for the first coding unit 1400 in a square shape, are the length of the long side.
  • the depth may be determined based on. For example, since the length of one side of the square-shaped first coding unit 1400 and the length of the long side of the non-square-shaped second coding units 1402a, 1402b, 1404a, 1404b are the same, the first coding unit ( 1400) and the non-square second coding units 1402a, 1402b, 1404a, and 1404b may have the same depth as D.
  • the image decoding apparatus 100 divides the first coding unit 1400 into four square-shaped second coding units (1406a, 1406b, 1406c, 1406d) based on the split mode information, the square-shaped Since the length of one side of the second coding unit (1406a, 1406b, 1406c, 1406d) is 1/2 times the length of one side of the first coding unit (1400), the length of the second coding unit (1406a, 1406b, 1406c, 1406d) The depth may be a depth of D+1 that is one depth lower than the depth of D of the first coding unit 1400.
  • the image decoding apparatus 100 divides a first coding unit 1410 having a height longer than a width in a horizontal direction according to the split mode information to form a plurality of second coding units 1412a, 1412b, and 1414a. , 1414b, 1414c).
  • the image decoding apparatus 100 divides a first coding unit 1420 having a width longer than a height in a vertical direction according to the split mode information to form a plurality of second coding units 1422a, 1422b, and 1424a. , 1424b, 1424c).
  • the second coding units 1412a, 1412b, 1414a, 1414b, 1414c. 1422a, 1422b, 1424a which are determined according to split mode mode information for the first coding unit 1410 or 1420 of a non-square form, 1424b, 1424c) may be determined based on the length of the long side.
  • the length of one side of the second coding units 1412a and 1412b having a square shape is 1/2 times the length of one side of the first coding unit 1410 having a non-square shape whose height is longer than the width.
  • the depth of the second coding units 1412a and 1412b of the form is D+1, which is one depth lower than the depth D of the first coding unit 1410 of the non-square form.
  • the image decoding apparatus 100 may divide the first coding unit 1410 of the non-square shape into odd number of second coding units 1414a, 1414b, and 1414c based on the split mode information.
  • the odd number of second coding units 1414a, 1414b, and 1414c may include non-square second coding units 1414a and 1414c and square second coding units 1414b.
  • the length of the long side of the second coding units 1414a and 1414c in the non-square form and the length of one side of the second coding unit 1414b in the square form are 1/ of the length of one side of the first coding unit 1410 Since it is twice, the depth of the second coding units 1414a, 1414b, and 1414c may be a depth of D+1 that is one depth lower than the depth of D of the first coding unit 1410.
  • the image decoding apparatus 100 is a method corresponding to the method of determining the depth of coding units related to the first coding unit 1410, and is related to the first coding unit 1420 in a non-square shape having a width greater than a height. The depth of coding units may be determined.
  • a coding unit 1414b positioned in the middle of coding units 1414a, 1414b, and 1414c divided into odd numbers is a coding unit having the same width as other coding units 1414a and 1414c, but different heights. It may be twice the height of the fields 1414a and 1414c. That is, in this case, the coding unit 1414b positioned in the center may include two of the other coding units 1414a and 1414c.
  • the image decoding apparatus 100 may determine whether or not the odd-numbered coding units are of the same size based on whether there is discontinuity in an index for distinguishing between the divided coding units.
  • the image decoding apparatus 100 may determine whether to be split into a specific split type based on a value of an index for classifying a plurality of coding units determined by being split from a current coding unit. Referring to FIG. 14, the image decoding apparatus 100 determines an even number of coding units 1412a and 1412b by dividing a rectangular first coding unit 1410 having a height greater than a width, or an odd number of coding units 1414a and 1414b. , 1414c) can be determined. The image decoding apparatus 100 may use an index (PID) representing each coding unit to classify each of a plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 100 may determine a coding unit at a predetermined position among coding units that are split and determined using an index for classifying coding units. According to an embodiment, when it is indicated that split mode information for a first coding unit 1410 having a rectangular shape having a height longer than a width is divided into three coding units, the image decoding apparatus 100 may be configured to perform a first coding unit 1410. May be divided into three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may allocate an index for each of the three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may compare an index for each coding unit in order to determine a coding unit among coding units divided into odd numbers.
  • the image decoding apparatus 100 encodes a coding unit 1414b having an index corresponding to a middle value among the indices based on the indexes of the coding units, and a center position among coding units determined by splitting the first coding unit 1410. It can be determined as a unit. In determining an index for classifying divided coding units, according to an embodiment, when the coding units are not the same size, the image decoding apparatus 100 may determine the index based on a size ratio between coding units. . Referring to FIG. 14, a coding unit 1414b generated by splitting the first coding unit 1410 is the same as other coding units 1414a and 1414c, but different heights of coding units 1414a and 1414c. It can be twice the height.
  • the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of coding units including coding units having different sizes from other coding units. According to the indication that the split mode information is split into odd number of coding units, the video decoding apparatus 100 may determine that the coding unit (for example, a center coding unit) at a predetermined position among the odd number of coding units is different from other coding units.
  • the current coding unit can be split into a form.
  • the image decoding apparatus 100 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the above-described index and the size or position of the coding unit at a predetermined position to be determined are specific for describing an embodiment and should not be interpreted as being limited thereto, and various indexes and positions and sizes of the coding unit may be used. It must be interpreted.
  • the image decoding apparatus 100 may use a predetermined data unit in which recursive division of the coding unit is started.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture, according to an embodiment.
  • a predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively split using split type mode information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units that split the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include MxN samples.
  • M and N may be identical to each other, and may be integers expressed as a multiplier of 2. That is, the reference data unit may represent a square or non-square shape, and may be divided into an integer number of coding units thereafter.
  • the image decoding apparatus 100 may divide a current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 100 may divide a plurality of reference data units for dividing a current picture by using the division type mode information for each reference data unit. The partitioning process of the reference data unit may correspond to the partitioning process using a quad-tree structure.
  • the image decoding apparatus 100 may determine in advance a minimum size that a reference data unit included in a current picture may have. Accordingly, the image decoding apparatus 100 may determine a reference data unit of various sizes having a size greater than or equal to the minimum size, and may determine at least one coding unit using split mode information based on the determined reference data unit. .
  • the image decoding apparatus 100 may use a reference coding unit 1500 in a square shape or a reference coding unit 1502 in a non-square shape.
  • the shape and size of a reference coding unit is various data units that may include at least one reference coding unit (e.g., a sequence, a picture, a slice, and a slice segment ( slice segment), tile, tile group, maximum coding unit, etc.).
  • the receiver 110 of the image decoding apparatus 100 may obtain at least one of information on a shape of a reference coding unit and information on a size of a reference coding unit from the bitstream for each of the various data units. .
  • the process of determining at least one coding unit included in the square-shaped reference coding unit 1500 has been described above through the process of dividing the current coding unit 300 of FIG. 3, and the non-square-shaped reference coding unit 1502
  • the process of determining at least one coding unit included in) has been described above through a process in which the current coding unit 400 or 450 of FIG. 4 is split, so a detailed description thereof will be omitted.
  • the image decoding apparatus 100 determines the size and shape of a reference coding unit according to some data units that are predetermined based on a predetermined condition, and an index for identifying the size and shape of the reference coding unit Can be used. That is, the receiving unit 110 receives a predetermined condition (eg, a size less than a slice) among the various data units (eg, sequence, picture, slice, slice segment, tile, tile group, maximum coding unit, etc.) from the bitstream. As a data unit that satisfies (a data unit having a), only an index for identifying the size and shape of the reference coding unit may be obtained for each slice, slice segment, tile, tile group, maximum coding unit, and the like.
  • a predetermined condition eg, a size less than a slice
  • the various data units eg, sequence, picture, slice, slice segment, tile, tile group, maximum coding unit, etc.
  • the image decoding apparatus 100 may determine the size and shape of the reference data unit for each data unit that satisfies the predetermined condition by using the index.
  • the bitstream use efficiency may not be good, so the type of the reference coding unit Instead of directly obtaining information on and information on the size of the reference coding unit, only the index may be obtained and used. In this case, at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 100 selects at least one of the size and shape of the predetermined reference coding unit according to the index, so that at least one of the size and shape of the reference coding unit included in the data unit that is a reference for obtaining the index is selected. You can decide.
  • the image decoding apparatus 100 may use at least one reference coding unit included in one largest coding unit. That is, at least one reference coding unit may be included in the largest coding unit for dividing an image, and a coding unit may be determined through a recursive splitting process of each reference coding unit. According to an embodiment, at least one of the width and height of the largest coding unit may correspond to an integer multiple of at least one of the width and height of the reference coding unit. According to an embodiment, the size of a reference coding unit may be a size obtained by dividing a maximum coding unit n times according to a quad tree structure.
  • the image decoding apparatus 100 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, the reference coding unit is at least one of block type information and split type mode information. It can be divided based on one.
  • the image decoding apparatus 100 may obtain and use block type information indicating a type of a current coding unit or split type mode information indicating a method of dividing a current coding unit from a bitstream.
  • the split type mode information may be included in a bitstream related to various data units.
  • the video decoding apparatus 100 includes a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. Segmentation mode information included in a segment header, tile header, and tile group header may be used.
  • the image decoding apparatus 100 may obtain and use a syntax element corresponding to block type information or split type mode information from a bitstream for each largest coding unit, a reference coding unit, and processing block from the bitstream.
  • the image decoding apparatus 100 may determine an image segmentation rule.
  • the segmentation rule may be predetermined between the image decoding apparatus 100 and the image encoding apparatus 2200.
  • the image decoding apparatus 100 may determine an image segmentation rule based on information obtained from a bitstream.
  • the video decoding apparatus 100 includes a sequence parameter set, a picture parameter set, a video parameter set, a slice header, a slice segment header, and A partitioning rule may be determined based on information obtained from at least one of a tile header and a tile group header.
  • the image decoding apparatus 100 may determine a split rule differently according to a frame, a slice, a tile, a temporal layer, a maximum coding unit, or a coding unit.
  • the image decoding apparatus 100 may determine a splitting rule based on a block shape of a coding unit.
  • the block shape may include the size, shape, width and height ratio and direction of the coding unit.
  • the image decoding apparatus 100 may determine in advance to determine a splitting rule based on a block shape of a coding unit. However, it is not limited thereto.
  • the image decoding apparatus 100 may determine a segmentation rule based on information obtained from the received bitstream.
  • the shape of the coding unit may include a square and a non-square.
  • the image decoding apparatus 100 may determine the shape of the coding unit as a square. Also, .
  • the image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
  • the size of the coding unit may include various sizes of 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ..., 256x256.
  • the size of the coding unit may be classified according to the length of the long side and the length or width of the short side of the coding unit.
  • the image decoding apparatus 100 may apply the same splitting rule to coding units classified into the same group. For example, the image decoding apparatus 100 may classify coding units having the same long side length into the same size. In addition, the image decoding apparatus 100 may apply the same splitting rule to coding units having the same long side length.
  • the ratio of the width and height of the coding unit is 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 32:1, or 1:32, etc.
  • the direction of the coding unit may include a horizontal direction and a vertical direction.
  • the horizontal direction may indicate a case where the length of the width of the coding unit is longer than the length of the height.
  • the vertical direction may indicate a case where the length of the width of the coding unit is shorter than the length of the height.
  • the image decoding apparatus 100 may adaptively determine a splitting rule based on a size of a coding unit.
  • the image decoding apparatus 100 may differently determine an allowable split mode mode based on the size of the coding unit. For example, the image decoding apparatus 100 may determine whether division is allowed based on the size of the coding unit.
  • the image decoding apparatus 100 may determine a splitting direction according to the size of the coding unit.
  • the image decoding apparatus 100 may determine an allowable split type according to the size of the coding unit.
  • Determining the splitting rule based on the size of the coding unit may be a splitting rule predetermined between the image decoding apparatus 100. Also, the image decoding apparatus 100 may determine a segmentation rule based on information obtained from the bitstream.
  • the image decoding apparatus 100 may adaptively determine a splitting rule based on the position of the coding unit.
  • the image decoding apparatus 100 may adaptively determine a segmentation rule based on a position occupied by the coding unit in the image.
  • the image decoding apparatus 100 may determine a splitting rule so that coding units generated by different splitting paths do not have the same block shape.
  • the present invention is not limited thereto, and coding units generated by different split paths may have the same block shape. Coding units generated by different split paths may have different decoding processing orders. Since the decoding processing sequence has been described with reference to FIG. 12, detailed descriptions are omitted.
  • 16 is a diagram showing a block diagram of an image encoding and decoding system.
  • the encoder 1610 of the image encoding and decoding system 1600 transmits an encoded bitstream of an image, and the decoder 1650 receives and decodes the bitstream to output a reconstructed image.
  • the decoder 1650 may have a configuration similar to the image decoding apparatus 100.
  • the inter prediction encoder 1605 when the prediction mode of the current block is the inter prediction mode, the inter prediction encoder 1605 generates motion information of a current block indicating a reference block of a reference picture temporally adjacent to the current picture.
  • the inter prediction encoder 1605 may determine prediction samples of the current block by using samples of the reference blocks.
  • the intra prediction encoder 1610 indicates a direction in which neighboring samples similar to the current block are located or a method of determining prediction samples so that prediction samples of the current block can be determined using neighboring samples spatially adjacent to the current block. Predictive information can be determined.
  • the inter prediction encoder 1605 may determine reference samples to be used for prediction of a current block from among samples previously reconstructed stored in a decoded pictur buffer (DPB) 1648.
  • DPB decoded pictur buffer
  • the transform unit 1620 transforms residual sample values obtained by subtracting the prediction samples generated by the inter prediction encoder 1605 or the intra prediction encoder 1610 from the original sample of the current block, and converts the transform coefficients. Print it out.
  • the quantization unit 1625 quantizes the transform coefficients output from the transform unit 1620 and outputs the quantized transform coefficients.
  • the entropy encoder 1630 may encode the quantized transform coefficient into residual syntax elements including a level value, and output the result in the form of a bitstream.
  • the quantized transform coefficients output from the quantization unit 1625 may be inverse quantized and inverse transformed through the inverse quantization unit 1633 and the inverse transform unit 1635 to generate residual sample values again.
  • the post-reconstruction filtering unit 1640 performs post-reconstruction filtering on the reconstructed samples, and the reconstructed sample values updated through the post-reconstruction filtering are used as reference sample values for intra prediction to be performed by the intra prediction unit 1610. I can. After restoration, the filtering unit 1640 may perform Hadamard transform region filtering or bilateral filtering on the reconstructed sample values.
  • the in-loop filtering unit 1645 may perform at least one of deblocking filtering and adaptive loop filtering on reconstructed samples updated through filtering after restoration.
  • the reconstructed sample values updated through filtering by the in-loop filtering unit 1645 may be stored in the DPB 1648, and may be used as reference sample values for inter prediction to be performed by the inter prediction unit 1605.
  • the entropy decoder 1655 of the decoder 1650 may perform entropy decoding on the received bitstream to parse the residual syntax elements including the level value. Quantized transform coefficients may be restored from residual syntax elements.
  • the inverse quantization unit 1660 may perform inverse quantization on the quantized transform coefficients to output transform coefficients, and the inverse transform unit 1665 may perform inverse transform on the transform coefficients to output residual sample values.
  • the inter prediction encoder 1670 of the decoder 1650 determines a reference picture temporally adjacent to the current picture using motion information of the current block parsed by the entropy decoder 1655, and a reference block in the reference picture Can be determined.
  • the inter prediction encoder 1670 may determine prediction samples of a current block using samples of reference blocks.
  • the intra prediction encoder 1675 of the decoder 1650 determines reference samples spatially adjacent to the current block using intra prediction information using motion information of the current block parsed by the entropy decoder 1655, and , Predictive samples of the current block may be determined using the determined neighboring samples.
  • the inter prediction encoder 1670 may determine reference samples to be used for prediction of a current block from among samples previously reconstructed stored in the decoded pictur buffer (DPB) 1690.
  • DPB decoded pictur buffer
  • the adder 1695 of the decoder 1650 adds the residual sample values and the predicted sample values to output a reconstructed sample value of the current block.
  • the filtering unit 1680 may perform Hadamard transform region filtering or bilateral filtering on the reconstructed sample values.
  • the reconstructed sample values updated through filtering by the filtering unit 1680 after restoration may be used as reference sample values for intra prediction to be performed by the intra prediction unit 1675.
  • the in-loop filtering unit 1685 of the decoder 1650 may perform at least one of deblocking filtering and adaptive loop filtering by using reconstructed samples updated through filtering after restoration.
  • the reconstructed sample values updated through filtering by the in-loop filtering unit 1685 are stored in the DPB 1690 and may be used as reference sample values for inter prediction to be performed by the inter prediction unit 1670.
  • a video encoding method and a decoding method, a video encoding apparatus, and a decoding apparatus according to an embodiment are based on data units determined by the video encoding apparatus and video decoding apparatus described with reference to FIGS. 1 to 16 above, based on an affine model.
  • a video encoding method and apparatus for performing inter prediction according to an affine model or a video decoding method and apparatus according to an embodiment disclosed in the present specification will be described with reference to FIGS. 17 to 40.
  • block availability means whether the corresponding block is already encoded or decoded and information on the corresponding block can be obtained.
  • the neighboring block may be encoded using the encoding information of the current block, and thus the current block may be displayed as an available state.
  • the current block may be displayed as unavailable.
  • the neighboring block can be decoded using the encoding information of the current block, so that the current block can be displayed as an available state.
  • the current block may be displayed as unavailable.
  • motion information of a block' refers to motion prediction (prediction other than prediction according to intra mode or intra block copy mode) for the corresponding block, and motion information (motion vector, prediction direction (L0)) of the corresponding block is performed.
  • motion prediction prediction other than prediction according to intra mode or intra block copy mode
  • motion information motion vector, prediction direction (L0)
  • L1-pred or Bi-pred reference picture index
  • motion prediction of a neighboring block can be performed using the motion information of the current block, so that the motion information of the current block is It can be marked as available.
  • motion information of the current block may be displayed as unavailable.
  • motion information of the current block has already been performed on the current block during the decoding process
  • motion information of the neighboring block can be performed using the motion information of the current block, so the motion information of the current block is used. It can be marked as possible.
  • motion information of the current block may be displayed as unavailable.
  • the'afine merge candidate' may correspond to control point vectors corresponding to a neighboring block or a block group of the current block. Since control point vectors are determined from a motion vector of a neighboring block or control point vectors are determined based on motion vectors of neighboring blocks belonging to a block group, each control point vector may correspond to a corresponding neighboring block or a corresponding block group. Therefore, in the present disclosure, for convenience of description, the'afine merge candidate' is described as corresponding to control point vectors determined from a neighboring block or a block group, or to a neighboring block or a block group, and the difference in meaning between the two expressions is none. 17 is a block diagram of a video decoding apparatus according to an embodiment.
  • FIG. 34 illustrates a method of deriving a motion vector for determining an Bennette parameter when the video decoding apparatus 1700 performs Bennette inter prediction according to a 4-parameter model or a 6-parameter model.
  • a motion vector MV0 of an upper left point of the current block 3400 may be used.
  • the motion vector MV0 of the upper left point may be determined using motion vectors of neighboring blocks A, B, and C adjacent to the upper left point of the current block 3400.
  • the motion vector MV1 of the upper right point may be determined using motion vectors of neighboring blocks D and E adjacent to the upper right point of the current block 3400.
  • the motion vector MV2 of the lower left point may be determined using motion vectors of neighboring blocks F and G adjacent to the lower left point of the current block 3400.
  • FIG. 35 illustrates a prediction block rotated and translated from a current block when the video decoding apparatus 1700 performs Adjuste inter prediction according to a 4-parameter model.
  • the prediction block 3550 may be reconstructed from the current block 3500 through affine inter prediction according to the 4-parameter model.
  • FIG. 36 illustrates a prediction block zoomed and moved from a current block when the video decoding apparatus 1700 performs
  • a prediction block zoomed and moved from a current block when the video decoding apparatus 1700 performs
  • a 4-parameter model illustrates a prediction block zoomed and moved from a current block when the video decoding apparatus 1700 performs
  • a 4-parameter model illustrates a prediction block zoomed and moved from a current block when the video decoding apparatus 1700 performs
  • a block 3650 of h may be generated.
  • the prediction block 3650 may be reconstructed from the current block 3600 through affine inter prediction according to the 4-parameter model.
  • FIG. 37 illustrates a prediction block rotated, zoomed, and moved from a current block when the video decoding apparatus 1700 performs Bennette inter prediction according to a 4-parameter model.
  • the current block 3700 of width w and height h is rotated by ⁇ around the center point, the size of the current block 3700 is zoomed by ⁇ , and the x, y coordinates of the center point of the current block 3600 are (c, When moving by f), a block 3750 having a width of ⁇ *w and a height of ⁇ *h may be generated.
  • the prediction block 3750 may be reconstructed from the current block 3700 through affine inter prediction according to the 4-parameter model.
  • a shear, rotation, zooming, and moved block will be predicted from the current block. I can.
  • a control point motion vector for a current block may be signaled through a bit stream.
  • 38 illustrates a method of configuring an Matte merge candidate list when the video decoding apparatus 1700 performs inter prediction in the Matte merge mode.
  • the Matte merge mode or the Matte skip mode may be applied at the block level. Whether the Matte merge mode is used may be indicated by signaling the Matte flag through the coding unit syntax. In the Matte merge mode, a merge candidate index having a maximum value of 4 is signaled, and a motion information candidate indicated by the merge candidate index in the Rane merge candidate list may be used as a predicted motion vector for the current block 3800.
  • a merge candidate list which is an affine of the current block, may be constructed using motion information of neighboring blocks.
  • the coding order is LR_01, that is, when the right block of the current block 3800 has already been decoded
  • the neighboring blocks C1, B3, B2, C0, and B0 are in the order of the merge candidate list, which is an affine of the current block.
  • Motion vectors may be included.
  • the neighboring blocks in the order of the neighboring blocks A1, B1, B0, A0, and B2 in the affine merge candidate list of the current block A motion vector of may be included.
  • the motion vector In order to include a motion vector of a neighboring block in the affine merge candidate list, the motion vector must be available. Since the merge candidate index indicates 0 to 4, the affine merge candidate list may include up to 5 candidates. If the motion information of the neighboring blocks C1, B3, B2, C0, and B0 is not available and there are fewer than 5 motion information included in the affine merge candidate list in the above order, the zero candidate is affine. It can be included in the merge candidate list.
  • affine inter prediction based on the control point may be performed.
  • the control point motion vector of the current block 3800 may be derived based on the control point motion information of the neighboring block. Accordingly, a control point-based candidate may be included in the affine merge candidate list.
  • control point candidate In the case of the control point candidate according to the 6-parameter model, the abbreviation of the control point set (CP0, CP1, CP2), (CP0, CP1, CP3), (CP0, CP2, CP3) and (CP1, CP2, CP3) in the order of It may be included in the in-merge candidate list. In the case of a control point candidate according to the 4-parameter model, it may be included in the Rane merge candidate list in the order of the control point sets (CP0, CP1) and (CP0, CP2).
  • Control point motion information of CP0, CP1, CP2, and CP3 may be derived using control point motion information of adjacent neighboring blocks, respectively.
  • the availability of motion information of neighboring blocks adjacent to each control point should be checked.
  • motion information of CP0 may be obtained using motion information of the neighboring block that is first confirmed to be available.
  • motion information is used in the order of neighboring blocks B0, B1, and C2 for CP1
  • motion information is used in the order of neighboring blocks A0, A1, and a temporal candidate in the lower left corner for CP2.
  • 39 illustrates a method in which the video decoding apparatus 1700 determines motion information of a control point of a current block by using motion information of a control point of a neighboring block.
  • Motion information of the control points CP0, CP1, and CP2 of the current block 3900 may be derived using motion information of the control points CPn0, CPn1, CPn2, and CPn3 of the neighboring block 3950 reconstructed in the Rane prediction mode.
  • motion information of the control points CPn0, CPn1 and CPn2 of the neighboring block 3950 may be used.
  • motion information of the control points CPn0, CPn1 and CPn2 of the neighboring block 3950 is used, and the motion of the control point CP2 of the current block 3900
  • motion information of control points CPn0, CPn1, and CPn2 of the neighboring block 3950 may be used.
  • the boundary line between the current block 3900 and the neighboring block 3950 is the boundary line of the largest coding unit
  • Motion information of the control points CP0, CP1, and CP2 of the current block 3900 may be derived using the information.
  • the motion information of the control points CPn2 and CPn3 of the neighboring block 3950 is used, and the neighboring block ( Motion information of the control CPn2 and CPn3 of 3950) may be used, and motion information of the control points CPn2 and CPn3 of the neighboring block 3950 may be used to derive the motion information of the control point CP2.
  • 40 illustrates a method of performing motion compensation in units of a control point motion vector and a subblock when the video decoding apparatus 1700 performs Matte inter prediction according to a 4-parameter model or a 6-parameter model.
  • the control point motion vector is a vector representing an affine motion model at the upper left and right of the current block, as shown by the arrows in FIG.
  • motion compensation may not be performed in units of pixels of the blocks 4000 and 4050, but may be performed in units of subblocks of the blocks 4000 and 4050. That is, in terms of sub-block units, general motion compensation, but from the perspective of blocks 4000 and 4050, affine motion compensation is performed to generate prediction blocks 4010 and 4060, respectively.
  • a reference region for determining a prediction block of subblocks is denoted. Suggest a way to make a decision.
  • FIG. 17 is a block diagram of a video decoding apparatus according to an embodiment.
  • the video decoding apparatus 1700 includes an affine model inter prediction unit 1710, an inter prediction sample determination unit 1720, and a reconstruction unit 1730.
  • the video decoding apparatus 1700 acquires a bitstream generated as a result of encoding an image, determines positions of blocks divided from a picture based on information included in the bitstream, and decodes blocks such as a maximum coding unit and a coding unit. can do.
  • the video decoding apparatus 1700 may include one or more data storage units (not shown) in which input/output data of the affine model inter prediction unit 1710, the inter prediction sample determination unit 1720, and the restoration unit 1730 are stored. I can.
  • the video decoding apparatus 1700 may also include a memory control unit (not shown) that controls input/output of data from a data storage unit (not shown).
  • the video decoding apparatus 1700 may perform an image decoding operation including prediction by operating in conjunction with an internally mounted video decoding processor or an external video decoding processor in order to restore an image through image decoding.
  • the internal video decoding processor of the video decoding apparatus 1700 may implement a basic image decoding operation by including an image decoding processing module as well as a separate processor.
  • the video decoding apparatus 1700 may be included in the video decoding apparatus 100 described above.
  • the affine model inter prediction unit 1710, the inter prediction sample determiner 1720, and the reconstructor 1730 may correspond to the decoder 120 of the image decoding apparatus 100.
  • the video decoding apparatus 1700 may correspond to the decoder 1650 of the video encoding and decoding system described above with reference to FIG. 16.
  • the affine model inter prediction unit 1710, the inter prediction sample determiner 1720, and the reconstructor 1730 may correspond to the inter prediction decoder 1670 of the decoder 1650.
  • the video decoding apparatus 1700 receives a bitstream generated as a result of encoding an image.
  • the bitstream may include information on the current picture.
  • a picture may include one or more maximum coding units.
  • the video decoding apparatus 1700 may determine the position of the current block in the picture based on information obtained from the bitstream.
  • the current block is a block generated by being split from a picture according to a tree structure, and may correspond to, for example, a largest coding unit or a coding unit.
  • the video decoding apparatus 1700 may determine whether the current block is further divided into sub-blocks of a lower depth, and may determine a tree structure of the current block. Compared to the current depth of the current block, the lower depth may be determined by increasing the number of times divided from the current block to the lower block.
  • blocks located in the tree leaf are blocks that are no longer divided. Accordingly, the video decoding apparatus 1700 may decode blocks by performing inverse quantization, inverse transformation, and prediction on one or more blocks that are no longer divided.
  • the video decoding apparatus 1700 may generate prediction samples of the current block by performing prediction on the current block.
  • the video decoding apparatus 1700 may generate residual samples of the current block by performing inverse transformation on the current block.
  • the reconstructor 1730 may generate reconstructed samples of the current block by using prediction samples of the current block and residual samples of the current block.
  • the video decoding apparatus 1700 may reconstruct a current picture by reconstructing samples for each block.
  • the video decoding apparatus 1700 determines a reference sample among samples of a spatial neighboring block located in the intra prediction direction using intra prediction information of the current block, and refers to Prediction samples corresponding to the current block may be determined using the sample.
  • the video decoding apparatus 1700 may reconstruct the current block by using the motion vector of the current block.
  • the video decoding apparatus 1700 may determine a reference block in a reference picture using a motion vector of the current block, and determine prediction samples corresponding to the current block from reference samples included in the reference block.
  • the video decoding apparatus 1700 may restore transform coefficients using a transform coefficient level obtained from a bitstream, and perform inverse quantization and inverse transform on the transform coefficients to restore residual samples.
  • the video decoding apparatus 1700 may determine reconstructed samples of the current block by combining prediction samples corresponding to the current block and residual samples.
  • the video decoding apparatus 1700 When the current block is predicted in the skip mode, the video decoding apparatus 1700 does not need to parse the transform coefficients of the current block from the bitstream.
  • the video decoding apparatus 1700 may determine reconstructed samples of the current block by using the prediction samples of the current block as they are.
  • the Matte model inter prediction unit 1710 may be called.
  • the video decoding apparatus 1700 obtains a merge mode flag indicating whether the inter prediction mode of the current block is a merge mode from a non-stream, and when the merge mode flag indicates a merge mode, generates a prediction sample of the current block.
  • An affine flag indicating whether motion compensation based on the hazard affine model is performed may be obtained from the bitstream.
  • the video decoding apparatus 1700 calls the Matte model inter prediction unit 1710, and
  • the prediction unit 1710 is a control point-based affine merge candidate corresponding to control point motion vectors determined using motion vectors of neighboring blocks included in a block group of neighboring blocks representing each corner of the current block. based affine merge candidate) can be created.
  • an affine merge candidate list including a model-based affine merge candidate may be generated.
  • the model-based affine merge candidate represents a merge candidate corresponding to control point motion vectors determined according to an affine motion vector of an available neighboring block among neighboring blocks at a predetermined position adjacent to the current block. That is, neighboring blocks decoded before the current block may be determined as model-based affine merge candidates.
  • a model-based affine merge candidate corresponding to the neighboring block is also set in an available state.
  • a model-based affine merge candidate corresponding to the neighboring block is also set in a state in which it is not available.
  • the affine model inter prediction unit 1710 is a control point-based affine corresponding to a group of neighboring blocks representing each corner of the current block.
  • the affine merge candidate based on the control point may be added to the Matte merge candidate list.
  • the predetermined number is the maximum number of affine merge candidates allowed to be included in the affine merge candidate list, and may be set, for example, to five.
  • the model-based affine merge candidate is a corresponding merge candidate derived from one neighboring block
  • the control point-based affine merge candidate may be a merge candidate derived from a combination of affine models of two or more neighboring blocks.
  • the affine merge candidate list based on the available model may be included in the affine merge candidate list of the current block. If the number of valid affine merge candidates of the current block is less than a predetermined number, the lack of affine merge candidates based on the control point is It can be added to the affine merge candidate list.
  • the affine model inter predictor 1710 may determine the affine motion vector of the current block by using control point motion vectors corresponding to the merge candidate selected from the Bennette merge candidate list. Using the Matte merge index obtained from the bitstream, the Rane model inter prediction unit 1710 may determine a control point motion vector of a merge candidate indicated by the Rane merge index from among the Rane merge candidate list. The Rane model inter prediction unit 1710 determines the Rane motion model parameter of the current block using the control point motion vector, and determines the Rane motion vector of the current block using the Matte motion model parameter of the current block. May be. The affine model inter prediction unit 1710 may obtain prediction samples of the current block by using a reference sample indicated by the affine motion vector of the current block.
  • control point motion vectors corresponding to the model-based Arte merge candidate are determined using an Bennette model of one neighboring block.
  • the affine model inter prediction unit 1710 may determine the affine motion vector of the current block from control point motion vectors corresponding to the model-based Bennette merge candidate.
  • the control point motion vector corresponding to the Rane merge candidate based on the control point is a control point of the current block with neighboring blocks included in the corresponding block group.
  • the affine model inter prediction unit 1710 may determine the affine motion vector of the current block using control point motion vectors corresponding to the Arte merge candidate based on the control point. have.
  • Control point motion vectors corresponding to the control points of may be determined. More specifically, by using a reference index of a neighboring block, a prediction direction (L0-pred, L1-pred, or Bi-pred), and a motion vector, a reference index corresponding to a model-based affine merge candidate, a prediction direction, and a control point Each of the motion vectors can be determined.
  • a reference index, a prediction direction, and an affine motion vector of the current block may be determined, respectively, using a reference index, a prediction direction, and a control point motion vector corresponding to the Matte merge candidate.
  • control point motion vectors are determined using motion vectors of neighboring blocks adjacent to the control points of the current block, and the selected affine
  • An affine motion vector of the current block may be determined using control point motion vectors according to the in-merge candidate. More specifically, a reference index, a prediction direction, and a control point motion vector corresponding to the affine merge candidate may be determined, respectively, using reference indices, prediction directions, and motion vectors of representative neighboring blocks belonging to the block group. A reference index, a prediction direction, and an affine motion vector of the current block may be determined, respectively, using a reference index, a prediction direction, and a control point motion vector corresponding to the Matte merge candidate.
  • the video decoding apparatus 1700 may change a coding order between coding units adjacent to the left and right according to a Split Unit Coding Order (SUCO) method.
  • the video decoding apparatus 1700 may obtain an encoding order flag indicating a direction of a lower encoding order from the bitstream.
  • the coding order flag indicates left to right
  • the left lower coding unit may be decoded first
  • the right lower coding unit may be decoded later among the left and right lower coding units generated by splitting the current coding unit. have.
  • the encoding order flag indicates a right to left direction
  • a right lower coding unit may be decoded first
  • a left lower coding unit may be decoded later.
  • the representative neighboring block adjacent to the lower right corner of the current block is a neighboring block adjacent to the lower right corner of the current block and the right outline of the current block, and the current block.
  • a neighboring block from which available motion information is obtained among neighboring blocks diagonally adjacent to the lower right corner of the block may be determined as the representative neighboring block. It is determined whether motion information available in the corresponding block is obtained in the order of the neighboring block C1 and the neighboring block C0, and first, the available block may be determined as a BR representative neighboring block.
  • the representative neighboring block adjacent to the lower right corner of the current block is a collocated block located at a point diagonally adjacent to the lower right corner of the current block.
  • the collocated block is a block included in the collocated picture and may be included in the affine merge candidate list as a temporal merge candidate.
  • the BR representative neighboring block adjacent to the lower right corner of the current block is a neighboring block C1 adjacent to the lower right corner of the current block and the right outline of the current block.
  • the block for which motion information is available is the representative neighbor.
  • the collocated block is a block included in the collocated picture and may be included in the affine merge candidate list as a temporal merge candidate.
  • the collocated block adjacent to the lower right corner of the current block may be a location block at a coordinate corresponding to the lower right corner of the current block in the collocated picture.
  • the video decoding apparatus 1700 needs to check availability of motion information of a neighboring block in order to include a valid merge candidate in an affine merge candidate list. This is because motion prediction has already been performed on a block and a valid merge candidate can be determined from a neighboring block having available motion information.
  • a neighboring block on which motion prediction has been performed before the current block is available for prediction of the current block. Specifically, when motion prediction is performed on the left neighboring block of the current block before the current block, motion information of the left neighboring block is available. When motion prediction is performed on the right neighboring block of the current block before the current block, motion information of the right neighboring block is available. Conversely, when motion prediction is not performed on the left neighboring block of the current block, motion information of the left neighboring block is not available. When motion prediction is not performed on the right neighboring block of the current block, motion information of the right neighboring block is not available.
  • the video decoding apparatus 1700 selects an affine merge candidate list in consideration of the coding order. You need to decide.
  • the affine model inter prediction unit 1710 may obtain a basic motion vector of the current block when the Rane model-based inter prediction is performed in the current block.
  • the basic motion vector may be the motion vector of the control point CP0 of FIG. 38 described above.
  • motion information of CP0 may be determined using motion information of the neighboring block that is first confirmed to be available.
  • the inter prediction sample determiner 1720 may determine a center motion vector of a current block using a basic motion vector.
  • the inter prediction sample determiner 1720 may determine a reference range of a referenceable region of the current block based on the size of the current block. At this time, if the reference region having the size of the reference range around the point indicated by the center motion vector of the current block in the reference picture of the current block exceeds or includes the boundary of the reference picture, the reference region is translated into the current picture. By doing so, the reference area can be changed.
  • the inter prediction sample determiner 1720 may determine prediction samples of subblocks of a current block within a changed reference region among a reference picture.
  • the sub-block may be a block unit or a sample unit.
  • the reconstructor 1730 may determine reconstructed samples of the current block using prediction samples of the current block.
  • FIG. 18 is a flowchart of a video decoding method according to an embodiment.
  • the Rane model inter prediction unit 1710 obtains a basic motion vector of the current block when the Rane model-based inter prediction is performed in the current block, and the inter prediction sample determiner 1720
  • the center motion vector of the current block can be determined by using the basic motion vector.
  • the center motion vector of the current block may be determined through Rane transformation of the basic motion vector of the current block.
  • affine motion model parameters may be determined from control point motion vectors of the current block, and the affine motion model parameters may include a horizontal change amount and a vertical change amount of the affine motion vector of the current block.
  • the basic motion vector is a motion vector at the upper left corner of the current block
  • the horizontal and vertical changes of the affine motion vector scaled according to the distance from the upper left corner to the center of the current block are added to the basic motion vector. By doing so, the center motion vector of the current block can be determined.
  • the inter prediction sample determiner 1720 may determine a reference range of a referenced region of the current block based on the size of the current block.
  • the inter prediction sample determiner 1720 includes a reference region having a size of a reference range centering on a point indicated by the center motion vector of the current block in the reference picture of the current block. In addition, it is possible to change the reference area by moving the reference area into the current picture.
  • the reference picture may be an actual picture, or may be a tile, a slice, or a tile group.
  • the reference picture may be an area including an area padded with a specific size inside and outside the picture including reconstructed samples.
  • the inter prediction sample determiner 1720 may determine prediction samples of subblocks of the current block within the changed reference region of the reference picture.
  • the reconstructor 1730 may determine reconstructed samples of the current block using prediction samples of the current block.
  • step 1830 when the x-axis coordinate of the left boundary of the reference region indicated by the center motion vector of the current block is smaller than the x-axis coordinate of the left boundary of the current picture, the inter prediction sample determiner 1720
  • the x-axis coordinate of the left boundary may be changed to the x-axis coordinate of the left boundary of the current picture
  • the x-axis coordinate of the right boundary of the reference area may be changed to a value obtained by adding the reference range to the x-axis coordinate of the left boundary of the current picture.
  • the inter prediction sample determiner 1720 moves the reference region to the right and changes the reference region to be located in the reference picture. I can. In this case, the size of the reference area may be maintained as it is.
  • step 1830 when the x-axis coordinate of the right boundary of the reference region indicated by the center motion vector of the current block is greater than the x-axis coordinate of the right boundary of the current picture, the inter prediction sample determiner 1720
  • the x-axis coordinate of the right border may be changed to the x-axis coordinate of the right border of the current picture
  • the x-axis coordinate of the left border of the reference area may be changed to a value obtained by subtracting the reference range from the x-axis coordinate of the right border of the current picture.
  • the inter prediction sample determiner 1720 moves the reference region to the left and changes the reference region to be located in the reference picture. I can. In this case, the size of the reference area may be maintained as it is.
  • step 1830 when the y-axis coordinate of the upper boundary of the reference region indicated by the center motion vector of the current block is smaller than the y-axis coordinate of the upper boundary of the current picture, the inter prediction sample determiner 1720
  • the y-axis coordinate of the upper boundary may be changed to the y-axis coordinate of the upper boundary of the current picture
  • the y-axis coordinate of the lower boundary of the reference area may be changed to a value obtained by adding the reference range to the y-axis coordinate of the upper boundary of the current picture.
  • the inter prediction sample determiner 1720 moves the reference region downward and changes the reference region to be located in the reference picture. I can. In this case, the size of the reference area may be maintained as it is.
  • step 1830 when the y-axis coordinate of the lower boundary of the reference region indicated by the center motion vector of the current block is larger than the y-axis coordinate of the lower boundary of the current picture, the inter prediction sample determiner 1720 You can change the y-axis coordinate of the lower boundary of the current picture to the y-axis coordinate of the lower boundary of the current picture, and change the y-axis coordinate of the upper boundary of the reference area to a value subtracting the reference range from the y-axis coordinate of the lower boundary of the current picture. .
  • the inter prediction sample determiner 1720 moves the reference region upward and changes the reference region to be located in the reference picture. I can. In this case, the size of the reference area may be maintained as it is.
  • step 1830 when the x-axis coordinate of the right boundary of the reference region indicated by the center motion vector of the current block is smaller than the x-axis coordinate of the left boundary of the current picture, the inter prediction sample determiner 1720
  • the x-axis coordinate of the left boundary may be changed to the x-axis coordinate of the left boundary of the current picture
  • the x-axis coordinate of the right boundary of the reference area may be changed to a value obtained by adding the reference range to the x-axis coordinate of the left boundary of the current picture.
  • the inter prediction sample determiner 1720 translates the reference region to the right so that the reference picture You can change the reference area to be located within. In this case, the size of the reference area may be maintained as it is.
  • step 1830 when the x-axis coordinate of the left boundary of the reference area indicated by the center motion vector of the current block is larger than the x-axis coordinate of the right boundary of the current picture, the inter prediction sample determiner 1720
  • the x-axis coordinate of the left boundary may be changed to the x-axis coordinate of the right boundary of the current picture
  • the x-axis coordinate of the right boundary of the reference area may be changed to a value obtained by subtracting the reference range from the x-axis coordinate of the right boundary of the current picture.
  • the inter prediction sample determiner 1720 moves the reference region to the left to translate the reference picture. You can change the reference area to be located within. In this case, the size of the reference area may be maintained as it is.
  • step 1830 when the y-axis coordinate of the lower boundary of the reference region indicated by the center motion vector of the current block is smaller than the y-axis coordinate of the upper boundary of the current picture, the inter prediction sample determiner 1720
  • the y-axis coordinate of the upper boundary may be changed to the y-axis coordinate of the upper boundary of the current picture
  • the y-axis coordinate of the lower boundary of the reference area may be changed to a value obtained by adding the reference range to the y-axis coordinate of the upper boundary of the current picture.
  • the inter prediction sample determiner 1720 moves the reference region downward to the reference picture. You can change the reference area to be located within. In this case, the size of the reference area may be maintained as it is.
  • step 1830 when the y-axis coordinate of the upper boundary of the reference region indicated by the center motion vector of the current block is greater than the y-axis coordinate of the lower boundary of the current picture, the inter prediction sample determiner 1720
  • the y-axis coordinate of the upper boundary may be changed to the y-axis coordinate of the lower boundary of the current picture
  • the y-axis coordinate of the lower boundary of the reference area may be changed to a value obtained by subtracting the reference range from the y-axis coordinate of the lower boundary of the current picture.
  • the inter prediction sample determiner 1720 moves the reference region upward to the reference picture. You can change the reference area to be located within. In this case, the size of the reference area may be maintained as it is.
  • 19 is a block diagram of a video encoding apparatus according to an embodiment.
  • a video encoding apparatus 1900 may include an affine mode predictor 1910 and an encoder 1920.
  • the information encoder 1910 may generate limited prediction information indicating whether the limited intra prediction mode is activated, perform entropy encoding on the limited prediction information, and output in the form of a bitstream.
  • the video encoding apparatus 1900 may divide a picture into one or more luma coding units and may encode the coding units.
  • the video encoding apparatus 1900 may include a central processor (not shown) that controls the Rane model inter prediction unit 1910, the inter prediction sample determiner 1920, and the encoder 1930. have.
  • the affine model inter prediction unit 1910, the inter prediction sample determination unit 1920, and the encoding unit 1930 are operated by their own processors (not shown), and the processors (not shown) are mutually organically operated. Accordingly, the video encoding apparatus 1900 may be operated as a whole.
  • the affine mode predictor 1910 and the encoder 1920 may be controlled.
  • the video encoding apparatus 1900 may include an affine model inter prediction unit 1910, an inter prediction sample determination unit 1920, and one or more data storage units (not shown) for storing input/output data of the encoder 1930. I can.
  • the video encoding apparatus 1900 may include a memory control unit (not shown) that controls input/output of data from a data storage unit (not shown).
  • the video encoding apparatus 1900 may perform an image encoding operation including prediction by operating in conjunction with an internally mounted video encoding processor or an external video encoding processor for image encoding.
  • the internal video encoding processor of the video encoding apparatus 1900 may implement a basic image encoding operation by including an image encoding processing module as well as a separate processor.
  • the video encoding apparatus 1900 may correspond to the encoder 1600 of the image encoding and decoding system described above with reference to FIG. 16.
  • the encoder 1920 may correspond to the entropy encoder 1630 of the encoder 1600.
  • model inter prediction unit 1910 and the inter prediction sample determiner 1920 may correspond to the inter prediction unit 1605 of the encoder 1600.
  • the video encoding apparatus 1900 may divide a picture into a plurality of largest coding units, and may divide and encode each largest coding unit into blocks of various sizes and various shapes.
  • the video encoding future 1900 determines a reference sample among samples of spatial neighboring blocks located in the intra prediction direction of the current block of the current block, and uses the reference sample.
  • prediction samples corresponding to the current block may be determined.
  • the video encoding future 1900 may determine a motion vector for predicting the current block.
  • the video encoding future 1900 may determine a reference block of a current block within a reference picture, and determine a motion vector indicating the reference block from the current block.
  • skip mode there is no need to encode a residual block.
  • the video encoding future 1900 may determine a motion vector for predicting the current block.
  • the video encoding future 1900 may determine a reference block of a current block in a reference picture and determine a motion vector indicating the reference block from the current block.
  • a residual sample between the current block is determined from reference samples included in the reference block, and the residual sample is transformed and quantized based on a transform unit, thereby generating a quantized transform coefficient. can do.
  • the current block is a block generated by being split from an image according to a tree structure, and may correspond to, for example, a largest coding unit, a coding unit, or a transformation unit.
  • the video encoding apparatus 1900 may encode blocks included in a picture according to an encoding order.
  • the affine model inter prediction unit 1910 is a control point-based affine merge candidate corresponding to the control point motion vectors determined using motion vectors of neighboring blocks included in the block group of neighboring blocks representing each corner of the current block. It is possible to generate an affine merge candidate list including.
  • the Matte model inter prediction unit 1910 when the inter prediction of the current block is performed in the Rane merge mode, the Matte model inter prediction unit 1910 according to an embodiment is model-based before constructing a control point-based Matte merge candidate.
  • An affine merge candidate list including an affine merge candidate of may be generated.
  • a model-based affine merge candidate corresponding to the neighboring block may be included in the affine merge candidate list.
  • a model-based affine merge candidate corresponding to the neighboring block is also set in an available state.
  • a model-based affine merge candidate corresponding to the neighboring block is also set in a state in which it is not available.
  • the affine model inter prediction unit 1910 is a control point-based affine corresponding to a group of neighboring blocks representing each corner of the current block.
  • the affine merge candidate based on the control point may be added to the Matte merge candidate list.
  • the predetermined number is the maximum number of affine merge candidates allowed to be included in the affine merge candidate list, and may be set, for example, to five.
  • the available model-based affine merge candidates may be included in the affine merge candidate list of the current block. If the number of valid affine merge candidates of the current block is less than a predetermined number, the number of affine merge candidates based on the control point is insufficient. The candidate may be added to the affine merge candidate list.
  • the affine model inter prediction unit 1910 may select a merge candidate having the smallest error to represent an affine motion vector of a current block from among merge candidates included in the Rane merge candidate list.
  • e model inter prediction unit 1910 may determine the affine motion vector of the current block by using control point motion vectors corresponding to the merge candidate selected from the Rane merge candidate list.
  • e model inter prediction unit 1910 determines the Rane motion model parameter of the current block using the control point motion vector, and determines the Matte motion vector of the current block using the Matte motion model parameter of the current block. I can.
  • Prediction samples of the current block may be determined using a reference sample indicated by a motion vector that is an affine of the current block.
  • control point motion vectors corresponding to the model-based affine merge candidates may be determined using an affine model of one neighboring block.
  • the affine motion vector of the current block may be expressed using control point motion vectors corresponding to the model-based affine merge candidate.
  • the control point motion vector corresponding to the Bennette merge candidate based on the control point is a control point of the current block with neighboring blocks included in the corresponding block group.
  • the affine motion vector of the current block may be expressed using control point motion vectors corresponding to the control point-based affine merge candidate.
  • the current block using the vertical change amount, horizontal change amount, and motion vector of one neighboring block corresponding to the model-based affine merge candidate Control point motion vectors corresponding to the control points of may be determined.
  • a reference index, a prediction direction, and a control point motion vector corresponding to a model-based affine merge candidate may be determined using a reference index, a prediction direction, and a motion vector of a neighboring block, respectively.
  • a reference index, a prediction direction, and an affine motion vector of the current block may be determined, respectively, using a reference index, a prediction direction, and a control point motion vector corresponding to the Matte merge candidate.
  • a control point-based Rane merge candidate when a control point-based Rane merge candidate is selected from the Bennette merge candidate list, motion vectors of neighboring blocks adjacent to the control points of the current block are determined as control point motion vectors, and The affine motion vector of the current block may be determined using control point motion vectors according to the affine model. More specifically, a reference index, a prediction direction, and a control point motion vector corresponding to the affine merge candidate may be determined, respectively, using reference indices, prediction directions, and motion vectors of representative neighboring blocks belonging to the block group. A reference index, a prediction direction, and an affine motion vector of the current block may be determined, respectively, using a reference index, a prediction direction, and a control point motion vector corresponding to the Matte merge candidate.
  • the video encoding apparatus 1900 may change an encoding order between coding units adjacent to the left and right according to the SUCO scheme.
  • the encoder 1930 may encode an encoding order flag indicating a direction of a lower encoding order. If the left lower coding unit is first encoded and the right lower coding unit is encoded later among the left and right lower coding units generated by splitting the current coding unit, the coding order flag is displayed to indicate the left to right direction. It can be coded. When the right lower coding unit is first encoded and the left lower coding unit is encoded later, an encoding order flag may be encoded to indicate a right to left direction.
  • the representative neighboring block adjacent to the lower right corner of the current block is a neighboring block adjacent to the lower right corner of the current block and the right outline of the current block, and the current block. It may be a block from which available motion information is obtained among neighboring blocks that are diagonally adjacent to the lower right corner of the block. It is determined whether available motion information is obtained in the order of a neighboring block C1 and a neighboring block C0, and a block from which available motion information is obtained may be determined as a representative BR neighboring block.
  • the representative neighboring block adjacent to the lower right corner of the current block is a collocated block located at a point diagonally adjacent to the lower right corner of the current block.
  • the collocated block is a block included in the collocated picture and may be included in the affine merge candidate list as a temporal merge candidate.
  • the BR representative neighboring block adjacent to the lower right corner of the current block is a neighboring block C1 adjacent to the lower right corner of the current block and the right outline of the current block.
  • the number of blocks from which available motion information is obtained among the neighboring block C0 diagonally adjacent to the lower right corner of the current block, and the collocated block Col located at a point diagonally adjacent to the lower right corner of the current block. have. It is determined whether available motion information is obtained in the order of a neighboring block C1, a neighboring block C0, and a collocated block Col, and a block from which available motion information is obtained may be determined as a representative BR neighboring block.
  • the collocated block is a block included in the collocated picture and may be included in the affine merge candidate list as a temporal merge candidate.
  • the collocated block adjacent to the lower right corner of the current block may be a location block at a coordinate corresponding to the lower right corner of the current block in the collocated picture.
  • the video encoding apparatus 1900 needs to check availability of motion information of a neighboring block in order to include a valid merge candidate in an affine merge candidate list. This is because a valid merge candidate can be determined from a neighboring block from which motion prediction has already been performed and available motion information is obtained.
  • a neighboring block on which motion prediction has been performed before the current block is available for prediction of the current block. Specifically, when motion prediction is performed on the left neighboring block of the current block before the current block, the motion information of the left neighboring block is available. When motion prediction is performed on the right neighboring block of the current block before the current block, motion information of the right neighboring block is available. Conversely, when motion prediction is not performed on the left neighboring block of the current block, motion information of the left neighboring block is not available. When motion prediction is not performed on the right neighboring block of the current block, the motion information of the right neighboring block is not available.
  • the video encoding apparatus 1900 selects an affine merge candidate list in consideration of the coding order. You need to decide.
  • the encoder 1930 encodes a merge mode flag indicating whether the inter prediction mode of the current block is a merge mode, and in the case of the merge mode, motion compensation based on an Rane model to generate a prediction sample of the current block An affine flag indicating whether this is performed can be encoded.
  • the encoder 1920 according to an embodiment may encode an affine merge index indicating one of the affine merge candidate lists.
  • the affine model inter prediction unit 1910 determines a basic motion vector of the current block when the Rane model-based inter prediction is performed in the current block, and uses the basic motion vector of the current block to determine the current block.
  • the central motion vector of can be determined.
  • the inter prediction sample determiner 1920 may determine a reference range of a referenced region of the current block based on the size of the current block.
  • the inter prediction sample determiner 1920 when a reference region having a size of a reference range centering on a point indicated by a center motion vector of the current block in a reference picture of the current block is out of or includes a boundary of the reference picture, refer to You can change the reference area by moving the area into the current picture.
  • the inter prediction sample determiner 1920 may determine prediction samples of subblocks of a current block within a changed reference region among a reference picture.
  • the sub-block may be a block unit or a sample unit.
  • the encoder 1930 may encode residual samples of the current block using prediction samples of the current block.
  • FIG. 20 is a flowchart of a video encoding method according to an embodiment.
  • the Rane model inter prediction unit 1910 may determine a center motion vector of the current block by using the basic motion vector of the current block.
  • the inter prediction sample determiner 1920 may determine a reference range of a referenceable region of the current block based on the size of the current block.
  • step 2030 the inter prediction sample determiner 1920, when a reference region having a size of a reference range centering on a point indicated by a center motion vector of the current block in the reference picture of the current block deviates from or includes the boundary of the reference picture.
  • the reference area can be changed by moving the reference area into the current picture.
  • the inter prediction sample determiner 1920 may determine prediction samples of subblocks of the current block within the changed reference region among the reference pictures.
  • the encoder 1930 may encode residual samples of the current block by using the predicted samples of the current block.
  • the inter prediction sample determiner 1920 when the x-axis coordinate of the left boundary of the reference region indicated by the center motion vector of the current block is smaller than the x-axis coordinate of the left boundary of the current picture, the inter prediction sample determiner 1920 The x-axis coordinate of the left boundary may be changed to the x-axis coordinate of the left boundary of the current picture, and the x-axis coordinate of the right boundary of the reference area may be changed to a value obtained by adding the reference range to the x-axis coordinate of the left boundary of the current picture. That is, when the reference region according to the center motion vector of the current block includes the left boundary of the reference picture, the inter prediction sample determiner 1920 moves the reference region to the right and changes the reference region to be located in the reference picture. I can. In this case, the size of the reference area may be maintained as it is.
  • step 2030 when the x-axis coordinate of the right boundary of the reference area indicated by the center motion vector of the current block is larger than the x-axis coordinate of the right boundary of the current picture, the inter prediction sample determiner 1920
  • the x-axis coordinate of the right border may be changed to the x-axis coordinate of the right border of the current picture
  • the x-axis coordinate of the left border of the reference area may be changed to a value obtained by subtracting the reference range from the x-axis coordinate of the right border of the current picture.
  • the inter prediction sample determiner 1920 moves the reference region to the left and changes the reference region to be located in the reference picture. I can. In this case, the size of the reference area may be maintained as it is.
  • step 2030 when the y-axis coordinate of the upper boundary of the reference region indicated by the center motion vector of the current block is smaller than the y-axis coordinate of the upper boundary of the current picture, the inter prediction sample determiner 1920
  • the y-axis coordinate of the upper boundary may be changed to the y-axis coordinate of the upper boundary of the current picture
  • the y-axis coordinate of the lower boundary of the reference area may be changed to a value obtained by adding the reference range to the y-axis coordinate of the upper boundary of the current picture. That is, when the reference region according to the center motion vector of the current block includes the upper boundary of the reference picture, the inter prediction sample determiner 1920 moves the reference region downward and changes the reference region to be located in the reference picture. I can. In this case, the size of the reference area may be maintained as it is.
  • step 2030 when the y-axis coordinate of the lower boundary of the reference region indicated by the center motion vector of the current block is greater than the y-axis coordinate of the lower boundary of the current picture, the inter prediction sample determiner 1920 is the reference region You can change the y-axis coordinate of the lower boundary of the current picture to the y-axis coordinate of the lower boundary of the current picture, and change the y-axis coordinate of the upper boundary of the reference area to a value subtracting the reference range from the y-axis coordinate of the lower boundary of the current picture. .
  • the inter prediction sample determiner 1920 moves the reference region upward and changes the reference region to be located in the reference picture. I can. In this case, the size of the reference area may be maintained as it is.
  • step 2030 when the x-axis coordinate of the right boundary of the reference region indicated by the center motion vector of the current block is smaller than the x-axis coordinate of the left boundary of the current picture, the inter prediction sample determiner 1920
  • the x-axis coordinate of the left boundary may be changed to the x-axis coordinate of the left boundary of the current picture
  • the x-axis coordinate of the right boundary of the reference area may be changed to a value obtained by adding the reference range to the x-axis coordinate of the left boundary of the current picture.
  • the inter prediction sample determiner 1920 moves the reference region to the right to parallel the reference picture. You can change the reference area to be located within. In this case, the size of the reference area may be maintained as it is.
  • step 2030 when the x-axis coordinate of the left boundary of the reference area indicated by the center motion vector of the current block is greater than the x-axis coordinate of the right boundary of the current picture, the inter prediction sample determiner 1920
  • the x-axis coordinate of the left boundary may be changed to the x-axis coordinate of the right boundary of the current picture
  • the x-axis coordinate of the right boundary of the reference area may be changed to a value obtained by subtracting the reference range from the x-axis coordinate of the right boundary of the current picture.
  • the inter prediction sample determiner 1920 moves the reference region to the left in parallel to the reference picture. You can change the reference area to be located within. In this case, the size of the reference area may be maintained as it is.
  • step 2030 when the y-axis coordinate of the lower boundary of the reference region indicated by the center motion vector of the current block is smaller than the y-axis coordinate of the upper boundary of the current picture, the inter prediction sample determiner 1920
  • the y-axis coordinate of the upper boundary may be changed to the y-axis coordinate of the upper boundary of the current picture
  • the y-axis coordinate of the lower boundary of the reference area may be changed to a value obtained by adding the reference range to the y-axis coordinate of the upper boundary of the current picture.
  • the inter prediction sample determiner 1920 moves the reference region downward to the reference picture. You can change the reference area to be located within. In this case, the size of the reference area may be maintained as it is.
  • step 2030 when the y-axis coordinate of the upper boundary of the reference area indicated by the center motion vector of the current block is greater than the y-axis coordinate of the lower boundary of the current picture, the inter prediction sample determiner 1920
  • the y-axis coordinate of the upper boundary may be changed to the y-axis coordinate of the lower boundary of the current picture
  • the y-axis coordinate of the lower boundary of the reference area may be changed to a value obtained by subtracting the reference range from the y-axis coordinate of the lower boundary of the current picture.
  • the inter prediction sample determiner 1920 moves the reference region upward to the reference picture. You can change the reference area to be located within. In this case, the size of the reference area may be maintained as it is.
  • a motion vector of a current block is determined through inter prediction based on an affine model, and a reference region indicated by the motion vector of the current block is referenced.
  • a prediction sample through inter prediction can be efficiently determined without an increase in the bandwidth of the memory.
  • 21 illustrates a reference region in which prediction blocks of sub-blocks can be determined based on a point indicated by a motion vector of a current block during inter prediction based on affine model.
  • an affine model-based inter prediction (hereinafter referred to as “afine inter prediction”) may be performed to determine a central motion vector 2125.
  • a reference region centered on a point indicated by the center motion vector 2125 may be determined.
  • a reference area 2125 having a width W and a height H centered on a point indicated by the central motion vector 2125 may be determined.
  • the width W and the height H respectively correspond to 2*d on the drawing, and may be referred to as a reference range.
  • the reference range may be determined based on the size of the current block.
  • the width and height of the reference range are 128*2
  • the width and height of the reference range are 256*2
  • the size of the current block is 32.
  • the width and height of the reference range is 544*2
  • the width and height of the reference range is 1120*2 when the size of the current block is 64
  • the width and height of the reference range are 2272*2 when the size of the current block is 128. I can.
  • the width and height of the reference range can be expanded in 1/32-pixel units, so the width x height is 128*2x128*2, 256*2x256*2, 544*2x544*2, 1120*2x1120*2 and 2272*2x2272 Since the prediction point is defined in units of 1/32 pixels within the reference area of *2, precise motion prediction is possible.
  • An interpolation filter may be used to obtain a sample value of a point in units of 1/32 pixels in the reference area. Predicted sample values in units of 1/32 pixels may be obtained through interpolation filtering using sample values in units of integer pixels in the reference area. Interpolation filtering according to an embodiment may be performed using a bi-linear interpolation filter.
  • a prediction block may be determined in the reference region 2125 for each sub-block 2130, 2140, 2150, and 2160 of the current block 2120.
  • the video encoding apparatus 1900 determines prediction blocks 2170, 2180, 2190, 2195 by searching for the most similar block for each sub-block 2130, 2140, 2150, and 2160 in the reference area 2125. I can.
  • the video decoding apparatus 1700 obtains a motion vector for each sub-block 2130, 2140, 2150, and 2160, and predicts the prediction blocks 2170, 2180, which are indicated by the motion vectors of the sub-blocks 2130, 2140, 2150, and 2160.
  • 2190 and 2195 may be determined within the reference area 2125.
  • prediction samples may be determined for each sample of sub-blocks in the reference area 2125.
  • FIG. 22 illustrates a case where a reference region according to a motion vector of a current block deviates from or includes a boundary of a reference picture during inter prediction based on an affine model.
  • a reference area 2235 covering as much as a reference range from the point indicated by the center motion vector 2230 of the current block 2220 of the current picture 2200 is a part of the reference area 2235, including the boundary of the reference picture 2210 There may be a case where is out of the boundary of the reference picture 2210.
  • the reference region 2245 indicated by the center motion vector 2240 of the current block 2220 completely deviates from the boundary of the reference picture 2210, so that all regions of the reference region 2235 are located outside the reference picture 2210. There may be cases.
  • the video decoding apparatus 1700 and the video encoding apparatus 1900 efficiently set a reference region required for motion compensation according to various embodiments, and even when the motion vector points outside the reference picture, In addition, since the inside of the reference picture can be referred, coding efficiency can be improved. In addition, in order to use data outside the reference picture 2210 to determine a prediction sample according to affine inter prediction, an efficient hardware design may be difficult because more memory bandwidth is required. Accordingly, the video decoding apparatus 1700 and the video encoding apparatus 1900 determine prediction samples according to affine inter prediction without adding a memory bandwidth, so that a hardware structure can be efficiently designed. Various embodiments in which the video decoding apparatus 1700 and the video encoding apparatus 1900 determine reference regions of subblocks according to affine inter prediction are provided with reference to FIGS. 22 to 33.
  • 23 to 25 illustrate a case in which a reference region according to a motion vector of a current block includes a boundary of a reference picture during inter prediction based on an affine model, according to an embodiment, in which the video decoding apparatus 1700 clips the reference region. Shows how.
  • the video decoding apparatus 1700 when the original reference area 2330 indicated by the center motion vector 2325 of the current block 2320 of the current picture 2300 includes an upper boundary of the reference picture 2310, one embodiment
  • the video decoding apparatus 1700 according to the original reference area 2330 excludes an area outside the upper boundary of the reference picture 2310 and includes only an area belonging to the inside of the reference picture 2310 so as to include the final reference area 2340. Can be determined.
  • the video decoding apparatus 1700 according to an exemplary embodiment includes the final reference area (the original reference area 2330) when the y coordinate of the upper boundary of the original reference area 2330 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 2310.
  • the y coordinate of the reference area may be clipped so that the y coordinate of the upper boundary of 2340 is the same as the y coordinate (origin) of the upper boundary of the reference picture 2310.
  • a similar operation may be performed in the video encoding apparatus 1900 according to an embodiment.
  • the upper boundary of the reference region so that the y coordinate of the upper boundary of the final reference region 2340 is the same as the y coordinate (origin) of the upper boundary of the reference picture 2310. You can clip the y-coordinate of.
  • the video decoding apparatus 1700 when the original reference area 2430 indicated by the center motion vector 2425 of the current block 2420 of the current picture 2400 includes an upper boundary and a left boundary of the reference picture 2410 (reference picture In the case of including the upper left corner of (2410)), the video decoding apparatus 1700 according to an embodiment excludes an area outside the upper boundary and the left boundary of the reference picture 2410 among the original reference region 2430. , A final reference area 2440 may be determined to include only an area belonging to the inside of the reference picture 2410.
  • the y coordinate of the upper boundary of the original reference area 2430 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 2410 and the x coordinate of the left boundary of the original reference area 2430 is the reference picture 2410 If it is smaller than the x coordinate (origin) of the left boundary of the video decoding apparatus 1700 according to an embodiment, the y coordinate of the upper boundary of the final reference area 2440 is the y coordinate of the upper boundary of the reference picture 2410
  • the y coordinate of the upper boundary of the reference area and the x coordinate of the left boundary of the reference area are equal to (origin) and the x coordinate of the left boundary of the final reference area 2440 is the same as the x coordinate (origin) of the left boundary of the reference picture 2410. You can clip the coordinates.
  • the video encoding apparatus 1900 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 2410 and the original reference region
  • the video encoding apparatus 1900 is The y coordinate of the boundary becomes the same as the y coordinate (origin) of the upper boundary of the reference picture 2410, and the x coordinate of the left boundary of the final reference area 2440 is referred to as the x coordinate (origin) of the left boundary of the reference picture 2410
  • the y-coordinate of the upper boundary and the x-coordinate of the left boundary of the reference area can be clipped so as to be the same.
  • the video decoding apparatus 1700 when the original reference region 2530 indicated by the center motion vector 2525 of the current block 2520 of the current picture 2500 includes the left boundary of the reference picture 2510, according to an embodiment
  • the video decoding apparatus 1700 according to the original reference region 2530 excludes an area outside the left boundary of the reference picture 2510 and includes the final reference area 2540 so as to include only an area belonging to the inside of the reference picture 2510. You can decide.
  • the video decoding apparatus 1700 when the x-coordinate of the left boundary of the original reference area 2430 is smaller than the x-coordinate (origin) of the left boundary of the reference picture 2510, the video decoding apparatus 1700 according to an embodiment is the final reference area
  • the x coordinate of the left boundary of the reference area may be clipped so that the x coordinate of the left boundary of 2540 becomes the same as the x coordinate (origin) of the left boundary of the reference picture 2510.
  • a similar operation may be performed in the video encoding apparatus 1900 according to an embodiment.
  • the video encoding apparatus 1900 is the left boundary of the reference region so that the x coordinate of the left boundary of the final reference region 2540 is the same as the x coordinate (origin) of the left boundary of the reference picture 2510. You can clip the x coordinate of.
  • the video decoding apparatus 1700 when the original reference region indicated by the center motion vector of the current block of the current picture includes the right boundary of the reference picture, the video decoding apparatus 1700 according to an embodiment refers to the original reference region.
  • the final reference area may be determined so as to include only the area belonging to the inside of the reference picture, excluding the area outside the right boundary of the picture.
  • the video decoding apparatus 1700 when the x coordinate of the right border of the original reference area is larger than the x coordinate of the right border of the reference picture (the width of the reference picture), the video decoding apparatus 1700 according to an embodiment is the right border of the final reference area.
  • the x coordinate of the right boundary of the reference area may be clipped so that the x coordinate of is equal to the x coordinate (width of the reference picture) of the right boundary of the reference picture.
  • the video encoding apparatus 1900 when the x coordinate of the right boundary of the original reference area indicated by the motion vector of the current block is greater than the x coordinate (width of the reference picture) of the right boundary of the reference picture, the video encoding apparatus 1900 according to an embodiment
  • the x coordinate of the right border of the reference area may be clipped so that the x coordinate of the right border of the final reference area becomes the same as the x coordinate of the right border of the reference picture (the width of the reference picture).
  • the video decoding apparatus 1700 when the original reference region indicated by the center motion vector of the current block of the current picture includes the lower boundary of the reference picture, the video decoding apparatus 1700 according to an embodiment refers to the original reference region.
  • the final reference area may be determined to include only the area belonging to the inside of the reference picture, excluding the area outside the lower boundary of the picture.
  • the video decoding apparatus 1700 when the y coordinate of the lower boundary of the original reference area is larger than the y coordinate (height of the reference picture) of the lower boundary of the reference picture, the video decoding apparatus 1700 according to an embodiment is the lower boundary of the final reference area.
  • the y coordinate of the lower boundary of the reference area may be clipped so that the y coordinate of is equal to the x coordinate (height of the reference picture) of the lower boundary of the reference picture.
  • the video encoding apparatus 1900 when the y coordinate of the lower boundary of the original reference area indicated by the motion vector of the current block is greater than the y coordinate (height of the reference picture) of the lower boundary of the reference picture, the video encoding apparatus 1900 according to an embodiment
  • the y-coordinate of the lower boundary of the reference region can be clipped so that the y-coordinate of the lower boundary of the final reference region becomes the same as the y-coordinate of the lower boundary of the reference picture (the height of the reference picture).
  • 26 to 28 show, according to another embodiment, when a reference region according to a motion vector of a current block includes a boundary of a reference picture during inter prediction based on an affine model, according to another embodiment, the video decoding apparatus 1700 refers to the reference region. Shows how to translate into.
  • the video decoding apparatus 1700 when the original reference area 2630 indicated by the center motion vector 2625 of the current block 2620 of the current picture 2600 includes an upper boundary of the reference picture 2610, one embodiment According to the video decoding apparatus 1700 according to the parallel movement of the upper boundary of the original reference region 2630 to the upper boundary of the reference picture 2610, the distance and direction in which the upper boundary of the original reference region 2630 is translated. Accordingly, the final reference area 2640 may be determined by vertically moving the lower boundary of the original reference area 2630 in parallel. Through this, all samples of the final reference area 2640 may be included in the reference picture 2610, and the size of the final reference area 2640 may be the same as the size of the original reference area 2630.
  • the final reference region ( The y coordinate of the upper boundary of 2640 is changed to be the same as the y coordinate (origin) of the upper boundary of the reference picture 2610, and the y coordinate of the lower boundary of the final reference area 2640 is referred to the upper side of the reference picture 2610. It can be changed to a value obtained by adding the y-coordinate (origin) of the boundary as much as the height (reference range) of the reference area.
  • a similar operation may be performed in the video encoding apparatus 1900 according to an embodiment.
  • the video encoding apparatus 1900 changes the y coordinate of the upper boundary of the final reference area 2640 to be the same as the y coordinate (origin) of the upper boundary of the reference picture 2610, and the final reference The y coordinate of the lower boundary of the region 2640 may be changed to a value obtained by adding the y coordinate (origin) of the upper boundary of the reference picture 2610 by the height (reference range) of the reference region.
  • the video decoding apparatus 1700 when the original reference area 2730 indicated by the center motion vector 2725 of the current block 2720 of the current picture 2700 includes an upper boundary and a left boundary of the reference picture 2710 (Reference In the case of including the upper left corner of the picture 2710), the video decoding apparatus 1700 according to an embodiment vertically translates the upper boundary of the original reference area 2730 to the upper boundary of the reference picture 2710 Then, the lower boundary of the original reference region 2730 is vertically translated according to the distance and direction in which the upper boundary of the original reference region 2730 is translated, and the left boundary of the original reference region 2730 is referred to the reference picture 2710.
  • the final reference region 2740 Horizontally to the left boundary of the circle reference region 2730, and horizontally moving the right boundary of the circle reference region 2730 according to the distance and direction in which the left boundary of the circle reference region 2730 is translated, the final reference region 2740 ) Can be determined. Through this, all samples of the final reference area 2740 may be included in the reference picture 2710, and the size of the final reference area 2740 may be the same as the size of the original reference area 2730.
  • the y coordinate of the upper boundary of the original reference region 2730 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 2710 and the original reference region 2730
  • the y coordinate of the upper boundary of the final reference area 2740 is referred to as the y coordinate of the upper boundary of the reference picture 2710 Change to be the same as (origin), and add the y coordinate of the lower boundary of the final reference area 2740 to the y coordinate (origin) of the upper boundary of the reference picture 2710 by the height of the reference area (reference range).
  • the x coordinate of the left border of the final reference area 2740 is changed to be the same as the x coordinate (origin) of the left border of the reference picture 2710, and the x coordinate of the right border of the final reference area 2740 is changed. It can be changed to a value obtained by adding the x coordinate (origin) of the left boundary of the reference picture 2710 by the width (reference range) of the reference area.
  • a similar operation may be performed in the video encoding apparatus 1900 according to an embodiment.
  • the y-coordinate of the upper boundary of the original reference area 2730 indicated by the motion vector 2725 of the current block 2720 is smaller than the y-coordinate (origin) of the upper boundary of the reference picture 2710, and the circle is referenced.
  • the video encoding apparatus 1900 When the x-coordinate of the left boundary of the area 2730 is smaller than the x-coordinate (origin) of the left boundary of the reference picture 2710, the video encoding apparatus 1900 according to an embodiment
  • the y coordinate of the upper boundary is changed to be the same as the y coordinate (origin) of the upper boundary of the reference picture 2710, and the y coordinate of the lower boundary of the final reference area 2740 is referred to as the y coordinate of the upper boundary of the reference picture 2710.
  • the x coordinate of the right boundary of the final reference area 2740 may be changed to a value obtained by adding the x coordinate (origin) of the left boundary of the reference picture 2710 by the width (reference range) of the reference area.
  • the video decoding apparatus 1700 horizontally translates the left boundary of the original reference region 2830 to the left boundary of the reference picture 2810, and the distance and direction in which the left boundary of the original reference region 2830 is translated. Accordingly, the final reference area 2840 may be determined by horizontally moving the right boundary of the original reference area 2830. Through this, all samples of the final reference area 2840 may be included in the reference picture 2810, and the size of the final reference area 2840 may be the same as the size of the original reference area 2830.
  • the video decoding apparatus 1700 when the x coordinate of the left boundary of the original reference area 2830 is smaller than the x coordinate (origin) of the left boundary of the reference picture 2810, the video decoding apparatus 1700 according to an embodiment
  • the x coordinate of the left border of (2840) is changed to be the same as the x coordinate (origin) of the left border of the reference picture 2810, and the x coordinate of the right border of the final reference area 2840 is referred to as the reference picture 2810. It can be changed to a value obtained by adding the x coordinate (origin) of the left border as much as the width (reference range) of the reference area.
  • a similar operation may be performed in the video encoding apparatus 1900 according to an embodiment.
  • the video encoding apparatus 1900 changes the x coordinate of the left boundary of the final reference area 2840 to be the same as the x coordinate (origin) of the left boundary of the reference picture 2810, and the final reference The x coordinate of the right boundary of the region 2840 may be changed to a value obtained by adding the x coordinate (origin) of the left boundary of the reference picture 2810 by the width (reference range) of the reference region.
  • the video decoding apparatus 1700 when the original reference region indicated by the center motion vector of the current block of the current picture includes a lower boundary of the reference picture, the video decoding apparatus 1700 according to an embodiment
  • the final reference area can be determined by vertically moving the boundary to the lower boundary of the reference picture and vertically moving the upper boundary of the original reference area according to the distance and direction in which the lower boundary of the original reference area has been translated. Through this, all samples of the final reference area may be included in the reference picture.
  • the video decoding apparatus 1700 according to an embodiment of the present invention uses the lower boundary of the final reference region when the y-coordinate of the lower boundary of the original reference region is greater than the y-coordinate of the lower boundary of the reference picture (the height of the reference picture).
  • Change the y coordinate to be the same as the y coordinate of the lower boundary of the reference picture (the height of the reference picture), and refer to the y coordinate of the upper boundary of the final reference area at the y coordinate of the lower boundary of the reference picture (the height of the reference picture). It can be changed by subtracting the height of the area (reference range).
  • the video encoding apparatus when the y coordinate of the lower boundary of the original reference area indicated by the motion vector of the current block 2620 is greater than the y coordinate (height of the reference picture) of the lower boundary of the reference picture, the video encoding apparatus according to an embodiment In (1900), the y coordinate of the lower boundary of the final reference area is changed to be the same as the y coordinate of the lower boundary of the reference picture (the height of the reference picture), and the y coordinate of the upper boundary of the final reference area is referred to the lower side of the reference picture. It can be changed to a value obtained by subtracting the y-coordinate of the boundary (the height of the reference picture) by the height of the reference area (the reference range).
  • the video decoding apparatus 1700 when the original reference region indicated by the center motion vector of the current block of the current picture includes a right boundary of the reference picture, the video decoding apparatus 1700 according to an embodiment
  • the final reference region can be determined by horizontally moving the boundary to the right boundary of the reference picture and horizontally moving the left boundary of the original reference region according to the distance and direction in which the right boundary of the original reference region has been translated. Through this, all samples of the final reference area may be included in the reference picture.
  • the video decoding apparatus 1700 when the x coordinate of the right boundary of the original reference area is larger than the x coordinate (width of the reference picture) of the right boundary of the reference picture, the video decoding apparatus 1700 according to an embodiment Change the x coordinate of to be the same as the x coordinate of the right border of the reference picture (the width of the reference picture), and the x coordinate of the left border of the final reference area from the x coordinate of the right border of the reference picture (the width of the reference picture). It can be changed by subtracting the width of the reference area (reference range).
  • the video encoding apparatus 1900 when the x coordinate of the right boundary of the original reference area indicated by the motion vector of the current block is greater than the x coordinate (width of the reference picture) of the right boundary of the reference picture, the video encoding apparatus 1900 according to an embodiment Change the x coordinate of the right border of the final reference area to be the same as the x coordinate of the right border of the reference picture (the width of the reference picture), and the x coordinate of the left border of the final reference area is referred to as the x coordinate of the right border of the reference picture. It can be changed by subtracting the coordinates (the width of the reference picture) by the width of the reference area (the reference range).
  • the video decoding apparatus 1700 when the original reference region indicated by the center motion vector of the current block of the current picture 2700 includes the lower boundary and the right boundary of the reference picture (including the lower right corner of the reference picture), the video decoding apparatus 1700 according to an embodiment vertically translates the lower boundary of the original reference region to the lower boundary of the reference picture, and the lower boundary of the original reference region moves in parallel with the distance and direction of the original reference region.
  • the upper boundary is vertically translated
  • the right boundary of the original reference region is horizontally translated to the right boundary of the reference picture
  • the left boundary of the original reference region is moved according to the distance and direction the right boundary of the original reference region is translated.
  • the size of the final reference area may be the same as the size of the original reference area.
  • the y coordinate of the lower boundary of the original reference region is greater than the y coordinate of the lower boundary of the reference picture (the height of the reference picture) and the x coordinate of the right boundary of the original reference region If is greater than the x coordinate of the right boundary of the reference picture (the width of the reference picture), the y coordinate of the lower boundary of the final reference area is changed to be the same as the y coordinate of the lower boundary of the reference picture (the height of the reference picture).
  • the video encoding apparatus 1900 refers to the y-coordinate of the lower boundary of the final reference area and the y-coordinate of the lower boundary of the reference picture.
  • the video decoding apparatus 1700 refers to the reference region at the boundary of the reference picture or It shows how to move it on a point.
  • the video decoding apparatus 1700 accordingly may determine the final reference region 2940 by vertically moving both the upper boundary and the lower boundary of the original reference region 2930 to the upper boundary of the reference picture 2910. Through this, all samples of the final reference area 2940 are included in the reference picture 2910, but the final reference area 2940 is on the upper boundary line of the reference picture 2910 by a width equal to the width of the original reference area 2910. It may be located in a straight line.
  • the y coordinate of the upper boundary of the original reference region 2930 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 2910 and the original reference region 2930
  • the y coordinate of the lower boundary of the reference picture 2910 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 2910
  • the y coordinate of the upper boundary of the final reference area 2940 and the y coordinate of the lower boundary of the reference picture 2910 It can be changed to be the same as the y-coordinate (origin) of the upper boundary of. That is, by clipping the y coordinate of the upper boundary of the original reference region 2930 and the y coordinate of the lower boundary to the origin, the final reference region 2940 may be determined to be located on the upper boundary line of the reference picture 2910.
  • a similar operation may be performed in the video encoding apparatus 1900 according to an embodiment.
  • the y-coordinate of the upper boundary of the original reference area 2930 indicated by the motion vector 2925 of the current block 2920 is smaller than the y-coordinate (origin) of the upper boundary of the reference picture 2910, and the circle is referenced.
  • the video encoding apparatus 1900 according to an embodiment
  • the y coordinate of the upper boundary and the y coordinate of the lower boundary may be changed to be the same as the y coordinate (origin) of the upper boundary of the reference picture 2910.
  • the video decoding apparatus 1700 when the original reference region 3030 indicated by the center motion vector 3025 of the current block 3020 of the current picture 3000 deviates from the upper and left boundaries of the reference picture 3010 (reference picture In the case of deviating from the upper left corner of (3010)), the video decoding apparatus 1700 according to an embodiment vertically rotates the original reference region 3030 to the upper boundary and the lower boundary of the reference picture 3010.
  • the final reference area 3040 may be determined by horizontally moving the original reference area 3030 horizontally to the left border of the reference picture 3010 and horizontally moving both the left and right borders of the original reference area 3030.
  • the y coordinate of the upper boundary of the original reference region 3030 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 3010 and the original reference region 3030
  • the y coordinate of the lower boundary of the reference picture 3010 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 3010
  • the x coordinate of the left boundary of the original reference area 3030 is the x coordinate (origin point) of the left boundary of the reference picture 3010 )
  • the x coordinate of the right boundary of the original reference region 3030 is smaller than the x coordinate (origin) of the right boundary of the reference picture 3010, the y coordinate of the upper boundary and the lower boundary of the final reference region 3040
  • the y coordinate of is changed to be the same as the y
  • the final reference region 3040 is referred to. It may be determined to be located on a point at the upper left corner of the picture 3010.
  • the y coordinate of the upper boundary of the original reference area 3030 indicated by the motion vector 3025 of the current block 3020 is smaller than the y coordinate (origin) of the upper boundary of the reference picture 3010, and the circle is referenced.
  • the y-coordinate of the lower boundary of the region 3030 is smaller than the y-coordinate (origin) of the upper boundary of the reference picture 3010, and the x-coordinate of the left boundary of the original reference region 3030 is the left boundary of the reference picture 3010.
  • the video encoding apparatus 1900 When the x coordinate (origin) is smaller than the x coordinate (origin) and the x coordinate of the right boundary of the original reference area 3030 is smaller than the x coordinate (origin) of the right boundary of the reference picture 3010, the video encoding apparatus 1900 according to an embodiment
  • the y coordinate of the upper boundary of the final reference area 3040 and the y coordinate of the lower boundary are equal to the y coordinate (origin) of the upper boundary of the reference picture 3010, and x of the left boundary of the final reference area 3040
  • the coordinates and the x coordinates of the right boundary may be changed to be the same as the x coordinates (origins) of the left boundary of the reference picture 3010.
  • the video decoding apparatus 1700 when the original reference region indicated by the center motion vector of the current block of the current picture deviates outside the left boundary of the reference picture, the video decoding apparatus 1700 according to an embodiment
  • the final reference area can be determined by horizontally moving all the right borders to the left border of the reference picture. Through this, all samples of the final reference area are included in the reference picture, but the final reference area may be a straight line positioned on the left boundary of the reference picture by a height equal to the height of the original reference area.
  • the x coordinate of the left boundary of the original reference region is less than the x coordinate (origin) of the left boundary of the reference picture
  • the x coordinate of the right boundary of the original reference region is the reference picture. If it is smaller than the x coordinate (origin) of the left boundary of the final reference area, the x coordinate of the left boundary and the x coordinate of the right boundary may be changed to be the same as the x coordinate (origin) of the left boundary of the reference picture. That is, by clipping the x coordinate of the left border of the original reference area and the x coordinate of the right border to the origin, it is possible to determine that the final reference area is located on the left border of the reference picture.
  • the x coordinate of the left boundary of the original reference region indicated by the motion vector of the current block is less than the x coordinate (origin) of the left boundary of the reference picture
  • the x coordinate of the right boundary of the original reference region is the x coordinate of the left boundary of the reference picture. If it is smaller than the coordinates (origin), the video encoding apparatus 1900 according to an embodiment makes the x coordinate of the left boundary of the final reference area and the x coordinate of the right boundary equal to the x coordinate of the left boundary of the reference picture. You can change it.
  • the video decoding apparatus 1700 refers to the y-coordinate of the upper boundary of the original reference area and the y-coordinate of the lower boundary of the reference picture. By clipping by height, it can be determined that the final reference area is located on the lower boundary line of the reference picture.
  • the video decoding apparatus 1700 clips the y coordinate of the upper boundary and the y coordinate of the lower boundary of the original reference region to the height of the reference picture, and the x coordinate and the right boundary of the left boundary of the original reference region By clipping the x coordinate of the reference picture to the width of the reference picture, the final reference area may be determined to be located on the lower right corner of the reference picture.
  • the video decoding apparatus 1700 when it is larger than the x coordinate of the right boundary of the reference picture (the width of the reference picture), the video decoding apparatus 1700 according to an embodiment refers to the x coordinate of the left boundary of the original reference area and the x coordinate of the right boundary of the reference picture. By clipping in width, it can be determined that the final reference area is located on the right boundary line of the reference picture.
  • 31 to 33 show, according to another embodiment, when a reference region according to a motion vector of a current block deviates from a reference picture during inter prediction based on an affine model, according to another embodiment, the video decoding apparatus 1700 moves the reference region into the reference picture. Shows how.
  • the upper boundary of the original reference region 3130 is vertically translated to the upper boundary of the reference picture 3110, and the upper boundary of the original reference region 3130 is parallel to the distance and direction. Accordingly, by vertically moving the lower boundary of the original reference region 3130 in parallel, the final reference region 3140 may be determined. Through this, all samples of the final reference area 3140 may be included in the reference picture 3110.
  • both the y coordinate of the upper boundary and the y coordinate of the lower boundary of the original reference area 3130 are compared to the y coordinate (origin) of the upper boundary of the reference picture 3110.
  • the y coordinate of the upper boundary of the final reference area 3140 is changed to be the same as the y coordinate (origin) of the upper boundary of the reference picture 3110, and the y coordinate of the lower boundary of the final reference area 3140 is changed. It can be changed to a value obtained by adding the height (reference range) of the reference area to the y coordinate (origin) of the upper boundary of the reference picture 3110.
  • both the y coordinate of the upper boundary of the original reference area 3130 indicated by the motion vector 3125 of the current block 3120 and the y coordinate of the lower boundary of the reference picture 3110 are y coordinates of the upper boundary of the reference picture 3110 If it is smaller than (origin), the video encoding apparatus 1900 according to an embodiment equals the y-coordinate of the upper boundary of the final reference area 3140 to the y-coordinate (origin) of the upper boundary of the reference picture 3110.
  • the y coordinate of the lower boundary of the final reference region 3140 may be changed to a value obtained by adding the y coordinate (origin) of the upper boundary of the reference picture 3110 by the height (reference range) of the reference region.
  • the video decoding apparatus 1700 when the original reference area 3230 indicated by the center motion vector 3225 of the current block 3220 of the current picture 3200 deviates from the upper and left borders of the reference picture 3210 (reference picture In the case of deviating from the upper left corner of (3210)), the video decoding apparatus 1700 according to an embodiment vertically translates the upper boundary of the original reference region 3230 to the upper boundary of the reference picture 3210, The lower boundary of the original reference region 3230 is vertically translated according to the distance and direction in which the upper boundary of the original reference region 3230 is translated, and the left boundary of the original reference region 3230 is referred to as the reference picture 3210.
  • the final reference region 3240 is horizontally translated to the left boundary, and the right boundary of the original reference region 3230 is horizontally translated according to the distance and direction the left boundary of the original reference region 3230 is translated. You can decide. Through this, all samples of the final reference area 3240 may be included in the reference picture 3210, and the size of the original reference area 3230 and the size of the final reference area 3240 are the same. To this end, in the video decoding apparatus 1700 according to an embodiment, both the y coordinate of the upper boundary of the original reference area 3230 and the y coordinate of the lower boundary of the reference picture 3210 are higher than the y coordinate (origin) of the upper boundary of the reference picture 3210.
  • the upper boundary of the final reference area 3240 is The y coordinate is changed to be the same as the y coordinate (origin) of the upper boundary of the reference picture 3210, and the y coordinate of the lower boundary of the final reference area 3240 is referred to as the y coordinate (origin) of the upper boundary of the reference picture 3210 )
  • the x coordinate of the right border of the final reference area 3240 may be changed to a value obtained by adding the x coordinate (origin) of the left border of the reference picture 3210 by the width (reference range) of the reference area.
  • both the y coordinate of the upper boundary and the y coordinate of the lower boundary of the original reference area 3230 indicated by the motion vector 3225 of the current block 3220 are the y coordinates of the upper boundary of the reference picture 3210
  • the video changes the y-coordinate of the upper boundary of the final reference region 3240 to be the same as the y-coordinate (origin) of the upper boundary of the reference picture 3210, and the lower boundary of the final reference region 3240
  • the y coordinate of is changed to a value obtained by adding the y coordinate (origin) of the upper boundary of the reference picture 3210 by the height (reference range) of the reference area, and the x coordinate of the left boundary of the final reference area 3240 is
  • the video decoding apparatus 1700 when the original reference area 3330 indicated by the center motion vector 3325 of the current block 3320 of the current picture 3300 deviates from the upper boundary of the reference picture 3310 and includes the left boundary ,
  • the video decoding apparatus 1700 vertically translates the upper boundary of the original reference region 3330 to the upper boundary of the reference picture 3310, and the upper boundary of the original reference region 3330 is translated.
  • the lower boundary of the original reference region 3330 is vertically translated
  • the left boundary of the original reference region 3330 is horizontally translated to the left boundary of the reference picture 3310
  • the final reference area 3340 may be determined by horizontally moving the right border of the original reference area 3330 according to the distance and direction in which the left border of 3330 is translated. Through this, all samples of the final reference area 3340 may be included in the reference picture 3310, and the size of the original reference area 3330 and the size of the final reference area 3340 are the same.
  • both the y coordinate of the upper boundary of the original reference area 3330 and the y coordinate of the lower boundary of the reference picture 3310 are compared to the y coordinate (origin) of the upper boundary of the reference picture 3310.
  • the x-coordinate of the left boundary of the original reference area 3330 is smaller than the x-coordinate (origin) of the left boundary of the reference picture 3310, and the x-coordinate of the right boundary of the original reference area 3330 is the left side of the reference picture 3310.
  • the y-coordinate of the upper boundary of the final reference area 3340 is changed to be the same as the y-coordinate (origin) of the upper boundary of the reference picture 3310, and the final reference area ( Change the y coordinate of the lower boundary of 3340 to a value obtained by adding the y coordinate (origin) of the upper boundary of the reference picture 3310 by the height (reference range) of the reference area, and x of the left boundary of the final reference area 3340
  • the coordinates are changed to be the same as the x coordinate (origin) of the left boundary of the reference picture 3310, and the x coordinate of the right boundary of the final reference area 3340 is the x coordinate (origin) of the left boundary of the reference picture 3310 It can be changed by adding as much as the width of the reference area to (reference range).
  • both the y coordinate of the upper boundary of the original reference area 3330 indicated by the motion vector 3325 of the current block 3320 and the y coordinate of the lower boundary of the reference picture 3310 are y coordinates of the upper boundary of the reference picture 3310
  • the x-coordinate of the left boundary of the original reference area 3330 is smaller than (origin) and the x-coordinate of the left boundary of the reference picture 3310 is smaller than the x-coordinate (origin) of the left boundary of the reference picture 3310, and the x-coordinate of the right boundary of the original reference area 3330 is the reference picture
  • the video encoding apparatus 1900 refers to the y-coordinate of the upper boundary of the final reference area 3340 to the upper boundary of the reference picture 3310.
  • the value is added, and the x coordinate of the left boundary of the final reference area 3340 is changed to be the same as the x coordinate (origin) of the left boundary of the reference picture 3310, and the right boundary of the final reference area 3340 is changed.
  • the x coordinate may be changed to a value obtained by adding the x coordinate (origin) of the left boundary of the reference picture 3310 by the width (reference range) of the reference area.
  • the video decoding apparatus 1700 when the original reference region indicated by the center motion vector of the current block of the current picture deviates outside the lower boundary of the reference picture, the video decoding apparatus 1700 according to an embodiment is provided with the lower boundary of the original reference region.
  • the final reference region can be determined by vertically moving the lower boundary of the reference picture and vertically moving the upper boundary of the original reference region according to the distance and direction in which the lower boundary of the original reference region has been translated. Through this, all samples of the final reference area may be included in the reference picture.
  • the video decoding apparatus 1700 is provided when both the y-coordinate of the upper boundary of the original reference area and the y-coordinate of the lower boundary are greater than the y-coordinate of the lower boundary of the reference picture (the height of the reference picture).
  • Video encoding according to an embodiment when both the y coordinate of the lower boundary of the original reference area indicated by the motion vector of the current block and the y coordinate of the upper boundary are greater than the y coordinate of the lower boundary of the reference picture (the height of the reference picture)
  • the apparatus 1900 changes the y-coordinate of the lower boundary of the final reference area to be the same as the y-coordinate of the lower boundary of the reference picture (the height of the reference picture), and the y-coordinate of the upper boundary of the final reference area is the reference picture. It can be changed to a value obtained by subtracting the height of the reference area (reference range) from the y-coordinate of the lower boundary (the height of the reference picture).
  • the video decoding apparatus 1700 determines the left boundary of the original reference region.
  • the final reference area may be determined by horizontally moving the left border of the reference picture and horizontally moving the right border of the original reference area according to the distance and direction in which the left border of the original reference area is translated. Through this, all samples of the final reference area can be included in the reference picture, and the size of the original reference area and the size of the final reference area are the same.
  • the video decoding apparatus 1700 is the final reference when both the x coordinate of the left boundary of the original reference area and the y coordinate of the right boundary are smaller than the x coordinate (origin) of the left boundary of the reference picture.
  • Change the x coordinate of the left border of the area to be the same as the x coordinate (origin) of the left border of the reference picture, and the x coordinate of the right border of the final reference area to the x coordinate (origin) of the left border of the reference picture. It can be changed by adding the width of (reference range).
  • a similar operation may be performed in the video encoding apparatus 1900 according to an embodiment.
  • the video encoding apparatus 1900 When both the x coordinate of the left boundary of the original reference area indicated by the motion vector of the current block and the x coordinate of the right boundary are smaller than the x coordinate (origin) of the left boundary of the reference picture, the video encoding apparatus 1900 according to an embodiment ) Changes the x coordinate of the left border of the final reference area to be the same as the x coordinate (origin) of the left border of the reference picture, and the x coordinate of the right border of the final reference area is referred to as the x coordinate of the left border of the reference picture ( It can be changed to a value obtained by adding as much as the width (reference range) of the reference area to the origin).
  • the video decoding apparatus 1700 determines the right boundary of the original reference region.
  • the final reference area may be determined by horizontally moving the right border of the reference picture and horizontally moving the left border of the original reference area according to the distance and direction in which the right border of the original reference area is translated. Through this, all samples of the final reference area can be included in the reference picture, and the size of the original reference area and the size of the final reference area are the same.
  • the video decoding apparatus 1700 when both the x coordinate of the left boundary of the original reference area and the y coordinate of the right boundary are larger than the x coordinate (width of the reference picture) of the right boundary of the reference picture. , Change the x coordinate of the right border of the final reference area to be the same as the x coordinate of the right border of the reference picture (the width of the reference picture), and the x coordinate of the left border of the final reference area is the x coordinate of the right border of the reference picture. It can be changed by subtracting the width of the reference area (reference range) from the (reference picture width).
  • the apparatus 1900 changes the x coordinate of the right border of the final reference area to be equal to the x coordinate of the right border of the reference picture (the width of the reference picture), and refers to the x coordinate of the left border of the final reference area. It can be changed to a value obtained by subtracting the x coordinate of the right border (the width of the reference picture) by the width of the reference area (the reference range).
  • the video decoding apparatus 1700 vertically translates the lower boundary of the original reference region to the lower boundary of the reference picture, and vertically moves the upper boundary of the original reference region according to the distance and direction in which the lower boundary of the original reference region is translated.
  • the final reference area can be determined.
  • both the y-coordinate of the upper boundary of the original reference area and the y-coordinate of the lower boundary of the reference picture are larger than the y-coordinate of the lower boundary of the reference picture (the height of the reference picture).
  • the y coordinate of the lower border of the final reference area is referred to as the lower border of the reference picture.
  • a similar operation may be performed in the video encoding apparatus 1900 according to an embodiment.
  • Both the y-coordinate of the upper boundary of the original reference area and the y-coordinate of the lower boundary of the current block's motion vector are greater than the y-coordinate of the lower boundary of the reference picture (the height of the reference picture) and the x-coordinate of the left boundary of the original reference area.
  • the video encoding apparatus 1900 includes the y-coordinates of the upper boundary and the lower boundary of the original reference area.
  • Both the y-coordinates of the boundary are greater than the y-coordinates of the lower boundary of the reference picture (the height of the reference picture), and both the x-coordinates of the left boundary of the original reference area and the y-coordinates of the right boundary are the x-coordinates of the right boundary of the reference picture (reference picture). Width), change the y-coordinate of the lower boundary of the final reference region to be the same as the y-coordinate of the lower boundary of the reference picture (the height of the reference picture), and refer to the y-coordinate of the upper boundary of the final reference region.
  • an operation of vertically parallel moving the y coordinate of the upper or lower boundary of the reference region to the y coordinate of the upper or lower boundary of the reference picture or the left or right side of the reference region An operation of horizontally moving the x-coordinate of the boundary to the x-coordinate of the left boundary or the right boundary of the reference picture may be implemented through a clipping operation.
  • the minimum coordinate values of the boundaries of the reference picture may be defined as follows.
  • pic_ver_min represents the minimum coordinate value (the y coordinate value of the upper boundary) in the y direction (vertical direction) of the reference picture
  • pic_hor_min represents the minimum coordinate value (the x coordinate value of the left boundary) in the x direction (horizontal direction) of the reference picture. Show.
  • the maximum coordinate values of the boundaries of the reference picture can be defined as follows.
  • pic_ver_max represents the maximum coordinate value (the y coordinate value of the lower boundary) in the y direction (vertical direction) of the reference picture
  • pic_hor_max represents the maximum coordinate value (the x coordinate value of the right boundary) in the x direction (horizontal direction) of the reference picture. Show.
  • the minimum coordinate values of the boundaries of the original reference area can be defined as follows.
  • r_ver_min represents the minimum coordinate value (the y coordinate value of the upper boundary) in the y direction (vertical direction) of the reference region
  • r_hor_min represents the minimum coordinate value (the x coordinate value of the left boundary) of the reference region in the x direction (horizontal direction).
  • the maximum coordinate values of the boundaries of the original reference area can be defined as follows.
  • r_ver_max represents the maximum coordinate value (the y coordinate value of the lower boundary) in the y direction (vertical direction) of the reference region
  • r_hor_max represents the maximum coordinate value (the x coordinate value of the right boundary) of the reference region in the x direction (horizontal direction).
  • the minimum coordinate values of the boundaries of the final reference area may be defined as follows.
  • ver_min is the minimum coordinate value in the y direction (vertical direction) of the final reference area (the y coordinate value of the upper boundary)
  • hor_min is the minimum coordinate value (x coordinate value of the left boundary) in the x direction (horizontal direction) of the final reference area.
  • the maximum coordinate values of the boundaries of the final reference area may be defined as follows.
  • ver_max represents the maximum coordinate value in the y direction (vertical direction) of the final reference area (the y coordinate value of the lower boundary)
  • hor_max represents the maximum position in the x direction (horizontal direction) of the final reference area (the x coordinate value of the right boundary) .
  • min(A, B) is a function that outputs the smallest value among A and B.
  • max(A, B) is a function that outputs the larger value among A and B.
  • hor_max min(pic_hor_max, max(r_hor_max, pic_hor_min));
  • ver_max min(pic_ver_max, max(r_ver_max, pic_ver_min));
  • hor_min max(pic_hor_min, min(r_hor_min, pic_hor_max));
  • ver_min max(pic_ver_min, min(r_ver_min, pic_ver_max));
  • the x coordinate value hor_max of the right boundary of the final reference region is, first, a larger value of the x coordinate value of the right boundary of the original reference region and the x coordinate value of the left boundary of the reference picture (max(r_hor_max, pic_hor_min) ) Can be determined. However, if the value of max(r_hor_max, pic_hor_min) is greater than the x coordinate value (pic_hor_max) of the right border of the reference picture, the x coordinate value hor_max of the right border of the final reference area will be determined as the x coordinate value of the right border of the reference picture. I can.
  • the x coordinate value r_hor_max of the right border of the original reference area is greater than the x coordinate value pic_hor_max of the right border of the reference picture
  • the x coordinate value hor_max of the right border of the final reference area is the x coordinate value pic_hor_max of the right border of the reference picture. Can be clipped.
  • the y coordinate value r_ver_max of the lower boundary of the original reference region is greater than the y coordinate value pic_ver_max of the lower boundary of the reference picture
  • the y coordinate value ver_max of the lower boundary of the final reference region is the lower boundary of the reference picture. It can be clipped to the y coordinate value of pic_ver_max.
  • the x coordinate value r_hor_min of the left boundary of the original reference region is less than the x coordinate value pic_hor_min of the left boundary of the reference picture
  • the x coordinate value hor_min of the left boundary of the final reference region is the left boundary of the reference picture. It can be clipped to the x coordinate value pic_hor_min.
  • the y coordinate value r_ver_min of the upper boundary of the original reference region is less than the y coordinate value pic_ver_min of the upper boundary of the reference picture
  • the y coordinate value ver_min of the upper boundary of the final reference region is the upper boundary of the reference picture. It can be clipped to the y coordinate value pic_ver_min.
  • the coordinates of the reference position may be clipped through the following clipping function.
  • Clip3(A, B, C) is a function for clipping C into the range of the minimum value A to the minimum value B.
  • the x coordinate mvX[ 0] of the reference position of the point indicated by the motion vector of the subblock of the current block is clipped within the range of the x coordinate value of the left boundary of the final reference area to the x coordinate value of the right boundary. Can be.
  • the y-coordinate mvX[1] of the reference position of the point indicated by the motion vector of the sub-block of the current block is clipped within the range of the y-coordinate value of the upper boundary of the final reference area to the y-coordinate value of the lower boundary. Can be.
  • the reference position indicated by the motion vector of the sub-block of the current block may be determined to be located in the final reference area.
  • the above-described embodiments of the present disclosure can be written as a program that can be executed on a computer, and the written program can be stored in a medium.
  • the medium may be one that continuously stores a program executable by a computer, or temporarily stores a program for execution or download.
  • the medium may be a variety of recording means or storage means in a form in which a single piece of hardware or several pieces of hardware are combined.
  • the medium is not limited to a medium directly connected to a computer system, but may be distributed on a network. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And ROM, RAM, flash memory, and the like may be configured to store program instructions.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • the term'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (e.g., electromagnetic wave), and this term refers to the case where data is semi-permanently stored in the storage medium and temporary. It does not distinguish the case of being saved as.
  • the'non-transitory storage medium' may include a buffer in which data is temporarily stored.
  • examples of other media include an app store that distributes applications, a site that supplies or distributes various software, and a recording medium or a storage medium managed by a server.
  • a method according to various embodiments disclosed in the present document may be provided by being included in a computer program product.
  • Computer program products can be traded between sellers and buyers as commodities.
  • Computer program products are distributed in the form of a device-readable storage medium (e.g., compact disc read only memory (CD-ROM)), or through an application store (e.g. Play StoreTM) or two user devices (e.g. It can be distributed (e.g., downloaded or uploaded) directly between, e.g. smartphones).
  • a part of the computer program product e.g., downloadable app
  • a device-readable storage medium such as the manufacturer's server, the application store's server, or the relay server's memory. It can be temporarily stored or created temporarily.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시는, 현재 블록에서 어파인 모델 기반의 인터 예측을 수행하여 현재 블록의 중앙 움직임 벡터를 결정하고, 현재 블록의 크기에 기초하여 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정하고, 현재 블록의 참조 픽쳐에서 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 참조 영역을 변경하고, 참조 픽쳐 중 변경된 참조 영역 내에서 현재 블록의 서브 블록들의 예측 샘플들을 결정하고, 현재 블록의 예측샘플들을 이용하여 현재 블록의 복원 샘플들을 결정하는 비디오 복호화 방법을 제공한다.

Description

어파인 모델에 따른 인터 예측을 수행하는 비디오 복호화 방법 및 그 장치, 비디오 부호화 방법 및 그 장치
본 개시는 영상의 부호화 및 복호화 분야에 관한 것이다. 보다 구체적으로, 본 개시는 어파인 모델에 따른 인터 예측을 수행하여 비디오를 부호화 및 복호화하는 방법 및 장치에 관한 것이다.
종래의 압축방식의 경우, 픽쳐에 포함되는 부호화 단위의 크기를 결정하는 과정에서 분할할지 여부를 결정한 후 획일적으로 4개의 동일한 크기의 부호화 단위들로 분할하는 재귀적 분할 과정을 통해 정사각형의 부호화 단위들을 결정하였다. 하지만 최근 고해상도의 영상에 대하여 정사각형이라는 획일적인 형태의 부호화 단위 이용에 의해 야기되는 복원 영상의 화질열화가 문제되고 있다. 따라서, 고해상도 영상을 다양한 형태의 부호화 단위로 분할하는 방법 및 장치들이 제안되고 있다.
본 개시는 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치에 관한 것으로, 어파인 모드로 인터 예측을 수행할 때 움직임 벡터가 가리키는 참조 영역이 참조 픽쳐의 경계를 벗어날 때 움직임 보상을 수행하는 방법을 제공한다.
본 개시에서 제공하는 일 실시예에 따른 비디오 복호화 방법은, 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 상기 현재 블록의 기본 움직임 벡터를 이용하여 상기 현재 블록의 중앙 움직임 벡터를 결정하는 단계; 상기 현재 블록의 크기에 기초하여 상기 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정하는 단계; 상기 현재 블록의 참조 픽쳐에서 상기 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 상기 참조 범위의 크기를 가지는 참조 영역이 상기 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 상기 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 상기 참조 영역을 변경하는 단계; 상기 참조 픽쳐 중 상기 변경된 참조 영역 내에서 상기 현재 블록의 서브 블록들의 예측 샘플들을 결정하는 단계; 및 상기 현재 블록의 예측샘플들을 이용하여 상기 현재 블록의 복원 샘플들을 결정하는 단계를 포함한다.
본 명세서에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 일 실시예에 따라 영상 복호화 장치의 개략적인 블록도를 도시한다.
도 2는 일 실시예에 따라 영상 복호화 방법의 흐름도를 도시한다.
도 3은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 4는 일 실시예에 따라 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 5는 일 실시예에 따라 영상 복호화 장치가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
도 6은 일 실시예에 따라 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 7은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 8은 일 실시예에 따라 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
도 9는 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 10은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 11은 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 16은 영상 부호화 및 복호화 시스템의 블록도를 나타낸 도면이다.
도 17은 일 실시예에 따른 비디오 복호화 장치의 블록도를 도시한다.
도 18은 일 실시예에 따른 비디오 복호화 방법의 흐름도를 도시한다.
도 19은 일 실시예에 따른 비디오 부호화 장치의 블록도를 도시한다.
도 20은 일 실시예에 따른 비디오 부호화 방법의 흐름도를 도시한다.
도 21은 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터가 가리키는 지점을 중심으로 서브 블록들의 예측 블록이 결정될 수 있는 참조 영역을 도시한다.
도 22는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우를 도시한다.
도 23 내지 25는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 경계를 포함하는 경우에, 일 실시예에 따라 비디오 복호화 장치(1700)가 참조 영역을 클리핑하는 방법을 도시한다.
도 26 내지 28는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 경계를 포함하는 경우에, 다른 실시예에 따라 비디오 복호화 장치(1700)가 참조 영역을 참조 픽쳐 내로 평행이동시키는 방법을 도시한다.
도 29 내지 30는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐를 벗어나는 경우에, 일 실시예에 따라 비디오 복호화 장치(1700)가 참조 영역을 참조 픽쳐의 경계 또는 점 상으로 이동시키는 방법을 도시한다.
도 31 내지 33는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐를 벗어나는 경우에, 다른 실시예에 따라 비디오 복호화 장치(1700)가 참조 영역을 참조 픽쳐 내로 이동시키는 방법을 도시한다.
도 34는 비디오 복호화 장치(1700)가 4-파라미터 모델 또는 6-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 어파인 파라미터를 결정하기 위한 움직임 벡터를 도출하는 방법을 도시한다.
도 35는 비디오 복호화 장치(1700)가 4-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 현재 블록으로부터 회전(rotation) 및 이동(translation)된 예측 블록을 도시한다.
도 36는 비디오 복호화 장치(1700)가 4-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 현재 블록으로부터 줌잉(zooming) 및 이동된 예측 블록을 도시한다.
도 37는 비디오 복호화 장치(1700)가 4-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 현재 블록으로부터 회전, 줌잉 및 이동된 예측 블록을 도시한다.
도 38는 비디오 복호화 장치(1700)가 어파인 머지 모드에서 인터 예측을 수행할 때, 어파인 머지 후보 리스트를 구성하는 방법을 도시한다.
도 39는 비디오 복호화 장치(1700)가 이웃 블록의 컨트롤 포인트의 움직임 정보를 이용하여, 현재 블록의 컨트롤 포인트의 움직임 정보를 결정하는 방법을 도시한다.
도 40는, 비디오 복호화 장치(1700)가 4-파라미터 모델 또는 6-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 컨트롤 포인트 움직임 벡터와 서브블록 단위의 움직임 보상을 수행하는 방법을 도시한다.
본 개시에서 제공하는 일 실시예에 따른 비디오 복호화 방법은, 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 상기 현재 블록의 기본 움직임 벡터를 이용하여 상기 현재 블록의 중앙 움직임 벡터를 결정하는 단계; 상기 현재 블록의 크기에 기초하여 상기 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정하는 단계; 상기 현재 블록의 참조 픽쳐에서 상기 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 상기 참조 범위의 크기를 가지는 참조 영역이 상기 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 상기 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 상기 참조 영역을 변경하는 단계; 상기 참조 픽쳐 중 상기 변경된 참조 영역 내에서 상기 현재 블록의 서브 블록들의 예측 샘플들을 결정하는 단계; 및 상기 현재 블록의 예측샘플들을 이용하여 상기 현재 블록의 복원 샘플들을 결정하는 단계를 포함한다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 상기 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 상기 현재 픽쳐의 우측 경계의 x축 좌표보다 큰 경우에, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 우측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 우측 경계의 x축 좌표에서 상기 참조 범위를 뺀 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 상기 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 상기 현재 픽쳐의 하측 경계의 y축 좌표보다 큰 경우에, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 하측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 하측 경계의 y축 좌표에서 상기 참조 범위를 뺀 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 상기 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 상기 현재 픽쳐의 우측 경계의 x축 좌표보다 큰 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 우측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 우측 경계의 x축 좌표에서 상기 참조 범위를 뺀 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 상기 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 상기 현재 픽쳐의 하측 경계의 y축 좌표보다 큰 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 하측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 하측 경계의 y축 좌표에서 상기 참조 범위를 뺀 값으로변경하는 단계를 포함할 수 있다.
본 개시에서 제공하는 일 실시예에 따른 비디오 복호화 장치는, 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 상기 현재 블록의 기본 움직임 벡터를 획득하는 어파인 모델 인터 예측부; 상기 기본 움직임 벡터를 이용하여 상기 현재 블록의 중앙 움직임 벡터를 결정하고, 상기 현재 블록의 크기에 기초하여 상기 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정하고, 상기 현재 블록의 참조 픽쳐에서 상기 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 상기 참조 범위의 크기를 가지는 참조 영역이 상기 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 상기 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 상기 참조 영역을 변경하고, 상기 참조 픽쳐 중 상기 변경된 참조 영역 내에서 상기 현재 블록의 서브 블록들의 예측 샘플들을 결정하는 인터 예측 샘플 결정부; 및 상기 현재 블록의 예측샘플들을 이용하여 상기 현재 블록의 복원 샘플들을 결정하는 복원부를 포함한다.
본 개시에서 제공하는 일 실시예에 따른 비디오 부호화 방법은, 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 상기 현재 블록의 기본 움직임 벡터를 이용하여 상기 현재 블록의 중앙 움직임 벡터를 결정하는 단계; 상기 현재 블록의 크기에 기초하여 상기 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정하는 단계; 상기 현재 블록의 참조 픽쳐에서 상기 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 상기 참조 범위의 크기를 가지는 참조 영역이 상기 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 상기 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 상기 참조 영역을 변경하는 단계; 상기 참조 픽쳐 중 상기 변경된 참조 영역 내에서 상기 현재 블록의 서브 블록들의 예측 샘플들을 결정하는 단계; 및 상기 현재 블록의 예측 샘플들을 이용하여 상기 현재 블록의 레지듀얼 샘플들을 부호화하는 단계를 포함한다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 상기 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 상기 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 상기 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함할 수 있다.
일 실시예에 따라 상기 참조 영역을 변경하는 단계는, 상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 상기 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함할 수 있다.
본 개시의 일 실시예에 따른 비디오 복호화 방법을 컴퓨터로 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 개시된다.
본 개시의 일 실시예에 따른 비디오 부호화 방법을 컴퓨터로 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체가 개시된다.
본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 개시의 실시 형태에 대해 한정하려는 것이 아니며, 본 개시는 여러 실시예들의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예를 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.
또한, 본 명세서에서, '영상(image)' 또는 '픽쳐'는 비디오의 정지영상이거나 동영상, 즉 비디오 그 자체를 나타낼 수 있다.
또한, 본 명세서에서 '샘플'은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 화소값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
또한, 본 명세서에서, '현재 블록(Current Block)'은, 부호화 또는 복호화하고자 하는 현재 영상의 최대 부호화 단위, 부호화 단위, 예측 단위 또는 변환 단위의 블록을 의미할 수 있다.
또한, 본 명세서에서, 어느 움직임 벡터가 리스트 0 방향이라는 것은, 리스트 0에 포함된 참조 픽쳐 내 블록을 가리키기 위해 이용되는 움직임 벡터라는 것을 의미할 수 있고, 어느 움직임 벡터가 리스트 1 방향이라는 것은, 리스트 1에 포함된 참조 픽쳐 내 블록을 가리키기 위해 이용되는 움직임 벡터라는 것을 의미할 수 있다. 또한, 어느 움직임 벡터가 단방향이라는 것은 리스트 0 또는 리스트 1에 포함된 참조 픽쳐 내 블록을 가리키기 위해 이용되는 움직임 벡터라는 것을 의미할 수 있고, 어느 움직임 벡터가 양방향이라는 것은 움직임 벡터가 리스트 0 방향의 움직임 벡터와 리스트 1 방향의 움직임 벡터를 포함한다는 것을 의미할 수 있다.
또한, 본 명세서에서, 블록의 '바이너리 분할(binary split)'이란 블록의 너비 또는 높이가 절반인 2개의 하위 블록이 생성되도록 하는 분할을 의미한다. 구체적으로, 현재 블록에 '바이너리 수직 분할'이 수행되면, 현재 블록의 너비의 절반 지점에서 수직 방향(세로 방향)으로 분할이 수행되므로, 현재 블록의 너비의 절반인 너비를 가지고 현재 블록의 높이와 동일한 높이를 가지는 2개의 하위 블록이 생성될 수 있다. 현재 블록에 '바이너리 수평 분할'이 수행되면, 현재 블록의 높이의 절반 지점에서 수평 방향(가로 방향)으로 분할이 수행되므로, 현재 블록의 높이의 절반인 높이를 가지고 현재 블록의 너비는 동일한 너비를 가지는 2개의 하위 블록이 생성될 수 있다.
또한, 본 명세서에서, 블록의 '터너리 분할(ternary split)'이란 블록의 너비 또는 높이가 1:2:1 비율로 분할되어 3개의 하위 블록이 생성되도록 하는 분할을 의미한다. 구체적으로, 현재 블록에 '터너리 수직 분할'이 수행되면, 현재 블록의 너비의 1:2:1 비율 지점에서 수직 방향(세로 방향)으로 분할이 수행되므로, 현재 블록의 너비의 1/4인 너비를 가지고 현재 블록과 높이는 동일한 2개의 하위 블록과, 현재 블록의 너비의 2/4인 너비를 가지고 현재 블록의 높이와 동일한 높이를 가지는 1개의 하위 블록이 생성될 수 있다. 현재 블록에 '터너리 수평 분할'이 수행되면, 현재 블록의 높이의 1:2:1 비율 지점에서 수평 방향(가로 방향)으로 분할이 수행되므로, 현재 블록의 높이의 1/4인 높이를 가지고 현재 블록의 너비와 동일한 너비를 가지 2개의 하위 블록과, 현재 블록의 높이의 2/4인 높이를 가지고 현재 블록의 너비와 동일한 너비를 가지는 1개의 하위 블록이 생성될 수 있다.
또한, 본 명세서에서, 블록의 '쿼드 분할(quadsplit)'이란 블록의 너비 및 높이가 1:1 비율로 분할되어 4개의 하위 블록이 생성되도록 하는 분할을 의미한다. 구체적으로, 현재 블록에 '쿼드 분할'이 수행되면, 현재 블록의 너비의 절반 지점에서 수직 방향(세로 방향)으로 분할이 수행되고, 현재 블록의 높이의 절반 지점에서 수평 방향(가로 방향)으로 분할이 수행되므로, 현재 블록의 너비의 1/2인 너비를 가지고 현재 블록의 높이의 1/2인 높이를 가지는 4개의 하위 블록이 생성될 수 있다.
이하 도 1 내지 도 16를 참조하여 일 실시예에 따라 영상 부호화 장치 및 영상 복호화 장치, 영상 부호화 방법 및 영상 복호화 방법이 상술된다. 도 3 내지 도 16을 참조하여 일 실시예에 따라 영상의 데이터 단위를 결정하는 방법이 설명되고, 도 17 내지 도 40을 참조하여 상기 결정된 데이터 단위를 이용하는 일 실시예에 따른 비디오 부호화/복호화 방법이 후술된다.
이하 도 1 및 도 2를 참조하여 본 개시의 일 실시예에 따라 다양한 형태의 부호화 단위에 기초하여 적응적으로 선택하기 위한 방법 및 장치가 상술된다.
도 1은 일 실시예에 따라 영상 복호화 장치의 개략적인 블록도를 도시한다.
영상 복호화 장치(100)는 수신부(110) 및 복호화부(120)를 포함할 수 있다. 수신부(110) 및 복호화부(120)는 적어도 하나의 프로세서를 포함할 수 있다. 또한 수신부(110) 및 복호화부(120)는 적어도 하나의 프로세서가 수행할 명령어들을 저장하는 메모리를 포함할 수 있다.
수신부(110)는 비트스트림을 수신할 수 있다. 비트스트림은 후술되는 영상 부호화 장치(2200)가 영상을 부호화한 정보를 포함한다. 또한 비트스트림은 영상 부호화 장치(2200)로부터 송신될 수 있다. 영상 부호화 장치(2200) 및 영상 복호화 장치(100)는 유선 또는 무선으로 연결될 수 있으며, 수신부(110)는 유선 또는 무선을 통하여 비트스트림을 수신할 수 있다. 수신부(110)는 광학미디어, 하드디스크 등과 같은 저장매체로부터 비트스트림을 수신할 수 있다. 복호화부(120)는 수신된 비트스트림으로부터 획득된 정보에 기초하여 영상을 복원할 수 있다. 복호화부(120)는 영상을 복원하기 위한 신택스 엘리먼트를 비트스트림으로부터 획득할 수 있다. 복호화부(120)는 신택스 엘리먼트에 기초하여 영상을 복원할 수 있다.
영상 복호화 장치(100)의 동작에 대해서는 도 2와 함께 보다 자세히 설명한다.
도 2는 일 실시예에 따라 영상 복호화 방법의 흐름도를 도시한다.
본 개시의 일 실시예에 따르면 수신부(110)는 비트스트림을 수신한다.
영상 복호화 장치(100)는 비트스트림으로부터 부호화 단위의 분할 형태 모드에 대응하는 빈스트링을 획득하는 단계(210)를 수행한다. 영상 복호화 장치(100)는 부호화 단위의 분할 규칙을 결정하는 단계(220)를 수행한다. 또한 영상 복호화 장치(100)는 분할 형태 모드에 대응하는 빈스트링 및 상기 분할 규칙 중 적어도 하나에 기초하여, 부호화 단위를 복수의 부호화 단위들로 분할하는 단계(230)를 수행한다. 영상 복호화 장치(100)는 분할 규칙을 결정하기 위하여, 부호화 단위의 너비 및 높이의 비율에 따른, 상기 부호화 단위의 크기의 허용가능한 제 1 범위를 결정할 수 있다. 영상 복호화 장치(100)는 분할 규칙을 결정하기 위하여, 부호화 단위의 분할 형태 모드에 따른, 부호화 단위의 크기의 허용가능한 제 2 범위를 결정할 수 있다.
이하에서는 본 개시의 일 실시예에 따라 부호화 단위의 분할에 대하여 자세히 설명한다.
먼저 하나의 픽쳐 (Picture)는 하나 이상의 슬라이스 혹은 하나 이상의 타일로 분할될 수 있다. 하나의 슬라이스 혹은 하나의 타일은 하나 이상의 최대 부호화 단위(Coding Tree Unit; CTU)의 시퀀스일 수 있다. 최대 부호화 단위 (CTU)와 대비되는 개념으로 최대 부호화 블록 (Coding Tree Block; CTB)이 있다.
최대 부호화 블록(CTB)은 NxN개의 샘플들을 포함하는 NxN 블록을 의미한다(N은 정수). 각 컬러 성분은 하나 이상의 최대 부호화 블록으로 분할될 수 있다.
픽쳐가 3개의 샘플 어레이(Y, Cr, Cb 성분별 샘플 어레이)를 가지는 경우에 최대 부호화 단위(CTU)란, 루마 샘플의 최대 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 최대 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽쳐가 모노크롬 픽쳐인 경우에 최대 부호화 단위란, 모노크롬 샘플의 최대 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽쳐가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽쳐인 경우에 최대 부호화 단위란, 해당 픽쳐와 픽쳐의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
하나의 최대 부호화 블록(CTB)은 MxN개의 샘플들을 포함하는 MxN 부호화 블록(coding block)으로 분할될 수 있다 (M, N은 정수).
픽쳐가 Y, Cr, Cb 성분별 샘플 어레이를 가지는 경우에 부호화 단위(Coding Unit; CU)란, 루마 샘플의 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽쳐가 모노크롬 픽쳐인 경우에 부호화 단위란, 모노크롬 샘플의 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽쳐가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽쳐인 경우에 부호화 단위란, 해당 픽쳐와 픽쳐의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
위에서 설명한 바와 같이, 최대 부호화 블록과 최대 부호화 단위는 서로 구별되는 개념이며, 부호화 블록과 부호화 단위는 서로 구별되는 개념이다. 즉, (최대) 부호화 단위는 해당 샘플을 포함하는 (최대) 부호화 블록과 그에 대응하는 신택스 구조를 포함하는 데이터 구조를 의미한다. 하지만 당업자가 (최대) 부호화 단위 또는 (최대) 부호화 블록가 소정 개수의 샘플들을 포함하는 소정 크기의 블록을 지칭한다는 것을 이해할 수 있으므로, 이하 명세서에서는 최대 부호화 블록과 최대 부호화 단위, 또는 부호화 블록과 부호화 단위를 특별한 사정이 없는 한 구별하지 않고 언급한다.
영상은 최대 부호화 단위(Coding Tree Unit; CTU)로 분할될 수 있다. 최대 부호화 단위의 크기는 비트스트림으로부터 획득된 정보에 기초하여 결정될 수 있다. 최대 부호화 단위의 모양은 동일 크기의 정사각형을 가질 수 있다. 하지만 이에 한정되는 것은 아니다.
예를 들어, 비트스트림으로부터 루마 부호화 블록의 최대 크기에 대한 정보가 획득될 수 있다. 예를 들어, 루마 부호화 블록의 최대 크기에 대한 정보가 나타내는 루마 부호화 블록의 최대 크기는 4x4, 8x8, 16x16, 32x32, 64x64, 128x128, 256x256 중 하나일 수 있다.
예를 들어, 비트스트림으로부터 2분할이 가능한 루마 부호화 블록의 최대 크기와 루마 블록 크기 차이에 대한 정보가 획득될 수 있다. 루마 블록 크기 차이에 대한 정보는 루마 최대 부호화 단위와 2분할이 가능한 최대 루마 부호화 블록 간의 크기 차이를 나타낼 수 있다. 따라서, 비트스트림으로부터 획득된 2분할이 가능한 루마 부호화 블록의 최대 크기에 대한 정보와 루마 블록 크기 차이에 대한 정보를 결합하면, 루마 최대 부호화 단위의 크기가 결정될 수 있다. 루마 최대 부호화 단위의 크기를 이용하면 크로마 최대 부호화 단위의 크기도 결정될 수 있다. 예를 들어, 컬러 포맷에 따라 Y: Cb : Cr 비율이 4:2:0 이라면, 크로마 블록의 크기는 루마 블록의 크기의 절반일 수 있고, 마찬가지로 크로마 최대 부호화 단위의 크기는 루마 최대 부호화 단위의 크기의 절반일 수 있다.
일 실시예에 따르면, 바이너리 분할(binary split)이 가능한 루마 부호화 블록의 최대 크기에 대한 정보는 비트스트림으로부터 획득하므로, 바이너리 분할이 가능한 루마 부호화 블록의 최대 크기는 가변적으로 결정될 수 있다. 이와 달리, 터너리 분할(ternary split)이 가능한 루마 부호화 블록의 최대 크기는 고정될 수 있다. 예를 들어, I 픽쳐에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 32x32이고, P 픽쳐 또는 B 픽쳐에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 64x64일 수 있다.
또한 최대 부호화 단위는 비트스트림으로부터 획득된 분할 형태 모드 정보에 기초하여 부호화 단위로 계층적으로 분할될 수 있다. 분할 형태 모드 정보로서, 쿼드분할(quad split) 여부를 나타내는 정보, 다분할 여부를 나타내는 정보, 분할 방향 정보 및 분할 타입 정보 중 적어도 하나가 비트스트림으로부터 획득될 수 있다.
예를 들어, 쿼드분할(quad split) 여부를 나타내는 정보는 현재 부호화 단위가 쿼드분할(QUAD_SPLIT)될지 또는 쿼드분할되지 않을지를 나타낼 수 있다.
현재 부호화 단위가 쿼드분할지되 않으면, 다분할 여부를 나타내는 정보는 현재 부호화 단위가 더 이상 분할되지 않을지(NO_SPLIT) 아니면 바이너리/터너리 분할될지 여부를 나타낼 수 있다.
현재 부호화 단위가 바이너리 분할되거나 터너리 분할되면, 분할 방향 정보는 현재 부호화 단위가 수평 방향 또는 수직 방향 중 하나로 분할됨을 나타낸다.
현재 부호화 단위가 수평 또는 수직 방향으로 분할되면 분할 타입 정보는 현재 부호화 단위를 바이너리 분할) 또는 터너리 분할로 분할함을 나타낸다.
분할 방향 정보 및 분할 타입 정보에 따라, 현재 부호화 단위의 분할 모드가 결정될 수 있다. 현재 부호화 단위가 수평 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수평 분할(SPLIT_BT_HOR), 수평 방향으로 터너리 분할되는 경우의 터너리 수평 분할(SPLIT_TT_HOR), 수직 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수직 분할 (SPLIT_BT_VER) 및 수직 방향으로 터너리 분할되는 경우의 분할 모드는 터너리 수직 분할 (SPLIT_BT_VER)로 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 하나의 빈스트링으로부터 획득할 수 있다. 영상 복호화 장치(100)가 수신한 비트스트림의 형태는 Fixed length binary code, Unary code, Truncated unary code, 미리 결정된 바이너리 코드 등을 포함할 수 있다. 빈스트링은 정보를 2진수의 나열로 나타낸 것이다. 빈스트링은 적어도 하나의 비트로 구성될 수 있다. 영상 복호화 장치(100)는 분할 규칙에 기초하여 빈스트링에 대응하는 분할 형태 모드 정보를 획득할 수 있다. 영상 복호화 장치(100)는 하나의 빈스트링에 기초하여, 부호화 단위를 쿼드분할할지 여부, 분할하지 않을지 또는 분할 방향 및 분할 타입을 결정할 수 있다.
부호화 단위는 최대 부호화 단위보다 작거나 같을 수 있다. 예를 들어 최대 부호화 단위도 최대 크기를 가지는 부호화 단위이므로 부호화 단위의 하나이다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할되지 않음을 나타내는 경우, 최대 부호화 단위에서 결정되는 부호화 단위는 최대 부호화 단위와 같은 크기를 가진다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할됨을 나타내는 경우 최대 부호화 단위는 부호화 단위들로 분할 될 수 있다. 또한 부호화 단위에 대한 분할 형태 모드 정보가 분할을 나타내는 경우 부호화 단위들은 더 작은 크기의 부호화 단위들로 분할 될 수 있다. 다만, 영상의 분할은 이에 한정되는 것은 아니며 최대 부호화 단위 및 부호화 단위는 구별되지 않을 수 있다. 부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다.
또한 부호화 단위로부터 예측을 위한 하나 이상의 예측 블록이 결정될 수 있다. 예측 블록은 부호화 단위와 같거나 작을 수 있다. 또한 부호화 단위로부터 변환을 위한 하나 이상의 변환 블록이 결정될 수 있다. 변환 블록은 부호화 단위와 같거나 작을 수 있다.
변환 블록과 예측 블록의 모양 및 크기는 서로 관련 없을 수 있다.
다른 실시예로, 부호화 단위가 예측 블록으로서 부호화 단위를 이용하여 예측이 수행될 수 있다. 또한 부호화 단위가 변환 블록으로서 부호화 단위를 이용하여 변환이 수행될 수 있다.
부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다. 본 개시의 현재 블록 및 주변 블록은 최대 부호화 단위, 부호화 단위, 예측 블록 및 변환 블록 중 하나를 나타낼 수 있다. 또한, 현재 블록 또는 현재 부호화 단위는 현재 복호화 또는 부호화가 진행되는 블록 또는 현재 분할이 진행되고 있는 블록이다. 주변 블록은 현재 블록 이전에 복원된 블록일 수 있다. 주변 블록은 현재 블록으로부터 공간적 또는 시간적으로 인접할 수 있다. 주변 블록은 현재 블록의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측, 우하측 중 하나에 위치할 수 있다.
도 3은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
블록 형태는 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N을 포함할 수 있다. 여기서 N은 양의 정수일 수 있다. 블록 형태 정보는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 나타내는 정보이다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우(즉, 부호화 단위의 블록 형태가 4Nx4N 인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 정사각형으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 너비 및 높이의 길이가 다른 경우(즉, 부호화 단위의 블록 형태가 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 비-정사각형으로 결정할 수 있다. 부호화 단위의 모양이 비-정사각형인 경우, 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보 중 너비 및 높이의 비율을 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 1:32, 32:1 중 적어도 하나로 결정할 수 있다. 또한, 부호화 단위의 너비의 길이 및 높이의 길이에 기초하여, 영상 복호화 장치(100)는 부호화 단위가 수평 방향인지 수직 방향인지 결정할 수 있다. 또한, 부호화 단위의 너비의 길이, 높이의 길이 또는 넓이 중 적어도 하나에 기초하여, 영상 복호화 장치(100)는 부호화 단위의 크기를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 모드 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(100)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 모드 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 획득할 수 있다. 하지만 이에 한정되는 것은 아니며, 영상 복호화 장치(100) 및 영상 부호화 장치(2200)는 블록 형태 정보에 기초하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 영상 복호화 장치(100)는 최대 부호화 단위 또는 최소 부호화 단위에 대하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 예를 들어 영상 복호화 장치(100)는 최대 부호화 단위에 대하여 분할 형태 모드 정보를 쿼드 분할(quad split)로 결정할 수 있다. 또한, 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 분할 형태 모드 정보를 "분할하지 않음"으로 결정할 수 있다. 구체적으로 영상 복호화 장치(100)는 최대 부호화 단위의 크기를 256x256으로 결정할 수 있다. 영상 복호화 장치(100)는 미리 약속된 분할 형태 모드 정보를 쿼드 분할로 결정할 수 있다. 쿼드 분할은 부호화 단위의 너비 및 높이를 모두 이등분하는 분할 형태 모드이다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 256x256 크기의 최대 부호화 단위로부터 128x128 크기의 부호화 단위를 획득할 수 있다. 또한 영상 복호화 장치(100)는 최소 부호화 단위의 크기를 4x4로 결정할 수 있다. 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 "분할하지 않음"을 나타내는 분할 형태 모드 정보를 획득할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(300)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(120)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(300)와 동일한 크기를 가지는 부호화 단위(310a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 기초하여 분할된 부호화 단위(310b, 310c, 310d, 310e, 310f 등)를 결정할 수 있다.
도 3을 참조하면 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 두 개의 부호화 단위(310b)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 두 개의 부호화 단위(310c)를 결정할 수 있다. 영상 복호화 장치(100)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향 및 수평방향으로 분할한 네 개의 부호화 단위(310d)를 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 터너리(ternary) 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 세 개의 부호화 단위(310e)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 터너리 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 세 개의 부호화 단위(310f)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 모드 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 4는 일 실시예에 따라 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 4를 참조하면, 현재 부호화 단위(400 또는 450)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(100)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(400 또는 450)와 동일한 크기를 가지는 부호화 단위(410 또는 460)를 결정하거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 따라 기초하여 분할된 부호화 단위(420a, 420b, 430a, 430b, 430c, 470a, 470b, 480a, 480b, 480c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 모드 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 4를 참조하면 분할 형태 모드 정보가 두 개의 부호화 단위로 현재 부호화 단위(400 또는 450)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(400 또는 450)를 분할하여 현재 부호화 단위에 포함되는 두 개의 부호화 단위(420a, 420b, 또는 470a, 470b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(400 또는 450)를 분할하는 경우, 영상 복호화 장치(100)는 비-정사각형의 현재 부호화 단위(400 또는 450)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 형태를 고려하여 현재 부호화 단위(400 또는 450)의 긴 변을 분할하는 방향으로 현재 부호화 단위(400 또는 450)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위를 분할(터너리 분할)하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 모드 정보가 3개의 부호화 단위로 현재 부호화 단위(400 또는 450)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)를 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)로 분할할 수 있다.
일 실시예에 따라, 현재 부호화 단위(400 또는 450)의 너비 및 높이의 비율이 4:1 또는 1:4 일 수 있다. 너비 및 높이의 비율이 4:1 인 경우, 너비의 길이가 높이의 길이보다 길므로 블록 형태 정보는 수평 방향일 수 있다. 너비 및 높이의 비율이 1:4 인 경우, 너비의 길이가 높이의 길이보다 짧으므로 블록 형태 정보는 수직 방향일 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위를 홀수개의 블록으로 분할할 것을 결정할 수 있다. 또한 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 블록 형태 정보에 기초하여 현재 부호화 단위(400 또는 450)의 분할 방향을 결정할 수 있다. 예를 들어 현재 부호화 단위(400)가 수직 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400)를 수평 방향으로 분할 하여 부호화 단위(430a, 430b, 430c)를 결정할 수 있다. 또한 현재 부호화 단위(450)가 수평 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(450)를 수직 방향으로 분할 하여 부호화 단위(480a, 480b, 480c)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c) 중 소정의 부호화 단위(430b 또는 480b)의 크기는 다른 부호화 단위(430a, 430c, 480a, 480c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(400 또는 450)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)가 각각 서로 다른 크기를 가질 수도 있다.
일 실시예에 따라 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(100)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 4을 참조하면 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)가 분할되어 생성된 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)들 중 중앙에 위치하는 부호화 단위(430b, 480b)에 대한 복호화 과정을 다른 부호화 단위(430a, 430c, 480a, 480c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(100)는 중앙에 위치하는 부호화 단위(430b, 480b)에 대하여는 다른 부호화 단위(430a, 430c, 480a, 480c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 5는 일 실시예에 따라 영상 복호화 장치가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(500)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 모드 정보가 수평 방향으로 제1 부호화 단위(500)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(500)를 수평 방향으로 분할하여 제2 부호화 단위(510)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 결정된 제2 부호화 단위(510)를 분할 형태 모드 정보에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 5를 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(510)를 적어도 하나의 제3 부호화 단위(520a, 520b, 520c, 520d 등)로 분할하거나 제2 부호화 단위(510)를 분할하지 않을 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 510)를 분할할 수 있으며, 제2 부호화 단위(510)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(500)가 제1 부호화 단위(500)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(510)로 분할된 경우, 제2 부호화 단위(510) 역시 제2 부호화 단위(510)에 대한 분할 형태 모드 정보에 기초하여 제3 부호화 단위(예를 들면, 520a, 520b, 520c, 520d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 모드 정보에 기초하여 재귀적으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다.
도 5를 참조하면, 비-정사각형 형태의 제2 부호화 단위(510)가 분할되어 결정되는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 하나인 정사각형 형태의 제3 부호화 단위(520b)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위(530a, 530b, 530c, 530d) 중 하나인 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 홀수개의 부호화 단위로 다시 분할될 수도 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제3 부호화 단위(520a, 520b, 520c, 520d 등) 각각을 부호화 단위들로 분할할 수 있다. 또한 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제2 부호화 단위(510)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(510)를 홀수개의 제3 부호화 단위(520b, 520c, 520d)로 분할할 수 있다. 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 가운데에 위치하는 부호화 단위(520c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다.
도 5를 참조하면, 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(510)에 포함되는 홀수개의 제3 부호화 단위(520b, 520c, 520d)들 중 가운데에 위치하는 부호화 단위(520c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(510)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(520c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(520c)가 다른 부호화 단위(520b, 520d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하기 위해 이용되는 분할 형태 모드 정보를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 6은 일 실시예에 따라 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 6을 참조하면, 현재 부호화 단위(600, 650)의 분할 형태 모드 정보는 현재 부호화 단위(600, 650)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(640, 690))에서 획득될 수 있다. 다만 이러한 분할 형태 모드 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(600) 내의 소정 위치가 도 6에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(600)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(100)는 소정 위치로부터 획득되는 분할 형태 모드 정보를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600) 또는 현재 부호화 단위(650)를 분할하여 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)을 결정할 수 있다. 영상 복호화 장치(100)는 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(620b)또는 가운데 부호화 단위(660b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 현재 부호화 단위(600)에 포함되는 부호화 단위들(620a, 620b, 620c)의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접 이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(630b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(620b)를 현재 부호화 단위(600)가 분할되어 결정된 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 기준으로, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있고, 부호화 단위들(620a, 620b, 620c) 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c) 중 크기가 다른 부호화 단위(620b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 크기를 결정할 수 있다. 일 실시예에 따라, 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(620a) 및 가운데 부호화 단위(620b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(620a, 620b, 620c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 상단 부호화 단위(620a) 및 하단 부호화 단위(620c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(620b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 좌측 상단의 샘플(670a)의 위치를 나타내는 정보인 (xd, yd) 좌표, 가운데 부호화 단위(660b)의 좌측 상단의 샘플(670b)의 위치를 나타내는 정보인 (xe, ye) 좌표, 우측 부호화 단위(660c)의 좌측 상단의 샘플(670c)의 위치를 나타내는 정보인 (xf, yf) 좌표를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(660a, 660b, 660c)의 위치를 나타내는 좌표인 (xd, yd), (xe, ye), (xf, yf)를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 너비를 xe-xd로 결정할 수 있다. 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 높이를 현재 부호화 단위(650)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 너비를 xf-xe로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 높이를 현재 부호화 단위(600)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 우측 부호화 단위(660c)의 너비 또는 높이는 현재 부호화 단위(650)의 너비 또는 높이와 좌측 부호화 단위(660a) 및 가운데 부호화 단위(660b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(660a, 660b, 660c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 좌측 부호화 단위(660a) 및 우측 부호화 단위(660c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(660b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수평 방향으로 위치를 다르게 설정하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수직 방향으로 위치를 다르게 설정하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위를 분할(바이너리 분할)하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 6에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(100)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나를 이용할 수 있다.
도 6을 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있으며, 복수개의 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 분할 형태 모드 정보가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 즉, 현재 부호화 단위(600)의 분할 형태 모드 정보는 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)에서 획득될 수 있으며, 상기 분할 형태 모드 정보에 기초하여 현재 부호화 단위(600)가 복수개의 부호화 단위들(620a, 620b, 620c)로 분할된 경우 상기 샘플(640)을 포함하는 부호화 단위(620b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 분할 형태 모드 정보로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정된 복수개의 부호화 단위들(620a, 620b, 620c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(600) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(600)의 가운데에 위치하는 샘플)에서 획득되는 분할 형태 모드 정보를 이용할 수 있다. 즉, 영상 복호화 장치(100)는 현재 부호화 단위(600)의 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정되는 복수개의 부호화 단위들(620a, 620b, 620c) 중, 소정의 정보(예를 들면, 분할 형태 모드 정보)가 획득될 수 있는 샘플이 포함된 부호화 단위(620b)를 결정하여 소정의 제한을 둘 수 있다. 도 6을 참조하면 일 실시예에 따라 영상 복호화 장치(100)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)을 결정할 수 있고, 영상 복호화 장치(100)는 이러한 샘플(640)이 포함되는 부호화 단위(620b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(620b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(600)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계를 포함하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 분할 형태 모드 정보를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 모드 정보를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 분할 형태 모드 정보를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 5를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 7는 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정하거나 제1 부호화 단위(700)를 수평 방향으로 분할하여 제2 부호화 단위(730a, 730b)를 결정하거나 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(750a, 750b, 750c, 750d)를 결정할 수 있다.
도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(710a, 710b)를 수평 방향(710c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(730a, 730b)의 처리 순서를 수직 방향(730c)으로 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(750a, 750b, 750c, 750d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(750e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 분할하여 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 분할하는 방법은 제1 부호화 단위(700)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 7를 참조하면 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정할 수 있고, 나아가 제2 부호화 단위(710a, 710b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)를 수평 방향으로 분할하여 제3 부호화 단위(720a, 720b)로 분할할 수 있고, 우측의 제2 부호화 단위(710b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)가 분할되어 결정된 제3 부호화 단위(720a, 720b)가 처리되는 순서를 우측의 제2 부호화 단위(710b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(710a)가 수평 방향으로 분할되어 제3 부호화 단위(720a, 720b)가 결정되었으므로 제3 부호화 단위(720a, 720b)는 수직 방향(720c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(710a) 및 우측의 제2 부호화 단위(710b)가 처리되는 순서는 수평 방향(710c)에 해당하므로, 좌측의 제2 부호화 단위(710a)에 포함되는 제3 부호화 단위(720a, 720b)가 수직 방향(720c)으로 처리된 후에 우측 부호화 단위(710b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 8는 일 실시예에 따라 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 획득된 분할 형태 모드 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 8를 참조하면 정사각형 형태의 제1 부호화 단위(800)가 비-정사각형 형태의 제2 부호화 단위(810a, 810b)로 분할될 수 있고, 제2 부호화 단위(810a, 810b)는 각각 독립적으로 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제2 부호화 단위 중 좌측 부호화 단위(810a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(820a, 820b)를 결정할 수 있고, 우측 부호화 단위(810b)는 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제3 부호화 단위들(820a, 820b, 820c, 820d, 820e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 8를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(800)를 재귀적으로 분할하여 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)를 결정할 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(800), 제2 부호화 단위(810a, 810b) 또는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(810a, 810b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할될 수 있다. 제1 부호화 단위(800)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(830))가 될 수 있고, 영상 복호화 장치(100)는 우측 제2 부호화 단위(810b)가 홀수개로 분할되어 결정된 제3 부호화 단위(820c, 820d, 820e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(800)에 포함되는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)의 경계에 따라 제2 부호화 단위(810a, 810b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(810a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(820a, 820b)는 조건을 만족할 수 있다. 우측 제2 부호화 단위(810b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(820c, 820d, 820e)들의 경계가 우측 제2 부호화 단위(810b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(820c, 820d, 820e)는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(810b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 9은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(110)를 통해 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(900)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(900)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 9을 참조하면, 제1 부호화 단위(900)는 정사각형이고 분할 형태 모드 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(900)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 모드 정보가 제1 부호화 단위(900)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900)를 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(910a, 910b, 910c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(920a, 920b, 920c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(900)에 포함되는 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)의 경계에 따라 제1 부호화 단위(900)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 9를 참조하면 정사각형 형태의 제1 부호화 단위(900)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(910a, 910b, 910c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(900)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(920a, 920b, 920c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(900)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(100)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 9을 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900), 비-정사각형 형태의 제1 부호화 단위(930 또는 950)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 10은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(110)를 통해 획득한 분할 형태 모드 정보에 기초하여 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(100)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각에 관련된 분할 형태 모드 정보에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할하여 제3 부호화 단위(1012a, 1012b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1010b)는 좌측 제2 부호화 단위(1010a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1010b)가 동일한 방향으로 분할되어 제3 부호화 단위(1014a, 1014b)가 결정된 경우, 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1012a, 1012b, 1014a, 1014b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1020a 또는 1020b)를 수직 방향으로 분할하여 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1020a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1020b))는 상단 제2 부호화 단위(1020a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 11은 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다. 분할 형태 모드 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 모드 정보에 따르면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1100)를 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할하지 못한다. 분할 형태 모드 정보에 기초하여 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1100)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1112a, 1112b)를 결정할 수 있고, 우측 제2 부호화 단위(1110b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1114a, 1114b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a) 및 우측 제2 부호화 단위(1110b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b)를 결정할 수 있고, 하단 제2 부호화 단위(1120b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1124a, 1124b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a) 및 하단 제2 부호화 단위(1120b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1126a, 1126b, 1126a, 1126b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1200)를 분할할 수 있다. 블록 형태가 정사각형이고, 분할 형태 모드 정보가 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 각각에 대한 분할 형태 모드 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 이러한 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)의 분할 과정은 도 11과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 7와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 12를 참조하면 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1200)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 분할되는 형태에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1210a)에 포함되는 제3 부호화 단위(1216a, 1216c)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1210b)에 포함되는 제3 부호화 단위(1216b, 1216d)를 수직 방향으로 처리하는 순서(1217)에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있고, 영상 복호화 장치(100)는 상단 제2 부호화 단위(1220a)에 포함되는 제3 부호화 단위(1226a, 1226b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1220b)에 포함되는 제3 부호화 단위(1226c, 1226d)를 수평 방향으로 처리하는 순서(1227)에 따라 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 처리할 수 있다.
도 12를 참조하면, 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1210a, 1210b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1220a, 1220b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1200)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 13을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(100)는 정사각형 형태인 제1 부호화 단위(1300)를 분할하여 하위 심도의 제2 부호화 단위(1302), 제3 부호화 단위(1304) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1300)의 너비 및 높이를 1/2배로 분할하여 결정된 제2 부호화 단위(1302)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1302)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1304)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1304)의 너비 및 높이는 제1 부호화 단위(1300)의 1/4배에 해당한다. 제1 부호화 단위(1300)의 심도가 D인 경우 제1 부호화 단위(1300)의 너비 및 높이의 1/2배인 제2 부호화 단위(1302)의 심도는 D+1일 수 있고, 제1 부호화 단위(1300)의 너비 및 높이의 1/4배인 제3 부호화 단위(1304)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(100)는 비-정사각형 형태인 제1 부호화 단위(1310 또는 1320)를 분할하여 하위 심도의 제2 부호화 단위(1312 또는 1322), 제3 부호화 단위(1314 또는 1324) 등을 결정할 수 있다.
영상 복호화 장치(100)는 Nx2N 크기의 제1 부호화 단위(1310)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1310)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 2NxN 크기의 제1 부호화 단위(1320) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1320)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN 크기의 제2 부호화 단위(1302) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1302)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304)를 결정하거나 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 N/2xN 크기의 제2 부호화 단위(1312)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1312)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN/2 크기의 제2 부호화 단위(1322)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1322)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/4크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 부호화 단위(예를 들면, 1300, 1302, 1304)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1310)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1320)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1300)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1300)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1314 또는 1324)의 너비 및 높이는 제1 부호화 단위(1310 또는 1320)의 1/4배에 해당할 수 있다. 제1 부호화 단위(1310 또는 1320)의 심도가 D인 경우 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제2 부호화 단위(1312 또는 1322)의 심도는 D+1일 수 있고, 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/4배인 제3 부호화 단위(1314 또는 1324)의 심도는 D+2일 수 있다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1400)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 14를 참조하면, 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(1400)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1400)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1400)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1400)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1400)와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 한 변의 길이는 제1 부호화 단위(1400)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 심도는 제1 부호화 단위(1400)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1410)를 분할 형태 모드 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1420)를 분할 형태 모드 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1422a, 1422b, 1424a, 1424b, 1424c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1410 또는 1420)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c. 1422a, 1422b, 1424a, 1424b, 1424c)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1410)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1410)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1410)를 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)는 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c) 및 정사각형 형태의 제2 부호화 단위(1414b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1414b)의 한 변의 길이는 제1 부호화 단위(1410)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1414a, 1414b, 1414c)의 심도는 제1 부호화 단위(1410)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(1410)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1420)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 홀수개로 분할된 부호화 단위들(1414a, 1414b, 1414c) 중 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 복호화 장치(100)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 복호화 장치(100)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)에 대한 분할 형태 모드 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(1410)를 3개의 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 영상 복호화 장치(100)는 3개의 부호화 단위(1414a, 1414b, 1414c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(100)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(100)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1414b)를, 제1 부호화 단위(1410)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 제1 부호화 단위(1410)가 분할되어 생성된 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(100)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 모드 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(100)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 분할 형태 모드 정보를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 형태 모드 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(100)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 분할 형태 모드 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 15를 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 기준 부호화 단위(1500)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1502)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 타일(tile), 타일 그룹(tile group), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(110)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1502)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(110)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 타일, 타일 그룹, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 타일, 타일 그룹, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(100)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(100)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(100)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 모드 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 분할 형태 모드 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header), 타일 헤더(tile header), 타일 그룹 헤더(tile group header)에 포함된 분할 형태 모드 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(100)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 모드 정보에 대응하는 신택스 엘리먼트를 비트스트림으로부터 획득하여 이용할 수 있다.
이하 본 개시의 일 실시예에 따른 분할 규칙을 결정하는 방법에 대하여 자세히 설명한다.
영상 복호화 장치(100)는 영상의 분할 규칙을 결정할 수 있다. 분할 규칙은 영상 복호화 장치(100) 및 영상 부호화 장치(2200) 사이에 미리 결정되어 있을 수 있다. 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여 영상의 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header), 타일 헤더(tile header), 타일 그룹 헤더(tile group header) 중 적어도 하나로부터 획득된 정보에 기초하여 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 분할 규칙을 프레임, 슬라이스, 타일, 템포럴 레이어(Temporal layer), 최대 부호화 단위 또는 부호화 단위에 따라 다르게 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 수 있다. 블록 형태는 부호화 단위의 크기, 모양, 너비 및 높이의 비율, 방향을 포함할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 것을 미리 결정할 수 있다. 하지만 이에 한정되는 것은 아니다. 영상 복호화 장치(100)는 수신된 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 정사각형으로 결정할 수 있다. 또한, . 부호화 단위의 너비 및 높이의 길이가 같지 않은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 크기는 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ... , 256x256의 다양한 크기를 포함할 수 있다. 부호화 단위의 크기는 부호화 단위의 긴변의 길이, 짧은 변의 길이 또는 넓이에 따라 분류될 수 있다. 영상 복호화 장치(100)는 동일한 그룹으로 분류된 부호화 단위에 동일한 분할 규칙을 적용할 수 있다. 예를 들어 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위를 동일한 크기로 분류할 수 있다. 또한 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위에 대하여 동일한 분할 규칙을 적용할 수 있다.
부호화 단위의 너비 및 높이의 비율은 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 32:1 또는 1:32 등을 포함할 수 있다. 또한, 부호화 단위의 방향은 수평 방향 및 수직 방향을 포함할 수 있다. 수평 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 긴 경우를 나타낼 수 있다. 수직 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 짧은 경우를 나타낼 수 있다.
영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 허용가능한 분할 형태 모드를 다르게 결정할 수 있다. 예를 들어, 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할이 허용되는지 여부를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 분할 방향을 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 허용가능한 분할 타입을 결정할 수 있다.
부호화 단위의 크기에 기초하여 분할 규칙을 결정하는 것은 영상 복호화 장치(100) 사이에 미리 결정된 분할 규칙일 수 있다. 또한, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위가 영상에서 차지하는 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다.
또한, 영상 복호화 장치(100)는 서로 다른 분할 경로로 생성된 부호화 단위가 동일한 블록 형태를 가지지 않도록 분할 규칙을 결정할 수 있다. 다만 이에 한정되는 것은 아니며 서로 다른 분할 경로로 생성된 부호화 단위는 동일한 블록 형태를 가질 수 있다. 서로 다른 분할 경로로 생성된 부호화 단위들은 서로 다른 복호화 처리 순서를 가질 수 있다. 복호화 처리 순서에 대해서는 도 12와 함께 설명하였으므로 자세한 설명은 생략한다.
도 16는 영상 부호화 및 복호화 시스템의 블록도를 나타낸 도면이다.
영상 부호화 및 복호화 시스템(1600)의 부호화기(1610)은 영상의 부호화된 비트스트림을 전송하고, 복호화기(1650)은 비트스트림을 수신하여 복호화함으로써 복원 영상을 출력한다. 여기서 복호화기(1650)은 영상 복호화 장치(100)에 유사한 구성일 수 있다.
부호화단(1610)에서, 인터 예측 부호화부(1605)는 현재 블록의 예측 모드가 인터 예측 모드인 경우 현재 픽처에 시간적으로 인접하는 참조 픽쳐의 참조 블록을 가리키는 현재 블록의 움직임 정보를 생성한다. 인터 예측 부호화부(1605)는 참조 블록들의 샘플들을 이용하여 현재 블록의 예측 샘플들을 결정할 수 있다. 인트라 예측 부호화부(1610)는 현재 블록에 공간적으로 인접하는 이웃 샘플들을 이용하여 현재 블록의 예측 샘플들을 결정할 수 있도록, 현재 블록과 유사한 이웃 샘플들이 위치하는 방향 또는 예측 샘플들을 결정하는 방식을 나타내는 인트라 예측 정보를 결정할 수 있다. 인터 예측 부호화부(1605)는 DPB(Decoded Pictur Buffer)(1648)에 저장되어 있는 먼저 복원된 샘플들 중에서, 현재 블록의 예측을 위해 이용할 참조 샘플들을 결정할 수 있다.
변환부(1620)는 현재 블록의 원본 샘플로부터 인터 예측 부호화부(1605) 또는 인트라 예측 부호화부(1610)에 의해 생성된 예측 샘플들을 뺀 레지듀얼 샘플값들에 대해 변환을 수행하여, 변환 계수들을 출력한다. 변환부(1620)로부터 출력된 변환 계수들을 양자화부(1625)가 양자화하여 양자화된 변환 계수들을 출력한다. 엔트로피 부호화부(1630)는 양자화된 변환계수를 레벨값을 포함하는 레지듀얼 신택스 엘리먼트들로 부호화하여 비트스트림의 형태로 출력할 수 있다.
양자화부(1625)에서 출력된 양자화된 변환 계수들은 역양자화부(1633) 및 역변환부(1635)를 통해 역양자화 및 역변환되어 다시 레지듀얼 샘플값들이 생성될 수 있다.
가산기(1615)에서 레지듀얼 샘플값들과 예측 샘플값들이 합쳐져 복원 샘플값이 출력된다. 복원후 필터링부(1640)는 복원 샘플들에 대해 복원후 필터링을 수행하며, 복원후 필터링을 통해 갱신된 복원 샘플값들은 인트라 예측부(1610)에서 수행될 인트라 예측을 위한 참조 샘플값들로써 이용될 수 있다. 복원후 필터링부(1640)는 복원 샘플값들에 대해 하다마드 변환 영역 필터링 또는 바이래터럴 필터링을 수행할 수 있다.
인루프 필터링부(1645)는 복원후 필터링을 통해 갱신된 복원 샘플들에 대해 디블로킹 필터링 및 적응적 루프 필터링 중 적어도 하나를 수행할 수 있다. 인루프 필터링부(1645)의 필터링을 통해 갱신된 복원 샘플값들은 DPB(1648)에 저장될 수 있으며, 인터 예측부(1605)에서 수행될 인터 예측을 위한 참조 샘플값들로써 이용될 수 있다.
복호화기(1650)의 엔트로피 복호화부(1655)는 수신된 비트스트림에 대해은 엔트로피 복호화를 수행하여 레벨값을 포함하는 레지듀얼 신택스 엘리먼트들을 파싱할 수 있다. 레지듀얼 신택스 엘리먼트들로부터 양자화된 변환 계수들을 복원할 수 있다. 역양자화부(1660)는 양자화된 변환 계수들에 대해 역양자화를 수행하여 변환 계수들을 출력하고, 역변환부(1665)는 변환 계수들에 대해 역변환을 수행하여 레지듀얼 샘플값들을 출력할 수 있다.
복호화기(1650)의 인터 예측 부호화부(1670)는, 엔트로피 복호화부(1655)에서 파싱한 현재 블록의 움직임 정보를 이용하여 현재 픽처에 시간적으로 인접하는 참조 픽쳐를 결정하고, 참조 픽쳐 내의 참조 블록을 결정할 수 있다. 인터 예측 부호화부(1670)는 참조 블록들의 샘플들을 이용하여 현재 블록의 예측 샘플들을 결정할 수 있다. 복호화기(1650)의 인트라 예측 부호화부(1675)는, 엔트로피 복호화부(1655)에서 파싱한 현재 블록의 움직임 정보를 이용하여 인트라 예측 정보를 이용하여 현재 블록에 공간적으로 인접하는 참조 샘플들을 결정하고, 결정된 이웃 샘플들을 이용하여 현재 블록의 예측 샘플들을 결정할 수 있다. 인터 예측 부호화부(1670)는 DPB(Decoded Pictur Buffer)(1690)에 저장되어 있는 먼저 복원된 샘플들 중에서, 현재 블록의 예측을 위해 이용할 참조 샘플들을 결정할 수 있다.
복호화기(1650)의 가산기(1695)에서 레지듀얼 샘플값들과 예측 샘플값들을 합쳐져 현재 블록의 복원 샘플값을 출력한다. 복호화기(1650)의 복원후 필터링부(1680)는 복원 샘플값들에 대해 하다마드 변환 영역 필터링 또는 바이래터럴 필터링을 수행할 수 있다. 복원후 필터링부(1680)의 필터링을 통해 갱신된 복원 샘플값들은 인트라 예측부(1675)에서 수행될 인트라 예측을 위한 참조 샘플값들로써 이용될 수 있다.
복호화기(1650)의 인루프 필터링부(1685)는 복원후 필터링을 통해 갱신된 복원 샘플들에 대해 이용하여 디블로킹 필터링 및 적응적 루프 필터링 중 적어도 하나를 수행할 수 있다. 인루프 필터링부(1685)의 필터링을 통해 갱신된 복원 샘플값들은 DPB(1690)에 저장되며, 인터 예측부(1670)에서 수행될 인터 예측을 위한 참조 샘플값들로써 이용될 수 있다.
일 실시예에 따른 비디오 부호화 방법 및 복호화 방법, 비디오 부호화 장치 및 복호화 장치는, 앞서 도 1 내지 16을 참조하여 설명된 비디오 부호화 장치 및 비디오 복호화 장치에서 결정된 데이터 단위에 기초하여, 어파인 모델에 기반한 예측을 수행하는 방법을 제안한다. 이하 도 17 내지 도 40을 참조하여 본 명세서에서 개시된 일 실시예에 따라 어파인 모델에 따른 인터 예측을 수행하는 비디오 부호화 방법 및 장치 또는 비디오 복호화 방법 및 장치가 상술된다.
이하, '블록의 이용 가능성(availability)'은 해당 블록이 이미 부호화되거나 복호화되어 해당 블록의 정보가 획득될 수 있는 상태인지 여부를 의미한다. 구체적으로 부호화 과정에서 현재 블록이 이미 부호화된 경우에 현재 블록의 부호화 정보를 이용하여 이웃 블록을 부호화할 수 있으므로, 현재 블록은 이용 가능한 상태로 표시될 수 있다. 현재 블록이 부호화되지 않은 경우에 현재 블록은 이용 가능하지 않은 상태로 표시될 수 있다. 마찬가지로 복호화 과정에서 현재 블록이 이미 복호화된 경우에 현재 블록의 부호화 정보를 이용하여 이웃 블록을 복호화할 수 있으므로, 현재 블록은 이용 가능한 상태로 표시될 수 있다. 현재 블록이 복호화되지 않은 경우에 현재 블록은 이용 가능하지 않은 상태로 표시될 수 있다.
이하, '블록의 움직임 정보의 이용 가능성'은 해당 블록에 대한 움직임 예측(인트라 모드 또는 인트라 블록 카피 모드에 따른 예측을 제외한 나머지 예측)이 수행되어 해당 블록의 움직임 정보(움직임 벡터, 예측 방향(L0-pred, L1-pred 또는 Bi-pred), 참조 픽쳐 인덱스)가 획득될 수 있는 상태인지 여부를 의미한다. 구체적으로 부호화 과정에서 현재 블록에 대해 이미 움직임 예측이 수행되어 현재 블록의 움직임 정보가 존재하는 경우에 현재 블록의 움직임 정보를 이용하여 이웃 블록의 움직임 예측을 수행할 수 있으므로, 현재 블록의 움직임 정보가 이용 가능한 상태로 표시될 수 있다. 부호화 과정에서 현재 블록에 대해 움직임 예측이 수행되지 않은 경우 현재 블록의 움직임 정보가 이용 가능하지 않은 상태로 표시될 수 있다. 마찬가지로 복호화 과정에서 현재 블록에 대해 이미 움직임 예측이 수행되어 현재 블록의 움직임 정보가 존재하는 경우에 현재 블록의 움직임 정보를 이용하여 이웃 블록의 움직임 예측을 수행할 수 있으므로, 현재 블록의 움직임 정보가 이용 가능한 상태로 표시될 수 있다. 복호화 과정에서 현재 블록에 대해 움직임 예측이 수행되지 않은 경우 현재 블록의 움직임 정보가 이용 가능하지 않은 상태로 표시될 수 있다.
이하, '어파인 머지 후보'는 현재 블록의 이웃 블록 또는 블록 그룹에 대응하는 컨트롤 포인트 벡터들에 대응할 수 있다. 이웃 블록의 움직임 벡터로부터 컨트롤 포인트 벡터들이 결정되거나 블록 그룹에 속하는 이웃 블록들의 움직임 벡터들에 기초하여 컨트롤 포인트 벡터들이 결정되므로, 각 컨트롤 포인트 벡터들은 해당 이웃 블록 또는 해당 블록 그룹에 대응할 수 있다. 따라서, 본 개시에서 설명의 편의상 '어파인 머지 후보'는 이웃 블록 또는 블록 그룹로부터 결정된 컨트롤 포인트 벡터들에 대응하거나, 이웃 블록 또는 블록 그룹에 대응하는 것으로 기재되어 있으며, 두 표현 상에 의미 차이는 없다. 도 17은 일 실시예에 따른 비디오 복호화 장치의 블록도를 도시한다.
먼저 도 34 내지 40을 참조하여 비디오 복호화 장치(1700)가 어파인 모델에 기초하여 인터 예측을 수행하는 방법을 상술한다.
도 34는 비디오 복호화 장치(1700)가 4-파라미터 모델 또는 6-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 어파인 파라미터를 결정하기 위한 움직임 벡터를 도출하는 방법을 도시한다.
기존의 비디오 부호화 표준에서는 블록의 평행이동만을 고려하여 움직임 보상(Motion Compensation)를 수행하기 때문에 줌 인아웃(zoom in/out), 회전(rotation)과 같이 현실에서 발생하는 움직임을 제대로 보상하지 못하는 단점이 있었다. 이를 보완하여 최근 표준화가 진행 중인 비디오 코덱 규격에서는 4개 또는 6개의 파라미터를 이용하는 어파인 움직임 모델을 화면 간 예측에 적용한다. 4-파라미터 모델에 따른 어파인 인터 예측의 경우, 현재 블록(3400)의 좌측 상단 지점의 움직임 벡터 MV0 및 우측 상단 지점의 움직임 벡터 MV1가 이용될 수 있다. 6-파라미터 모델에 따른 어파인 인터 예측의 경우, 현재 블록(3400)의 좌측 상단 지점의 움직임 벡터 MV0, 우측 상단 지점의 움직임 벡터 MV1 및 좌측 하단 지점의 움직임 벡터 MV2가 이용될 수 있다. 좌측 상단 지점의 움직임 벡터 MV0는 현재 블록(3400)의 좌측 상단 지점에 인접하는 이웃 블록 A, B, C의 움직임 벡터를 이용하여 결정될 수 있다. 우측 상단 지점의 움직임 벡터 MV1는 현재 블록(3400)의 우측 상단 지점에 인접하는 이웃 블록 D, E의 움직임 벡터를 이용하여 결정될 수 있다. 좌측 하단 지점의 움직임 벡터 MV2는 현재 블록(3400)의 좌측 하단 지점에 인접하는 이웃 블록 F, G의 움직임 벡터를 이용하여 결정될 수 있다.
도 35는 비디오 복호화 장치(1700)가 4-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 현재 블록으로부터 회전(rotation) 및 이동(translation)된 예측 블록을 도시한다.
너비 w, 높이 h인 현재 블록(3500)가 중앙 지점을 중심으로 θ만큼 회전하고 현재 블록(3600)의 중앙 지점의 x, y 좌표가 (c, f)만큼 이동하는 경우, 동일한 크기의 블록(3550)이 생성될 수 있다. 4-파라미터 모델에 따른 어파인 인터 예측을 통해 현재 블록(3500)으로부터 예측블록(3550)이 복원될 수 있다.
도 36는 비디오 복호화 장치(1700)가 4-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 현재 블록으로부터 줌잉(zooming) 및 이동된 예측 블록을 도시한다.
너비 w, 높이 h인 현재 블록(3600)의 크기가 ρ만큼 줌잉되고 현재 블록(3600)의 중앙 지점의 x, y 좌표가 (c, f)만큼 이동하는 경우, 너비 ρ*w, 높이 ρ*h인 블록(3650)이 생성될 수 있다. 4-파라미터 모델에 따른 어파인 인터 예측을 통해 현재 블록(3600)으로부터 예측블록(3650)이 복원될 수 있다.
도 37는 비디오 복호화 장치(1700)가 4-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 현재 블록으로부터 회전, 줌잉 및 이동된 예측 블록을 도시한다.
너비 w, 높이 h인 현재 블록(3700)가 중앙 지점을 중심으로 θ만큼 회전하고 현재 블록(3700)의 크기가 ρ만큼 줌잉되고 현재 블록(3600)의 중앙 지점의 x, y 좌표가 (c, f)만큼 이동하는 경우, 너비 ρ*w, 높이 ρ*h인 블록(3750)이 생성될 수 있다. 4-파라미터 모델에 따른 어파인 인터 예측을 통해 현재 블록(3700)으로부터 예측블록(3750)이 복원될 수 있다.
도 35 내지 37에서 예시한 4-파라미터 모델에 따른 어파인 인터 예측 이외에, 6- 파라미터 모델에 따른 어파인 인터 예측에 의하면, 현재 블록으로부터 전단(shear), 회전, 줌잉 및 이동된 블록이 예측될 수 있다. 4- 및 6-파라미터 모델에 따른 어파인 인터 예측을 위해서, 현재 블록에 대한 컨트롤 포인트 움직임 벡터가 비트 스트림을 통해 시그널링될 수 있다.
도 38는 비디오 복호화 장치(1700)가 어파인 머지 모드에서 인터 예측을 수행할 때, 어파인 머지 후보 리스트를 구성하는 방법을 도시한다.
블록의 너비와 높이가 모두 8 픽셀 이상인 경우에 블록 레벨에서 어파인 머지 모드 또는 어파인 스킵 모드가 적용될 수 있다. 코딩 유닛 신택스를 통해 어파인 플래그가 시그널링됨으로써, 어파인 머지 모드가 사용되는지 여부가 표시될 수 있다. 어파인 머지 모드에서 최대값이 4 인 머지 후보 인덱스가 시그널링되며, 어파인 머지 후보 리스트에서 머지 후보 인덱스가 가리키는 움직임 정보 후보가 현재 블록(3800)을 위한 예측 움직임 벡터로서 이용될 수 있다.
4- 또는 6-파라미터 모델 기반의 후보가 이용되는 경우에, 이웃 블록들의 움직임 정보를 이용하여 현재 블록의 어파인 머지 후보 리스트가 구성될 수 있다. 특히 부호화 순서가 LR_01인 경우, 즉 현재 블록(3800)의 우측 블록이 이미 복호화된 경우에, 현재 블록의 어파인 머지 후보 리스트에 이웃 블록 C1, B3, B2, C0 및 B0의 순서로 이웃 블록의 움직임 벡터가 포함될 수 있다. 부호화 순서가 LR_01이 아닌 경우, 즉 현재 블록(3800)의 좌측 블록이 이미 복호화된 경우에, 현재 블록의 어파인 머지 후보 리스트에 이웃 블록 A1, B1, B0, A0, 및 B2의 순서로 이웃 블록의 움직임 벡터가 포함될 수 있다.
어파인 머지 후보 리스트에 이웃 블록의 움직임 벡터가 포함되기 위해서는 해당 움직임 벡터가 사용가능한 상태여야 한다. 머지 후보 인덱스는 0부터 4를 나타내므로, 어파인 머지 후보 리스트는 최대 5개의 후보를 포함할 수 있다. 만약 이웃 블록 C1, B3, B2, C0 및 B0의 움직임 정보가 이용 가능한 상태가 아니라서 상기 순서대로 어파인 머지 후보 리스트에 포함된 움직임 정보가 5개보다 적다면, 영 후보(Zero candidate)가 어파인 머지 후보 리스트에 포함될 수 있다.
앞서 설명한 4-, 6-파라미터 모델에 따른 어파인 인터 예측 이외에 컨트롤 포인트 기반의 어파인 인터 예측이 수행될 수 있다. 컨트롤 포인트 기반의 어파인 인터 예측에 따르면, 현재 블록(3800)의 컨트롤 포인트 움직임 벡터는 이웃 블록의 컨트롤 포인트 움직임 정보를 기반으로 도출될 수 있다. 따라서, 어파인 머지 후보 리스트에 컨트롤 포인트 기반의 후보가 포함될 수 있다.
6-파라미터 모델에 따른 컨트롤 포인트 후보의 경우, 컨트롤 포인트 세트 (CP0, CP1, CP2), (CP0, CP1, CP3), (CP0, CP2, CP3) 및 (CP1, CP2, CP3)의 순서로 어파인 머지 후보 리스트에 포함될 수 있다. 4-파라미터 모델에 따른 컨트롤 포인트 후보의 경우, 컨트롤 포인트 세트 (CP0, CP1) 및 (CP0, CP2)의 순서로 어파인 머지 후보 리스트에 포함될 수 있다.
CP0, CP1, CP2, CP3의 컨트롤 포인트 움직임 정보는 각각 인접하는 이웃 블록의 컨트롤 포인트 움직임 정보를 이용하여 도출될 수 있다. 컨트롤 포인트별로 인접하는 이웃 블록들의 움직임 정보의 이용 가능성이 확인되어야 한다. CP0는 이웃 블록들 B2, B3, A2의 순서로 이웃 블록들의 움직임 정보의 이용 가능성을 확인한 후, 먼저 이용 가능함이 확인되는 이웃 블록의 움직임 정보를 이용하여 CP0의 움직임 정보가 획득될 수 있다. 유사하게, CP1를 위해 이웃 블록들 B0, B1, C2의 순서로 움직임 정보가 이용되고, CP2를 위해 이웃 블록들 A0, A1, 좌측 하단의 시간적 후보(temporal candidate)의 순서로 움직임 정보가 이용되고, CP3를 위해 이웃 블록들 C0, C1, 우측 하단의 시간적 후보의 순서로 움직임 정보의 이용 가능성이 확인된 후 이용될 수 있다.
CP0, CP1, CP2, CP3의 컨트롤 포인트 움직임 정보를 이웃 블록의 컨트롤 포인트 움직임 정보를 이용하여 도출하는 방법을 이하 도 39를 이용하여 상술한다.
도 39는 비디오 복호화 장치(1700)가 이웃 블록의 컨트롤 포인트의 움직임 정보를 이용하여, 현재 블록의 컨트롤 포인트의 움직임 정보를 결정하는 방법을 도시한다.
어파인 예측 모드로 복원된 이웃 블록(3950)의 컨트롤 포인트 CPn0, CPn1, CPn2 및 CPn3의 움직임 정보를 이용하여 현재 블록(3900)의 컨트롤 포인트 CP0, CP1, CP2의 움직임 정보가 도출될 수 있다.
구체적으로, 현재 블록(3900)의 컨트롤 포인트 CP0의 움직임 정보를 도출하기 위해, 이웃 블록(3950)의 컨트롤 포인트 CPn0, CPn1 및 CPn2의 움직임 정보가 이용될 수 있다. 유사하게, 현재 블록(3900)의 컨트롤 포인트 CP1의 움직임 정보를 도출하기 위해 이웃 블록(3950)의 컨트롤 포인트 CPn0, CPn1 및 CPn2의 움직임 정보가 이용되고, 현재 블록(3900)의 컨트롤 포인트 CP2의 움직임 정보를 도출하기 위해 이웃 블록(3950)의 컨트롤 포인트 CPn0, CPn1 및 CPn2의 움직임 정보가 이용될 수 있다.
예외적으로, 현재 블록(3900)과 이웃 블록(3950) 사이의 경계선이 최대 부호화 단위의 경계선인 경우에, 이웃 블록(3950)의 컨트롤 포인트 CPn0 및 CPn1의 움직임 정보를 제외하고, CPn2 및 CPn3의 움직임 정보를 이용하여 현재 블록(3900)의 컨트롤 포인트 CP0, CP1, CP2의 움직임 정보가 도출될 수 있다. 즉, 현재 블록(3900)의 컨트롤 포인트 CP0의 움직임 정보를 도출하기 위해, 이웃 블록(3950)의 컨트롤 포인트 CPn2 및 CPn3의 움직임 정보가 이용되고, 컨트롤 포인트 CP1의 움직임 정보를 도출하기 위해 이웃 블록(3950)의 컨트롤 CPn2 및 CPn3의 움직임 정보가 이용되고, 컨트롤 포인트 CP2의 움직임 정보를 도출하기 위해 이웃 블록(3950)의 컨트롤 포인트 CPn2 및 CPn3의 움직임 정보가 이용될 수 있다.
도 40는, 비디오 복호화 장치(1700)가 4-파라미터 모델 또는 6-파라미터 모델에 따라 어파인 인터 예측을 수행할 때, 컨트롤 포인트 움직임 벡터와 서브블록 단위의 움직임 보상을 수행하는 방법을 도시한다.
어파인 모드 중 컨트롤 포인트 움직임 벡터(Control Point Motion Vector; CPMV) 부복호화 방식으로서, AMVP 모드 또는 머지 모드로 나뉠 수 있다. 컨트롤 포인트 움직임 벡터는 도 40의 화살표와 같이 현재 블록의 왼쪽 상단 및 오른쪽 상단의 어파인 움직임 모델을 표현하는 벡터이다. 연산량을 고려하여 블록(4000, 4050)의 픽셀 단위로 움직임 보상이 수행되는 것이 아니라, 블록(4000, 4050)의 서브블록 단위로 움직임 보상이 수행될 수 있다. 즉, 서브블록 단위로 보면 일반적인 움직임 보상이지만, 블록(4000, 4050) 관점에서는 어파인 움직임 보상이 수행되어 각각 예측블록(4010, 4060)이 생성된다고 볼 수 있다.
이하 도 17 내지 33에서, 일 실시예에 따른 비디오 복호화 장치(1700) 및 비디오 부호화 장치(1900)가, 현재 블록의 어파인 인터 예측을 수행할 때 서브블록들의 예측 블록을 결정하기 위한 참조 영역을 결정하는 방법을 제안한다.
도 17은 일 실시예에 따른 비디오 복호화 장치의 블록도를 도시한다.
일 실시예에 따른 비디오 복호화 장치(1700)는 어파인 모델 인터 예측부(1710), 인터 예측 샘플 결정부(1720) 및 복원부(1730)를 포함한다. 비디오 복호화 장치(1700)는 영상의 부호화 결과 생성된 비트스트림을 획득하고, 비트스트림에 포함된 정보에 기초하여 픽쳐로부터 분할된 블록들의 위치를 파악하고, 최대 부호화 단위 및 부호화 단위 등의 블록들을 복호화할 수 있다.
비디오 복호화 장치(1700)는, 어파인 모델 인터 예측부(1710), 인터 예측 샘플 결정부(1720) 및 복원부(1730)의 입출력 데이터가 저장되는 하나 이상의 데이터 저장부(미도시)를 포함할 수 있다. 비디오 복호화 장치(1700)는, 데이터 저장부(미도시)의 데이터 입출력을 제어하는 메모리 제어부(미도시)를 포함할 수도 있다.
비디오 복호화 장치(1700)는, 영상 복호화를 통해 영상을 복원하기 위해, 내부에 탑재된 비디오 디코딩 프로세서 또는 외부의 비디오 디코딩 프로세서와 연계하여 작동함으로써, 예측을 포함한 영상 복호화 동작을 수행할 수 있다. 일 실시예에 따른 비디오 복호화 장치(1700)의 내부 비디오 디코딩 프로세서는, 별개의 프로세서뿐만 아니라, 중앙 연산 장치 또는 그래픽 연산 장치가 영상 디코딩 프로세싱 모듈을 포함함으로써 기본적인 영상 복호화 동작을 구현할 수도 있다.
비디오 복호화 장치(1700)는 전술한 영상 복호화 장치(100)에 포함될 수 있다. 예를 들어, 어파인 모델 인터 예측부(1710), 인터 예측 샘플 결정부(1720) 및 복원부(1730)는 영상 복호화 장치(100)의 복호화부(120)에 대응될 수 있다. 비디오 복호화 장치(1700)는 도 16을 참조하여 전술한 영상 부호화 및 복호화 시스템의 복호화기(1650)에 대응될 수 있다. 예를 들어, 어파인 모델 인터 예측부(1710), 인터 예측 샘플 결정부(1720) 및 복원부(1730)는 복호화기(1650)의 인터 예측 복호화부(1670)에 대응될 수 있다.
비디오 복호화 장치(1700)는 영상의 부호화 결과 생성된 비트스트림을 수신한다. 비트스트림은 현재 픽쳐에 대한 정보를 포함할 수 있다. 픽쳐은 하나 이상의 최대 부호화 단위를 포함할 수 있다. 비디오 복호화 장치(1700)는, 비트스트림으로부터 획득된 정보에 기초하여 픽쳐 내에서 현재 블록의 위치를 결정할 수 있다. 현재 블록은 픽쳐로부터 트리 구조에 따라 분할되어 생성되는 블록으로서, 예를 들어, 최대 부호화 단위 또는 부호화 단위에 대응할 수 있다. 비디오 복호화 장치(1700)는, 현재 블록이 하위 뎁스의 하위 블록으로 더 분할될지 여부를 결정하며, 현재 블록의 트리 구조를 결정할 수 있다. 현재 블록의 현재 뎁스에 비해, 현재 블록으로부터 하위 블록까지 분할된 횟수만큼 증가하여 하위 뎁스가 결정될 수 있다. 현재 픽쳐에 포함된 트리 구조를 이루고 있는 블록들 중에서 트리 리프에 위치하는 블록들은 더 이상 분할되지 않는 블록들이다. 따라서 비디오 복호화 장치(1700)는, 더 이상 분할되지 않는 하나 이상의 블록들에 대해 역양자화, 역변환, 예측을 수행함으로써 블록들을 복호화할 수 있다.
비디오 복호화 장치(1700)는 현재 블록에 대해 예측을 수행하여 현재 블록의 예측 샘플들을 생성할 수 있다. 비디오 복호화 장치(1700)는 현재 블록에 대해 역변환을 수행하여 상기 현재 블록의 레지듀얼 샘플들을 생성할 수 있다. 복원부(1730)는 현재 블록의 예측 샘플들과 현재 블록의 레지듀얼 샘플들을 이용하여 현재 블록의 복원 샘플들을 생성할 수 있다. 비디오 복호화 장치(1700)는 블록들마다 샘플들을 복원함으로써 현재 픽쳐를 복원할 수 있다.
예를 들어, 현재 블록의 예측 모드가 인트라 모드인 경우에 비디오 복호화 장치(1700)는 현재 블록의 인트라 예측 정보를 이용하여 인트라 예측 방향에 위치한 공간적 이웃 블록의 샘플들 중 참조 샘플을 결정하고, 참조 샘플을 이용하여 현재 블록에 대응하는 예측 샘플들을 결정할 수 있다.
예를 들어, 현재 블록의 예측 모드가 인터 모드인 경우에 비디오 복호화 장치(1700)는 현재 블록의 움직임 벡터를 이용하여 현재 블록을 복원할 수 있다. 비디오 복호화 장치(1700)는, 현재 블록의 움직임 벡터를 이용하여 참조 픽쳐 내의 참조 블록을 결정하고, 참조 블록에 포함된 참조 샘플들로부터 현재 블록에 대응하는 예측 샘플들을 결정할 수 있다. 비디오 복호화 장치(1700)는 비트스트림으로부터 획득한 변환 계수 레벨을 이용하여 변환 계수들을 복원하고, 변환 계수들에 대해 역양자화 및 역변환을 수행하여 레지듀얼 샘플들을 복원할 수 있다. 비디오 복호화 장치(1700)는 현재 블록에 대응하는 예측 샘플들과 레지듀얼 샘플들을 조합하여 현재 블록의 복원 샘플들을 결정할 수 있다.
현재 블록이 스킵 모드로 예측되는 경우, 비디오 복호화 장치(1700)는 비트스트림으로부터 현재 블록의 변환 계수들을 파싱할 필요가 없다. 비디오 복호화 장치(1700)는 현재 블록의 예측 샘플들을 그대로 이용하여 현재 블록의 복원 샘플들을 결정할 수 있다.
특히, 현재 블록이 어파인 모델 기반의 인터 예측이 수행되는 경우에 어파인 모델 인터 예측부(1710)가 호출될 수 있다. 일 실시예에 따른 비디오 복호화 장치(1700)는 비스트림으로부터 현재 블록의 인터 예측 모드가 머지 모드인지 나타내는 머지 모드 플래그를 획득하고, 머지 모드 플래그가 머지 모드를 나타내면, 현재 블록의 예측 샘플을 생성하기 위해 어파인 모델에 기초한 움직임 보상이 수행되는지 나타내는 어파인 플래그를 비트스트림으로부터 획득할 수 있다. 어파인 플래그가 어파인 모델에 기초한 움직임 보상이 수행됨을 나타내면, 일 실시예에 따른 비디오 복호화 장치(1700)는 어파인 모델 인터 예측부(1710)를 호출하고, 일 실시예에 따른 어파인 모델 인터 예측부(1710)는 현재 블록의 코너별로 대표하는 이웃 블록들의 블록 그룹에 포함된 이웃 블록들의 움직임 벡터들을 이용하여 결정된 컨트롤 포인트 움직임 벡터들에 대응하는 컨트롤 포인트 기반의 어파인 머지 후보(control point-based affine merge candidate)를 포함하는 어파인 머지 후보 리스트를 생성할 수 있다.
구체적으로, 현재 블록의 인터 예측이 어파인 머지 모드로 수행되는 경우에, 일 실시예에 따른 어파인 모델 인터 예측부(1710)는 컨트롤 포인트 기반의 컨트롤 포인트 기반의 어파인 머지 후보를 구성하기 이전에, 모델 기반의 어파인 머지 후보(model-based affine merge candidate)를 포함하는 어파인 머지 후보 리스트를 생성할 수 있다. 모델 기반의 어파인 머지 후보는, 현재 블록에 인접하는 소정 위치의 이웃 블록들 중에서 이용가능한 이웃 블록의 어파인 움직임 벡터에 따라 결정된 컨트롤 포인트 움직임 벡터들에 대응하는 머지 후보를 나타낸다. 즉, 현재 블록보다 먼저 복호화된 이웃 블록들이 모델 기반의 어파인 머지 후보들로 결정될 수 있다. 이웃 블록의 움직임 정보가 이용 가능한 경우에 해당 이웃 블록에 대응하는 모델 기반의 어파인 머지 후보도 이용 가능한 상태로 설정된다. 반대로 이웃 블록의 움직임 정보가 이용 가능하지 않은 경우에 해당 이웃 블록에 대응하는 모델 기반의 어파인 머지 후보도 이용 가능하지 않은 상태로 설정된다. 다만, 이용 가능한 모델 기반의 어파인 머지 후보의 개수가 소정 개수보다 적은 경우에, 어파인 모델 인터 예측부(1710)는 현재 블록의 코너별로 대표하는 이웃 블록들의 그룹에 대응하는 컨트롤 포인트 기반의 어파인 머지 후보를 결정하여, 컨트롤 포인트 기반의 어파인 머지 후보를 어파인 머지 후보 리스트에 추가할 수 있다. 소정 개수는 어파인 머지 후보 리스트에 포함되도록 허용되는 어파인 머지 후보의 최대 개수이며, 예를 들어 5개로 설정될 수 있다.
따라서, 모델 기반의 어파인 머지 후보는 하나의 이웃 블록으로부터 파생된 대응하는 머지 후보이며, 컨트롤 포인트 기반의 어파인 머지 후보는 둘 이상의 이웃 블록들의 어파인 모델들의 조합으로부터 파생된 머지 후보일 수 있다. 현재 블록의 어파인 머지 후보 리스트에 이용가능한 모델 기반의 어파인 머지 후보가 포함될 수 있는데, 현재 블록의 유효한 어파인 머지 후보가 소정 개수보다 적으면, 모자란 개수만큼 컨트롤 포인트 기반의 어파인 머지 후보가 어파인 머지 후보 리스트에 추가될 수 있다.
일 실시예에 따른 어파인 모델 인터 예측부(1710)는, 어파인 머지 후보 리스트 중에서 선택된 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 어파인 움직임 벡터를 결정할 수 있다. 비트스트림으로부터 획득된 어파인 머지 인덱스를 이용하여, 어파인 모델 인터 예측부(1710)는, 어파인 머지 후보 리스트 중에서 어파인 머지 인덱스가 가리키는 머지 후보의 컨트롤 포인트 움직임 벡터를 결정할 수 있다. 어파인 모델 인터 예측부(1710)는, 컨트롤 포인트 움직임 벡터를 이용하여 현재 블록의 어파인 모션 모델 파라미터를 결정하고, 현재 블록의 어파인 모션 모델 파라미터를 이용하여 현재 블록의 어파인 움직임 벡터를 결정할 수도 있다. 어파인 모델 인터 예측부(1710)는, 현재 블록의 어파인 움직임 벡터가 가리키는 참조 샘플을 이용하여, 현재 블록의 예측 샘플들을 획득할 수 있다.
어파인 머지 후보 리스트 중에서 모델 기반의 어파인 머지 후보가 선택될 때, 모델 기반의 어파인 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터들을 하나의 이웃 블록의 어파인 모델을 이용하여 결정된 것으로, 일 실시예에 따른 어파인 모델 인터 예측부(1710)는, 모델 기반의 어파인 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터들을 현재 블록의 어파인 움직임 벡터를 결정할 수 있다.
어파인 머지 후보 리스트 중에서 컨트롤 포인트 기반의 어파인 머지 후보가 선택될 때, 컨트롤 포인트 기반의 어파인 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터는 대응되는 블록 그룹에 포함된 이웃 블록들을 현재 블록의 컨트롤 포인트들을 이용하여 결정된 것으로, 일 실시예에 따른 어파인 모델 인터 예측부(1710)는, 컨트롤 포인트 기반의 어파인 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 어파인 움직임 벡터가 결정될 수 있다.
구체적으로, 어파인 머지 후보 리스트 중에서 모델 기반의 어파인 머지 후보가 선택되는 경우에, 모델 기반의 어파인 머지 후보에 대응하는 하나의 이웃 블록의 수직 변화량, 수평 변화량 및 움직임 벡터를 이용하여 현재 블록의 컨트롤 포인트들에 대응하는 컨트롤 포인트 움직임 벡터들이 결정될 수 있다. 더 구체적으로, 이웃 블록의 참조 인덱스, 예측 방향(L0-pred, L1-pred 또는 Bi-pred) 및 움직임 벡터를 이용하여, 모델 기반의 어파인 머지 후보에 대응하는 참조 인덱스, 예측 방향 및 컨트롤 포인트 움직임 벡터들이 각각 결정될 수 있다. 어파인 머지 후보에 대응하는 참조 인덱스, 예측 방향 및 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 참조 인덱스, 예측 방향 및 어파인 움직임 벡터가 각각 결정될 수 있다.
구체적으로, 어파인 머지 후보 리스트 중에서 컨트롤 포인트 기반의 어파인 머지 후보가 선택되는 경우에, 현재 블록의 컨트롤 포인트들에 인접하는 이웃 블록들의 움직임 벡터들을 이용하여 컨트롤 포인트 움직임 벡터들이 결정되고, 선택된 어파인 머지 후보에 따라 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 어파인 움직임 벡터가 결정될 수 있다. 더 구체적으로, 블록 그룹에 속한 대표 이웃 블록들의 참조 인덱스, 예측 방향 및 움직임 벡터를 이용하여, 어파인 머지 후보에 대응하는 참조 인덱스, 예측 방향 및 컨트롤 포인트 움직임 벡터들이 각각 결정될 수 있다. 어파인 머지 후보에 대응하는 참조 인덱스, 예측 방향 및 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 참조 인덱스, 예측 방향 및 어파인 움직임 벡터가 각각 결정될 수 있다.
일 실시예에 따른 비디오 복호화 장치(1700)는 SUCO(Split Unit Coding Order) 방식에 따라 좌우로 인접하는 부호화 단위 간에 부호화 순서를 변경할 수 있다. 예를 들어, 비디오 복호화 장치(1700)가 하위 부호화 순서의 방향을 나타내는 부호화 순서 플래그를 비트스트림으로부터 획득할 수 있다. 부호화 순서 플래그가 좌우 방향(left to right)을 나타내는 경우에, 현재 부호화 단위가 분할되어 생성된 좌우로 인접하는 하위 부호화 단위들 중에서 좌측 하위 부호화 단위가 먼저 복호화되고 우측 하위 부호화 단위가 나중에 복호화될 수 있다. 부호화 순서 플래그가 우좌 방향(right to left)을 나타내는 경우에, 우측 하위 부호화 단위가 먼저 복호화되고 좌측 하위 부호화 단위가 나중에 복호화될 수 있다.
구체적인 예로, 현재 블록의 우측 블록이 먼저 복호화되어 이용 가능한 경우에, 현재 블록의 우하측 코너에 인접하는 대표 이웃 블록은, 현재 블록의 우하측 코너 및 현재 블록의 우측 외곽선에 인접하는 이웃 블록 및 현재 블록의 우하측 코너에 대각선 방향으로 인접하는 이웃 블록 중에서, 이용 가능한 움직임 정보가 획득되는 이웃 블록을 대표 이웃 블록으로 결정될 수 있다. 이웃 블록 C1, 이웃 블록 C0의 순서로 해당 블록에서 이용 가능한 움직임 정보가 획득되는지가 확인되고, 먼저 이용 가능한 블록이 BR 대표 이웃 블록으로 결정될 수 있다.
다만, 현재 블록의 우측 블록이 이용 가능하지 않은 경우에, 현재 블록의 우하측 코너에 인접하는 대표 이웃 블록은, 현재 블록의 우하측 코너에 대각선 방향으로 인접하는 지점에 위치하는 콜로케이티드 블록일 수 있다. 콜로케이티드 블록은 콜로케이티드 픽쳐에 포함된 블록으로서, 시간적 머지 후보로서 어파인 머지 후보 리스트에 포함될 수 있다.
다른 예로, 현재 블록의 우측 블록이 먼저 복호화되어 이용 가능한 경우에, 현재 블록의 우하측 코너에 인접하는 BR 대표 이웃 블록은, 현재 블록의 우하측 코너 및 현재 블록의 우측 외곽선에 인접하는 이웃 블록 C1, 현재 블록의 우하측 코너에 대각선 방향으로 인접하는 이웃 블록 C0, 및 현재 블록의 우하측 코너에 대각선 방향으로 인접하는 지점에 위치하는 콜로케이티드 블록 Col 중 먼저 움직임 정보가 이용 가능한 블록이 대표 이웃 블록으로 결정될 수 있다. 이웃 블록 C1, 이웃 블록 C0, 콜로케이티드 블록 Col의 순서로 해당 블록에서 이용 가능한 움직임 정보가 획득되는지가 확인되고, 먼저 이용 가능한 블록이 BR 대표 이웃 블록으로 결정될 수 있다.
콜로케이티드 블록은 콜로케이티드 픽쳐에 포함된 블록으로서, 시간적 머지 후보로서 어파인 머지 후보 리스트에 포함될 수 있다. 현재 블록의 우하측 코너에 인접하는 콜로케이티드 블록은, 콜로케이티드 픽쳐 내에서 현재 블록의 우하측 코너에 대응하는 좌표에 위치 블록일 수 있다.
일 실시예에 따른 비디오 복호화 장치(1700)는 어파인 머지 후보 리스트에 유효한 머지 후보를 포함시키기 위해 이웃 블록의 움직임 정보의 이용 가능성을 확인할 필요가 있다. 이미 블록에 대한 움직임 예측이 수행되어 이용 가능한 움직임 정보를 가지는 이웃 블록으로부터 유효한 머지 후보가 결정될 수 있기 때문이다. 일반적으로 현재 블록보다 먼저 움직임 예측이 수행된 이웃 블록은 현재 블록의 예측을 위해 이용 가능한 상태이다. 구체적으로 현재 블록의 좌측 이웃 블록에 대해 현재 블록보다 먼저 움직임 예측이 수행된경우에, 좌측 이웃 블록의 움직임 정보는 이용 가능한 상태이다. 현재 블록의 우측 이웃 블록에 대해 현재 블록보다 먼저 움직임 예측이 수행된 경우에, 우측 이웃 블록의 움직임 정보는 이용 가능한 상태이다. 반대로, 현재 블록의 좌측 이웃 블록에 대해 움직임 예측이 수행되지 않은 경우에, 좌측 이웃 블록의 움직임 정보가 이용 가능하지 않은 상태이다. 현재 블록의 우측 이웃 블록에 대해 움직임 예측이 수행되지 않은 경우에, 우측 이웃 블록의 움직임 정보가 이용 가능하지 않은 상태이다.
앞서 전술한 부호화 순서에 따라 이웃 블록의 좌측 이웃 블록들뿐만 아니라 우측 이웃 블록들이 먼저 복호화되어 있을 수 있으므로, 일 실시예에 따른 비디오 복호화 장치(1700)는 부호화 순서를 고려하여 어파인 머지 후보 리스트를 결정할 필요가 있다.
일 실시예에 따른 어파인 모델 인터 예측부(1710)는 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 현재 블록의 기본 움직임 벡터를 획득할 수 있다. 일 실시예에 따른 기본 움직임 벡터는 앞서 설명한 도 38의 컨트롤 포인트 CP0의 움직임 벡터일 수 있다. CP0는 이웃 블록들 B2, B3, A2의 순서로 이웃 블록들의 움직임 정보의 이용 가능성을 확인한 후, 먼저 이용 가능함이 확인되는 이웃 블록의 움직임 정보를 이용하여 CP0의 움직임 정보가 결정될 수 있다.
일 실시예에 따른 인터 예측 샘플 결정부(1720)는, 기본 움직임 벡터를 이용하여 현재 블록의 중앙 움직임 벡터를 결정할 수 있다. 인터 예측 샘플 결정부(1720)는, 현재 블록의 크기에 기초하여 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정할 수 있다. 이 때 현재 블록의 참조 픽쳐에서 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 참조 범위의 크기를 가지는 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 참조 영역을 현재 픽쳐 내부로 평행이동시킴으로써 참조 영역을 변경할 수 있다.
인터 예측 샘플 결정부(1720)는, 참조 픽쳐 중 변경된 참조 영역 내에서 현재 블록의 서브 블록들의 예측 샘플들을 결정할 수 있다. 서브 블록은 블록 단위일 수도 있고, 샘플 단위일 수 있다.
일 실시예에 따른 복원부(1730)는 현재 블록의 예측샘플들을 이용하여 현재 블록의 복원 샘플들을 결정할 수 있다.
이하, 도 18을 참조하여 현재 블록의 참조 픽쳐에서 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 참조 영역을 변경하는 방법에 대해 상술한다.
도 18은 일 실시예에 따른 비디오 복호화 방법의 흐름도를 도시한다.
단계 1810에서, 어파인 모델 인터 예측부(1710)는 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 현재 블록의 기본 움직임 벡터를 획득하고, 인터 예측 샘플 결정부(1720)는 현재 블록의 기본 움직임 벡터를 이용하여 현재 블록의 중앙 움직임 벡터를 결정할 수 있다. 현재 블록의 기본 움직임 벡터에 대한 어파인 변환을 통해 현재 블록의 중앙 움직임 벡터가 결정될 수 있다. 구체적으로, 현재 블록의 컨트롤 포인트 움직임 벡터들로부터 어파인 움직임 모델 파라미터들이 결정될 수 있으며, 어파인 움직임 모델 파라미터들은 현재 블록의 어파인 움직임 벡터의 수평 변화량 및 수직 변화량을 포함할 수 있다. 기본 움직임 벡터가 현재 블록의 좌상측 모서리 지점의 움직임 벡터인 경우에, 좌상측 모서리 지점으로부터 현재 블록의 중앙까지의 거리에 따라 스케일된 어파인 움직임 벡터의 수평 변화량 및 수직 변화량을 기본 움직임 벡터에 더함으로써, 현재 블록의 중앙 움직임 벡터가 결정될 수 있다.
단계 1820에서 인터 예측 샘플 결정부(1720)는 현재 블록의 크기에 기초하여 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정할 수 있다.
단계 1830에서, 인터 예측 샘플 결정부(1720)는 현재 블록의 참조 픽쳐에서 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 참조 범위의 크기를 가지는 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 참조 영역을 현재 픽쳐 내부로 평행이동시킴으로써 참조 영역을 변경할 수 있다.
여기서 참조 픽쳐는 실제 픽쳐일 수 있고, 타일, 슬라이스 또는 타일 그룹일 수도 있다. 참조 픽쳐는 복원샘플들을 포함하는 픽쳐 내부와 외부에 특정 크기로 패딩된 영역까지 포괄하는 영역일 수 있다.
단계 1840에서, 인터 예측 샘플 결정부(1720)는 참조 픽쳐 중 변경된 참조 영역 내에서 현재 블록의 서브 블록들의 예측 샘플들을 결정할 수 있다.
단계 1850에서, 복원부(1730)는 현재 블록의 예측샘플들을 이용하여 현재 블록의 복원 샘플들을 결정할 수 있다.
구체적인 예로 단계 1830에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역의 좌측 경계의 x축 좌표를 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 참조 영역의 우측 경계의 x축 좌표를 현재 픽쳐의 좌측 경계의 x축 좌표에 참조 범위를 더한 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 좌측 경계를 포함하는 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역을 우측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 1830에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 현재 픽쳐의 우측 경계의 x축 좌표보다 큰 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역의 우측 경계의 x축 좌표를 현재 픽쳐의 우측 경계의 x축 좌표로 변경하고, 참조 영역의 좌측 경계의 x축 좌표를 현재 픽쳐의 우측 경계의 x축 좌표에서 참조 범위를 뺀 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 우측 경계를 포함하는 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역을 좌측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 1830에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역의 상측 경계의 y축 좌표를 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 참조 영역의 하측 경계의 y축 좌표를 현재 픽쳐의 상측 경계의 y축 좌표에 참조 범위를 더한 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 상측 경계를 포함하는 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역을 하측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 1830에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 상기 현재 픽쳐의 하측 경계의 y축 좌표보다 큰 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역의 하측 경계의 y축 좌표를 현재 픽쳐의 하측 경계의 y축 좌표로 변경하고, 참조 영역의 상측 경계의 y축 좌표를 현재 픽쳐의 하측 경계의 y축 좌표에서 참조 범위를 뺀 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 하측 경계를 포함하는 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역을 상측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 1830에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역의 좌측 경계의 x축 좌표를 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 참조 영역의 우측 경계의 x축 좌표를 현재 픽쳐의 좌측 경계의 x축 좌표에 참조 범위를 더한 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 좌측 경계를 아예 벗어나서 참조 픽쳐의 외부에 위치하는 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역을 우측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 1830에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 현재 픽쳐의 우측 경계의 x축 좌표보다 큰 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역의 좌측 경계의 x축 좌표를 현재 픽쳐의 우측 경계의 x축 좌표로 변경하고, 참조 영역의 우측 경계의 x축 좌표를 현재 픽쳐의 우측 경계의 x축 좌표에서 참조 범위를 뺀 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 우측 경계를 아예 벗어나서 참조 픽쳐의 외부에 위치하는 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역을 좌측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 1830에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역의 상측 경계의 y축 좌표를 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 참조 영역의 하측 경계의 y축 좌표를 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 더한 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 상측 경계를 아예 벗어나서 참조 픽쳐의 외부에 위치하는 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역을 하측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 1830에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 현재 픽쳐의 하측 경계의 y축 좌표보다 큰 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역의 상측 경계의 y축 좌표를 현재 픽쳐의 하측 경계의 y축 좌표로 변경하고, 참조 영역의 하측 경계의 y축 좌표를 현재 픽쳐의 하측 경계의 y축 좌표에서 참조 범위를 뺀 값으로변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 하측 경계를 아예 벗어나서 참조 픽쳐의 외부에 위치하는 경우에, 인터 예측 샘플 결정부(1720)는 참조 영역을 상측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
도 19은 일 실시예에 따른 비디오 부호화 장치의 블록도를 도시한다.
도 19을 참조하면, 일 실시예에 따른 비디오 부호화 장치(1900)는 어파인 모드 예측부(1910) 및 부호화부(1920)를 포함할 수 있다.
일 실시예에 따른 정보 부호화부(1910)는, 제한된 인트라 예측 모드가 활성화되는지 여부를 나타내는 제한된 예측 정보를 생성하고, 제한된 에측 정보에 대해 엔트로피 부호화를 수행하여 비트스트림의 형태로 출력할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)는 픽쳐를 하나 이상의 루마부호화 단위들로 분할하고, 부호화 단위들을 부호화할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)는, 어파인 모델 인터 예측부(1910), 인터 예측 샘플 결정부(1920) 및 부호화부(1930)를 제어하는 중앙 프로세서(미도시)를 포함할 수 있다. 또는, 어파인 모델 인터 예측부(1910), 인터 예측 샘플 결정부(1920) 및 부호화부(1930)가 각각의 자체 프로세서(미도시)에 의해 작동되며, 프로세서(미도시)들이 상호 유기적으로 작동함에 따라 비디오 부호화 장치(1900)가 전체적으로 작동될 수도 있다. 또는, 비디오 부호화 장치(1900)의 외부 프로세서(미도시)의 제어에 따라, 어파인 모드 예측부(1910) 및 부호화부(1920)가 제어될 수도 있다.
비디오 부호화 장치(1900)는, 어파인 모델 인터 예측부(1910), 인터 예측 샘플 결정부(1920) 및 부호화부(1930)의 입출력 데이터가 저장되는 하나 이상의 데이터 저장부(미도시)를 포함할 수 있다. 비디오 부호화 장치(1900)는, 데이터 저장부(미도시)의 데이터 입출력을 제어하는 메모리 제어부(미도시)를 포함할 수도 있다.
비디오 부호화 장치(1900)는, 영상 부호화를 위해, 내부에 탑재된 비디오 인코딩 프로세서 또는 외부의 비디오 인코딩 프로세서와 연계하여 작동함으로써, 예측을 포함한 영상 부호화 동작을 수행할 수 있다. 일 실시예에 따른 비디오 부호화 장치(1900)의 내부 비디오 인코딩 프로세서는, 별개의 프로세서뿐만 아니라, 중앙 연산 장치 또는 그래픽 연산 장치가 영상 인코딩 프로세싱 모듈을 포함함으로써 기본적인 영상 부호화 동작을 구현할 수도 있다.
비디오 부호화 장치(1900)는 도 16을 참조하여 전술한 영상 부호화 및 복호화 시스템의 부호화기(1600)에 대응될 수 있다. 예를 들어, 부호화부(1920)는 부호화기(1600)의 엔트로피 부호화부(1630)에 대응될 수 있다. 어파인 모델 인터 예측부(1910) 및 인터 예측 샘플 결정부(1920)는 부호화기(1600)의 인터 예측부(1605)에 대응될 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)는, 픽쳐를 복수 개의 최대 부호화 단위들로 분할하고, 각 최대 부호화 단위를 다양한 크기 및 다양한 형태의 블록들로 분할하여 부호화할 수 있다.
예를 들어, 현재 블록의 예측 모드가 인트라 모드인 경우에 비디오 부호화 장차(1900)는 현재 블록의 현재 블록의 인트라 예측 방향에 위치한 공간적 이웃 블록의 샘플들 중 참조 샘플을 결정하고, 참조 샘플을 이용하여 현재 블록에 대응하는 예측 샘플들을 결정할 수 있다.
예를 들어, 현재 블록이 스킵 모드로 예측되는 경우에 비디오 부호화 장차(1900)는 현재 블록을 예측하기 위한 움직임 벡터를 결정할 수 있다. 비디오 부호화 장차(1900)는, 참조 픽쳐 내에서 현재 블록의 참조 블록을 결정하고, 현재 블록으로부터 참조 블록을 가리키는 움직임 벡터를 결정할 수 있다. 스킵 모드인 경우는 레지듀얼 블록의 부호화가 필요 없다.
예를 들어, 현재 블록의 예측 모드가 인터 모드인 경우에 비디오 부호화 장차(1900)는 현재 블록을 예측하기 위한 움직임 벡터를 결정할 수 있다. 비디오 부호화 장차(1900)는, 참조 픽쳐 내의 현재 블록의 참조 블록을 결정하고, 현재 블록으로부터 참조 블록을 가리키는 움직임 벡터를 결정할 수 있다. 비디오 부호화 장차(1900)는, 참조 블록에 포함된 참조 샘플들로부터 현재 블록 간의 레지듀얼 샘플을 결정하고, 레지듀얼 샘플에 대해 변환단위를 기초로 변환 및 양자화를 수행함으로써, 양자화된 변환 계수를 생성할 수 있다.
현재 블록은 영상으로부터 트리 구조에 따라 분할되어 생성되는 블록으로서, 예를 들어, 최대 부호화 단위, 부호화 단위 또는 변환 단위에 대응할 수 있다. 비디오 부호화 장치(1900)는, 픽쳐에 포함된 블록들을 부호화 순서에 따라 부호화할 수 있다.
특히, 현재 블록이 어파인 모델 기반의 인터 예측이 수행되는 경우에 어파인 모델 인터 예측부(1910)가 호출될 수 있다. 어파인 모델 인터 예측부(1910)는 현재 블록의 코너별로 대표하는 이웃 블록들의 블록 그룹에 포함된 이웃 블록들의 움직임 벡터들을 이용하여 결정된 컨트롤 포인트 움직임 벡터들에 대응하는 컨트롤 포인트 기반의 어파인 머지 후보를 포함하는 어파인 머지 후보 리스트를 생성할 수 있다.
구체적으로, 현재 블록의 인터 예측이 어파인 머지 모드로 수행되는 경우에, 일 실시예에 따른 어파인 모델 인터 예측부(1910)는 컨트롤 포인트 기반의 어파인 머지 후보를 구성하기 이전에, 모델 기반의 어파인 머지 후보를 포함하는 어파인 머지 후보 리스트를 생성할 수 있다. 현재 블록보다 먼저 이웃 블록에 대해 움직임 예측이 수행되어 이웃 블록의 움직임 정보가 이용 가능한 경우에 이웃 블록에 대응하는 모델 기반의 어파인 머지 후보가 어파인 머지 후보 리스트에 포함될 수 있다. 이웃 블록의 움직임 정보가 이용 가능한 경우에 해당 이웃 블록에 대응하는 모델 기반의 어파인 머지 후보도 이용 가능한 상태로 설정된다. 반대로 이웃 블록의 움직임 정보가 이용 가능하지 않은 경우에 해당 이웃 블록에 대응하는 모델 기반의 어파인 머지 후보도 이용 가능하지 않은 상태로 설정된다. 다만, 이용 가능한 모델 기반의 어파인 머지 후보의 개수가 소정 개수보다 적은 경우에, 어파인 모델 인터 예측부(1910)는 현재 블록의 코너별로 대표하는 이웃 블록들의 그룹에 대응하는 컨트롤 포인트 기반의 어파인 머지 후보를 결정하여, 컨트롤 포인트 기반의 어파인 머지 후보를 어파인 머지 후보 리스트에 추가할 수 있다. 소정 개수는 어파인 머지 후보 리스트에 포함되도록 허용되는 어파인 머지 후보의 최대 개수이며, 예를 들어 5개로 설정될 수 있다.
따라서, 현재 블록의 어파인 머지 후보 리스트에 이용 가능한 모델 기반의 어파인 머지 후보가 포함될 수 있는데, 현재 블록의 유효한 어파인 머지 후보가 소정 개수보다 적으면, 모자란 개수만큼 컨트롤 포인트 기반의 어파인 머지 후보가 어파인 머지 후보 리스트에 추가될 수 있다.
일 실시예에 따른 어파인 모델 인터 예측부(1910)는, 어파인 머지 후보 리스트에 포함된 머지 후보들 중에서 현재 블록의 어파인 움직임 벡터를 표현하기에 가장 에러가 작은 머지 후보를 선택할 수 있다. 어파인 모델 인터 예측부(1910)는, 어파인 머지 후보 리스트 중에서 선택된 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 어파인 움직임 벡터를 결정할 수 있다. 어파인 모델 인터 예측부(1910)는, 컨트롤 포인트 움직임 벡터를 이용하여 현재 블록의 어파인 모션 모델 파라미터를 결정하고, 현재 블록의 어파인 모션 모델 파라미터를 이용하여 현재 블록의 어파인 움직임 벡터를 결정할 수 있다. 현재 블록의 어파인 움직임 벡터가 가리키는 참조 샘플을 이용하여, 현재 블록의 예측 샘플들이 결정될 수 있다.
어파인 머지 후보 리스트 중에서 모델 기반의 어파인 머지 후보가 선택될 때, 모델 기반의 어파인 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터들을 하나의 이웃 블록의 어파인 모델을 이용하여 결정될 수 있다. 모델 기반의 어파인 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 어파인 움직임 벡터가 표현될 수 있다.
어파인 머지 후보 리스트 중에서 컨트롤 포인트 기반의 어파인 머지 후보가 선택될 때, 컨트롤 포인트 기반의 어파인 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터는 대응되는 블록 그룹에 포함된 이웃 블록들을 현재 블록의 컨트롤 포인트들을 이용하여 결정될 수 있다. 컨트롤 포인트 기반의 어파인 머지 후보에 대응하는 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 어파인 움직임 벡터가 표현될 수 있다. 구체적으로, 어파인 머지 후보 리스트 중에서 모델 기반의 어파인 머지 후보가 선택되는 경우에, 모델 기반의 어파인 머지 후보에 대응하는 하나의 이웃 블록의 수직 변화량, 수평 변화량 및 움직임 벡터를 이용하여 현재 블록의 컨트롤 포인트들에 대응하는 컨트롤 포인트 움직임 벡터들이 결정될 수 있다. 더 구체적으로, 이웃 블록의 참조 인덱스, 예측 방향 및 움직임 벡터를 이용하여, 모델 기반의 어파인 머지 후보에 대응하는 참조 인덱스, 예측 방향 및 컨트롤 포인트 움직임 벡터들이 각각 결정될 수 있다. 어파인 머지 후보에 대응하는 참조 인덱스, 예측 방향 및 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 참조 인덱스, 예측 방향 및 어파인 움직임 벡터가 각각 결정될 수 있다.
구체적으로, 어파인 머지 후보 리스트 중에서 컨트롤 포인트 기반의 어파인 머지 후보가 선택되는 경우에, 현재 블록의 컨트롤 포인트들에 인접하는 이웃 블록들의 움직임 벡터들이 컨트롤 포인트 움직임 벡터들로 결정되고, 현재 블록의 어파인 모델에 따라 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 어파인 움직임 벡터가 결정될 수 있다. 더 구체적으로, 블록 그룹에 속한 대표 이웃 블록 들의 참조 인덱스, 예측 방향 및 움직임 벡터를 이용하여, 어파인 머지 후보에 대응하는 참조 인덱스, 예측 방향 및 컨트롤 포인트 움직임 벡터들이 각각 결정될 수 있다. 어파인 머지 후보에 대응하는 참조 인덱스, 예측 방향 및 컨트롤 포인트 움직임 벡터들을 이용하여 현재 블록의 참조 인덱스, 예측 방향 및 어파인 움직임 벡터가 각각 결정될 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)는 SUCO 방식에 따라 좌우로 인접하는 부호화 단위 간에 부호화 순서를 변경할 수 있다. 부호화부(1930)는 하위 부호화 순서의 방향을 나타내는 부호화 순서 플래그를 부호화할 수 있다. 현재 부호화 단위가 분할되어 생성된 좌우로 인접하는 하위 부호화 단위들 중에서 좌측 하위 부호화 단위가 먼저 부호화되고 우측 하위 부호화 단위가 나중에 부호화된 경우에, 좌우(left to right) 방향을 나타내도록 부호화 순서 플래그가 부호화될 수 있다. 우측 하위 부호화 단위가 먼저 부호화되고 좌측 하위 부호화 단위가 나중에 부호화된 경우에, 우좌(right to left) 방향을 나타내도록 부호화 순서 플래그가 부호화될 수 있다.
구체적인 예로, 현재 블록의 우측 블록이 먼저 부호화되어 이용 가능한 경우에, 현재 블록의 우하측 코너에 인접하는 대표 이웃 블록은, 현재 블록의 우하측 코너 및 현재 블록의 우측 외곽선에 인접하는 이웃 블록 및 현재 블록의 우하측 코너에 대각선 방향으로 인접하는 이웃 블록 중 이용 가능한 움직임 정보가 획득되는 블록일 수 있다. 이웃 블록 C1, 이웃 블록 C0의 순서로 이용 가능한 움직임 정보가 획득되는지가 확인되고, 먼저 이용 가능한 움직임 정보가 획득되는 블록이 BR 대표 이웃 블록으로 결정될 수 있다. 다만, 현재 블록의 우측 블록이 이용 가능하지 않은 경우에, 현재 블록의 우하측 코너에 인접하는 대표 이웃 블록은, 현재 블록의 우하측 코너에 대각선 방향으로 인접하는 지점에 위치하는 콜로케이티드 블록일 수 있다. 콜로케이티드 블록은 콜로케이티드 픽쳐에 포함된 블록으로서, 시간적 머지 후보로서 어파인 머지 후보 리스트에 포함될 수 있다.
다른 예로, 현재 블록의 우측 블록이 먼저 복호화되어 이용 가능한 경우에, 현재 블록의 우하측 코너에 인접하는 BR 대표 이웃 블록은, 현재 블록의 우하측 코너 및 현재 블록의 우측 외곽선에 인접하는 이웃 블록 C1, 현재 블록의 우하측 코너에 대각선 방향으로 인접하는 이웃 블록 C0, 및 현재 블록의 우하측 코너에 대각선 방향으로 인접하는 지점에 위치하는 콜로케이티드 블록 Col 중 이용 가능한 움직임 정보가 획득되는 블록일 수 있다. 이웃 블록 C1, 이웃 블록 C0, 콜로케이티드 블록 Col의 순서로 이용 가능한 움직임 정보가 획득되는지가 확인되고, 먼저 이용 가능한 움직임 정보가 획득되는 블록이 BR 대표 이웃 블록으로 결정될 수 있다.
콜로케이티드 블록은 콜로케이티드 픽쳐에 포함된 블록으로서, 시간적 머지 후보로서 어파인 머지 후보 리스트에 포함될 수 있다. 현재 블록의 우하측 코너에 인접하는 콜로케이티드 블록은, 콜로케이티드 픽쳐 내에서 현재 블록의 우하측 코너에 대응하는 좌표에 위치 블록일 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)는 어파인 머지 후보 리스트에 유효한 머지 후보를 포함시키기 위해 이웃 블록의 움직임 정보의 이용 가능성을 확인할 필요가 있다. 이미 움직임 예측이 수행되어 이용 가능한 움직임 정보가 획득되는 이웃 블록으로부터 유효한 머지 후보가 결정될 수 있기 때문이다. 일반적으로 현재 블록보다 먼저 움직임 예측이 수행된 이웃 블록은 현재 블록의 예측을 위해 이용 가능한 상태이다. 구체적으로 현재 블록의 좌측 이웃 블록에 대해 현재 블록보다 먼저 움직임 예측이 수행된 경우에, 좌측 이웃 블록의 움직임 정보는 이용 가능한 상태이다. 현재 블록의 우측 이웃 블록에 대해 현재 블록보다 먼저 움직임 예측이 수행된 경우에, 우측 이웃 블록의 움직임 정보는 이용 가능한 상태이다. 반대로, 현재 블록의 좌측 이웃 블록에 대해 움직임 예측이 수행되지 않은 경우에, 좌측 이웃 블록의 움직임 정보가 이용 가능하지 않은 상태이다. 현재 블록의 우측 이웃 블록에 대해 움직임 예측이 수행되지 않은 경우에, 우측 이웃 블록의 움직임 정보는 이용 가능하지 않은 상태이다.
앞서 전술한 부호화 순서에 따라 이웃 블록의 좌측 이웃 블록들뿐만 아니라 우측 이웃 블록들이 먼저 부호화되어 있을 수 있으므로, 일 실시예에 따른 비디오 부호화 장치(1900)는 부호화 순서를 고려하여 어파인 머지 후보 리스트를 결정할 필요가 있다.
일 실시예에 따른 부호화부(1930)는 현재 블록의 인터 예측 모드가 머지 모드인지 나타내는 머지 모드 플래그를 부호화하고, 머지 모드인 경우에 현재 블록의 예측 샘플을 생성하기 위해 어파인 모델에 기초한 움직임 보상이 수행되는지 나타내는 어파인 플래그를 부호화할 수 있다. 일 실시예에 따른 부호화부(1920)는 어파인 머지 후보 리스트 중에 하나를 가리키는 어파인 머지 인덱스를 부호화할 수 있다.
일 실시예에 따른 어파인 모델 인터 예측부(1910)는 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 현재 블록의 기본 움직임 벡터를 결정하고, 현재 블록의 기본 움직임 벡터를 이용하여 현재 블록의 중앙 움직임 벡터를 결정할 수 있다.
일 실시예에 따른 인터 예측 샘플 결정부(1920)는 현재 블록의 크기에 기초하여 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정할 수 있다. 인터 예측 샘플 결정부(1920)는, 현재 블록의 참조 픽쳐에서 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 참조 범위의 크기를 가지는 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 참조 영역을 현재 픽쳐 내부로 평행이동시킴으로써 참조 영역을 변경할 수 있다.
일 실시예에 따른 인터 예측 샘플 결정부(1920)는, 참조 픽쳐 중 변경된 참조 영역 내에서 현재 블록의 서브 블록들의 예측 샘플들을 결정할 수 있다. 서브 블록은 블록 단위일 수 있고, 샘플 단위일 수도 있다.
일 실시예에 따른 부호화부(1930)는 현재 블록의 예측 샘플들을 이용하여 현재 블록의 레지듀얼 샘플들을 부호화할 수 있다.
이하, 도 20을 참조하여 현재 블록의 참조 픽쳐에서 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 참조 영역을 변경하는 방법에 대해 상술한다.
도 20은 일 실시예에 따른 비디오 부호화 방법의 흐름도를 도시한다.
단계 2010에서, 어파인 모델 인터 예측부(1910)는 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 현재 블록의 기본 움직임 벡터를 이용하여 현재 블록의 중앙 움직임 벡터를 결정할 수 있다.
단계 2020에서, 인터 예측 샘플 결정부(1920)는 현재 블록의 크기에 기초하여 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정할 수 있다.
단계 2030에서 인터 예측 샘플 결정부(1920)는, 현재 블록의 참조 픽쳐에서 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 참조 범위의 크기를 가지는 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 참조 영역을 변경할 수 있다.
단계 2040에서 인터 예측 샘플 결정부(1920)는, 참조 픽쳐 중 변경된 참조 영역 내에서 현재 블록의 서브 블록들의 예측 샘플들을 결정할 수 있다.
단계 2050에서 부호화부(1930)는, 현재 블록의 예측 샘플들을 이용하여 현재 블록의 레지듀얼 샘플들을 부호화할 수 있다.
구체적인 예로 단계 2030에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역의 좌측 경계의 x축 좌표를 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 참조 영역의 우측 경계의 x축 좌표를 현재 픽쳐의 좌측 경계의 x축 좌표에 참조 범위를 더한 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 좌측 경계를 포함하는 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역을 우측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 2030에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 현재 픽쳐의 우측 경계의 x축 좌표보다 큰 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역의 우측 경계의 x축 좌표를 현재 픽쳐의 우측 경계의 x축 좌표로 변경하고, 참조 영역의 좌측 경계의 x축 좌표를 현재 픽쳐의 우측 경계의 x축 좌표에서 참조 범위를 뺀 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 우측 경계를 포함하는 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역을 좌측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 2030에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역의 상측 경계의 y축 좌표를 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 참조 영역의 하측 경계의 y축 좌표를 현재 픽쳐의 상측 경계의 y축 좌표에 참조 범위를 더한 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 상측 경계를 포함하는 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역을 하측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 2030에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 상기 현재 픽쳐의 하측 경계의 y축 좌표보다 큰 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역의 하측 경계의 y축 좌표를 현재 픽쳐의 하측 경계의 y축 좌표로 변경하고, 참조 영역의 상측 경계의 y축 좌표를 현재 픽쳐의 하측 경계의 y축 좌표에서 참조 범위를 뺀 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 하측 경계를 포함하는 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역을 상측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 2030에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역의 좌측 경계의 x축 좌표를 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 참조 영역의 우측 경계의 x축 좌표를 현재 픽쳐의 좌측 경계의 x축 좌표에 참조 범위를 더한 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 좌측 경계를 아예 벗어나서 참조 픽쳐의 외부에 위치하는 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역을 우측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 2030에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 현재 픽쳐의 우측 경계의 x축 좌표보다 큰 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역의 좌측 경계의 x축 좌표를 현재 픽쳐의 우측 경계의 x축 좌표로 변경하고, 참조 영역의 우측 경계의 x축 좌표를 현재 픽쳐의 우측 경계의 x축 좌표에서 참조 범위를 뺀 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 우측 경계를 아예 벗어나서 참조 픽쳐의 외부에 위치하는 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역을 좌측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 2030에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역의 상측 경계의 y축 좌표를 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 참조 영역의 하측 경계의 y축 좌표를 현재 픽쳐의 상측 경계의 y축 좌표에 참조 범위를 더한 값으로 변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 상측 경계를 아예 벗어나서 참조 픽쳐의 외부에 위치하는 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역을 하측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
구체적인 예로 단계 2030에서, 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 현재 픽쳐의 하측 경계의 y축 좌표보다 큰 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역의 상측 경계의 y축 좌표를 현재 픽쳐의 하측 경계의 y축 좌표로 변경하고, 참조 영역의 하측 경계의 y축 좌표를 현재 픽쳐의 하측 경계의 y축 좌표에서 참조 범위를 뺀 값으로변경할 수 있다. 즉, 현재 블록의 중앙 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 하측 경계를 아예 벗어나서 참조 픽쳐의 외부에 위치하는 경우에, 인터 예측 샘플 결정부(1920)는 참조 영역을 상측으로 평행이동시켜 참조 픽쳐 내에 위치하도록 참조 영역을 변경할 수 있다. 이 때 참조 영역의 크기는 참조 범위 그대로 유지될 수 있다.
이상, 일 실시예에 따른 비디오 복호화 장치(1700) 및 비디오 부호화 장치(1900)는 어파인 모델 기반의 인터 예측을 통해 현재 블록의 움직임 벡터가 결정되고, 현재 블록의 움직임 벡터가 가리키는 참조 영역이 참조 픽쳐의 경계를 포함하거나 벗어나는 경우에, 참조 영역이 참조 픽쳐 내에 위치하도록 참조 영역을 변경함으로써, 메모리의 대역폭의 증가 없이 인터 예측을 통한 예측 샘플을 효율적으로 결정할 수 있다.
이하, 도 21 내지 33을 참조하여 어파인 모델 기반의 인터 예측을 통해 현재 블록의 움직임 벡터에 따라 결정된 참조 영역의 위치에 따라 참조 영역을 변경하는 방법을 자세히 상술한다.
도 21은 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터가 가리키는 지점을 중심으로 서브 블록들의 예측 블록이 결정될 수 있는 참조 영역을 도시한다.
현재 픽쳐(2100)의 현재 블록(2120)에서 어파인 모델 기반의 인터 예측 (이하 '어파인 인터 예측'으로 지칭한다)이 수행되어 중앙 움직임 벡터(2125)가 결정될 수 있다. 현재 블록(2120)의 참조 픽쳐(2110) 내에서, 중앙 움직임 벡터(2125)가 가리키는 지점을 중심으로 하는 참조 영역이 결정될 수 있다. 예를 들어, 중앙 움직임 벡터(2125)가 가리키는 지점을 중심으로 하는 너비 W 및 높이 H의 참조 영역(2125)가 결정될 수 있다. 여기서 너비 W 및 높이 H는 각각 도면 상의 2*d에 해당하며, 참조 범위라 지칭될 수 있다. 참조 범위는 현재 블록의 크기에 기초하여 결정될 수 있다. 예를 들어, 현재 블록의 크기가 8인 경우에 참조 범위의 너비 및 높이는 128*2, 현재 블록의 크기가 16인 경우에 참조 범위의 너비 및 높이는 256*2, 현재 블록의 크기가 32인 경우에 참조 범위의 너비 및 높이는 544*2, 현재 블록의 크기가 64인 경우에 참조 범위의 너비 및 높이는 1120*2, 현재 블록의 크기가 128인 경우에 참조 범위의 너비 및 높이는 2272*2로 결정될 수 있다. 이때 참조 범위의 너비 및 높이는 1/32-픽셀 단위로 확장될 수 있으므로, 너비x높이가 128*2x128*2, 256*2x256*2, 544*2x544*2, 1120*2x1120*2 및 2272*2x2272*2의 참조 영역 내에서 1/32 화소 단위로 예측 지점이 정의되므로, 정밀한 움직임 예측이 가능하다. 참조 영역 내에서 1/32 화소 단위의 지점의 샘플값을 획득하기 위해, 보간 필터가 이용될 수 있다. 참조 영역 내의 정수 화소 단위의 샘플값들을 이용한 보간 필터링을 통해 1/32 화소 단위의 예측 샘플값들이 획득될 수 있다. 일 실시예에 따른 보간 필터링은 바이리니어 보간 필터(Bi-linear interpolation filter)를 이용하여 수행될 수 있다.
현재 블록(2120)의 서브 블록(2130, 2140, 2150, 2160)별로 참조 영역(2125) 내에서 예측 블록이 결정될 수 있다. 예를 들어, 비디오 부호화 장치(1900)는 참조 영역(2125) 내에서 서브 블록(2130, 2140, 2150, 2160)별로 가장 유사한 블록을 탐색하여 예측 블록들(2170, 2180, 2190, 2195)를 결정할 수 있다. 비디오 복호화 장치(1700)는 서브 블록(2130, 2140, 2150, 2160)별로 움직임 벡터를 획득하여, 서브 블록들(2130, 2140, 2150, 2160)의 움직임 벡터가 가리키는 예측 블록들(2170, 2180, 2190, 2195)를 참조 영역(2125)내에서 결정할 수 있다.
도 21의 실시예는 서브 블록들의 움직임 보상이 서브블록 단위로 수행되는 방식으로 기재되었지만, 참조 영역(2125) 내에서 서브블록들의 샘플별로 예측 샘플들이 결정될 수도 있다.
도 22는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 경계를 벗어나거나 포함하는 경우를 도시한다.
현재 픽쳐(2200)의 현재 블록(2220)의 중앙 움직임 벡터(2230)가 가리키는 지점으로부터 참조 범위만큼 덮는 참조 영역(2235)이 참조 픽쳐(2210)의 경계를 포함하여, 참조 영역(2235)의 일부가 참조 픽쳐(2210)의 경계를 벗어나는 경우가 발생할 수 있다. 또는 현재 블록(2220)의 중앙 움직임 벡터(2240)가 가리키는 참조 영역(2245)이 참조 픽쳐(2210)의 경계를 아예 벗어나서, 참조 영역(2235)의 모든 영역이 참조 픽쳐(2210)의 외부에 위치하는 경우가 발생할 수 있다.
이 경우, 비디오 복호화 장치(1700) 및 비디오 부호화 장치(1900)는 다양한 실시예에 따라, 움직임 보상에 필요한 참조 영역을 효율적으로 설정하고, 움직임 벡터가 참조 픽쳐의 외부를 가리키고 있을 때도 참조 픽쳐의 외부 뿐만 아니라 참조 픽처 내부까지 참조할 수 있으므로, 코딩 효율이 높아질 수 있다. 또한, 어파인 인터 예측에 따른 예측 샘플을 결정하기 위해 참조 픽쳐(2210) 외부의 데이터를 이용하려면, 메모리 대역폭이 더 필요하므로 효율적인 하드웨어 설계가 어려울 수 있다. 이에 따라, 비디오 복호화 장치(1700) 및 비디오 부호화 장치(1900)는 메모리 대역폭의 추가 없이 어파인 인터 예측에 따른 예측 샘플을 결정하므로 효율적으로 하드웨어 구조를 설계할 수 있다. 비디오 복호화 장치(1700) 및 비디오 부호화 장치(1900)가 어파인 인터 예측에 따른 서브블록들의 참조 영역을 결정하기 위한 다양한 실시예를 도 22 내지 33을 참조하여 제공한다.
도 23 내지 25는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 경계를 포함하는 경우에, 일 실시예에 따라 비디오 복호화 장치(1700)가 참조 영역을 클리핑하는 방법을 도시한다.
도 23을 참조하여, 현재 픽쳐(2300)의 현재 블록(2320)의 중앙 움직임 벡터(2325)가 가리키는 원 참조 영역(2330)이 참조 픽쳐(2310)의 상측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2330) 중 참조 픽쳐(2310)의 상측 경계를 벗어난 영역을 제외하고, 참조 픽쳐(2310)의 내부에 속한 영역만을 포함하도록 최종 참조 영역(2340)을 결정할 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2330)의 상측 경계의 y 좌표가 참조 픽쳐(2310)의 상측 경계의 y 좌표(원점)보다 작은 경우에 최종 참조 영역(2340)의 상측 경계의 y 좌표가 참조 픽쳐(2310)의 상측 경계의 y 좌표(원점)와 동일해지도록 참조 영역의 y 좌표를 클리핑(clipping)할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 23을 참조하여, 현재 블록(2320)의 움직임 벡터(2325)가 가리키는 원 참조 영역(2330)의 상측 경계의 y 좌표가 참조 픽쳐(2310)의 상측 경계의 y 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(2340)의 상측 경계의 y 좌표가 참조 픽쳐(2310)의 상측 경계의 y 좌표(원점)와 동일해지도록 참조 영역의 상측 경계의 y 좌표를 클리핑할 수 있다.
도 24을 참조하여 현재 픽쳐(2400)의 현재 블록(2420)의 중앙 움직임 벡터(2425)가 가리키는 원 참조 영역(2430)이 참조 픽쳐(2410)의 상측 경계 및 좌측 경계를 포함하는 경우(참조 픽쳐(2410)의 좌상측 모서리를 포함하는 경우)에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2430) 중 참조 픽쳐(2410)의 상측 경계 및 좌측 경계를 벗어난 영역을 제외하고, 참조 픽쳐(2410)의 내부에 속한 영역만을 포함하도록 최종 참조 영역(2440)을 결정할 수 있다. 이를 위해, 원 참조 영역(2430)의 상측 경계의 y 좌표가 참조 픽쳐(2410)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(2430)의 좌측 경계의 x 좌표가 참조 픽쳐(2410)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 최종 참조 영역(2440)의 상측 경계의 y 좌표가 참조 픽쳐(2410)의 상측 경계의 y 좌표(원점)와 동일해지고 최종 참조 영역(2440)의 좌측 경계의 x 좌표가 참조 픽쳐(2410)의 좌측 경계의 x 좌표(원점)와 동일해지도록 참조 영역의 상측 경계의 y 좌표와 좌측 경계의 x 좌표를 클리핑할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 24를 참조하여 현재 블록(2420)의 움직임 벡터(2425)가 가리키는 원 참조 영역(2430)의 상측 경계의 y 좌표가 참조 픽쳐(2410)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(2430)의 좌측 경계의 x 좌표가 참조 픽쳐(2410)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(2440)의 상측 경계의 y 좌표를 참조 픽쳐(2410)의 상측 경계의 y 좌표(원점)와 동일해지고, 최종 참조 영역(2440)의 좌측 경계의 x 좌표를 참조 픽쳐(2410)의 좌측 경계의 x 좌표(원점)와 동일해지도록, 참조 영역의 상측 경계의 y 좌표와 좌측 경계의 x 좌표를 클리핑할 수 있다.
도 25을 참조하여 현재 픽쳐(2500)의 현재 블록(2520)의 중앙 움직임 벡터(2525)가 가리키는 원 참조 영역(2530)이 참조 픽쳐(2510)의 좌측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2530) 중 참조 픽쳐(2510)의 좌측 경계를 벗어난 영역을 제외하고, 참조 픽쳐(2510)의 내부에 속한 영역만을 포함하도록 최종 참조 영역(2540)을 결정할 수 있다. 이를 위해, 원 참조 영역(2430)의 좌측 경계의 x 좌표가 참조 픽쳐(2510)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 최종 참조 영역(2540)의 좌측 경계의 x 좌표가 참조 픽쳐(2510)의 좌측 경계의 x 좌표(원점)와 동일해지도록 참조 영역의 좌측 경계의 x 좌표를 클리핑할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 25를 참조하여 현재 블록(2520)의 움직임 벡터(2525)가 가리키는 원 참조 영역(2530)의 좌측 경계의 x 좌표가 참조 픽쳐(2510)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(2540)의 좌측 경계의 x 좌표를 참조 픽쳐(2510)의 좌측 경계의 x 좌표(원점)와 동일해지도록, 참조 영역의 좌측 경계의 x 좌표를 클리핑할 수 있다.
도면에 표시되지는 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 우측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역 중 참조 픽쳐의 우측 경계를 벗어난 영역을 제외하고, 참조 픽쳐의 내부에 속한 영역만을 포함하도록 최종 참조 영역을 결정할 수 있다. 이를 위해, 원 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 최종 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 참조 영역의 우측 경계의 x 좌표를 클리핑할 수 있다.
유사하게, 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록, 참조 영역의 우측 경계의 x 좌표를 클리핑할 수 있다.
도면에 표시되지는 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 하측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역 중 참조 픽쳐의 하측 경계를 벗어난 영역을 제외하고, 참조 픽쳐의 내부에 속한 영역만을 포함하도록 최종 참조 영역을 결정할 수 있다. 이를 위해, 원 참조 영역의 하측 경계의 y 좌표가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 큰 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 최종 참조 영역의 하측 경계의 y 좌표가 참조 픽쳐의 하측 경계의 x 좌표(참조 픽쳐의 높이)와 동일해지도록 참조 영역의 하측 경계의 y 좌표를 클리핑할 수 있다.
유사하게, 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 하측 경계의 y 좌표가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y좌표(참조 픽쳐의 높이)와 동일해지도록, 참조 영역의 하측 경계의 y 좌표를 클리핑할 수 있다.
도 26 내지 28는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐의 경계를 포함하는 경우에, 다른 실시예에 따라 비디오 복호화 장치(1700)가 참조 영역을 참조 픽쳐 내로 평행이동시키는 방법을 도시한다.
도 26을 참조하여, 현재 픽쳐(2600)의 현재 블록(2620)의 중앙 움직임 벡터(2625)가 가리키는 원 참조 영역(2630)이 참조 픽쳐(2610)의 상측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2630)의 상측 경계를 참조 픽쳐(2610)의 상측 경계로 수직으로 평행이동하고, 원 참조 영역(2630)의 상측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(2630)의 하측 경계를 수직으로 평행이동함으로써, 최종 참조 영역(2640)을 결정할 수 있다. 이를 통해 최종 참조 영역(2640)의 모든 샘플들이 참조 픽쳐(2610)에 포함될 수 있으며, 최종 참조 영역(2640)의 크기는 원 참조 영역(2630)의 크기와 동일할 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2630)의 상측 경계의 y 좌표가 참조 픽쳐(2610)의 상측 경계의 y 좌표(원점)보다 작은 경우에 최종 참조 영역(2640)의 상측 경계의 y 좌표를 참조 픽쳐(2610)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(2640)의 하측 경계의 y 좌표를 참조 픽쳐(2610)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 26을 참조하여, 현재 블록(2620)의 움직임 벡터(2625)가 가리키는 원 참조 영역(2630)의 상측 경계의 y 좌표가 참조 픽쳐(2610)의 상측 경계의 y 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(2640)의 상측 경계의 y 좌표를 참조 픽쳐(2610)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(2640)의 하측 경계의 y 좌표를 참조 픽쳐(2610)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경할 수 있다.
도 27을 참조하여, 현재 픽쳐(2700)의 현재 블록(2720)의 중앙 움직임 벡터(2725)가 가리키는 원 참조 영역(2730)이 참조 픽쳐(2710)의 상측 경계 및 좌측 경계를 포함하는 경우(참조 픽쳐(2710)의 좌상측 모서리를 포함하는 경우)에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2730)의 상측 경계를 참조 픽쳐(2710)의 상측 경계로 수직으로 평행이동하고, 원 참조 영역(2730)의 상측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(2730)의 하측 경계를 수직으로 평행이동하고, 원 참조 영역(2730)의 좌측 경계를 참조 픽쳐(2710)의 좌측 경계로 수평으로 평행이동하고, 원 참조 영역(2730)의 좌측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(2730)의 우측 경계를 수평으로 평행이동함으로써, 최종 참조 영역(2740)을 결정할 수 있다. 이를 통해 최종 참조 영역(2740)의 모든 샘플들이 참조 픽쳐(2710)에 포함될 수 있으며, 최종 참조 영역(2740)의 크기는 원 참조 영역(2730)의 크기와 동일할 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2730)의 상측 경계의 y 좌표가 참조 픽쳐(2710)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(2730)의 좌측 경계의 x 좌표가 참조 픽쳐(2710)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 최종 참조 영역(2740)의 상측 경계의 y 좌표를 참조 픽쳐(2710)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(2740)의 하측 경계의 y 좌표를 참조 픽쳐(2710)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경하고, 최종 참조 영역(2740)의 좌측 경계의 x 좌표를 참조 픽쳐(2710)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(2740)의 우측 경계의 x 좌표를 참조 픽쳐(2710)의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 27을 참조하여, 현재 블록(2720)의 움직임 벡터(2725)가 가리키는 원 참조 영역(2730)의 상측 경계의 y 좌표가 참조 픽쳐(2710)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(2730)의 좌측 경계의 x 좌표가 참조 픽쳐(2710)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(2740)의 상측 경계의 y 좌표를 참조 픽쳐(2710)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(2740)의 하측 경계의 y 좌표를 참조 픽쳐(2710)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경하고, 최종 참조 영역(2740)의 좌측 경계의 x 좌표를 참조 픽쳐(2710)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(2740)의 우측 경계의 x 좌표를 참조 픽쳐(2710)의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
도 28을 참조하여, 현재 픽쳐(2800)의 현재 블록(2820)의 중앙 움직임 벡터(2825)가 가리키는 원 참조 영역(2830)이 참조 픽쳐(2810)의 좌측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2830)의 좌측 경계를 참조 픽쳐(2810)의 좌측 경계로 수평으로 평행이동하고, 원 참조 영역(2830)의 좌측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(2830)의 우측 경계를 수평으로 평행이동함으로써, 최종 참조 영역(2840)을 결정할 수 있다. 이를 통해 최종 참조 영역(2840)의 모든 샘플들이 참조 픽쳐(2810)에 포함될 수 있으며, 최종 참조 영역(2840)의 크기는 원 참조 영역(2830)의 크기와 동일할 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2830)의 좌측 경계의 x 좌표가 참조 픽쳐(2810)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 최종 참조 영역(2840)의 좌측 경계의 x 좌표를 참조 픽쳐(2810)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(2840)의 우측 경계의 x 좌표를 참조 픽쳐(2810)의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 28을 참조하여, 현재 블록(2820)의 움직임 벡터(2825)가 가리키는 원 참조 영역(2830)의 좌측 경계의 x 좌표가 참조 픽쳐(2810)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(2840)의 좌측 경계의 x 좌표를 참조 픽쳐(2810)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(2840)의 우측 경계의 x 좌표를 참조 픽쳐(2810)의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
도면으로 도시되지는 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 하측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 하측 경계를 참조 픽쳐의 하측 경계로 수직으로 평행이동하고, 원 참조 영역의 하측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 상측 경계를 수직으로 평행이동함으로써, 최종 참조 영역을 결정할 수 있다. 이를 통해 최종 참조 영역의 모든 샘플들이 참조 픽쳐에 포함될 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 하측 경계의 y 좌표가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 큰 경우에 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)와 동일해지도록 변경하고, 최종 참조 영역의 상측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)에서 참조 영역의 높이(참조 범위)만큼 뺀 값으로 변경할 수 있다.
유사하게, 현재 블록(2620)의 움직임 벡터가 가리키는 원 참조 영역의 하측 경계의 y 좌표가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)와 동일해지도록 변경하고, 최종 참조 영역의 상측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)에서 참조 영역의 높이(참조 범위)만큼 뺀 값으로 변경할 수 있다.
도면으로 도시되지는 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 우측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 우측 경계를 참조 픽쳐의 우측 경계로 수평으로 평행이동하고, 원 참조 영역의 우측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 좌측 경계를 수평으로 평행이동함으로써, 최종 참조 영역을 결정할 수 있다. 이를 통해 최종 참조 영역의 모든 샘플들이 참조 픽쳐에 포함될 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 변경하고, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)에서 참조 영역의 너비(참조 범위)만큼 뺀 값으로 변경할 수 있다.
유사하게, 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 변경하고, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)에서 참조 영역의 너비(참조 범위)만큼 뺀 값으로 변경할 수 있다.
도면에 도시되지 않았지만, 현재 픽쳐(2700)의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 하측 경계 및 우측 경계를 포함하는 경우(참조 픽쳐의 우하측 모서리를 포함하는 경우)에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 하측 경계를 참조 픽쳐의 하측 경계로 수직으로 평행이동하고, 원 참조 영역의 하측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 상측 경계를 수직으로 평행이동하고, 원 참조 영역의 우측 경계를 참조 픽쳐의 우측 경계로 수평으로 평행이동하고, 원 참조 영역의 우측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 좌측 경계를 수평으로 평행이동함으로써, 최종 참조 영역을 결정할 수 있다. 이를 통해 최종 참조 영역의 모든 샘플들이 참조 픽쳐에 포함되고 최종 참조 영역의 크기가 원 참조 영역의 크기와 동일할 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 하측 경계의 y 좌표가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 크고 원 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)와 동일해지도록 변경하고, 최종 참조 영역의 상측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)에서 참조 영역의 높이(참조 범위)만큼 뺀 값으로 변경하고, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 변경하고, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)에서 참조 영역의 너비(참조 범위)만큼 뻰 값으로 변경할 수 있다.
유사하게, 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 하측 경계의 y 좌표가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 크고 원 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)와 동일해지도록 변경하고, 최종 참조 영역의 상측 경계의 y 좌표를 참조 픽쳐(2710)의 우측 경계의 y 좌표(원점)에서 참조 영역의 높이(참조 범위)만큼 뺀 값으로 변경하고, 최종 참조 영역(2740)의 우측 경계의 x 좌표를 참조 픽쳐(2710)의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 변경하고, 최종 참조 영역(2740)의 좌측 경계의 x 좌표를 참조 픽쳐(2710)의 우측 경계의 x 좌표(원점)에서 참조 영역의 너비(참조 범위)만큼 뺀 값으로 변경할 수 있다.
도 29 내지 30는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐를 벗어나는 경우에, 일 실시예에 따라 비디오 복호화 장치(1700)가 참조 영역을 참조 픽쳐의 경계 또는 점 상으로 이동시키는 방법을 도시한다.
도 29을 참조하여, 현재 픽쳐(2900)의 현재 블록(2920)의 중앙 움직임 벡터(2925)가 가리키는 원 참조 영역(2930)이 참조 픽쳐(2910)의 상측 경계 밖으로 벗어나는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2930)의 상측 경계와 하측 경계를 모두 참조 픽쳐(2910)의 상측 경계로 수직으로 평행이동함으로써, 최종 참조 영역(2940)을 결정할 수 있다. 이를 통해 최종 참조 영역(2940)의 모든 샘플들이 참조 픽쳐(2910)에 포함되지만, 최종 참조 영역(2940)은 원 참조 영역(2910)의 너비와 동일한 너비만큼 참조 픽쳐(2910)의 상측 경계 선상에 위치하는 일직선일 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(2930)의 상측 경계의 y 좌표가 참조 픽쳐(2910)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(2930)의 하측 경계의 y 좌표가 참조 픽쳐(2910)의 상측 경계의 y 좌표(원점)보다 작은 경우에, 최종 참조 영역(2940)의 상측 경계의 y 좌표와 하측 경계의 y 좌표를 참조 픽쳐(2910)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경할 수 있다. 즉, 원 참조 영역(2930)의 상측 경계의 y 좌표와 하측 경계의 y 좌표를 원점으로 클리핑함으로써, 최종 참조 영역(2940)가 참조 픽쳐(2910)의 상측 경계 선상에 위치하도록 결정할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 29을 참조하여, 현재 블록(2920)의 움직임 벡터(2925)가 가리키는 원 참조 영역(2930)의 상측 경계의 y 좌표가 참조 픽쳐(2910)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(2930)의 하측 경계의 y 좌표가 참조 픽쳐(2910)의 상측 경계의 y 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(2940)의 상측 경계의 y 좌표와 하측 경계의 y 좌표를 참조 픽쳐(2910)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경할 수 있다.
도 30을 참조하여, 현재 픽쳐(3000)의 현재 블록(3020)의 중앙 움직임 벡터(3025)가 가리키는 원 참조 영역(3030)이 참조 픽쳐(3010)의 상측 경계 및 좌측 경계 밖으로 벗어나는 경우(참조 픽쳐(3010)의 좌상측 모서리 밖으로 벗어나는 경우)에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(3030)을 상측 경계와 하측 경계를 모두 참조 픽쳐(3010)의 상측 경계로 수직으로 평행이동하고, 원 참조 영역(3030)을 좌측 경계와 우측 경계를 모두 참조 픽쳐(3010)의 좌측 경계로 수평으로 평행이동함으로써, 최종 참조 영역(3040)을 결정할 수 있다. 이를 통해 최종 참조 영역(3040)의 모든 샘플들이 참조 픽쳐(3010)에 포함되지만, 최종 참조 영역(3040)은 참조 픽쳐(3010)의 좌상측 모서리에 위치하는 점일 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(3030)의 상측 경계의 y 좌표가 참조 픽쳐(3010)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(3030)의 하측 경계의 y 좌표가 참조 픽쳐(3010)의 상측 경계의 y 좌표(원점)보다 작고, 원 참조 영역(3030)의 좌측 경계의 x 좌표가 참조 픽쳐(3010)의 좌측 경계의 x 좌표(원점)보다 작고 원 참조 영역(3030)의 우측 경계의 x 좌표가 참조 픽쳐(3010)의 우측 경계의 x 좌표(원점)보다 작은 경우에, 최종 참조 영역(3040)의 상측 경계의 y 좌표와 하측 경계의 y 좌표를 참조 픽쳐(3010)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3040)의 좌측 경계의 x 좌표와 우측 경계의 x 좌표를 참조 픽쳐(3010)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경할 수 있다. 즉, 원 참조 영역(3030)의 상측 경계의 y 좌표와 하측 경계의 y 좌표를 원점으로 클리핑하고 좌측 경계의 x 좌표와 우측 경계의 x 좌표를 원점으로 클리핑함으로써, 최종 참조 영역(3040)가 참조 픽쳐(3010)의 좌상측 모서리의 점상에 위치하도록 결정할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 30을 참조하여, 현재 블록(3020)의 움직임 벡터(3025)가 가리키는 원 참조 영역(3030)의 상측 경계의 y 좌표가 참조 픽쳐(3010)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(3030)의 하측 경계의 y 좌표가 참조 픽쳐(3010)의 상측 경계의 y 좌표(원점)보다 작고, 원 참조 영역(3030)의 좌측 경계의 x 좌표가 참조 픽쳐(3010)의 좌측 경계의 x 좌표(원점)보다 작고 원 참조 영역(3030)의 우측 경계의 x 좌표가 참조 픽쳐(3010)의 우측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(3040)의 상측 경계의 y 좌표와 하측 경계의 y 좌표를 참조 픽쳐(3010)의 상측 경계의 y 좌표(원점)와 동일해지고, 최종 참조 영역(3040)의 좌측 경계의 x 좌표와 우측 경계의 x 좌표를 참조 픽쳐(3010)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경할 수 있다.
도면에 도시되지 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 좌측 경계 밖으로 벗어나는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 좌측 경계와 우측 경계를 모두 참조 픽쳐의 좌측 경계로 수평으로 평행이동함으로써, 최종 참조 영역을 결정할 수 있다. 이를 통해 최종 참조 영역의 모든 샘플들이 참조 픽쳐에 포함되지만, 최종 참조 영역은 원 참조 영역의 높이와 동일한 높이만큼 참조 픽쳐의 좌측 경계 선상에 위치하는 일직선일 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 좌측 경계의 x 좌표가 참조 픽쳐의 좌측 경계의 x 좌표(원점)보다 작고 원 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 최종 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표를 참조 픽쳐의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경할 수 있다. 즉, 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표를 원점으로 클리핑함으로써, 최종 참조 영역가 참조 픽쳐의 좌측 경계 선상에 위치하도록 결정할 수 있다.
유사하게, 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 좌측 경계의 x 좌표가 참조 픽쳐의 좌측 경계의 x 좌표(원점)보다 작고 원 참조 영역의 우측 경계의 x 좌표가 참조 픽쳐의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표를 참조 픽쳐의 좌측 경계의 x 좌표와 동일해지도록 변경할 수 있다.
도 29의 예시와 유사하게, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 하측 경계 밖으로 벗어나는 경우, 즉 원 참조 영역의 상측 경계의 y 좌표와 하측 경계의 y 좌표가 모두 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 큰 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 상측 경계의 y 좌표와 하측 경계의 y 좌표를 참조 픽쳐의 높이로 클리핑함으로써, 최종 참조 영역이 참조 픽쳐의 하측 경계 선상에 위치하도록 결정할 수 있다.
도 30의 예시와 유사하게, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 우하측 모서리 밖으로 벗어나는 경우, 즉 원 참조 영역의 상측 경계의 y 좌표와 하측 경계의 y 좌표가 모두 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 크고 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표가 모두 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 상측 경계의 y 좌표와 하측 경계의 y 좌표를 참조 픽쳐의 높이로 클리핑하고 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표를 참조 픽쳐의 너비로 클리핑함으로써, 최종 참조 영역이 참조 픽쳐의 우하측 모서리 점상에 위치하도록 결정할 수 있다.
앞서 기술한 예시와 유사하게, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 우측 경계 밖으로 벗어나는 경우, 즉 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표가 모두 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표를 참조 픽쳐의 너비로 클리핑함으로써, 최종 참조 영역이 참조 픽쳐의 우측 경계 선상에 위치하도록 결정할 수 있다.
도 31 내지 33는 어파인 모델 기반의 인터 예측시 현재 블록의 움직임 벡터에 따른 참조 영역이 참조 픽쳐를 벗어나는 경우에, 다른 실시예에 따라 비디오 복호화 장치(1700)가 참조 영역을 참조 픽쳐 내로 이동시키는 방법을 도시한다.
도 31을 참조하여, 현재 픽쳐(3100)의 현재 블록(3120)의 중앙 움직임 벡터(3125)가 가리키는 원 참조 영역(3130)이 참조 픽쳐(3110)의 상측 경계 밖으로 벗어나는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(3130)의 상측 경계를 참조 픽쳐(3110)의 상측 경계로 수직으로 평행이동하고, 원 참조 영역(3130)의 상측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(3130)의 하측 경계를 수직으로 평행이동함으로써, 최종 참조 영역(3140)을 결정할 수 있다. 이를 통해 최종 참조 영역(3140)의 모든 샘플들이 참조 픽쳐(3110)에 포함될 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(3130)의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐(3110)의 상측 경계의 y 좌표(원점)보다 작은 경우에 최종 참조 영역(3140)의 상측 경계의 y 좌표를 참조 픽쳐(3110)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3140)의 하측 경계의 y 좌표를 참조 픽쳐(3110)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 31을 참조하여, 현재 블록(3120)의 움직임 벡터(3125)가 가리키는 원 참조 영역(3130)의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐(3110)의 상측 경계의 y 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(3140)의 상측 경계의 y 좌표를 참조 픽쳐(3110)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3140)의 하측 경계의 y 좌표를 참조 픽쳐(3110)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경할 수 있다.
도 32을 참조하여, 현재 픽쳐(3200)의 현재 블록(3220)의 중앙 움직임 벡터(3225)가 가리키는 원 참조 영역(3230)이 참조 픽쳐(3210)의 상측 경계 및 좌측 경계 밖으로 벗어나는 경우(참조 픽쳐(3210)의 좌상측 모서리 밖으로 벗어나는 경우)에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(3230)의 상측 경계를 참조 픽쳐(3210)의 상측 경계로 수직으로 평행이동하고, 원 참조 영역(3230)의 상측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(3230)의 하측 경계를 수직으로 평행이동하고, 원 참조 영역(3230)의 좌측 경계를 참조 픽쳐(3210)의 좌측 경계로 수평으로 평행이동하고, 원 참조 영역(3230)의 좌측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(3230)의 우측 경계를 수평으로 평행이동함으로써, 최종 참조 영역(3240)을 결정할 수 있다. 이를 통해 최종 참조 영역(3240)의 모든 샘플들이 참조 픽쳐(3210)에 포함될 수 있으며, 원 참조 영역(3230)의 크기와 최종 참조 영역(3240)의 크기가 동일하다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(3230)의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐(3210)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(3230)의 좌측 경계의 x 좌표와 우측 경계의 y 좌표 모두가 참조 픽쳐(3210)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 최종 참조 영역(3240)의 상측 경계의 y 좌표를 참조 픽쳐(3210)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3240)의 하측 경계의 y 좌표를 참조 픽쳐(3210)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경하고, 최종 참조 영역(3240)의 좌측 경계의 x 좌표를 참조 픽쳐(3210)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3240)의 우측 경계의 x 좌표를 참조 픽쳐(3210)의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 32을 참조하여, 현재 블록(3220)의 움직임 벡터(3225)가 가리키는 원 참조 영역(3230)의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐(3210)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(3230)의 좌측 경계의 x 좌표와 우측 경계의 x 좌표 모두가 참조 픽쳐(3210)의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(3240)의 상측 경계의 y 좌표를 참조 픽쳐(3210)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3240)의 하측 경계의 y 좌표를 참조 픽쳐(3210)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경하고, 최종 참조 영역(3240)의 좌측 경계의 x 좌표를 참조 픽쳐(3210)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3240)의 우측 경계의 x 좌표를 참조 픽쳐(3210)의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
도 33을 참조하여, 현재 픽쳐(3300)의 현재 블록(3320)의 중앙 움직임 벡터(3325)가 가리키는 원 참조 영역(3330)이 참조 픽쳐(3310)의 상측 경계 밖으로 벗어나고 좌측 경계를 포함하는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(3330)의 상측 경계를 참조 픽쳐(3310)의 상측 경계로 수직으로 평행이동하고, 원 참조 영역(3330)의 상측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(3330)의 하측 경계를 수직으로 평행이동하고, 원 참조 영역(3330)의 좌측 경계를 참조 픽쳐(3310)의 좌측 경계로 수평으로 평행이동하고, 원 참조 영역(3330)의 좌측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역(3330)의 우측 경계를 수평으로 평행이동함으로써, 최종 참조 영역(3340)을 결정할 수 있다. 이를 통해 최종 참조 영역(3340)의 모든 샘플들이 참조 픽쳐(3310)에 포함될 수 있으며, 원 참조 영역(3330)의 크기와 최종 참조 영역(3340)의 크기가 동일하다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역(3330)의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐(3310)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(3330)의 좌측 경계의 x 좌표가 참조 픽쳐(3310)의 좌측 경계의 x 좌표(원점)보다 작고 원 참조 영역(3330)의 우측 경계의 x 좌표가 참조 픽쳐(3310)의 좌측 경계의 x 좌표(원점)보다 큰 경우에, 최종 참조 영역(3340)의 상측 경계의 y 좌표를 참조 픽쳐(3310)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3340)의 하측 경계의 y 좌표를 참조 픽쳐(3310)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경하고, 최종 참조 영역(3340)의 좌측 경계의 x 좌표를 참조 픽쳐(3310)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3340)의 우측 경계의 x 좌표를 참조 픽쳐(3310)의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 도 33을 참조하여, 현재 블록(3320)의 움직임 벡터(3325)가 가리키는 원 참조 영역(3330)의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐(3310)의 상측 경계의 y 좌표(원점)보다 작고 원 참조 영역(3330)의 좌측 경계의 x 좌표가 참조 픽쳐(3310)의 좌측 경계의 x 좌표(원점)보다 작고 원 참조 영역(3330)의 우측 경계의 x 좌표가 참조 픽쳐(3310)의 좌측 경계의 x 좌표(원점)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역(3340)의 상측 경계의 y 좌표를 참조 픽쳐(3310)의 상측 경계의 y 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3340)의 하측 경계의 y 좌표를 참조 픽쳐(3310)의 상측 경계의 y 좌표(원점)에 참조 영역의 높이(참조 범위)만큼 더한 값으로 변경하고, 최종 참조 영역(3340)의 좌측 경계의 x 좌표를 참조 픽쳐(3310)의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역(3340)의 우측 경계의 x 좌표를 참조 픽쳐(3310)의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
도면에 표시되지는 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 하측 경계 밖으로 벗어나는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 하측 경계를 참조 픽쳐의 하측 경계로 수직으로 평행이동하고, 원 참조 영역의 하측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 상측 경계를 수직으로 평행이동함으로써, 최종 참조 영역을 결정할 수 있다. 이를 통해 최종 참조 영역의 모든 샘플들이 참조 픽쳐에 포함될 수 있다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 큰 경우에, 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)와 동일해지도록 변경하고, 최종 참조 영역의 상측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)에서 참조 영역의 높이(참조 범위)만큼 뺀 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 하측 경계의 y 좌표와 상측 경계의 y 좌표 모두가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)와 동일해지도록 변경하고, 최종 참조 영역의 상측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)에서 참조 영역의 높이(참조 범위)만큼 뺀 값으로 변경할 수 있다.
도면에 표시되지 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 좌측 경계 밖으로 벗어나는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 좌측 경계를 참조 픽쳐의 좌측 경계로 수평으로 평행이동하고, 원 참조 영역의 좌측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 우측 경계를 수평으로 평행이동함으로써, 최종 참조 영역을 결정할 수 있다. 이를 통해 최종 참조 영역의 모든 샘플들이 참조 픽쳐에 포함될 수 있으며, 원 참조 영역의 크기와 최종 참조 영역의 크기가 동일하다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 y 좌표 모두가 참조 픽쳐의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표 모두가 참조 픽쳐의 좌측 경계의 x 좌표(원점)보다 작은 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 좌측 경계의 x 좌표(원점)와 동일해지도록 변경하고, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 좌측 경계의 x 좌표(원점)에 참조 영역의 너비(참조 범위)만큼 더한 값으로 변경할 수 있다.
도면에 표시되지 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 우측 경계 밖으로 벗어나는 경우에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 우측 경계를 참조 픽쳐의 우측 경계로 수평으로 평행이동하고, 원 참조 영역의 우측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 좌측 경계를 수평으로 평행이동함으로써, 최종 참조 영역을 결정할 수 있다. 이를 통해 최종 참조 영역의 모든 샘플들이 참조 픽쳐에 포함될 수 있으며, 원 참조 영역의 크기와 최종 참조 영역의 크기가 동일하다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 y 좌표 모두가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 변경하고, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)에서 참조 영역의 너비(참조 범위)만큼 뺀 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표 모두가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 변경하고, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)에서 참조 영역의 너비(참조 범위)만큼 뺀 값으로 변경할 수 있다.
도면에 표시되지 않았지만, 현재 픽쳐의 현재 블록의 중앙 움직임 벡터가 가리키는 원 참조 영역이 참조 픽쳐의 하측 경계 및 우측 경계 밖으로 벗어나는 경우(참조 픽쳐의 우하측 모서리 밖으로 벗어나는 경우)에, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 하측 경계를 참조 픽쳐의 하측 경계로 수직으로 평행이동하고, 원 참조 영역의 하측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 상측 경계를 수직으로 평행이동하고, 원 참조 영역의 우측 경계를 참조 픽쳐의 우측 경계로 수평으로 평행이동하고, 원 참조 영역의 우측 경계가 평행이동한 거리 및 방향에 따라 원 참조 영역의 좌측 경계를 수평으로 평행이동함으로써, 최종 참조 영역을 결정할 수 있다. 이를 통해 최종 참조 영역의 모든 샘플들이 참조 픽쳐에 포함될 수 있으며, 원 참조 영역의 크기와 최종 참조 영역의 크기가 동일하다. 이를 위해, 일 실시예에 따른 비디오 복호화 장치(1700)는 원 참조 영역의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 크고 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 y 좌표 모두가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)와 동일해지도록 변경하고, 최종 참조 영역의 상측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)에서 참조 영역의 높이(참조 범위)만큼 뺀 값으로 변경하고, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 변경하고, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)에서 참조 영역의 너비(참조 범위)만큼 뺀 값으로 변경할 수 있다.
일 실시예에 따른 비디오 부호화 장치(1900)에서도 비슷한 동작이 수행될 수 있다. 현재 블록의 움직임 벡터가 가리키는 원 참조 영역의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 크고 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 x 좌표 모두가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 일 실시예에 따른 비디오 부호화 장치(1900)는, 원 참조 영역의 상측 경계의 y 좌표와 하측 경계의 y 좌표 모두가 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)보다 크고 원 참조 영역의 좌측 경계의 x 좌표와 우측 경계의 y 좌표 모두가 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)보다 큰 경우에, 최종 참조 영역의 하측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)와 동일해지도록 변경하고, 최종 참조 영역의 상측 경계의 y 좌표를 참조 픽쳐의 하측 경계의 y 좌표(참조 픽쳐의 높이)에서 참조 영역의 높이(참조 범위)만큼 뺀 값으로 변경하고, 최종 참조 영역의 우측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)와 동일해지도록 변경하고, 최종 참조 영역의 좌측 경계의 x 좌표를 참조 픽쳐의 우측 경계의 x 좌표(참조 픽쳐의 너비)에서 참조 영역의 너비(참조 범위)만큼 뺀 값으로 변경할 수 있다.
앞서 도 23 내지 도 33를 참조하여 설명한 실시예들 중에서, 참조 영역의 상측 또는 하측 경계의 y 좌표를 참조 픽쳐의 상측 경계 또는 하측 경계의 y 좌표로 수직 평행 이동시키는 동작 또는 참조 영역의 좌측 또는 우측 경계의 x 좌표를 참조 픽쳐의 좌측 경계 또는 우측 경계의 x 좌표로 수평 평행 이동시키는 동작은 클리핑 동작을 통해 구현될 수 있다.
구체적으로, 참조 픽쳐의 경계들의 최소 좌표값은 다음와 같이 정의될 수 있다. pic_ver_min 는 참조 픽쳐의 y 방향(수직 방향)의 최소 좌표값(상측 경계의 y 좌표값)을 나타내고, pic_hor_min는 참조 픽쳐의 x 방향(수평 방향)의 최소 좌표값(좌측 경계의 x 좌표값)을 나타낸다.
참조 픽쳐의 경계들의 최대 좌표값은 다음과 같이 정의할 수 있다. pic_ver_max는 참조 픽쳐의 y 방향(수직 방향)의 최대 좌표값(하측 경계의 y 좌표값)을 나타내고, pic_hor_max는 참조 픽쳐의 x 방향(수평 방향)의 최대 좌표값(우측 경계의 x 좌표값)을 나타낸다.
원 참조 영역의 경계들의 최소 좌표값은 다음과 같이 정의할 수 있다. r_ver_min는 참조 영역의 y 방향(수직 방향)의 최소 좌표값(상측 경계의 y 좌표값), r_hor_min는 참조 영역의 x 방향(수평 방향)의 최소 좌표값(좌측 경계의 x 좌표값)을 나타낸다. 원 참조 영역의 경계들의 최대 좌표값은 다음과 같이 정의할 수 있다. r_ver_max는 참조 영역의 y 방향(수직 방향)의 최대 좌표값(하측 경계의 y 좌표값), r_hor_max는 참조 영역의 x 방향(수평 방향)의 최대 좌표값(우측 경계의 x 좌표값)을 나타낸다.
최종 참조 영역의 경계들의 최소 좌표값은 다음과 같이 정의될 수 있다. ver_min는 최종 참조 영역의 y 방향(수직 방향)의 최소 좌표값(상측 경계의 y 좌표값), hor_min는 최종 참조 영역의 x 방향(수평 방향)의 최소 좌표값(좌측 경계의 x 좌표값)을 나타낸다. 최종 참조 영역의 경계들의 최대 좌표값은 다음과 같이 정의될 수 있다. ver_max는 최종 참조 영역의 y 방향(수직 방향)의 최대 좌표값(하측 경계의 y 좌표값), hor_max는 최종 참조 영역의 x 방향(수평 방향)의 최대 위치(우측 경계의 x 좌표값)을 나타낸다.
최종 참조 영역의 경계들이 참조 픽쳐를 벗어나지 않도록 하기 위해서는 다음과 같은 클리핑 함수를 통해 가능하다. min(A, B)는 A, B 중에 작은 값을 출력하는 함수이다. max(A, B)는 A, B 중에 큰 값을 출력하는 함수이다.
(클리핑 함수 1) hor_max = min(pic_hor_max, max(r_hor_max, pic_hor_min));
(클리핑 함수 2) ver_max = min(pic_ver_max, max(r_ver_max, pic_ver_min));
(클리핑 함수 3) hor_min = max(pic_hor_min, min(r_hor_min, pic_hor_max));
(클리핑 함수 4) ver_min = max(pic_ver_min, min(r_ver_min, pic_ver_max));
클리핑 함수 1에 따르면, 최종 참조 영역의 우측 경계의 x 좌표값 hor_max는, 먼저 원 참조 영역의 우측 경계의 x 좌표값과 참조 픽쳐의 좌측 경계의 x 좌표값 중에 큰 값(max(r_hor_max, pic_hor_min))으로 결정될 수 있다. 하지만, 만약 max(r_hor_max, pic_hor_min) 값이 참조 픽쳐의 우측 경계의 x 좌표값(pic_hor_max)보다 크다면, 최종 참조 영역의 우측 경계의 x 좌표값 hor_max는 참조 픽쳐의 우측 경계의 x 좌표값으로 결정될 수 있다. 따라서, 원 참조 영역의 우측 경계의 x 좌표값 r_hor_max가 참조 픽쳐의 우측 경계의 x 좌표값 pic_hor_max 보다 크면, 최종 참조 영역의 우측 경계의 x 좌표값 hor_max는 참조 픽쳐의 우측 경계의 x 좌표값 pic_hor_max 으로 클리핑될 수 있다.
마찬가지로, 클리핑 함수 2에 따르면, 원 참조 영역의 하측 경계의 y 좌표값 r_ver_max가 참조 픽쳐의 하측 경계의 y 좌표값 pic_ver_max 보다 크면, 최종 참조 영역의 하측 경계의 y 좌표값 ver_max는 참조 픽쳐의 하측 경계의 y 좌표값 pic_ver_max 으로 클리핑될 수 있다.
클리핑 함수 3에 따르면, 원 참조 영역의 좌측 경계의 x 좌표값 r_hor_min가 참조 픽쳐의 좌측 경계의 x 좌표값 pic_hor_min 보다 작으면, 최종 참조 영역의 좌측 경계의 x 좌표값 hor_min는 참조 픽쳐의 좌측 경계의 x 좌표값 pic_hor_min 으로 클리핑될 수 있다.
클리핑 함수 4에 따르면, 원 참조 영역의 상측 경계의 y 좌표값 r_ver_min가 참조 픽쳐의 상측 경계의 y 좌표값 pic_ver_min 보다 작으면, 최종 참조 영역의 상측 경계의 y 좌표값 ver_min는 참조 픽쳐의 상측 경계의 y 좌표값 pic_ver_min 으로 클리핑될 수 있다.
현재 블록의 서브 블록의 움직임 벡터가 가리키는 지점의 참조 위치의 x, y좌표가 각각 mvX[0], mvY[1]라고 할 때, 다음 클리핑 함수를 통해 참조 위치의 좌표들이 클리핑될 수 있다. Clip3(A, B, C)는 C를 최소값 A 내지 최소값 B의 범위 내로 클리핑하기 위한 함수이다.
(클리핑 함수 5) mvX[ 0 ] = Clip3( hor_min, hor_max, mvX[ 0 ] )
(클리핑 함수 6) mvX[ 1 ] = Clip3( ver_min, ver_max, mvX[ 1 ] )
클리핑 함수 5에 따르면, 현재 블록의 서브 블록의 움직임 벡터가 가리키는 지점의 참조 위치의 x 좌표 mvX[ 0 ]는, 최종 참조 영역의 좌측 경계의 x 좌표값 내지 우측 경계의 x 좌표값의 범위 내로 클리핑될 수 있다.
클리핑 함수 6에 따르면, 현재 블록의 서브 블록의 움직임 벡터가 가리키는 지점의 참조 위치의 y 좌표 mvX[ 1 ]는, 최종 참조 영역의 상측 경계의 y 좌표값 내지 하측 경계의 y 좌표값의 범위 내로 클리핑될 수 있다.
따라서, 클리핑 함수 5, 6에 따라, 현재 블록의 서브 블록의 움직임 벡터가 가리키는 참조 위치는 최종 참조 영역 내에 위치하도록 결정될 수 있다.
한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.
매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
이상, 본 개시의 기술적 사상을 바람직한 실시예를 들어 상세하게 설명하였으나, 본 개시의 기술적 사상은 상기 실시예들에 한정되지 않고, 본 개시의 기술적 사상의 범위 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 여러 가지 변형 및 변경이 가능하다.

Claims (15)

  1. 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때, 상기 현재 블록의 기본 움직임 벡터를 이용하여 상기 현재 블록의 중앙 움직임 벡터를 결정하는 단계;
    상기 현재 블록의 크기에 기초하여 상기 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정하는 단계;
    상기 현재 블록의 참조 픽쳐에서 상기 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 상기 참조 범위의 크기를 가지는 참조 영역이 상기 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 상기 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 상기 참조 영역을 변경하는 단계;
    상기 참조 픽쳐 중 상기 변경된 참조 영역 내에서 상기 현재 블록의 서브 블록들의 예측 샘플들을 결정하는 단계; 및
    상기 현재 블록의 예측샘플들을 이용하여 상기 현재 블록의 복원 샘플들을 결정하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  2. 제1항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 상기 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  3. 제1항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 상기 현재 픽쳐의 우측 경계의 x축 좌표보다 큰 경우에, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 우측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 우측 경계의 x축 좌표에서 상기 참조 범위를 뺀 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  4. 제1항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 상기 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  5. 제1항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 상기 현재 픽쳐의 하측 경계의 y축 좌표보다 큰 경우에, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 하측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 하측 경계의 y축 좌표에서 상기 참조 범위를 뺀 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  6. 제1항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 상기 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  7. 제1항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 상기 현재 픽쳐의 우측 경계의 x축 좌표보다 큰 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 우측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 우측 경계의 x축 좌표에서 상기 참조 범위를 뺀 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  8. 제1항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 상기 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  9. 제1항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 상기 현재 픽쳐의 하측 경계의 y축 좌표보다 큰 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 하측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 하측 경계의 y축 좌표에서 상기 참조 범위를 뺀 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 복호화 방법.
  10. 비디오 복호화 장치에 있어서,
    현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때, 상기 현재 블록의 기본 움직임 벡터를 획득하는 어파인 모델 인터 예측부;
    상기 기본 움직임 벡터를 이용하여 상기 현재 블록의 중앙 움직임 벡터를 결정하고, 상기 현재 블록의 크기에 기초하여 상기 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정하고, 상기 현재 블록의 참조 픽쳐에서 상기 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 상기 참조 범위의 크기를 가지는 참조 영역이 상기 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 상기 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 상기 참조 영역을 변경하고, 상기 참조 픽쳐 중 상기 변경된 참조 영역 내에서 상기 현재 블록의 서브 블록들의 예측 샘플들을 결정하는 인터 예측 샘플 결정부; 및
    상기 현재 블록의 예측샘플들을 이용하여 상기 현재 블록의 복원 샘플들을 결정하는 복원부를 포함하는 것을 특징으로 하는 비디오 복호화 장치.
  11. 현재 블록에서 어파인 모델 기반의 인터 예측이 수행될 때 상기 현재 블록의 기본 움직임 벡터를 이용하여 상기 현재 블록의 중앙 움직임 벡터를 결정하는 단계;
    상기 현재 블록의 크기에 기초하여 상기 현재 블록의 참조할 수 있는 영역의 참조 범위를 결정하는 단계;
    상기 현재 블록의 참조 픽쳐에서 상기 현재 블록의 중앙 움직임 벡터가 가리키는 지점을 중심으로 상기 참조 범위의 크기를 가지는 참조 영역이 상기 참조 픽쳐의 경계를 벗어나거나 포함하는 경우에, 상기 참조 영역을 상기 현재 픽쳐 내부로 평행이동시킴으로써 상기 참조 영역을 변경하는 단계;
    상기 참조 픽쳐 중 상기 변경된 참조 영역 내에서 상기 현재 블록의 서브 블록들의 예측 샘플들을 결정하는 단계; 및
    상기 현재 블록의 예측 샘플들을 이용하여 상기 현재 블록의 레지듀얼 샘플들을 부호화하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화 방법.
  12. 제11항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 좌측 경계의 x축 좌표가 상기 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화 방법.
  13. 제11항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 상측 경계의 y축 좌표가 상기 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화 방법.
  14. 제11항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 우측 경계의 x축 좌표가 상기 현재 픽쳐의 좌측 경계의 x축 좌표보다 작은 경우에, 상기 참조 영역의 좌측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표로 변경하고, 상기 참조 영역의 우측 경계의 x축 좌표를 상기 현재 픽쳐의 좌측 경계의 x축 좌표에 상기 참조 범위를 더한 값으로 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화 방법.
  15. 제11항에 있어서, 상기 참조 영역을 변경하는 단계는,
    상기 현재 블록의 중앙 움직임 벡터가 가리키는 참조 영역의 하측 경계의 y축 좌표가 상기 현재 픽쳐의 상측 경계의 y축 좌표보다 작은 경우에, 상기 참조 영역의 상측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표로 변경하고, 상기 참조 영역의 하측 경계의 y축 좌표를 상기 현재 픽쳐의 상측 경계의 y축 좌표에 상기 참조 범위를 변경하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화 방법.
PCT/KR2020/015146 2019-10-31 2020-11-02 어파인 모델에 따른 인터 예측을 수행하는 비디오 복호화 방법 및 그 장치, 비디오 부호화 방법 및 그 장치 WO2021086153A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20880908.7A EP4054192A4 (en) 2019-10-31 2020-11-02 VIDEO DECODING METHOD AND APPARATUS, AND VIDEO CODING METHOD AND APPARATUS FOR PERFORMING INTER PREDICTION ACCORDING TO AN AFFINE MODEL
KR1020227008516A KR20220046656A (ko) 2019-10-31 2020-11-02 어파인 모델에 따른 인터 예측을 수행하는 비디오 복호화 방법 및 그 장치, 비디오 부호화 방법 및 그 장치
US17/728,222 US11985326B2 (en) 2019-10-31 2022-04-25 Video decoding method and apparatus, and video encoding method and apparatus for performing inter prediction according to affine model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962928604P 2019-10-31 2019-10-31
US62/928,604 2019-10-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/728,222 Continuation US11985326B2 (en) 2019-10-31 2022-04-25 Video decoding method and apparatus, and video encoding method and apparatus for performing inter prediction according to affine model

Publications (1)

Publication Number Publication Date
WO2021086153A1 true WO2021086153A1 (ko) 2021-05-06

Family

ID=75715491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/015146 WO2021086153A1 (ko) 2019-10-31 2020-11-02 어파인 모델에 따른 인터 예측을 수행하는 비디오 복호화 방법 및 그 장치, 비디오 부호화 방법 및 그 장치

Country Status (4)

Country Link
US (1) US11985326B2 (ko)
EP (1) EP4054192A4 (ko)
KR (1) KR20220046656A (ko)
WO (1) WO2021086153A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114930840A (zh) * 2020-01-07 2022-08-19 华为技术有限公司 增强型插值滤波器的运动矢量范围的推导
US20240129479A1 (en) * 2022-10-14 2024-04-18 Tencent America LLC Motion vector derivation of subblock-based template-matching for subblock based motion vector predictor
CN118101964A (zh) * 2022-11-25 2024-05-28 京东方科技集团股份有限公司 视频数据处理方法及装置、显示装置和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180028513A (ko) * 2015-08-04 2018-03-16 엘지전자 주식회사 비디오 코딩 시스템에서 인터 예측 방법 및 장치
KR20180128955A (ko) * 2016-03-28 2018-12-04 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US20180359483A1 (en) * 2017-06-13 2018-12-13 Qualcomm Incorporated Motion vector prediction
KR20190120389A (ko) * 2017-03-14 2019-10-23 퀄컴 인코포레이티드 아핀 모션 정보 도출

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10200713B2 (en) * 2015-05-11 2019-02-05 Qualcomm Incorporated Search region determination for inter coding within a particular picture of video data
US10560712B2 (en) * 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
CN118042154A (zh) * 2018-01-25 2024-05-14 三星电子株式会社 使用基于子块的运动补偿进行视频信号处理的方法和装置
US10462488B1 (en) * 2018-07-13 2019-10-29 Tencent America LLC Method and apparatus for video coding
US11057636B2 (en) * 2018-09-17 2021-07-06 Qualcomm Incorporated Affine motion prediction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180028513A (ko) * 2015-08-04 2018-03-16 엘지전자 주식회사 비디오 코딩 시스템에서 인터 예측 방법 및 장치
KR20180128955A (ko) * 2016-03-28 2018-12-04 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR20190120389A (ko) * 2017-03-14 2019-10-23 퀄컴 인코포레이티드 아핀 모션 정보 도출
US20180359483A1 (en) * 2017-06-13 2018-12-13 Qualcomm Incorporated Motion vector prediction

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS , JIANLE CHEN , SHAN LIU , YE-KUI WANG: "Versatile Video Coding (Draft 7)", 16. JVET MEETING; 20191001 - 20191011; GENEVA; (THE JOINT VIDEO EXPLORATION TEAM OF ISO/IEC JTC1/SC29/WG11 AND ITU-T SG.16 ), 25 October 2019 (2019-10-25), Geneva CH, pages 1 - 484, XP030224326 *
See also references of EP4054192A4 *

Also Published As

Publication number Publication date
US11985326B2 (en) 2024-05-14
US20220248028A1 (en) 2022-08-04
KR20220046656A (ko) 2022-04-14
EP4054192A1 (en) 2022-09-07
EP4054192A4 (en) 2023-12-20

Similar Documents

Publication Publication Date Title
WO2020060158A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2020076097A1 (ko) 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2018097693A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018016823A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019172705A1 (ko) 샘플 필터링을 이용한 영상 부호화/복호화 방법 및 장치
WO2019009504A1 (ko) 적응적 움직임 벡터 해상도로 결정된 움직임 벡터의 부호화 장치 및 부호화 방법, 및 움직임 벡터의 복호화 장치 및 복호화 방법
WO2021086153A1 (ko) 어파인 모델에 따른 인터 예측을 수행하는 비디오 복호화 방법 및 그 장치, 비디오 부호화 방법 및 그 장치
WO2019054736A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2020130730A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2019168347A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2019093598A1 (ko) 움직임 정보의 부호화 장치 및 방법, 및 복호화 장치 및 방법
WO2021049894A1 (ko) 툴 세트를 이용하는 영상 복호화 장치 및 이에 의한 영상 복호화 방법, 및 영상 부호화 장치 및 이에 의한 영상 부호화 방법
WO2020130712A1 (ko) 삼각 예측 모드를 이용하는 영상 부호화 장치 및 영상 복호화 장치, 및 이에 의한 영상 부호화 방법 및 영상 복호화 방법
WO2019066574A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020139061A1 (ko) 화면 간 예측 부호화 및 복호화 방법 및 장치
WO2020076130A1 (ko) 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 방법, 및 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 장치
WO2019059575A2 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019194425A1 (ko) 영상 부호화 또는 복호화에 인공 신경망을 적용하는 장치 및 방법
WO2019135648A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019066174A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020256468A1 (ko) 주변 움직임 정보를 이용하여 움직임 정보를 부호화 및 복호화하는 장치, 및 방법
WO2020040623A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2017176092A1 (ko) 움직임 예측 정보를 유도하는 방법 및 장치
WO2021141451A1 (ko) 양자화 파라미터를 획득하기 위한 비디오 복호화 방법 및 장치, 양자화 파라미터를 전송하기 위한 비디오 부호화 방법 및 장치
WO2020139059A1 (ko) 움직임 벡터 차분의 부호화 방법 및 부호화 장치, 및 움직임 벡터 차분의 복호화 방법 및 복호화 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20880908

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20227008516

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020880908

Country of ref document: EP

Effective date: 20220531