WO2019172676A1 - 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치 - Google Patents

비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치 Download PDF

Info

Publication number
WO2019172676A1
WO2019172676A1 PCT/KR2019/002652 KR2019002652W WO2019172676A1 WO 2019172676 A1 WO2019172676 A1 WO 2019172676A1 KR 2019002652 W KR2019002652 W KR 2019002652W WO 2019172676 A1 WO2019172676 A1 WO 2019172676A1
Authority
WO
WIPO (PCT)
Prior art keywords
mode
coding unit
block
intra prediction
index
Prior art date
Application number
PCT/KR2019/002652
Other languages
English (en)
French (fr)
Inventor
최나래
진보라
표인지
박민우
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN201980017820.2A priority Critical patent/CN111819845A/zh
Priority to US16/970,179 priority patent/US11381814B2/en
Priority to KR1020227024238A priority patent/KR102618498B1/ko
Priority to KR1020207024549A priority patent/KR102422798B1/ko
Priority to KR1020237044412A priority patent/KR20240005173A/ko
Publication of WO2019172676A1 publication Critical patent/WO2019172676A1/ko
Priority to US17/853,430 priority patent/US11917140B2/en
Priority to US18/417,778 priority patent/US20240163428A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Definitions

  • the present disclosure relates to a video decoding method and a video decoding apparatus, and more particularly, the present disclosure relates to Most Probable Mode (MPM) modes and MPM modes based on neighboring blocks on the right as well as left and upper neighboring blocks of the current block.
  • MPM Probable Mode
  • the present invention relates to a method and apparatus for encoding an image by performing intra prediction using an extended intra mode set configured based on the method, and a method and apparatus for decoding.
  • the image data is encoded by a codec according to a predetermined data compression standard, for example, the Moving Picture Expert Group (MPEG) standard, and then stored in a recording medium in the form of a bitstream or transmitted through a communication channel.
  • MPEG Moving Picture Expert Group
  • MCMs most probable modes
  • the prediction mode of the left neighboring block adjacent to the left side of the current block, the prediction mode of the upper neighboring block adjacent to the upper side of the current block, and the prediction of the right neighboring block adjacent to the right side of the current block Extended intra mode set indicating availability of extended probable mode (MPM) mode information indicating whether to use MPM modes of the current block determined based on a mode, and using an extended intra mode set configured based on the MPM modes.
  • MPM extended probable mode
  • a method and apparatus for acquiring information and performing intra prediction using the determined intra prediction mode of the current block based on the MPM mode information and the extended intra mode set information are provided.
  • the video decoding method proposed in the present disclosure includes a prediction mode of a left neighboring block adjacent to a left side of a current block, a prediction mode of an upper neighboring block adjacent to an upper side of the current block, and the current block.
  • Acquiring Most Probable Mode (MPM) mode information indicating whether MPM modes of the current block are used based on at least two prediction modes of the right neighboring block adjacent to the right side of;
  • MPM Most Probable Mode
  • the method may include determining an intra prediction mode of the current block based on the MPM mode information and the extended intra mode set information.
  • the video decoding apparatus proposed by the present disclosure includes a memory; And at least one processor connected with the memory, wherein the at least one processor comprises: a prediction mode of a left neighboring block adjacent to the left side of a current block, a prediction mode of an upper neighboring block adjacent to an upper side of the current block, And obtains Most Probable Mode (MPM) mode information indicating whether MPM modes of the current block are used based on at least two prediction modes of a right neighboring block adjacent to the right side of the current block, and the MPM mode.
  • MPM Most Probable Mode
  • Obtain extended intra mode set information indicating whether to use the extended intra mode set configured based on the information, and determine an intra prediction mode of the current block based on the MPM mode information and the extended intra mode set information. Can be.
  • the video encoding method proposed in the present disclosure may perform an intra prediction of a current block, thereby performing a prediction mode of a left neighboring block adjacent to a left side of a current block, and an upper neighbor adjacent to an upper side of the current block.
  • Generate Most Probable Mode (MPM) mode information indicating whether the MPM modes of the current block are determined based on at least two of the prediction mode of the block and the prediction mode of the right neighboring block adjacent to the right side of the current block Doing;
  • Generating extended intra mode set information indicating whether to use an extended intra mode set configured based on the MPM modes;
  • And encoding the MPM mode information and the extended intra mode set information may perform an intra prediction of a current block, thereby performing a prediction mode of a left neighboring block adjacent to a left side of a current block, and an upper neighbor adjacent to an upper side of the current block.
  • MPM Most Probable Mode
  • the video encoding apparatus proposed by the present disclosure includes at least one processor connected to the memory, and the at least one processor may perform: intra prediction of the current block, thereby performing a left-hand side of the current block. The determined based on at least two or more of a prediction mode of a left neighboring block adjacent to, a prediction mode of an upper neighboring block adjacent to an upper side of the current block, and a prediction mode of a right neighboring block adjacent to a right side of the current block; Generate Most Probable Mode (MPM) mode information indicating whether the MPM modes of the current block are used, generate extended intra mode set information indicating whether the extended intra mode set is configured based on the MPM modes, and Can be configured to encode MPM mode information and the extended intra mode set information.
  • MPM Generate Most Probable Mode
  • the prediction mode of the left neighboring block adjacent to the left side of the current block, the prediction mode of the upper neighboring block adjacent to the upper side of the current block, and the prediction of the right neighboring block adjacent to the right side of the current block Obtains Most Probable Mode (MPM) mode information indicating whether the MPM modes of the current block are determined based on at least two of the modes, and whether to use the extended intra mode set configured based on the MPM modes. Acquiring the extended intra mode set information indicating and performing the prediction of the current block in the intra prediction mode with the determined intra prediction mode of the current block based on the MPM mode information and the extended intra mode set information.
  • MPM Most Probable Mode
  • FIG. 1 is a schematic block diagram of an image decoding apparatus according to an embodiment.
  • FIG. 2 is a flowchart of an image decoding method, according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating a process of determining, by an image decoding apparatus, at least one coding unit by dividing a current coding unit according to an embodiment.
  • FIG. 4 illustrates a process of determining at least one coding unit by dividing a coding unit having a non-square shape by an image decoding apparatus according to an embodiment.
  • FIG. 5 illustrates a process of splitting a coding unit based on at least one of block shape information and split mode mode information, according to an embodiment.
  • FIG. 6 is a diagram for a method of determining, by an image decoding apparatus, a predetermined coding unit among odd number of coding units according to an embodiment.
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when the image decoding apparatus determines a plurality of coding units by dividing a current coding unit.
  • FIG. 8 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus cannot process the coding units in a predetermined order, according to an embodiment.
  • FIG. 9 illustrates a process of determining at least one coding unit by dividing a first coding unit by an image decoding apparatus according to an embodiment.
  • FIG. 10 is a view illustrating that a shape in which a second coding unit may be split is limited when a non-square type second coding unit determined by splitting a first coding unit according to an embodiment satisfies a predetermined condition. Shows that.
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus when the split mode mode information cannot be divided into four square coding units.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • FIG. 14 illustrates a depth and a part index (PID) for distinguishing a coding unit, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture, according to an embodiment.
  • 17 is a block diagram of a video encoding apparatus, according to an embodiment.
  • FIG. 18 is a flowchart of a video encoding method, according to an embodiment.
  • 19 is a block diagram of a video decoding apparatus, according to an embodiment.
  • FIG. 20 is a flowchart of a video decoding method, according to an embodiment.
  • FIG. 21 is a diagram for describing a coding order of coding units included in a maximum coding unit and a maximum coding unit.
  • FIG. 22A illustrates an intra prediction method according to whether a neighboring block is reconstructed
  • FIG. 22B illustrates a modified algorithm for a case where a right neighboring block adjacent to the right side of the current block can be used.
  • FIG. 24A shows a Bilinear prediction mode using left and upper neighboring blocks
  • FIG. 24B shows a Bilinear prediction mode using upper and right neighboring blocks
  • FIG. 24C shows a Bilinear prediction mode using left and right neighboring blocks.
  • 25 shows an example of a multi-tap filter used for intra prediction.
  • 26 shows another example of a multi-tap filter used for intra prediction.
  • FIG. 27A shows an example of a 4-tap filter used for intra prediction
  • FIG. 27B shows another example of a 4-tap filter used for intra prediction.
  • FIG. 29A illustrates block indexes included in a coding unit
  • FIG. 29B illustrates an example of a scan order of a coding unit
  • FIG. 29C illustrates another example of a scan order in a block map of a coding unit
  • FIG. 29D The block map which shows the coded block of the block contained in a coding unit is shown.
  • FIG. 30A illustrates a block to which a split unit coding order (SUCO) is applied in which a coding order is changed from right to left
  • FIG. 30B illustrates a scan order of a coding unit to which SUCO is applied
  • FIG. An example of a block map is shown
  • FIG. 30D illustrates an example of a coding unit including a current block
  • FIG. 30E illustrates a block map of a coding unit including a current block to which SUCO is applied.
  • SUCO split unit coding order
  • FIG. 31A shows a Probable Intra Mode Set (PIMS) when the left and top peripheral blocks of the current block are available
  • FIG. 31B shows a PIMS when the right and top peripheral blocks of the current block are available
  • FIGC shows PIMS when all of the left, top, and right peripheral blocks of the current block are available.
  • PIMS Probable Intra Mode Set
  • FIG. 32A shows syntax of a flag indicating whether MPM and PIMS are used
  • FIG. 32B shows syntax of PIMS.
  • FIG. 34A shows an example of the syntax of multi-parameter prediction used for intra prediction
  • FIG. 34B shows an example of the syntax of multi-parameter prediction according to an availability check.
  • FIG. 35A illustrates an example of a filtered reference sample used for multiple combined intra prediction
  • FIG. 35B illustrates an example where multiple combined intra prediction is applied.
  • FIG. 36A shows an example of the syntax of multiple combined intra prediction used for intra prediction
  • FIG. 36B shows an example of the syntax of multiple combined intra prediction according to an availability check.
  • a video decoding method includes a prediction mode of a left neighboring block adjacent to a left side of a current block, a prediction mode of an upper neighboring block adjacent to an upper side of the current block, and a right side of the current block.
  • MPM Most Probable Mode
  • MPM Most Probable Mode
  • extended intra mode set information indicating whether to use an extended intra mode set configured based on the MPM modes;
  • the method may include determining an intra prediction mode of the current block based on the MPM mode information and the extended intra mode set information.
  • one of the MPM modes is determined as the intra prediction mode of the current block, and the MPM mode information indicates that the MPM mode is not used. If the extended intra mode set information indicates that an extended intra mode set is used, one of the extended intra mode sets is determined as an intra prediction mode of the current block, and the MPM mode information indicates that an MPM mode is not used. If the extended intra mode set information indicates that an extended intra mode set is not used, one of the MPM mode and an intra prediction mode not included in the extended intra mode set may be determined as an intra prediction mode of the current block. Can be.
  • the extended intra mode set sets the MPM modes of the current block. It can be configured using.
  • the extended intra mode set may predict the MPM modes of the current block and the right neighboring block. It can be configured using the mode.
  • the left neighboring block, the upper neighboring block, and the right neighboring block are all available, the left neighboring block, the upper neighboring block, And the MPM mode of the current block may be determined using the prediction mode of two blocks of the right neighboring block.
  • the right neighboring block is available, and only one of the left neighboring block and the upper neighboring block is available, prediction of the right neighboring block is performed.
  • the MPM mode of the current block may be determined using a mode and a prediction mode of one of the available upper and lower right blocks.
  • the directional mode in which the left neighboring block, the upper neighboring block, and the right neighboring block are all available, and the prediction modes of the left neighboring block, the upper neighboring block, and the right neighboring block are different from each other.
  • the extended intra mode set is the intra prediction mode of the index increased by N from the index of the intra prediction mode of the left neighboring block
  • the extended intra mode set may be configured according to the types of the MPM modes.
  • the extended intra mode set is a plane mode, a horizontal mode, a vertical mode, and a diagonal mode (Diagonal). Mode).
  • the extended intra mode set is 1 from the index of the bilinear mode, the plane mode, and the directional mode.
  • An intra prediction mode, a first default mode, and a second default mode of the index may be configured, and the first default mode and the second default mode may be a predetermined intra prediction mode.
  • the first default mode and the second default mode may be determined from a list in which intra prediction modes having a high probability of being statistically selected are sequentially listed.
  • the extended intra mode set is derived from an index of the first directional mode.
  • Intra prediction mode of index increased by 1 intra prediction mode of index reduced by 1 from index of first directional mode, intra prediction mode of index increased by 1 from index of second directional mode, index of second directional mode
  • Intra prediction mode horizontal mode, vertical mode, DC mode, Bilinear mode of the index reduced by 1 from.
  • the MPM mode of the current block includes an intra prediction mode of the left neighboring block and the upper neighboring block, the MPM mode is a DC mode and a first directional mode, and the prediction mode of the right neighboring block.
  • the extended intra mode set is the bilinear mode, the plane mode, the second directional mode, the index of the index increased by 1 from the index of the first directional mode, the index of the first directional mode
  • the default mode may be a predetermined intra prediction mode.
  • the extended intra mode set includes the third directional mode, an intra prediction mode of an index increased by 1 from an index of the first directional mode, an intra prediction mode of an index reduced by 1 from an index of a first directional mode, and a second directionality.
  • a prediction mode of a left neighboring block adjacent to a left side of a current block, and a top neighboring block adjacent to an upper side of the current block may be performed.
  • And encoding the MPM mode information and the extended intra mode set information may be performed.
  • a video decoding apparatus includes a memory; And at least one processor connected with the memory, wherein the at least one processor comprises: a prediction mode of a left neighboring block adjacent to the left side of a current block, a prediction mode of an upper neighboring block adjacent to an upper side of the current block, And obtains Most Probable Mode (MPM) mode information indicating whether MPM modes of the current block are used based on at least two prediction modes of a right neighboring block adjacent to the right side of the current block, and the MPM mode.
  • MPM Most Probable Mode
  • Obtain extended intra mode set information indicating whether to use the extended intra mode set configured based on the information, and determine an intra prediction mode of the current block based on the MPM mode information and the extended intra mode set information. Can be.
  • the term “part” means a software or hardware component, and “part” plays certain roles. However, “part” is not meant to be limited to software or hardware.
  • the “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors.
  • a “part” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables.
  • the functionality provided within the components and “parts” may be combined into a smaller number of components and “parts” or further separated into additional components and “parts”.
  • the “unit” may be implemented with a processor and a memory.
  • the term “processor” should be interpreted broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, and the like.
  • a “processor” may refer to an application specific semiconductor (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA), or the like.
  • ASIC application specific semiconductor
  • PLD programmable logic device
  • FPGA field programmable gate array
  • processor refers to a combination of processing devices such as, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in conjunction with a DSP core, or a combination of any other such configuration. May be referred to.
  • memory should be interpreted broadly to include any electronic component capable of storing electronic information.
  • the term memory refers to random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erase-programmable read-only memory (EPROM), electrical And may refer to various types of processor-readable media, such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, and the like.
  • RAM random access memory
  • ROM read-only memory
  • NVRAM non-volatile random access memory
  • PROM programmable read-only memory
  • EPROM erase-programmable read-only memory
  • electrical And may refer to various types of processor-readable media, such as erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, and the like.
  • EEPROM erasable PROM
  • flash memory magnetic or optical data storage, registers, and the like.
  • the "image” may be a static image such as a still image of a video or may represent a dynamic image such as a video, that is, the video itself.
  • sample means data to be processed as data allocated to a sampling position of an image.
  • pixel values and transform coefficients on a transform region may be samples in an image of a spatial domain.
  • a unit including the at least one sample may be defined as a block.
  • a 'current block' may mean a block of a maximum coding unit, a coding unit, a prediction unit, or a transformation unit of a current image to be encoded or decoded.
  • FIGS. 1 through 16 A method of determining a data unit of an image according to an exemplary embodiment will be described with reference to FIGS. 3 through 16, and a current according to an exemplary embodiment will be described with reference to FIGS. 17 through 20, 23, 24, and 31A through 32B.
  • a video decoding method of determining the intra prediction mode of the current block using the MPM mode determined based on the intra prediction modes of the left, upper, and right neighboring blocks of the block and the extended intra mode set configured based on the MPM mode will be described below.
  • FIGS. 21 through 22 An intra prediction method according to a coding order and whether a neighboring block is reconstructed will be described below with reference to FIGS. 21 through 22, and a filtering method used for intra prediction will be described below with reference to FIGS. 25 through 28.
  • a block map used for intra prediction with reference to will be described later, and with reference to FIGS. 33 to 36B, other methods of intra prediction are described below.
  • FIGS. 1 and 2 a method and apparatus for adaptively selecting a context model based on various types of coding units according to an embodiment of the present disclosure will be described with reference to FIGS. 1 and 2.
  • FIG. 1 is a schematic block diagram of an image decoding apparatus according to an embodiment.
  • the image decoding apparatus 100 may include a receiver 110 and a decoder 120.
  • the receiver 110 and the decoder 120 may include at least one processor.
  • the receiver 110 and the decoder 120 may include a memory that stores instructions to be executed by at least one processor.
  • the receiver 110 may receive a bitstream.
  • the bitstream includes information encoded by an image encoding apparatus 2200, which will be described later.
  • the bitstream may be transmitted from the image encoding apparatus 2200.
  • the image encoding apparatus 2200 and the image decoding apparatus 100 may be connected by wire or wirelessly, and the receiver 110 may receive a bitstream through wire or wirelessly.
  • the receiver 110 may receive a bitstream from a storage medium such as an optical media or a hard disk.
  • the decoder 120 may reconstruct an image based on the information obtained from the received bitstream.
  • the decoder 120 may obtain a syntax element for reconstructing an image from the bitstream.
  • the decoder 120 may reconstruct the image based on the syntax element.
  • FIG. 2 is a flowchart of an image decoding method, according to an exemplary embodiment.
  • the receiver 110 receives a bitstream.
  • the image decoding apparatus 100 performs a step 210 of obtaining a binstring corresponding to the split type mode of the coding unit from the bitstream.
  • the image decoding apparatus 100 determines 220 a division rule of a coding unit.
  • the image decoding apparatus 100 divides a coding unit into a plurality of coding units based on at least one of the bean string corresponding to the split mode and the split rule.
  • the image decoding apparatus 100 may determine an allowable first range of the size of the coding unit according to a ratio of the width and the height of the coding unit, to determine the division rule.
  • the image decoding apparatus 100 may determine a second allowable range of the size of the coding unit according to the division type mode of the coding unit, in order to determine the division rule.
  • a picture may be divided into one or more slices or one or more tiles.
  • One slice or one tile may be a sequence of one or more largest coding tree units (CTUs).
  • CTU largest coding tree units
  • CTB coding tree block
  • the largest coding block refers to an N ⁇ N block including N ⁇ N samples (N is an integer). Each color component may be divided into one or more maximum coding blocks.
  • a maximum coding unit is a maximum coding block of luma samples and two maximum coding blocks of chroma samples corresponding thereto and luma.
  • the maximum coding unit is a unit including a maximum coding block of monochrome samples and syntax structures used to encode monochrome samples.
  • the maximum coding unit is a unit including syntax structures used to encode the picture and samples of the picture.
  • One largest coding block may be divided into an M ⁇ N coding block including M ⁇ N samples (M and N are integers).
  • a coding unit means two coding blocks of a luma sample coding block and corresponding chroma samples, and encodes luma samples and chroma samples.
  • a unit that contains syntax structures used to When a picture is a monochrome picture a coding unit is a unit including a coding block of monochrome samples and syntax structures used to encode monochrome samples.
  • a coding unit is a unit including syntax structures used to encode the picture and samples of the picture.
  • the maximum coding block and the maximum coding unit are different from each other, and the coding block and the coding unit are different from each other. That is, the (maximum) coding unit refers to a data structure including a (maximum) coding block including a corresponding sample and a syntax structure corresponding thereto.
  • a (maximum) coding unit or a (maximum) coding block refers to a block of a predetermined size including a predetermined number of samples, and thus, in the following specification, a maximum coding block and a maximum coding unit, or a coding block and a coding unit Unless otherwise stated, mention is made without distinction.
  • the image may be divided into a maximum coding unit (CTU).
  • the size of the largest coding unit may be determined based on information obtained from the bitstream.
  • the shape of the largest coding unit may have a square of the same size. But it is not limited thereto.
  • information about the maximum size of the luma coding block may be obtained from the bitstream.
  • the maximum size of the luma coding block indicated by the information about the maximum size of the luma coding block may be one of 4x4, 8x8, 16x16, 32x32, 64x64, 128x128, and 256x256.
  • information about a maximum size of a luma coded block and a luma block size difference that can be divided into two from a bitstream may be obtained.
  • the information about the luma block size difference may indicate a size difference between a luma maximum coding unit and a maximum luma coding block that can be divided into two. Therefore, when the information about the maximum size of the two-divisionable luma coding block obtained from the bitstream and the information about the difference in the luma block size are combined, the size of the luma maximum coding unit may be determined. Using the size of the luma maximum coding unit, the size of the chroma maximum coding unit may also be determined.
  • the size of the chroma block may be half the size of the luma block, and the size of the chroma maximum coding unit is equal to that of the luma maximum coding unit. It can be half the size.
  • the maximum size of the luma coding block capable of binary splitting may be variably determined.
  • the maximum size of a luma coding block capable of ternary split may be fixed.
  • a maximum size of a luma coding block capable of ternary division in an I picture may be 32x32
  • a maximum size of a luma coding block in which a ternary division may be performed in a P picture or a B picture may be 64x64.
  • the maximum coding unit may be hierarchically divided into coding units based on split type mode information obtained from the bitstream.
  • split type mode information at least one of information indicating whether or not quad splitting, information indicating whether or not to split, split direction information, and split type information may be obtained from the bitstream.
  • the information indicating whether to quad split may indicate whether the current coding unit is quad split (QUAD_SPLIT) or not quad split.
  • the information indicating whether to divide the information may indicate whether the current coding unit is no longer divided (NO_SPLIT) or binary / ternary division.
  • the splitting direction information indicates that the current coding unit is split into one of a horizontal direction and a vertical direction.
  • the split type information indicates that the current coding unit is split into binary divisions or ternary divisions.
  • the split mode of the current coding unit may be determined.
  • the division mode when the current coding unit is binary divided in the horizontal direction is binary horizontal division (SPLIT_BT_HOR), the ternary horizontal division when the ternary division in the horizontal direction (SPLIT_TT_HOR), and the division mode when the binary division in the vertical direction
  • the division mode in the case of binary vertical division (SPLIT_BT_VER) and ternary division in the vertical direction may be determined as ternary vertical division (SPLIT_BT_VER).
  • the image decoding apparatus 100 may obtain split type mode information from a bitstream from one bean string.
  • the form of the bitstream received by the image decoding apparatus 100 may include a fixed length binary code, an unary code, a truncated unary code, a predetermined binary code, and the like.
  • a beanstring is a binary representation of information.
  • the beanstring may consist of at least one bit.
  • the image decoding apparatus 100 may obtain division type mode information corresponding to the bean string based on the division rule.
  • the image decoding apparatus 100 may determine whether to split the coding unit, whether or not to split the coding unit, or the split direction and the split type, based on one bean string.
  • the coding unit may be smaller than or equal to the maximum coding unit.
  • the maximum coding unit is also one of coding units because it is a coding unit having a maximum size.
  • the coding unit determined in the maximum coding unit has the same size as the maximum coding unit.
  • the split mode mode information on the maximum coding unit is split, the maximum coding unit may be split into coding units.
  • split type mode information on a coding unit indicates splitting, coding units may be split into coding units having a smaller size.
  • segmentation of an image is not limited thereto, and a maximum coding unit and a coding unit may not be distinguished. Splitting of coding units will be described in more detail with reference to FIGS. 3 to 16.
  • one or more prediction blocks for prediction may be determined from the coding unit.
  • the prediction block may be equal to or smaller than the coding unit.
  • one or more transform blocks for transform may be determined from a coding unit.
  • the transform block can be equal to or smaller than the coding unit.
  • the shape and size of the transform block and the prediction block may not be related to each other.
  • prediction may be performed using a coding unit as a coding block.
  • transformation may be performed using a coding unit as a coding unit.
  • the current block and neighboring blocks of the present disclosure may represent one of a maximum coding unit, a coding unit, a prediction block, and a transform block.
  • the current block or the current coding unit is a block in which decoding or encoding is currently performed or a block in which current division is in progress.
  • the neighboring block may be a block restored before the current block.
  • the neighboring blocks can be spatially or temporally adjacent from the current block.
  • the neighboring block may be located at one of the lower left side, left side, upper left side, upper side, upper right side, right side, and lower side of the current block.
  • FIG. 3 is a diagram illustrating a process of determining, by an image decoding apparatus, at least one coding unit by dividing a current coding unit according to an embodiment.
  • the block type may include 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN or Nx8N.
  • N may be a positive integer.
  • the block shape information is information indicating at least one of a shape, a direction, a width, and a ratio or size of a coding unit.
  • the shape of the coding unit may include square and non-square.
  • the image decoding apparatus 100 may determine block shape information of the coding unit as a square.
  • the image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
  • Block shape information of a coding unit may be determined as a non-square.
  • the image decoding apparatus 100 may determine a ratio of the width and the height of the block shape information of the coding unit to 1: 2, 2: 1, 1: 4, 4: 1, 1: 8. , 8: 1, 1:16, 16: 1, 1:32, 32: 1.
  • the image decoding apparatus 100 may determine whether the coding unit is a horizontal direction or a vertical direction, based on the length of the width of the coding unit and the length of the height. Also, the image decoding apparatus 100 may determine the size of the coding unit based on at least one of the length, the length, or the width of the coding unit.
  • the image decoding apparatus 100 may determine a shape of a coding unit by using block shape information, and may determine which type of coding unit is divided by using split shape mode information. That is, the method of dividing the coding unit indicated by the split mode mode information may be determined according to which block shape the block shape information used by the image decoding apparatus 100 indicates.
  • the image decoding apparatus 100 may obtain segmentation mode information from the bitstream. However, the present invention is not limited thereto, and the image decoding apparatus 100 and the image encoding apparatus 2200 may determine the predetermined partition type mode information based on the block shape information.
  • the image decoding apparatus 100 may determine the partition type mode information previously promised with respect to the maximum coding unit or the minimum coding unit. For example, the image decoding apparatus 100 may determine split type mode information as a quad split with respect to the maximum coding unit. In addition, the image decoding apparatus 100 may determine that the split mode mode information is "not divided" with respect to the minimum coding unit. In more detail, the image decoding apparatus 100 may determine the size of the largest coding unit to 256x256.
  • the image decoding apparatus 100 may determine the partition type mode information previously promised as quad division.
  • Quad division is a division mode mode that bisects both the width and the height of a coding unit.
  • the image decoding apparatus 100 may obtain a 128x128 coding unit from the largest coding unit having a size of 256x256 based on the split mode mode information. Also, the image decoding apparatus 100 may determine the size of the minimum coding unit as 4 ⁇ 4.
  • the image decoding apparatus 100 may obtain split mode mode information indicating “not splitting” with respect to the minimum coding unit.
  • the image decoding apparatus 100 may use block shape information indicating that the current coding unit is square. For example, the image decoding apparatus 100 may determine whether to split a square coding unit, to split vertically, to split horizontally, or to split into four coding units according to the split mode information.
  • the decoder 120 when the block shape information of the current coding unit 300 indicates a square shape, the decoder 120 has the same size as the current coding unit 300 according to the split mode mode information indicating that the block shape information is not divided.
  • the coding unit 310a having a may not be divided, or the divided coding units 310b, 310c, 310d, 310e, 310f, and the like may be determined based on split mode mode information indicating a predetermined division method.
  • the image decoding apparatus 100 divides two coding units 310b in which the current coding unit 300 is divided in the vertical direction based on split mode mode information indicating that the image is split in the vertical direction. You can decide.
  • the image decoding apparatus 100 may determine two coding units 310c that divide the current coding unit 300 in the horizontal direction based on the split type mode information indicating the split in the horizontal direction.
  • the image decoding apparatus 100 may determine four coding units 310d that divide the current coding unit 300 in the vertical direction and the horizontal direction based on the split type mode information indicating that the image decoding apparatus 100 is split in the vertical direction and the horizontal direction.
  • the image decoding apparatus 100 divides three coding units 310e in which the current coding unit 300 is vertically divided based on split type mode information indicating that the ternary is split vertically. You can decide.
  • the image decoding apparatus 100 may determine three coding units 310f that divide the current coding unit 300 in the horizontal direction based on split type mode information indicating that the ternary division is performed in the horizontal direction.
  • the divided form in which the square coding unit may be divided may not be limited to the above-described form and may include various forms that may be indicated by the split mode mode information. Certain division forms in which a square coding unit is divided will be described in detail with reference to various embodiments below.
  • FIG. 4 illustrates a process of determining at least one coding unit by dividing a coding unit having a non-square shape by an image decoding apparatus according to an embodiment.
  • the image decoding apparatus 100 may use block shape information indicating that a current coding unit is a non-square shape.
  • the image decoding apparatus 100 may determine whether to divide the current coding unit of the non-square according to the split mode mode information or whether to split the current coding unit by a predetermined method. Referring to FIG. 4, when the block shape information of the current coding unit 400 or 450 indicates a non-square shape, the image decoding apparatus 100 may determine the current coding unit according to the split shape mode information indicating that the image is not divided.
  • Coding units 420a, 420b, 430a, 430b, 430c, and 470a which determine coding units 410 or 460 having the same size as 400 or 450 or are divided based on split mode mode information indicating a predetermined division method. , 470b, 480a, 480b, and 480c may be determined.
  • a predetermined division method in which a non-square coding unit is divided will be described in detail with reference to various embodiments below.
  • the image decoding apparatus 100 may determine a form in which a coding unit is split using split mode mode information.
  • the split mode mode information may include at least one coding unit generated by splitting the coding unit. It can represent the number.
  • the image decoding apparatus 100 may determine the current coding unit 400 or based on the split mode mode information. By splitting 450, two coding units 420a, 420b, or 470a, 470b included in the current coding unit may be determined.
  • the image decoding apparatus 100 may determine the current shape of the non-square.
  • the current coding unit may be split in consideration of the position of the long side of the coding unit 400 or 450.
  • the image decoding apparatus 100 divides the current coding unit 400 or 450 in a direction of dividing a long side of the current coding unit 400 or 450 in consideration of the shape of the current coding unit 400 or 450. To determine a plurality of coding units.
  • the image decoding apparatus 100 may encode the odd number of encodings included in the current coding unit 400 or 450.
  • the unit can be determined. For example, when the split mode mode information indicates that the current coding unit 400 or 450 is divided into three coding units, the image decoding apparatus 100 may divide the current coding unit 400 or 450 into three coding units ( 430a, 430b, 430c, 480a, 480b, and 480c.
  • the ratio of the width and the height of the current coding unit 400 or 450 may be 4: 1 or 1: 4.
  • the ratio of the width and the height is 4: 1
  • the block shape information may be in the horizontal direction.
  • the ratio of the width and the height is 1: 4
  • the length of the width is shorter than the length of the height
  • the block shape information may be in the vertical direction.
  • the image decoding apparatus 100 may determine to divide the current coding unit into odd blocks based on split type mode information. Also, the image decoding apparatus 100 may determine a split direction of the current coding unit 400 or 450 based on block shape information of the current coding unit 400 or 450.
  • the image decoding apparatus 100 may determine the coding units 430a, 430b, and 430c by dividing the current coding unit 400 in the horizontal direction. Also, when the current coding unit 450 is in the horizontal direction, the image decoding apparatus 100 may determine the coding units 480a, 480b, and 480c by dividing the current coding unit 450 in the vertical direction.
  • the image decoding apparatus 100 may determine an odd number of coding units included in the current coding unit 400 or 450, and not all sizes of the determined coding units may be the same. For example, the size of a predetermined coding unit 430b or 480b among the determined odd coding units 430a, 430b, 430c, 480a, 480b, and 480c is different from other coding units 430a, 430c, 480a, and 480c.
  • a coding unit that may be determined by dividing the current coding unit 400 or 450 may have a plurality of types, and in some cases, odd number of coding units 430a, 430b, 430c, 480a, 480b, and 480c. Each may have a different size.
  • the image decoding apparatus 100 may determine odd coding units included in the current coding unit 400 or 450. Furthermore, the image decoding apparatus 100 may set a predetermined limit on at least one coding unit among the odd number of coding units generated by dividing. Referring to FIG. 4, the image decoding apparatus 100 is a coding unit positioned at the center of three coding units 430a, 430b, 430c, 480a, 480b, and 480c generated by dividing a current coding unit 400 or 450. The decoding process for 430b and 480b may be different from other coding units 430a, 430c, 480a and 480c.
  • the image decoding apparatus 100 may restrict the coding units 430b and 480b positioned in the center from being split no more than the other coding units 430a, 430c, 480a, and 480c, or may only split the predetermined number of times. You can limit it to split.
  • FIG. 5 illustrates a process of splitting a coding unit based on at least one of block shape information and split mode mode information, according to an embodiment.
  • the image decoding apparatus 100 may determine to divide or not split the first coding unit 500 having a square shape into coding units based on at least one of block shape information and split mode information. .
  • the image decoding apparatus 100 splits the first coding unit 500 in the horizontal direction to perform second coding.
  • Unit 510 may be determined.
  • the first coding unit, the second coding unit, and the third coding unit used according to an embodiment are terms used to understand a before and after relationship between the coding units.
  • the first coding unit is split, the second coding unit may be determined.
  • the third coding unit may be determined.
  • the relationship between the first coding unit, the second coding unit, and the third coding unit used is based on the above-described feature.
  • the image decoding apparatus 100 may determine to divide or not split the determined second coding unit 510 into coding units based on split type mode information.
  • the image decoding apparatus 100 encodes at least one third coding unit of the second coding unit 510 having a non-square shape, which is determined by dividing the first coding unit 500 based on the split mode mode information.
  • the second coding unit 510 may not be divided into units 520a, 520b, 520c, 520d, or the like.
  • the image decoding apparatus 100 may obtain split mode mode information, and the image decoding apparatus 100 may split the first coding unit 500 based on the obtained split mode mode information, and thus, may include a plurality of second encodings of various types.
  • a unit (eg, 510) may be divided, and the second coding unit 510 may be divided according to a method in which the first coding unit 500 is divided based on the split mode mode information.
  • the second coding unit 510 may also be It may be split into third coding units (eg, 520a, 520b, 520c, 520d, etc.) based on the split mode mode information on the second coding unit 510. That is, the coding unit may be recursively divided based on the split mode mode information associated with each coding unit. Therefore, a square coding unit may be determined in a non-square coding unit, and a coding unit of a square shape may be recursively divided to determine a coding unit of a non-square shape.
  • a non-square second coding unit 510 is divided among predetermined odd coding units 520b, 520c, and 520d that are determined by splitting a predetermined coding unit (eg, located in the center of the second coding unit). Coding units or coding units having a square shape) may be recursively divided.
  • the third coding unit 520b having a square shape which is one of odd third coding units 520b, 520c, and 520d, may be divided in a horizontal direction and divided into a plurality of fourth coding units.
  • the fourth coding unit 530b or 530d having a non-square shape which is one of the plurality of fourth coding units 530a, 530b, 530c, and 530d, may be divided into a plurality of coding units.
  • the fourth coding unit 530b or 530d having a non-square shape may be divided into odd coding units.
  • a method that can be used for recursive division of coding units will be described later through various embodiments.
  • the image decoding apparatus 100 may divide each of the third coding units 520a, 520b, 520c, and 520d into coding units based on the split mode information. Also, the image decoding apparatus 100 may determine not to split the second coding unit 510 based on the split mode mode information. According to an embodiment, the image decoding apparatus 100 may divide the second coding unit 510 having a non-square shape into an odd number of third coding units 520b, 520c, and 520d. The image decoding apparatus 100 may place a predetermined limit on a predetermined third coding unit among the odd number of third coding units 520b, 520c, and 520d.
  • the image decoding apparatus 100 may be limited to the number of coding units 520c positioned in the middle of the odd number of third coding units 520b, 520c, and 520d, or may be divided by the number of times that can be set. It can be limited to.
  • the image decoding apparatus 100 may include a coding unit positioned at the center among odd-numbered third coding units 520b, 520c, and 520d included in the second coding unit 510 having a non-square shape.
  • 520c is no longer divided, or is limited to being divided into a predetermined division form (for example, divided into only four coding units or divided into a form corresponding to the divided form of the second coding unit 510), or predetermined. It can be limited to dividing only by the number of times (eg, dividing only n times, n> 0).
  • the above limitation on the coding unit 520c located in the center is merely a mere embodiment and thus should not be construed as being limited to the above-described embodiments, and the coding unit 520c located in the center may be different from other coding units 520b and 520d. ), It should be interpreted as including various restrictions that can be decoded.
  • the image decoding apparatus 100 may obtain split mode mode information used to split a current coding unit at a predetermined position in the current coding unit.
  • FIG. 6 is a diagram for a method of determining, by an image decoding apparatus, a predetermined coding unit among odd number of coding units according to an embodiment.
  • the split mode mode information of the current coding units 600 and 650 may include a sample at a predetermined position (for example, a sample located at the center) among a plurality of samples included in the current coding units 600 and 650. 640, 690).
  • a predetermined position in the current coding unit 600 from which at least one of the split mode information may be obtained should not be interpreted as being limited to the center position shown in FIG. 6, and the predetermined position may be included in the current coding unit 600. It should be construed that various positions (eg, top, bottom, left, right, top left, bottom left, top right or bottom right, etc.) may be included.
  • the image decoding apparatus 100 may determine that the current coding unit is divided or not divided into coding units having various shapes and sizes by obtaining split mode mode information obtained from a predetermined position.
  • the image decoding apparatus 100 may select one coding unit from among them. Methods for selecting one of a plurality of coding units may vary, which will be described below through various embodiments.
  • the image decoding apparatus 100 may divide a current coding unit into a plurality of coding units and determine a coding unit of a predetermined position.
  • the image decoding apparatus 100 may use information indicating the position of each of the odd coding units to determine a coding unit located in the middle of the odd coding units. Referring to FIG. 6, the image decoding apparatus 100 divides the current coding unit 600 or the current coding unit 650 to find an odd number of coding units 620a, 620b, 620c, or an odd number of coding units 660a, 660b and 660c can be determined. The image decoding apparatus 100 may use the middle coding unit 620b or the middle coding unit by using information about the positions of the odd coding units 620a, 620b, and 620c or the odd coding units 660a, 660b, and 660c. 660b can be determined.
  • the image decoding apparatus 100 determines the positions of the coding units 620a, 620b, and 620c based on information indicating the positions of predetermined samples included in the coding units 620a, 620b, and 620c.
  • the coding unit 620b positioned at may be determined.
  • the image decoding apparatus 100 is based on the information indicating the position of the sample (630a, 630b, 630c) of the upper left of the coding units (620a, 620b, 620c) coding units (620a, 620b, 620c)
  • the coding unit 620b positioned in the center may be determined by determining the position of.
  • the information indicating the position of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c may be included in the picture of the coding units 620a, 620b, and 620c, respectively. It may include information about the location or coordinates of. According to an embodiment, the information indicating the position of the upper left samples 630a, 630b, and 630c included in the coding units 620a, 620b, and 620c may be included in the current coding unit 600.
  • 620b and 620c may include information indicating a width or a height, and the width or height may correspond to information indicating a difference between coordinates within a picture of the coding units 620a, 620b and 620c. That is, the image decoding apparatus 100 directly uses information about the position or coordinates in the picture of the coding units 620a, 620b, and 620c or information about the width or height of the coding unit corresponding to the difference between the coordinates. By using, the coding unit 620b positioned in the center may be determined.
  • the information indicating the position of the sample 630a at the upper left of the upper coding unit 620a may indicate (xa, ya) coordinates, and the sample 530b at the upper left of the middle coding unit 620b.
  • the information indicating the position of) may indicate the (xb, yb) coordinates, and the information indicating the position of the sample 630c on the upper left of the lower coding unit 620c may indicate the (xc, yc) coordinates.
  • the image decoding apparatus 100 may determine the center coding unit 620b using the coordinates of the samples 630a, 630b, and 630c in the upper left included in the coding units 620a, 620b, and 620c, respectively.
  • the coding unit 620b including (xb, yb), which is the coordinates of the sample 630b located in the center May be determined as a coding unit located in the middle of the coding units 620a, 620b, and 620c determined by dividing the current coding unit 600.
  • the coordinates indicating the positions of the samples 630a, 630b, and 630c in the upper left corner may indicate coordinates representing the absolute positions in the picture, and further, the positions of the samples 630a in the upper left corner of the upper coding unit 620a.
  • the (dxb, dyb) coordinate which is the information indicating the relative position of the upper left sample 630b of the middle coding unit 620b, and the relative position of the upper left sample 630c of the lower coding unit 620c.
  • Information (dxc, dyc) coordinates can also be used.
  • the method of determining the coding unit of a predetermined position by using the coordinates of the sample as information indicating the position of the sample included in the coding unit should not be construed as being limited to the above-described method, and various arithmetic operations that can use the coordinates of the sample. It should be interpreted in a way.
  • the image decoding apparatus 100 may divide the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c, and may select one of the coding units 620a, 620b, and 620c.
  • the coding unit may be selected according to the standard. For example, the image decoding apparatus 100 may select coding units 620b having different sizes from among coding units 620a, 620b, and 620c.
  • the image decoding apparatus 100 may have (xa, ya) coordinates, which are information indicating a position of a sample 630a on the upper left side of the upper coding unit 620a, and a sample on the upper left side of the center coding unit 620b.
  • 620b, 620c may determine the width or height of each.
  • the image decoding apparatus 100 uses (xa, ya), (xb, yb), and (xc, yc) coordinates indicating the positions of the coding units 620a, 620b, and 620c. , 620c) may determine the size of each. According to an embodiment, the image decoding apparatus 100 may determine the width of the upper coding unit 620a as the width of the current coding unit 600. The image decoding apparatus 100 may determine the height of the upper coding unit 620a as yb-ya. According to an embodiment, the image decoding apparatus 100 may determine the width of the central coding unit 620b as the width of the current coding unit 600.
  • the image decoding apparatus 100 may determine the height of the center coding unit 620b as yc-yb. According to an embodiment, the image decoding apparatus 100 may determine the width or height of the lower coding unit using the width or height of the current coding unit, and the width and height of the upper coding unit 620a and the center coding unit 620b. . The image decoding apparatus 100 may determine a coding unit having a different size from other coding units based on the widths and the heights of the determined coding units 620a, 620b, and 620c. Referring to FIG.
  • the image decoding apparatus 100 may determine a coding unit 620b as a coding unit having a predetermined position while having a size different from that of the upper coding unit 620a and the lower coding unit 620c.
  • the coding unit at a predetermined position may be determined using the size of the coding unit determined based on the sample coordinates.
  • various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the image decoding apparatus 100 has (xd, yd) coordinates, which is information indicating the position of the upper left sample 670a of the left coding unit 660a, and the position of the upper left sample 670b of the middle coding unit 660b. Coding units 660a, 660b, and 660c using (xe, ye) coordinates indicating information and (xf, yf) coordinates indicating information of the position of the sample 670c on the upper left side of the right coding unit 660c. Each width or height can be determined.
  • the image decoding apparatus 100 uses (xd, yd), (xe, ye), and (xf, yf) coordinates representing the positions of the coding units 660a, 660b, and 660c. , 660c) may determine the size of each.
  • the image decoding apparatus 100 may determine the width of the left coding unit 660a as xe-xd.
  • the image decoding apparatus 100 may determine the height of the left coding unit 660a as the height of the current coding unit 650.
  • the image decoding apparatus 100 may determine the width of the central coding unit 660b as xf-xe.
  • the image decoding apparatus 100 may determine the height of the center coding unit 660b as the height of the current coding unit 600.
  • the image decoding apparatus 100 may include a width or a height of the right coding unit 660c, a width or a height of the current coding unit 650, and a width and a height of the left coding unit 660a and the center coding unit 660b. Can be determined using.
  • the image decoding apparatus 100 may determine a coding unit having a different size from other coding units based on the widths and the heights of the determined coding units 660a, 660b, and 660c. Referring to FIG. 6, the image decoding apparatus 100 may determine a coding unit 660b as a coding unit at a predetermined position while having a size different from that of the left coding unit 660a and the right coding unit 660c.
  • the coding unit at a predetermined position may be determined using the size of the coding unit determined based on the sample coordinates.
  • various processes of determining a coding unit at a predetermined position by comparing the sizes of coding units determined according to predetermined sample coordinates may be used.
  • the position of the sample to be considered for determining the position of the coding unit should not be interpreted as being limited to the upper left side described above, but may be interpreted that information on the position of any sample included in the coding unit may be used.
  • the image decoding apparatus 100 may select a coding unit of a predetermined position among odd-numbered coding units determined by dividing the current coding unit in consideration of the shape of the current coding unit. For example, if the current coding unit has a non-square shape having a width greater than the height, the image decoding apparatus 100 may determine the coding unit at a predetermined position in the horizontal direction. That is, the image decoding apparatus 100 may determine one of the coding units having different positions in the horizontal direction to limit the corresponding coding unit. If the current coding unit has a non-square shape having a height greater than the width, the image decoding apparatus 100 may determine a coding unit of a predetermined position in the vertical direction. That is, the image decoding apparatus 100 may determine one of the coding units having different positions in the vertical direction to limit the corresponding coding unit.
  • the image decoding apparatus 100 may use information indicating the positions of each of the even coding units to determine the coding unit of the predetermined position among the even coding units.
  • the image decoding apparatus 100 may determine an even number of coding units by dividing the current coding unit (binary division), and determine a coding unit of a predetermined position by using information about the positions of the even coding units.
  • a detailed process for this may be a process corresponding to a process of determining a coding unit of a predetermined position (for example, a middle position) among the odd number of coding units described above with reference to FIG. 6.
  • a predetermined value for a coding unit of a predetermined position in the splitting process is determined to determine a coding unit of a predetermined position among the plurality of coding units.
  • Information is available.
  • the image decoding apparatus 100 may determine block shape information and a split shape stored in a sample included in a middle coding unit in a splitting process in order to determine a coding unit located in a center among coding units in which a current coding unit is divided into a plurality. At least one of the mode information may be used.
  • the image decoding apparatus 100 may divide the current coding unit 600 into a plurality of coding units 620a, 620b, and 620c based on the split mode mode information, and may include a plurality of coding units ( The coding unit 620b positioned in the center among the 620a, 620b, and 620c may be determined. Furthermore, the image decoding apparatus 100 may determine the coding unit 620b positioned at the center in consideration of the position where the split mode mode information is obtained. That is, the split mode mode information of the current coding unit 600 may be obtained from a sample 640 positioned in the center of the current coding unit 600. The current coding unit 600 may be configured based on the split mode mode information.
  • a coding unit 620b including the sample 640 may be determined as a coding unit located at the center.
  • the information used to determine the coding unit located in the middle should not be interpreted as being limited to the split mode information, and may be used in the process of determining the coding unit located in the center of various types of information.
  • predetermined information for identifying a coding unit of a predetermined position may be obtained from a predetermined sample included in the coding unit to be determined.
  • the image decoding apparatus 100 may divide a current coding unit 600 into a plurality of coding units (eg, divided into a plurality of coding units 620a, 620b, and 620c) determined by splitting the current coding unit 600.
  • Split mode mode information obtained from a sample at a predetermined position in the current coding unit 600 (for example, a sample located in the center of the current coding unit 600) in order to determine a coding unit located in the center of the coding units. Can be used.
  • the image decoding apparatus 100 may determine a sample of the predetermined position in consideration of the block shape of the current coding unit 600, and the image decoding apparatus 100 may determine a plurality of pieces in which the current coding unit 600 is divided and determined.
  • a predetermined limit may be determined by determining a coding unit 620b including a sample from which predetermined information (for example, split mode mode information) may be obtained.
  • the image decoding apparatus 100 may determine a sample 640 positioned in the center of the current coding unit 600 as a sample from which predetermined information may be obtained.
  • the 100 may set a predetermined limit in the decoding process of the coding unit 620b including the sample 640.
  • the position of the sample from which the predetermined information can be obtained should not be interpreted as being limited to the above-described position, but may be interpreted as samples of arbitrary positions included in the coding unit 620b to be determined for the purpose of limitation.
  • a position of a sample from which predetermined information may be obtained may be determined according to the shape of the current coding unit 600.
  • the block shape information may determine whether the shape of the current coding unit is square or non-square, and determine the position of a sample from which the predetermined information may be obtained according to the shape.
  • the image decoding apparatus 100 may be positioned on a boundary that divides at least one of the width and the height of the current coding unit in half using at least one of information about the width and the height of the current coding unit.
  • the sample may be determined as a sample from which predetermined information can be obtained.
  • the image decoding apparatus 100 may select one of samples adjacent to a boundary that divides the long side of the current coding unit in half. May be determined as a sample from which information may be obtained.
  • the image decoding apparatus 100 may use split mode mode information to determine a coding unit of a predetermined position among the plurality of coding units.
  • the image decoding apparatus 100 may obtain split mode mode information from a sample at a predetermined position included in a coding unit, and the image decoding apparatus 100 may encode a plurality of encodings generated by splitting a current coding unit.
  • the units may be divided using split type mode information obtained from samples of a predetermined position included in each of the plurality of coding units. That is, the coding unit may be recursively split using split type mode information obtained from a sample of a predetermined position included in each coding unit. Since the recursive division process of the coding unit has been described above with reference to FIG. 5, detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine at least one coding unit by dividing a current coding unit, and determine an order in which the at least one coding unit is decoded in a predetermined block (for example, the current coding unit). Can be determined according to
  • FIG. 7 illustrates an order in which a plurality of coding units are processed when the image decoding apparatus determines a plurality of coding units by dividing a current coding unit.
  • the image decoding apparatus 100 determines the second coding units 710a and 710b by dividing the first coding unit 700 in the vertical direction according to the split mode mode information, or the first coding unit 700.
  • the second coding unit 750a, 750b, 750c, 750d may be determined by dividing the in the horizontal direction to determine the second coding units 730a and 730b, or by splitting the first coding unit 700 in the vertical and horizontal directions. have.
  • the image decoding apparatus 100 may determine an order such that the second coding units 710a and 710b determined by dividing the first coding unit 700 in the vertical direction are processed in the horizontal direction 710c. .
  • the image decoding apparatus 100 may determine a processing order of the second coding units 730a and 730b determined by dividing the first coding unit 700 in the horizontal direction, in the vertical direction 730c.
  • the image decoding apparatus 100 processes the coding units for positioning the second coding units 750a, 750b, 750c, and 750d determined by dividing the first coding unit 700 in the vertical direction and the horizontal direction, in one row.
  • the coding units located in the next row may be determined according to a predetermined order (for example, raster scan order or z scan order 750e).
  • the image decoding apparatus 100 may recursively split coding units. Referring to FIG. 7, the image decoding apparatus 100 may determine a plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d by dividing the first coding unit 700. Each of the plurality of determined coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be recursively divided.
  • the method of splitting the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be a method corresponding to the method of splitting the first coding unit 700. Accordingly, the plurality of coding units 710a, 710b, 730a, 730b, 750a, 750b, 750c, and 750d may be independently divided into a plurality of coding units. Referring to FIG. 7, the image decoding apparatus 100 may determine the second coding units 710a and 710b by dividing the first coding unit 700 in the vertical direction, and further, respectively, the second coding units 710a and 710b. It can be decided to split independently or not.
  • the image decoding apparatus 100 may divide the second coding unit 710a on the left side into horizontal units and split the second coding unit 710a into third coding units 720a and 720b, and the second coding unit 710b on the right side. ) May not be divided.
  • the processing order of coding units may be determined based on a split process of the coding units.
  • the processing order of the divided coding units may be determined based on the processing order of the coding units immediately before being split.
  • the image decoding apparatus 100 may independently determine the order in which the third coding units 720a and 720b determined by splitting the second coding unit 710a on the left side from the second coding unit 710b on the right side. Since the second coding unit 710a on the left is divided in the horizontal direction to determine the third coding units 720a and 720b, the third coding units 720a and 720b may be processed in the vertical direction 720c.
  • the right coding unit 710b may be processed.
  • FIG. 8 illustrates a process of determining that a current coding unit is divided into an odd number of coding units when the image decoding apparatus cannot process the coding units in a predetermined order, according to an embodiment.
  • the image decoding apparatus 100 may determine that the current coding unit is split into odd coding units based on the obtained split mode mode information.
  • a first coding unit 800 having a square shape may be divided into second coding units 810a and 810b having a non-square shape, and each of the second coding units 810a and 810b may be independently formed. It may be divided into three coding units 820a, 820b, 820c, 820d, and 820e.
  • the image decoding apparatus 100 may determine a plurality of third coding units 820a and 820b by dividing the left coding unit 810a in the horizontal direction among the second coding units, and may include the right coding unit 810b. ) May be divided into odd third coding units 820c, 820d, and 820e.
  • the image decoding apparatus 100 determines whether the third coding units 820a, 820b, 820c, 820d, and 820e may be processed in a predetermined order to determine whether there are oddly divided coding units. You can decide. Referring to FIG. 8, the image decoding apparatus 100 may determine the third coding units 820a, 820b, 820c, 820d, and 820e by recursively dividing the first coding unit 800.
  • the image decoding apparatus 100 may include a first coding unit 800, a second coding unit 810a, and 810b, or a third coding unit 820a, 820b, and 820c based on at least one of block shape information and split mode mode information.
  • coding units positioned on the right side of the second coding units 810a and 810b may be divided into odd third coding units 820c, 820d, and 820e.
  • the order in which the plurality of coding units included in the first coding unit 800 is processed may be a predetermined order (for example, a z-scan order 830). 100 may determine whether the third coding unit 820c, 820d, or 820e determined by splitting the right second coding unit 810b into an odd number satisfies a condition that may be processed according to the predetermined order.
  • the image decoding apparatus 100 may satisfy a condition that the third coding units 820a, 820b, 820c, 820d, and 820e included in the first coding unit 800 may be processed in a predetermined order. And whether the at least one of the width and the height of the second coding unit 810a, 810b is divided in half according to the boundary of the third coding unit 820a, 820b, 820c, 820d, or 820e.
  • the third coding units 820a and 820b determined by dividing the height of the left second coding unit 810a of the non-square shape in half may satisfy the condition.
  • Boundaries of the third coding units 820c, 820d, and 820e determined by dividing the right second coding unit 810b into three coding units may not divide the width or height of the right second coding unit 810b in half. Therefore, it may be determined that the third coding units 820c, 820d, and 820e do not satisfy the condition. In case of such a condition dissatisfaction, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the right second coding unit 810b is divided into odd coding units based on the determination result.
  • the image decoding apparatus 100 when the image decoding apparatus 100 is divided into an odd number of coding units, the image decoding apparatus 100 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • FIG. 9 illustrates a process of determining at least one coding unit by dividing a first coding unit by an image decoding apparatus, according to an embodiment.
  • the image decoding apparatus 100 may divide the first coding unit 900 based on the split mode mode information obtained through the receiver 110.
  • the first coding unit 900 having a square shape may be divided into coding units having four square shapes, or may be divided into a plurality of coding units having a non-square shape.
  • the image decoding apparatus 100 may decode the first coding unit 900. It may be split into a plurality of non-square coding units.
  • the image decoding apparatus 100 may determine a square shape of the first coding unit ( 900 may be divided into second coding units 910a, 910b, and 910c determined by being split in the vertical direction as odd coding units, or second coding units 920a, 920b, and 920c determined by being split in the horizontal direction.
  • the image decoding apparatus 100 may process the second coding units 910a, 910b, 910c, 920a, 920b, and 920c included in the first coding unit 900 in a predetermined order.
  • the condition is whether the at least one of the width and height of the first coding unit 900 is divided in half according to the boundary of the second coding unit (910a, 910b, 910c, 920a, 920b, 920c). It is related to whether or not. Referring to FIG. 9, the boundary between the second coding units 910a, 910b, and 910c, which is determined by dividing the first coding unit 900 having a square shape in the vertical direction, divides the width of the first coding unit 900 in half.
  • the first coding unit 900 may be determined to not satisfy a condition that may be processed in a predetermined order. Also, since the boundary between the second coding units 920a, 920b, and 920c, which is determined by dividing the first coding unit 900 having a square shape in the horizontal direction, does not divide the width of the first coding unit 900 in half, The one coding unit 900 may be determined as not satisfying a condition that may be processed in a predetermined order. In case of such a condition dissatisfaction, the image decoding apparatus 100 may determine that the scan order is disconnected, and determine that the first coding unit 900 is divided into odd coding units based on the determination result.
  • the image decoding apparatus 100 when the image decoding apparatus 100 is divided into an odd number of coding units, the image decoding apparatus 100 may set a predetermined limit on a coding unit of a predetermined position among the divided coding units. Since the above has been described through the embodiments, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine various coding units by dividing the first coding unit.
  • the image decoding apparatus 100 may split a first coding unit 900 having a square shape and a first coding unit 930 or 950 having a non-square shape into various coding units. .
  • FIG. 10 is a view illustrating that a shape in which a second coding unit may be split is limited when a non-square type second coding unit determined by splitting a first coding unit according to an embodiment satisfies a predetermined condition. Shows that.
  • the image decoding apparatus 100 may convert the first coding unit 1000 having a square shape into a second coding unit 1010a having a non-square shape based on the split mode information obtained through the receiver 110. 1010b, 1020a, 1020b).
  • the second coding units 1010a, 1010b, 1020a, and 1020b may be independently divided. Accordingly, the image decoding apparatus 100 may determine whether to split or not split into a plurality of coding units based on split mode mode information related to each of the second coding units 1010a, 1010b, 1020a, and 1020b.
  • the image decoding apparatus 100 divides the left second coding unit 1010a having a non-square shape in a horizontal direction by splitting the first coding unit 1000 in a vertical direction to form a third coding unit ( 1012a, 1012b) can be determined.
  • the right second coding unit 1010b may have the same horizontal direction as the direction in which the left second coding unit 1010a is divided. It can be limited to not be divided into.
  • the left second coding unit 1010a and the right second coding unit 1010b are each horizontally.
  • the third coding units 1012a, 1012b, 1014a, and 1014b may be determined.
  • this is the same result as the image decoding apparatus 100 dividing the first coding unit 1000 into four second coding units 1030a, 1030b, 1030c, and 1030d based on the split mode information. It may be inefficient in terms of image decoding.
  • the image decoding apparatus 100 splits a second coding unit 1020a or 1020b of a non-square shape, determined by dividing the first coding unit 1000 in a horizontal direction, into a third coding unit. 1022a, 1022b, 1024a, and 1024b can be determined.
  • the image decoding apparatus 100 divides one of the second coding units (for example, the upper second coding unit 1020a) in the vertical direction
  • another image coding unit for example, the lower end
  • the coding unit 1020b may restrict the upper second coding unit 1020a from being split in the vertical direction in the same direction as the split direction.
  • FIG. 11 illustrates a process of splitting a coding unit having a square shape by the image decoding apparatus when the split mode mode information cannot be divided into four square coding units.
  • the image decoding apparatus 100 may determine the second coding units 1110a, 1110b, 1120a, 1120b, etc. by dividing the first coding unit 1100 based on the split mode mode information.
  • the split mode mode information may include information about various types in which a coding unit may be split, but the information on various types may not include information for splitting into 4 coding units having a square shape.
  • the image decoding apparatus 100 may not divide the first coding unit 1100 having a square shape into the second coding units 1130a, 1130b, 1130c, and 1130d having four square shapes.
  • the image decoding apparatus 100 may determine the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like based on the split mode mode information.
  • the image decoding apparatus 100 may independently split the non-square second coding units 1110a, 1110b, 1120a, 1120b, and the like.
  • Each of the second coding units 1110a, 1110b, 1120a, 1120b, and the like may be divided in a predetermined order through a recursive method, which is based on a method in which the first coding unit 1100 is divided based on split mode mode information. It may be a corresponding division method.
  • the image decoding apparatus 100 may divide the left second coding unit 1110a into the horizontal direction to determine the third coding units 1112a and 1112b having a square shape, and the right second coding unit 1110b may The third coding units 1114a and 1114b having a square shape may be determined by being split in the horizontal direction. Furthermore, the image decoding apparatus 100 may divide the left second coding unit 1110a and the right second coding unit 1110b in the horizontal direction to determine the third coding units 1116a, 1116b, 1116c, and 1116d having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • the image decoding apparatus 100 may determine the third coding units 1122a and 1122b having a square shape by dividing the upper second coding unit 1120a in the vertical direction, and the lower second coding unit 1120b. ) May be divided in the vertical direction to determine the third coding units 1124a and 1124b having a square shape. Furthermore, the image decoding apparatus 100 may divide the upper second coding unit 1120a and the lower second coding unit 1120b in the vertical direction to determine the third coding units 1126a, 1126b, 1126a, and 1126b having a square shape. have. In this case, the coding unit may be determined in the same form as that in which the first coding unit 1100 is divided into four second coding units 1130a, 1130b, 1130c, and 1130d.
  • FIG. 12 illustrates that a processing order between a plurality of coding units may vary according to a splitting process of coding units, according to an embodiment.
  • the image decoding apparatus 100 may split the first coding unit 1200 based on split type mode information.
  • the image decoding apparatus 100 may determine the first coding unit 1200.
  • the second coding unit eg, 1210a, 1210b, 1220a, 1220b, etc.
  • the second coding unit 1210a, 1210b, 1220a, and 1220b having a non-square shape determined by dividing the first coding unit 1200 in only the horizontal direction or the vertical direction are based on the split mode information for each. Can be split independently.
  • the image decoding apparatus 100 divides the second coding units 1210a and 1210b generated by splitting the first coding unit 1200 in the vertical direction in the horizontal direction, respectively, to generate the third coding units 1216a and 1216b, 1216c and 1216d, and the second coding units 1220a and 1220b generated by dividing the first coding unit 1200 in the horizontal direction are divided in the horizontal direction, respectively, and the third coding units 1226a, 1226b and 1226c. 1226d). Since the splitting process of the second coding units 1210a, 1210b, 1220a, and 1220b has been described above with reference to FIG. 11, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may process coding units in a predetermined order. Features of the processing of coding units according to a predetermined order have been described above with reference to FIG. 7, and thus detailed descriptions thereof will be omitted. Referring to FIG. 12, the image decoding apparatus 100 splits a first coding unit 1200 having a square shape to form three square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d. ) Can be determined.
  • the image decoding apparatus 100 performs a processing sequence of the third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d according to a form in which the first coding unit 1200 is divided. You can decide.
  • the image decoding apparatus 100 determines the third coding units 1216a, 1216b, 1216c, and 1216d by dividing the second coding units 1210a and 1210b generated by dividing in the vertical direction in the horizontal direction, respectively.
  • the image decoding apparatus 100 may first process the third coding units 1216a and 1216c included in the left second coding unit 1210a in the vertical direction, and then include the right second coding unit 1210b.
  • the third coding units 1216a, 1216b, 1216c, and 1216d may be processed according to an order 1217 of processing the third coding units 1216b and 1216d in the vertical direction.
  • the image decoding apparatus 100 determines the third coding units 1226a, 1226b, 1226c, and 1226d by dividing the second coding units 1220a and 1220b generated by dividing in the horizontal direction in the vertical direction.
  • the image decoding apparatus 100 may first process the third coding units 1226a and 1226b included in the upper second coding unit 1220a in the horizontal direction, and then include the lower coding unit 1220b.
  • the third coding units 1226a, 1226b, 1226c, and 1226d may be processed according to an order 1227 of processing the third coding units 1226c and 1226d in the horizontal direction.
  • second coding units 1210a, 1210b, 1220a, and 1220b may be divided, respectively, and square third coding units 1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may be determined. have.
  • the second coding units 1210a and 1210b that are determined by being split in the vertical direction and the second coding units 1220a and 1220b that are determined by being split in the horizontal direction are divided into different forms, but are determined afterwards.
  • 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, and 1226d may result in the first coding unit 1200 being split into coding units having the same shape.
  • the apparatus 100 for decoding an image recursively splits coding units through different processes based on split mode mode information, and thus, even if the coding units having the same type are determined, the plurality of coding units determined to have the same type are different from each other. Can be processed in order.
  • FIG. 13 illustrates a process of determining a depth of a coding unit as a shape and a size of a coding unit change when a coding unit is recursively divided to determine a plurality of coding units according to an embodiment.
  • the image decoding apparatus 100 may determine the depth of a coding unit according to a predetermined criterion.
  • the predetermined criterion may be the length of the long side of the coding unit.
  • the depth of the current coding unit is greater than the depth of the coding unit before the split. It can be determined that the depth is increased by n.
  • a coding unit having an increased depth is expressed as a coding unit of a lower depth.
  • the image decoding apparatus 100 may have a square shape based on block shape information indicating that the shape is square (for example, block shape information may indicate '0: SQUARE').
  • the first coding unit 1300 may be divided to determine a second coding unit 1302, a third coding unit 1304, or the like of a lower depth.
  • the second coding unit 1302 determined by dividing the width and height of the first coding unit 1300 by 1/2 times may have a size of NxN. have.
  • the third coding unit 1304 determined by dividing the width and the height of the second coding unit 1302 into half the size may have a size of N / 2 ⁇ N / 2.
  • the width and height of the third coding unit 1304 correspond to 1/4 times the first coding unit 1300.
  • the depth of the first coding unit 1300 is D
  • the depth of the second coding unit 1302, which is 1/2 the width and height of the first coding unit 1300 may be D + 1
  • the first coding unit may be the first coding unit 1300.
  • the depth of the third coding unit 1304, which is 1/4 of the width and the height of 1300, may be D + 2.
  • block shape information indicating a non-square shape (e.g., block shape information indicates that the height is a non-square longer than the width '1: NS_VER' or the width is a non-square longer than the height).
  • 2: may represent NS_HOR ', the image decoding apparatus 100 may split the first coding unit 1310 or 1320 having a non-square shape to form a second coding unit 1312 or 1322 of a lower depth, The third coding unit 1314 or 1324 may be determined.
  • the image decoding apparatus 100 may determine a second coding unit (eg, 1302, 1312, 1322, etc.) by dividing at least one of a width and a height of the Nx2N size of the first coding unit 1310. That is, the image decoding apparatus 100 may divide the first coding unit 1310 in the horizontal direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1322 having an NxN / 2 size.
  • the second coding unit 1312 having the size of N / 2 ⁇ N may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 100 determines at least one of a width and a height of a 2N ⁇ N first coding unit 1320 to determine a second coding unit (eg, 1302, 1312, 1322, etc.). It may be. That is, the image decoding apparatus 100 may divide the first coding unit 1320 in the vertical direction to determine a second coding unit 1302 having an NxN size or a second coding unit 1312 having an N / 2xN size.
  • the second coding unit 1322 having the size of NxN / 2 may be determined by splitting in the horizontal direction and the vertical direction.
  • the image decoding apparatus 100 determines at least one of a width and a height of the NxN-sized second coding unit 1302 to determine a third coding unit (eg, 1304, 1314, 1324, etc.). It may be. That is, the image decoding apparatus 100 determines the third coding unit 1304 having the size of N / 2xN / 2 by dividing the second coding unit 1302 in the vertical direction and the horizontal direction, or makes the N / 4xN / 2 sized product. The third coding unit 1314 or the third coding unit 1324 having a size of N / 2 ⁇ N / 4 may be determined.
  • a third coding unit eg, 1304, 1314, 1324, etc.
  • the image decoding apparatus 100 divides at least one of a width and a height of the N / 2 ⁇ N sized second coding unit 1312 to form a third coding unit (eg, 1304, 1314, 1324, etc.). May be determined. That is, the image decoding apparatus 100 divides the second coding unit 1312 in the horizontal direction, so that the third coding unit 1304 having the size of N / 2xN / 2 or the third coding unit 1324 having the size of N / 2xN / 4 is provided. ) May be determined or divided into vertical and horizontal directions to determine the third coding unit 1314 having an N / 4xN / 2 size.
  • the image decoding apparatus 100 splits at least one of a width and a height of the NxN / 2-sized second coding unit 1322 to form a third coding unit (eg, 1304, 1314, 1324, etc.). May be determined. That is, the image decoding apparatus 100 divides the second coding unit 1322 in the vertical direction to form a third coding unit 1304 having an N / 2 ⁇ N / 2 size or a third coding unit 1314 having an N / 4xN / 2 size. ) May be determined or divided into the vertical direction and the horizontal direction to determine the third coding unit 1324 having an N / 2 ⁇ N / 4 size.
  • the image decoding apparatus 100 may divide a square coding unit (for example, 1300, 1302, 1304) into a horizontal direction or a vertical direction.
  • a square coding unit for example, 1300, 1302, 1304
  • the first coding unit 1300 having a size of 2Nx2N is split in the vertical direction to determine the first coding unit 1310 having the size of Nx2N, or the first coding unit 1320 having a size of 2NxN is determined by splitting in the horizontal direction.
  • the depth of the coding unit determined by dividing the first coding unit 1300 having a 2N ⁇ 2N size in the horizontal direction or the vertical direction is determined by the first encoding. It may be equal to the depth of the unit 1300.
  • the width and height of the third coding unit 1314 or 1324 may correspond to 1/4 times the first coding unit 1310 or 1320.
  • the depth of the second coding unit 1312 or 1322 which is 1/2 the width and height of the first coding unit 1310 or 1320, may be D + 1.
  • the depth of the third coding unit 1314 or 1324 which is 1/4 of the width and the height of the first coding unit 1310 or 1320, may be D + 2.
  • FIG. 14 illustrates a depth and a part index (PID) for distinguishing a coding unit, which may be determined according to the shape and size of coding units, according to an embodiment.
  • PID depth and a part index
  • the image decoding apparatus 100 may determine a second coding unit having various forms by dividing the first coding unit 1400 having a square shape. Referring to FIG. 14, the image decoding apparatus 100 divides the first coding unit 1400 in at least one of a vertical direction and a horizontal direction according to the split mode mode information, and thus the second coding unit 1402a, 1402b, and 1404a. , 1404b, 1406a, 1406b, 1406c, 1406d). That is, the image decoding apparatus 100 may determine the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d based on the split mode mode information about the first coding unit 1400. .
  • the second coding units 1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, and 1406d that are determined according to split mode information about the first coding unit 1400 having a square shape have a long side length.
  • the depth can be determined based on the. For example, since the length of one side of the first coding unit 1400 having a square shape and the length of the long side of the second coding units 1402a, 1402b, 1404a and 1404b of a non-square shape are the same, the first coding unit ( 1400 and the non-square second coding units 1402a, 1402b, 1404a, and 1404b may be regarded as D.
  • the image decoding apparatus 100 may have a square shape. Since the length of one side of the second coding units 1406a, 1406b, 1406c, and 1406d is 1/2 times the length of one side of the first coding unit 1400, the length of one side of the second coding units 1406a, 1406b, 1406c, and 1406d may be increased.
  • the depth may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 1400.
  • the image decoding apparatus 100 divides a first coding unit 1410 having a shape having a height greater than a width in a horizontal direction according to split mode mode information, and thus includes a plurality of second coding units 1412a, 1412b, and 1414a. , 1414b, 1414c).
  • the image decoding apparatus 100 divides the first coding unit 1420 having a shape having a width greater than the height in a vertical direction according to the split mode mode information, thereby providing a plurality of second coding units 1422a, 1422b, and 1424a. , 1424b, 1424c).
  • second coding units 1412a, 1412b, 1414a, 1414b, 1414c, 1422a, 1422b, 1424a, and the like may be determined according to split mode mode information about the first coding unit 1410 or 1420 having a non-square shape.
  • Depths 1424b and 1424c may be determined based on the length of the long side. For example, since the length of one side of the second coding units 1412a and 1412b having a square shape is 1/2 times the length of one side of the first coding unit 1410 having a non-square shape having a height greater than the width, the square is square.
  • the depths of the second coding units 1412a and 1412b of the shape are D + 1, which is one depth lower than the depth D of the first coding unit 1410 of the non-square shape.
  • the image decoding apparatus 100 may divide the non-square first coding unit 1410 into odd second coding units 1414a, 1414b, and 1414c based on the split mode information.
  • the odd numbered second coding units 1414a, 1414b, and 1414c may include non-square second coding units 1414a and 1414c and square shape second coding units 1414b.
  • the length of the long side of the second coding units 1414a and 1414c of the non-square shape and the length of one side of the second coding unit 1414b of the square shape is 1 / time of the length of one side of the first coding unit 1410.
  • the depths of the second coding units 1414a, 1414b, and 1414c may be a depth of D + 1 that is one depth lower than the depth D of the first coding unit 1410.
  • the image decoding apparatus 100 corresponds to the above-described method of determining depths of coding units associated with the first coding unit 1410 and is related to the first coding unit 1420 having a non-square shape having a width greater than the height. Depth of coding units may be determined.
  • the image decoding apparatus 100 may determine the size ratio between the coding units.
  • the index can be determined based on this. Referring to FIG. 14, a coding unit 1414b positioned at the center of odd-numbered split coding units 1414a, 1414b, and 1414c has the same width as the other coding units 1414a and 1414c but has a different height. It may be twice the height of the fields 1414a, 1414c. That is, in this case, the coding unit 1414b located in the center may include two of the other coding units 1414a and 1414c.
  • the image decoding apparatus 100 may determine whether odd-numbered split coding units are not the same size based on whether there is a discontinuity of an index for distinguishing between the divided coding units.
  • the image decoding apparatus 100 may determine whether the image decoding apparatus 100 is divided into a specific division type based on a value of an index for dividing the plurality of coding units determined by dividing from the current coding unit. Referring to FIG. 14, the image decoding apparatus 100 determines an even number of coding units 1412a and 1412b by dividing a first coding unit 1410 having a rectangular shape having a height greater than a width, or an odd number of coding units 1414a and 1414b. 1414c). The image decoding apparatus 100 may use an index (PID) indicating each coding unit to distinguish each of the plurality of coding units. According to an embodiment, the PID may be obtained from a sample (eg, an upper left sample) at a predetermined position of each coding unit.
  • a sample eg, an upper left sample
  • the image decoding apparatus 100 may determine a coding unit of a predetermined position among coding units determined by splitting by using an index for dividing coding units. According to an embodiment, when the split mode mode information about the first coding unit 1410 having a height greater than the width is divided into three coding units, the image decoding apparatus 100 may determine the first coding unit 1410. May be divided into three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may allocate an index for each of three coding units 1414a, 1414b, and 1414c. The image decoding apparatus 100 may compare the indices of the respective coding units to determine the coding unit among the oddly divided coding units.
  • the image decoding apparatus 100 encodes a coding unit 1414b having an index corresponding to a center value among the indices based on the indexes of the coding units, and encodes the center position among the coding units determined by splitting the first coding unit 1410. It can be determined as a unit. According to an embodiment, when determining the indexes for distinguishing the divided coding units, the image decoding apparatus 100 may determine the indexes based on the size ratio between the coding units when the coding units are not the same size. . Referring to FIG. 14, the coding unit 1414b generated by dividing the first coding unit 1410 may include the coding units 1414a and 1414c having the same width but different heights as the other coding units 1414a and 1414c.
  • the image decoding apparatus 100 may determine that the image decoding apparatus 100 is divided into a plurality of coding units including a coding unit having a different size from other coding units.
  • the split mode mode information is divided into odd coding units, and thus the image decoding apparatus 100 may have a different coding unit (for example, a middle coding unit) having a different size from a coding unit (for example, a middle coding unit) at a predetermined position among the odd coding units.
  • the current coding unit may be split in the form.
  • the image decoding apparatus 100 may determine a coding unit having a different size by using an index (PID) for the coding unit.
  • PID index
  • the size or position of the coding unit of the predetermined position to be determined are specific to explain an embodiment and should not be construed as being limited thereto. Various indexes and positions and sizes of the coding unit may be used. Should be interpreted.
  • the image decoding apparatus 100 may use a predetermined data unit at which recursive division of coding units begins.
  • FIG. 15 illustrates that a plurality of coding units are determined according to a plurality of predetermined data units included in a picture according to an embodiment.
  • a predetermined data unit may be defined as a data unit in which a coding unit starts to be recursively divided using split type mode information. That is, it may correspond to the coding unit of the highest depth used in the process of determining a plurality of coding units for dividing the current picture.
  • a predetermined data unit will be referred to as a reference data unit.
  • the reference data unit may represent a predetermined size and shape.
  • the reference coding unit may include samples of M ⁇ N. M and N may be the same as each other, and may be an integer represented by a multiplier of two. That is, the reference data unit may represent a square or non-square shape, and then may be divided into integer coding units.
  • the image decoding apparatus 100 may divide the current picture into a plurality of reference data units. According to an embodiment, the image decoding apparatus 100 may divide a plurality of reference data units for dividing a current picture by using split mode mode information for each reference data unit. The division process of the reference data unit may correspond to the division process using a quad-tree structure.
  • the image decoding apparatus 100 may predetermine the minimum size of the reference data unit included in the current picture. Accordingly, the image decoding apparatus 100 may determine a reference data unit having various sizes having a minimum size or more, and determine at least one coding unit using split mode mode information based on the determined reference data unit. .
  • the image decoding apparatus 100 may use a reference coding unit 1500 having a square shape, or may use a reference coding unit 1502 having a non-square shape.
  • the shape and size of the reference coding unit may include various data units (eg, a sequence, a picture, a slice, and a slice segment) that may include at least one reference coding unit. slice segment, tile, tile group, maximum coding unit, etc.).
  • the receiving unit 110 of the image decoding apparatus 100 may obtain at least one of information on the shape of a reference coding unit and information on the size of the reference coding unit from each bitstream. .
  • the process of determining at least one coding unit included in the reference coding unit 1500 having a square shape is described above by splitting the current coding unit 300 of FIG. 3, and the reference coding unit having a non-square shape 1502. Since the process of determining at least one coding unit included in the above) is described above through the process of splitting the current coding unit 400 or 450 of FIG. 4, a detailed description thereof will be omitted.
  • the image decoding apparatus 100 may determine the size and shape of the reference coding unit in order to determine the size and shape of the reference coding unit according to some data unit predetermined based on a predetermined condition.
  • a predetermined condition eg, a size of a slice or less
  • the various data units eg, sequence, picture, slice, slice segment, tile, tile group, maximum coding unit, etc.
  • Only an index for identifying the size and shape of the reference coding unit may be obtained for each slice, slice segment, tile, tile group, maximum coding unit, and the like as a data unit satisfying a data unit having a).
  • the image decoding apparatus 100 may determine the size and shape of the reference data unit for each data unit satisfying the predetermined condition by using the index.
  • the use efficiency of the bitstream may not be good, and thus the shape of the reference coding unit
  • only the index may be obtained and used.
  • at least one of the size and shape of the reference coding unit corresponding to the index indicating the size and shape of the reference coding unit may be predetermined.
  • the image decoding apparatus 100 selects at least one of the predetermined size and shape of the reference coding unit according to the index, thereby selecting at least one of the size and shape of the reference coding unit included in the data unit that is the reference for obtaining the index. You can decide.
  • the image decoding apparatus 100 may use at least one reference coding unit included in one maximum coding unit. That is, at least one reference coding unit may be included in the maximum coding unit for dividing an image, and the coding unit may be determined through a recursive division process of each reference coding unit. According to an embodiment, at least one of the width and the height of the maximum coding unit may correspond to an integer multiple of at least one of the width and the height of the reference coding unit. According to an embodiment, the size of the reference coding unit may be a size obtained by dividing the maximum coding unit n times according to a quad tree structure.
  • the image decoding apparatus 100 may determine the reference coding unit by dividing the maximum coding unit n times according to the quad tree structure, and according to various embodiments, the reference coding unit may include at least one of block shape information and split shape mode information. It can divide based on one.
  • 16 is a diagram of a processing block serving as a reference for determining a determination order of a reference coding unit included in a picture, according to an embodiment.
  • the image decoding apparatus 100 may determine at least one processing block for dividing a picture.
  • the processing block is a data unit including at least one reference coding unit for dividing an image, and the at least one reference coding unit included in the processing block may be determined in a specific order. That is, the determination order of at least one reference coding unit determined in each processing block may correspond to one of various types of order in which the reference coding unit may be determined, and the reference coding unit determination order determined in each processing block. May be different per processing block.
  • the order of determination of the reference coding units determined for each processing block is raster scan, Z-scan, N-scan, up-right diagonal scan, and horizontal scan. It may be one of various orders such as a horizontal scan, a vertical scan, etc., but the order that may be determined should not be limited to the scan orders.
  • the image decoding apparatus 100 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block.
  • the image decoding apparatus 100 may determine the size of at least one processing block included in the image by obtaining information about the size of the processing block from the bitstream.
  • the size of such a processing block may be a predetermined size of a data unit indicated by the information about the size of the processing block.
  • the receiver 110 of the image decoding apparatus 100 may obtain information about the size of a processing block from a bitstream for each specific data unit.
  • the information about the size of the processing block may be obtained from the bitstream in data units such as an image, a sequence, a picture, a slice, a slice segment, a tile, and a tile group. That is, the receiver 110 may obtain information about the size of the processing block from the bitstream for each of the various data units, and the image decoding apparatus 100 may at least divide the picture using the information about the size of the acquired processing block.
  • the size of one processing block may be determined, and the size of the processing block may be an integer multiple of the reference coding unit.
  • the image decoding apparatus 100 may determine the sizes of the processing blocks 1602 and 1612 included in the picture 1600. For example, the image decoding apparatus 100 may determine the size of the processing block based on the information about the size of the processing block obtained from the bitstream. Referring to FIG. 16, according to an embodiment, the image decoding apparatus 100 may have a horizontal size of the processing blocks 1602 and 1612 equal to four times the horizontal size of the reference coding unit and four times the vertical size of the reference coding unit. You can decide. The image decoding apparatus 100 may determine an order in which at least one reference coding unit is determined in at least one processing block.
  • the image decoding apparatus 100 may determine each processing block 1602 and 1612 included in the picture 1600 based on the size of the processing block, and include the processing block 1602 and 1612 in the processing block 1602 and 1612.
  • a determination order of at least one reference coding unit may be determined.
  • the determination of the reference coding unit may include the determination of the size of the reference coding unit.
  • the image decoding apparatus 100 may obtain information about a determination order of at least one reference coding unit included in at least one processing block from a bitstream, and based on the obtained determination order The order in which at least one reference coding unit is determined may be determined.
  • the information about the determination order may be defined in an order or direction in which reference coding units are determined in the processing block. That is, the order in which the reference coding units are determined may be independently determined for each processing block.
  • the image decoding apparatus 100 may obtain information about a determination order of a reference coding unit from a bitstream for each specific data unit.
  • the receiver 110 may obtain information on the determination order of the reference coding unit from the bitstream for each data unit such as an image, a sequence, a picture, a slice, a slice segment, a tile, a tile group, and a processing block.
  • the information about the determination order of the reference coding unit indicates the determination order of the reference coding unit in the processing block
  • the information about the determination order may be obtained for each specific data unit including an integer number of processing blocks.
  • the image decoding apparatus 100 may determine at least one reference coding unit based on the order determined according to the embodiment.
  • the receiver 110 may obtain information about a reference coding unit determination order from the bitstream as information related to the processing blocks 1602 and 1612, and the image decoding apparatus 100 may process the processing block ( An order of determining at least one reference coding unit included in 1602 and 1612 may be determined, and at least one reference coding unit included in the picture 1600 may be determined according to the determination order of the coding unit.
  • the image decoding apparatus 100 may determine determination orders 1604 and 1614 of at least one reference coding unit associated with each processing block 1602 and 1612. For example, when information on the determination order of the reference coding unit is obtained for each processing block, the reference coding unit determination order associated with each processing block 1602 and 1612 may be different for each processing block.
  • the reference coding units included in the processing block 1602 may be determined according to the raster scan order.
  • the reference coding unit determination order 1614 associated with another processing block 1612 is the reverse order of the raster scan order
  • the reference coding units included in the processing block 1612 may be determined according to the reverse order of the raster scan order.
  • the image decoding apparatus 100 may decode at least one determined reference coding unit according to an embodiment.
  • the image decoding apparatus 100 may decode an image based on the reference coding unit determined through the above-described embodiment.
  • the method of decoding the reference coding unit may include various methods of decoding an image.
  • the image decoding apparatus 100 may obtain and use block shape information indicating a shape of a current coding unit or split mode mode information indicating a method of dividing a current coding unit from a bitstream.
  • Partition type mode information may be included in a bitstream associated with various data units.
  • the image decoding apparatus 100 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, and a slice segment header. The segmentation mode information included in the segment header, the tile header, and the tile group header may be used.
  • the image decoding apparatus 100 may obtain and use a syntax element corresponding to the block type information or the split type mode information from the bitstream from the bitstream for each maximum coding unit, reference coding unit, and processing block.
  • the image decoding apparatus 100 may determine a segmentation rule of an image.
  • the division rule may be predetermined between the image decoding apparatus 100 and the image encoding apparatus 2200.
  • the image decoding apparatus 100 may determine a segmentation rule of an image based on the information obtained from the bitstream.
  • the image decoding apparatus 100 may include a sequence parameter set, a picture parameter set, a video parameter set, a slice header, a slice segment header,
  • the division rule may be determined based on information obtained from at least one of a tile header and a tile group header.
  • the image decoding apparatus 100 may determine a division rule differently according to a frame, slice, tile, temporal layer, maximum coding unit, or coding unit.
  • the image decoding apparatus 100 may determine a division rule based on a block shape of a coding unit.
  • the block shape may include a size, shape, a ratio of a width and a height, and a direction of a coding unit.
  • the image encoding apparatus 2200 and the image decoding apparatus 100 may determine in advance that the division rule is to be determined based on the block shape of the coding unit. But it is not limited thereto.
  • the image decoding apparatus 100 may determine a division rule based on the information obtained from the bitstream received from the image encoding apparatus 2200.
  • the shape of the coding unit may include square and non-square.
  • the image decoding apparatus 100 may determine a shape of the coding unit as a square. Also, .
  • the image decoding apparatus 100 may determine the shape of the coding unit as a non-square.
  • the size of the coding unit may include various sizes of 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ..., 256x256.
  • the size of the coding unit may be classified according to the length of the long side, the length or the width of the short side of the coding unit.
  • the image decoding apparatus 100 may apply the same division rule to coding units classified into the same group. For example, the image decoding apparatus 100 may classify coding units having the same long side length into the same size. Also, the image decoding apparatus 100 may apply the same division rule to coding units having the same long side length.
  • the ratio of the width and height of a coding unit is 1: 2, 2: 1, 1: 4, 4: 1, 1: 8, 8: 1, 1:16, 16: 1, 32: 1, or 1:32. It may include.
  • the direction of the coding unit may include a horizontal direction and a vertical direction.
  • the horizontal direction may represent a case where the length of the width of the coding unit is longer than the length of the height.
  • the vertical direction may represent a case where the length of the width of the coding unit is shorter than the length of the height.
  • the image decoding apparatus 100 may adaptively determine a division rule based on the size of a coding unit.
  • the image decoding apparatus 100 may differently determine an acceptable division type mode based on the size of a coding unit. For example, the image decoding apparatus 100 may determine whether division is allowed based on the size of the coding unit.
  • the image decoding apparatus 100 may determine a split direction according to the size of a coding unit.
  • the image decoding apparatus 100 may determine an acceptable division type according to the size of a coding unit.
  • the determination of the division rule based on the size of the coding unit may be a predetermined division rule between the image encoding apparatus 2200 and the image decoding apparatus 100. Also, the image decoding apparatus 100 may determine a division rule based on the information obtained from the bitstream.
  • the image decoding apparatus 100 may adaptively determine a division rule based on the position of the coding unit.
  • the image decoding apparatus 100 may adaptively determine a segmentation rule based on a position occupied by the coding unit in the image.
  • the image decoding apparatus 100 may determine a division rule such that coding units generated by different division paths do not have the same block shape.
  • the present invention is not limited thereto, and coding units generated by different split paths may have the same block shape. Coding units generated by different split paths may have different decoding processing orders. Since the decoding processing procedure has been described with reference to FIG. 12, a detailed description thereof will be omitted.
  • a prediction mode of a left neighboring block adjacent to a left side of a current block a prediction mode of an upper neighboring block adjacent to an upper side of the current block, and the current according to an embodiment disclosed herein with reference to FIGS. 17 to 20.
  • a method and apparatus for decoding are described above.
  • 17 is a block diagram of a video encoding apparatus, according to an embodiment.
  • Intra prediction is a prediction method using only spatial references, and refers to a method of predicting a current block by referring to samples in the vicinity of a block to be encoded.
  • the surrounding reference samples used in intra prediction mean brightness values reconstructed through prediction and reconstruction.
  • Intra prediction is particularly effective for flat regions with continuity and regions with constant orientation.
  • the video encoding apparatus 1700 may include a memory 1710 and at least one processor 1720 connected to the memory 1710. Operations of the video encoding apparatus 1700 according to an embodiment may operate as individual processors or may be operated by control of a central processor.
  • the memory 1710 of the video encoding apparatus 1700 may include data received from the outside and data generated by a processor, for example, MPM mode information and extended intra mode set information (or a possible intra mode set). (Probable Intra Mode Set; PIMS) information), and the like.
  • the processor 1720 of the video encoding apparatus 1700 performs intra prediction of the current block, thereby predicting the prediction mode of the left neighboring block adjacent to the left side of the current block, the prediction mode of the upper neighboring block adjacent to the upper side of the current block, And generate Most Probable Mode (MPM) mode information indicating whether the MPM modes of the current block are determined based on at least two or more prediction modes of the right neighboring block adjacent to the right side of the current block, and generating the MPM mode.
  • MPM Most Probable Mode
  • the extended intra mode set information indicating whether to use the extended intra mode set configured based on the information may be generated, and the MPM mode information and the extended intra mode set information may be encoded.
  • the video encoding apparatus 1700 may include a prediction mode of a left neighboring block adjacent to a left side of a current block, a prediction mode of an upper neighboring block adjacent to an upper side of the current block, and the current according to an embodiment.
  • Extended intra indicating whether to use the extended intra mode set configured based on MPM mode information and MPM modes indicating MPM modes of the current block determined based on the prediction mode of the right neighboring block adjacent to the right side of the block.
  • FIG. 18 is a flowchart of a video encoding method, according to an embodiment.
  • the video encoding apparatus 1700 performs an intra prediction of a current block, so that a prediction mode of a left neighboring block adjacent to a left side of the current block and an upper side adjacent to the upper side of the current block are performed.
  • Most Probable Mode (MPM) mode information indicating whether the MPM modes of the current block determined based on at least two or more of the prediction mode of the neighboring block and the prediction mode of the right neighboring block adjacent to the right side of the current block are provided. Can be generated.
  • MPM Probable Mode
  • the MPM mode may be determined using the right neighboring block and the upper neighboring block instead of the left neighboring block and the upper neighboring block of the current block. have.
  • the intra prediction mode of the right neighboring block is MPM when the intra prediction mode of the right side is available, the intra prediction mode of the left or upper neighboring block is not available, or the intra prediction modes of the left and upper neighboring block are the same. Available in mode.
  • the intra prediction mode statistically selected more frequently in the neighboring block may be selected as the MPM mode.
  • two more similar intra prediction modes of the three neighboring blocks can be selected without signaling in MPM mode or intra prediction with low residual values through sum of transform difference (SATD) or rate distortion optimization (RDO) calculations. Two modes can be selected as the MPM mode.
  • SATD transform difference
  • RDO rate distortion optimization
  • the number of MPM modes may be changed to three.
  • the video encoding apparatus 1700 may generate extended intra mode set information indicating whether to use an extended intra mode set configured based on MPM modes.
  • intra prediction modes of the current block may be selected among intra prediction modes not selected as MPM modes.
  • Probable Intra Mode Set (PIMS) can be configured separately. A detailed method of configuring the PIMS will be described later with reference to FIGS. 31A to 31C.
  • extended intra mode set or “PIMS” are terms having the same meaning and may be used interchangeably.
  • the MPM mode information and the extended intra mode set information may be encoded.
  • the determination of the MPM mode and the configuration of the PIMS may be determined through SATD or RDO calculation.
  • the MPM mode information indicating whether the MPM mode is used and the PIMS information indicating whether the PIMS is used may be determined through SATD or RDO calculation.
  • PIMS information indicating whether PIMS is used is checked. If the PIMS flag indicating PIMS information is 1, log 2 (N) bits are allocated to PIMS and encoded (N means PIMS candidate number).
  • the PIMS may reduce the bit amount by using unary or truncated unary coding.
  • the same bit may be allocated to the PIMS, and each bit may be efficiently encoded by using context modeling.
  • bits may be efficiently encoded by allocating bits only for the remaining modes except for MPM and PIMS.
  • it may be determined whether to use only a MPM or a PIMS according to an image or a total number of modes used according to an image or a block flag as an MPM.
  • a flag indicating whether PIMS is used may be transmitted in units of frames.
  • whether to use PIMS and the number of PIMS may be differently applied according to the size of a block.
  • the availability of the PIMS and the number of PIMS may be differently applied according to the availability check result described later with reference to FIG. 22A.
  • 19 and 20 illustrate a block diagram of a video decoding apparatus according to an embodiment corresponding to each of the video encoding apparatus and the video encoding method described above, and a flowchart of a video decoding method according to an embodiment.
  • 19 is a block diagram of a video decoding apparatus, according to an embodiment.
  • the video decoding apparatus 1900 may include a memory 1910 and at least one processor 1920 connected to the memory 1910. Operations of the video decoding apparatus 1900 according to an embodiment may operate as individual processors or may be operated by control of a central processor.
  • the memory 1910 of the video decoding apparatus 1900 may store data received from the outside and data generated by a processor, for example, MPM mode information and extended intra mode set information (or PIMS information). Can be.
  • the processor 1920 of the video decoding apparatus 1900 may include a prediction mode of a left neighboring block adjacent to a left side of a current block, a prediction mode of an upper neighboring block adjacent to an upper side of the current block, and a video decoding apparatus 1900.
  • MPM Most Probable Mode
  • the extended intra mode set information indicating whether to use the extended intra mode set configured based on may be obtained, and the intra prediction mode of the current block may be determined based on the MPM mode information and the extended intra mode set information.
  • the video decoding apparatus 1900 determines an intra prediction mode, whether the MPM modes are used based on neighboring blocks adjacent to the left side, the upper side, and the right side of the current block.
  • a detailed operation of a video decoding method using extended intra mode set information on whether to use an extended intra mode set configured based on MPM mode information and MPM modes will be described in detail.
  • FIG. 20 is a flowchart of a video decoding method, according to an embodiment.
  • the video decoding apparatus 1900 may include a prediction mode of a left neighboring block adjacent to a left side of a current block, a prediction mode of an upper neighboring block adjacent to an upper side of the current block, and the current.
  • Most Probable Mode (MPM) mode information indicating whether the MPM modes of the current block determined based on at least two or more prediction modes of the right neighboring block adjacent to the right side of the block may be obtained.
  • MPM Most Probable Mode
  • the MPM mode of the current block may be determined as the intra prediction mode of the left neighboring block and the upper neighboring block.
  • the MPM mode of the current block may be determined as the intra prediction mode of the right neighbor block and the upper neighbor block.
  • the MPM mode of the current block may be determined as the intra prediction modes of the three neighboring blocks.
  • the MPM mode of the current block is the same as the intra prediction mode of the neighboring block having the same intra prediction mode.
  • the intra prediction mode of the neighboring block of may be determined. For example, if the intra prediction modes of the left and upper neighboring blocks are the same, the MPM mode of the current block may be determined as the intra prediction mode of the left neighboring block and the intra prediction mode of the right neighboring block.
  • the intra prediction mode of two of the left, top, and right neighboring blocks is used.
  • the MPM mode of the current block can be determined.
  • the intra prediction mode of the two selected blocks may be an intra prediction mode that is statistically selected more frequently in the neighboring blocks.
  • the MPM mode of the current block may be determined using the intra prediction mode of one of the available neighboring blocks.
  • extended intra mode set information indicating whether to use an extended intra mode set configured based on the MPM modes may be obtained.
  • the extended intra mode set uses the MPM modes of the current block. Can be configured. Specifically, the extended intra mode set may be configured with intra prediction modes having an index close to that of the MPM mode.
  • the extended intra mode set may predict the MPM modes of the current block and the right neighboring block. It can be configured using the mode. For example, even if the MPM mode is determined as the intra prediction mode of the left neighboring block and the upper neighboring block, since the right neighboring block that is highly related to the mode of the current block is available, the right neighboring block in configuring the extended intra mode set may be used. Intra prediction mode may be used.
  • the extended intra mode set may be configured according to the type of MPM modes of the current block.
  • the MPM modes are all non-directional modes
  • the number of modes constituting the extended intra mode set may be differently determined depending on the presence of both the non-directional mode and the directional mode.
  • the extended intra mode set may be configured in a small number, and may include non-directional modes, diagonal modes, horizontal modes, vertical modes, and the like, which are not included in the MPM mode.
  • an extended intra mode The set includes the intra prediction mode of the index increased by N from the index of the intra prediction mode of the left neighboring block, the intra prediction mode of the index reduced by N from the index of the intra prediction mode of the left neighboring block, and the intra prediction mode of the upper neighboring block.
  • the extended intra mode set is a plane mode, a horizontal mode, a vertical mode and a diagonal mode (Diagonal Mode). It can be configured as.
  • Bilinear mode is described below with reference to FIGS. 24A-24C.
  • the extended intra mode set is one from the index of the bilinear mode, the plane mode, and the directional mode.
  • Intra prediction mode of increased index, intra prediction mode of index increased by 2 from index of directional mode, intra prediction mode of index reduced by 1 from index of directional mode, reduced by 2 from index of directional mode The intra prediction mode, the first default mode, and the second default mode of the index may be configured, and the first default mode and the second default mode may be a predetermined intra prediction mode.
  • the "default mode" may be determined from a list of sequentially listed intra prediction modes that are likely to be statistically selected.
  • the extended intra mode set is bilinear mode, plane mode, modes with indexes of 55, 56, 58 and 59, default mode [0], It may be configured as the default mode [1].
  • the extended intra mode set is derived from an index of the first directional mode.
  • Intra prediction mode of index increased by 1 intra prediction mode of index reduced by 1 from index of first directional mode
  • intra prediction mode of index increased by 1 from index of second directional mode index of second directional mode
  • the MPM mode is an intra prediction mode with indexes 30 and 40
  • the extended intra mode set may be configured with modes 29, 31, 39, 41, vertical mode, horizontal mode, DC mode, and bilinear mode. Can be.
  • the extended intra mode set includes an intra prediction mode of an index increased by 1 from an index of a bilinear mode, a plane mode, the second directional mode, and the first directional mode, and an intra prediction of an index reduced by 1 from an index of a first directional mode.
  • Mode the intra prediction mode of the index increased by 1 from the index of the second directional mode, the intra prediction mode of the index reduced by 1 from the index of the second directional mode, and the default mode, wherein the default mode is predetermined intra prediction. May be a mode.
  • the extended intra mode set is the bilinear mode, the plane mode, and the index is 40, 56, 58, 39. , 41 modes and a default mode [0].
  • the extended intra mode set includes the third directional mode, an intra prediction mode of an index increased by 1 from an index of the first directional mode, an intra prediction mode of an index reduced by 1 from an index of a first directional mode, and a second directionality.
  • Intra prediction mode of the index increased by 1 from the index of the mode, intra prediction mode of the index reduced by 1 from the index of the second directional mode, intra prediction mode of the index increased by 1 from the index of the third directional mode It can be configured as an intra prediction mode of the index reduced by one from the index of the three-directional mode. For example, if the index of the MPM mode is 40 and 57 and the index of the intra prediction mode of the right neighboring block is 55, the extended intra mode set is an intra having an index of 55, 39, 41, 53, 54, 56, 58, 59. It may be configured in a prediction mode.
  • an intra prediction mode of the current block may be determined based on the MPM mode information and the extended intra mode set information.
  • one of the intra prediction modes of the MPM mode may be determined as the intra prediction mode of the current block, and the MPM mode information does not use the MPM mode.
  • the extended intra mode set information uses the extended intra mode set, one of the intra prediction modes included in the extended intra mode set may be determined as the intra prediction mode of the current block, and the extended intra mode set information is Indicating that the extended intra mode set is not used, one of the remaining intra prediction modes other than the MPM mode and the modes included in the extended intra mode set may be determined as the intra prediction mode of the current block.
  • the syntax for step s2050 is described below with reference to FIG. 32A.
  • the extended intra mode set in addition to the MPM mode in the case of intra prediction, the case in which the MPM mode is selected instead of the correct mode by the mode encoding efficiency is compensated for, thereby improving the prediction accuracy, and by using the information of the right neighboring block additionally.
  • the efficiency of mode coding may be increased by allocating a small bit to various intra prediction modes and presenting them as candidates.
  • FIG. 21 is a diagram for describing a coding order of coding units included in a maximum coding unit and a maximum coding unit.
  • the maximum coding unit 2150 is divided into a plurality of coding units 2156, 2158, 2160, 2162, 2168, 2170, 2172, 2174, 2180, 2182, 2184, and 2186.
  • the maximum coding unit 2150 corresponds to the highest node 2100 of the tree structure.
  • the plurality of coding units 2156, 2158, 2160, 2162, 2168, 2170, 2172, 2174, 2180, 2182, 2184, and 2186 respectively represent a plurality of nodes 2106, 2108, 2110, 2112, 2118, 2121, 2122, 2124, 2130, 2132, 2134, and 2136.
  • the upper coding order flags 2102, 2114, and 2126 indicating the coding order in the tree structure correspond to the arrows 2152, 2164, and 2176, and the upper coding order flags 2104, 2116, and 2128 correspond to the arrows 2154, 2166, and 2178.
  • the upper coding order flag indicates a coding order of two coding units located at the top of four coding units divided from one coding unit. If the upper coding order flag is 0, encoding is performed in the forward direction. On the contrary, when the upper coding order flag is 1, encoding is performed in the reverse direction.
  • the lower coding order flag indicates a coding order of two coding units located at the bottom of four coding units divided from one coding unit. If the lower coding order flag is 0, encoding is performed in the forward direction. On the contrary, when the lower coding order flag is 1, encoding is performed in the reverse direction.
  • the coding order between the coding units 2168 and 2170 is determined from the left to the right in the forward direction.
  • the lower coding order flag 2116 is 1, the coding order between the coding units 2172 and 2174 is determined from right to left in the reverse direction.
  • the upper coding order flag and the lower coding order flag may be set to have the same value.
  • the upper coding order flag 2102 is determined as 1
  • the lower coding order flag 2104 corresponding to the upper coding order flag 2102 may also be determined as 1. Since the values of the upper coding order flag and the lower coding order flag are determined by one bit, the amount of information of the coding order information is reduced.
  • the upper coding order flag and the lower coding order flag of the current coding unit may be determined by referring to at least one of an upper coding order flag and a lower coding order flag applied to a coding unit larger than the current coding unit.
  • the upper coding order flag 2126 and the lower coding order flag 2128 applied to the coding units 2180, 2182, 2184, and 2186 are the lower coding order flags 2116 applied to the coding units 2172 and 2174. It can be determined based on. Accordingly, the upper encoding order flag 2126 and the lower encoding order flag 2128 may be determined to have the same value as the encoding order flag 2116. Since the values of the upper coding order flag and the lower coding order flag are determined from higher coding units of the current coding unit, coding order information is not obtained from the bitstream. Therefore, the amount of information of the coding order information is reduced.
  • an encoding order flag for a block may be obtained according to the size or depth of the block. For example, the encoding order flag may be obtained only for blocks of a predetermined size, and the encoding order flag may not be obtained for blocks of other sizes. If the current block is larger than a block of a predetermined size, the encoding order may be determined in the forward direction without obtaining the encoding order flag. If the current block is smaller than a block of a predetermined size, the encoding order may be determined according to an upper block of the current block without obtaining an encoding order flag. The size of the block from which the encoding order flag is obtained may be arbitrarily determined. For example, the coding order flags may be determined as sizes 16x16 and 32x32 of blocks.
  • 22A illustrates an intra prediction method according to whether a neighboring block is reconstructed.
  • a position of a reference block usable in the current block may vary.
  • the location of the currently available reference block can be classified through an availability check.
  • the left side is represented by L
  • the right side is represented by R
  • 0 or 1 may be referred to as reference, and thus, may be classified into LR_10 (2200), LR_01 (2210), LR_11 (2220), and LR_00 (2230).
  • the first embodiment 2200 illustrates an intra prediction method when the upper block and the left block are reconstructed before the current block 2201 in decoding order.
  • the upper reference samples 2202, the upper right reference samples 2203, the left reference samples 2204, and the lower left reference samples 2205 may be used for intra prediction.
  • the first embodiment 2200 occurs in a conventional video decoding method in which the decoding order is not changed, and the current block 2201 is predicted according to the conventional intra prediction method.
  • the second embodiment 2210 illustrates an intra prediction method when the upper block and the right block are reconstructed before the current block 2211 in decoding order.
  • the upper reference samples 2212, the upper left reference samples 2213, the right reference samples 2214, and the lower right reference samples 2215 may be used for intra prediction.
  • the intra prediction method according to the second embodiment 2210 is symmetric with the intra prediction method according to the first embodiment 2200.
  • the intra prediction method according to the other directional intra mode and the planner mode of the second embodiment 2210 may also be symmetric with the intra prediction method according to the other directional intra mode and the planner mode of the first embodiment 2200.
  • the third embodiment 2220 represents an intra prediction method when the upper block, the left block, and the right block are reconstructed before the current block in decoding order.
  • the upper reference samples 2222, the left reference samples 2223, the right reference samples 2224, the lower left reference samples 2225, and the lower right reference samples 2226 are included. Can be used for intra prediction.
  • the left reference samples 2223 and the right reference samples 2224 may be used together in prediction of the current block 2221.
  • the video decoding apparatus 1900 may obtain a first reference value obtained from the left reference samples 2223 and a second reference value obtained from the right reference samples 2224.
  • the current block 2221 can be predicted using the average or weighted average of the reference values.
  • the video decoding apparatus 1900 may include a first intermediate prediction value according to the intra prediction method of the first embodiment 2200 and a second intermediate prediction value according to the intra prediction method of the second embodiment 2210.
  • the current block 2221 of the third embodiment 2220 may be predicted using the average value of.
  • the video decoding apparatus 1900 may obtain a first intermediate obtained from the left reference samples 2204 according to the intra prediction method according to the first embodiment 2200.
  • the prediction value and the second intermediate prediction value obtained from the right reference samples 2214 according to the intra prediction method according to the second embodiment 2210 the current block 2221 of the current block 2221 according to the third embodiment 2220 is used.
  • the final predicted value can be obtained.
  • the video decoding apparatus 1900 may include one of a first prediction value according to the intra prediction method of the first embodiment 2200 and a second prediction value according to the intra prediction method of the second embodiment 2210.
  • the current block 2221 of the third embodiment 2220 may be predicted using. For example, when the horizontal mode is applied to the current block 2221, the video decoding apparatus 1900 obtains the first prediction obtained from the left reference samples 2204 according to the intra prediction method according to the first embodiment 2200.
  • a current block 2221 according to the third embodiment 2220 using a selected value and a second prediction value obtained from the right reference samples 2214 according to the intra prediction method according to the second embodiment 2210. The final predicted value of can be found.
  • the fourth embodiment 2230 illustrates an intra prediction method when only the upper block, the upper left block, and the upper right block are reconstructed before the current block 2231.
  • the upper reference samples 2232, the upper left reference samples 2233, and the upper right reference samples 2234 may be used for intra prediction. Therefore, the intra prediction method in which the left reference samples 2235, the lower left reference samples 2236, the right reference samples 2237, and the lower right reference samples 2238 are essentially used in the fourth embodiment 2230. Cannot be used. For example, because the horizontal mode uses left reference samples or right reference samples, it cannot be used in the fourth embodiment 2230.
  • the intra prediction method used in the fourth embodiment 2230 is preferably a vertical mode using a reference sample 2232 of an upper block adjacent to the current block 2231 or a directional prediction mode in a direction adjacent to the vertical mode.
  • the video decoding apparatus 1900 may block the current block 2231 of the fourth embodiment 2230. ) Can be predicted.
  • 22B shows a modified algorithm for the case where the right neighboring block adjacent to the right side of the current block can be used.
  • an availability check indicates that LR_11 indicating that all of the left, top, and right sides are available, an extended algorithm using all of the reference blocks on the left, top, and right sides is applied, and the top and right sides are applied.
  • LR_01 indicating this availability is obtained, an extended algorithm using upper and right reference blocks is applied, and in the other cases (LR_00 and LR_10), an existing algorithm using upper or left and upper reference blocks is applied.
  • the extended algorithm can be used by symmetrically extending the existing algorithm.
  • a table in which the table for the filter or the weight coefficient is flipped left and right may be used.
  • both reference blocks may be used for more accurate prediction.
  • both reference blocks may be used for prediction at the same ratio, or may be used for prediction by performing a linear combination or a non-linear combination by calculating weights according to distances (position differences). have.
  • the availability check of the reference block the availability of the reference block is checked so that the reference block can be selectively used among the available reference blocks according to the intra mode of the current block.
  • the neighboring information may be used to select the reference block to be used without signaling.
  • the reference block to be used may be determined by extending the intra mode to perform rate-distortion optimization (RDO).
  • the existing algorithm may be replaced with an extended algorithm without additional signaling in LR_01 and LR_11 using the right reference block.
  • the prediction accuracy may be improved by using various pieces of surrounding information including the right reference samples, the information to be used through the availability check may be determined, and the signaling efficiency may be increased because signaling is not required.
  • the vertical direction 2340 which is the positive direction of the y axis
  • the horizontal direction 2320 which is the negative direction of the x axis
  • 23 illustrates a diagonal directional mode 2350 on one quadrant that is the last direction of the intra prediction direction among intra prediction directions
  • a diagonal directional mode 2310 on the third quadrant that is the start direction of the directional mode.
  • the diagonal mode 2330 (diagonal mode) is shown perpendicular to the direction of the directional mode 2350.
  • the direction of the directional mode 2350 in the intra prediction mode of FIG. 23 may be an angle direction other than the 45 degree direction.
  • the intra prediction mode may be configured as 67. Specifically, it may consist of a DC mode, a planar mode, and 65 directional modes, wherein the intra prediction mode has an index of the intra prediction mode from 0 to 66 (0 is a planar mode, 1 is a DC mode, and 2 to 66 is directional). Mode).
  • the mode in which the index of the intra prediction mode is 2 may be the directional mode 2310 in the opposite direction to the directional mode 2350 in the 45 degree direction, and the mode in which the index of the intra prediction mode is 34 is 45 degrees.
  • a mode in which the index of the intra prediction mode is 66 may be an intra prediction mode in the 45 degree direction 2350
  • x The index of the horizontal mode 2320 in the negative direction of the axis may be 18 and the index of the vertical mode 2340 in the positive direction of the y axis may be 50.
  • FIG. 24A shows a Bilinear prediction mode using left and upper neighboring blocks
  • FIG. 24B shows a Bilinear prediction mode using upper and right neighboring blocks
  • FIG. 24C shows a Bilinear prediction mode using left and right neighboring blocks.
  • Bilinear prediction mode is an intra prediction mode that generates boundary values of the current block from a reference block, and obtains prediction values of the current pixels of the current block through linear overlap of the boundary values. This mode is often selected together.
  • a virtual first using the reference sample 2410 located on the upper right side of the current block when a reference sample adjacent to the left side of the current block and a reference sample adjacent to the upper side of the current block are available, a virtual first using the reference sample 2410 located on the upper right side of the current block.
  • a pixel is generated, and a virtual second pixel is generated using the reference sample 2402 positioned at the lower left of the current block.
  • the pixels on the right boundary of the current block (vertical pixels 2403 including the first pixel) have a value of the first pixel, and the pixels on the lower boundary of the current block (including the second pixel).
  • Horizontal rows of pixels 2404 have a value of the second pixel.
  • predictive values of the current pixels are generated using linear interpolation in the horizontal and vertical directions.
  • the reference sample 2411 located at the upper left side of the current block symmetrically with FIG. 24A.
  • the pixels on the left boundary of the current block (the pixels in the vertical line 2413 including the first pixel) have a value of the first pixel, and the pixels on the lower boundary of the current block (the second pixel is included).
  • Horizontal rows of pixels 2414 have a value of the second pixel. Then, predictive values of the current pixels are generated using linear interpolation in the horizontal and vertical directions.
  • the available reference samples may be used without generating a left or right boundary value separately.
  • the pixels 2423 included in the lower horizontal line including the second pixel may generate a prediction value by using reference pixels of the lower left 2421 and the lower right 2422.
  • 25 shows an example of a multi-tap filter used for intra prediction.
  • the 4-tap filter is an example of the N-tap filter, and the N-tap filter is not limited to the 4-tap filter, and includes various filters such as a 7-tap filter, an 8-tap filter, a 10-tap filter, and a 12-tap filter.
  • the 4-tap filter please use the 4-tap filter.
  • the distance used as a reference for changing the type of filter may be determined as a relative ratio in proportion to the size of the block, or as an absolute distance in the case of a specific filter.
  • the number of filters used in one block may vary. Smaller blocks can use fewer filters, and larger blocks can use all of them.
  • one filter may be applied differently according to the size of the block. For example, when the block size is small, a smoothing filter to be used may be selected according to the intra prediction mode of the block.
  • the filter When determining the type of filter, the filter may be applied by flipping the predetermined filter determination direction bilaterally if the reference sample on the right is available. If the right reference sample is available, efficient prediction is possible by applying the strength of the filter differently depending on the distance from the reference sample.
  • a prediction sample (p x, y ) of the current prediction block includes reference samples (a- 1 , a 0 , a 1 , a 2 ) of the upper neighboring block according to the intra prediction direction of the intra prediction mode. Is predicted.
  • the filter coefficients f k, i are different in strength of the filter depending on the distance from the reference sample. Samples in the region 2510 furthest from the reference region in the prediction block apply a strong intensity filter, samples in the region 2530 near the reference region in the prediction block apply a weak intensity or the weakest interpolation filter, and the prediction block Samples of the region 2520 at the midpoint from the reference region within are applied a filter of medium intensity.
  • Equation 1 The syntax to which different strength filtering is applied according to the distance from the reference sample may be implemented as in Equation 1.
  • i and j denote distances from horizontal and vertical reference samples
  • 0 to 4 denote types of 4-tap filters.
  • 26 shows another example of a multi-tap filter used for intra prediction.
  • all reference samples may be used or optionally only reference samples of one or two echoes may be used.
  • FIG. 26 illustrates an example in which the example of FIG. 25 is flipped symmetrically.
  • the reference sample may be selectively used according to the intra prediction mode of the current prediction block, and the strength of the 4-tap filter may vary according to the distance from the selected reference sample.
  • prediction accuracy is improved in a region close to a reference sample using a multi-N tap filter, and a prediction block having a natural pattern may be generated in a region far from the reference sample.
  • FIG. 27A shows an example of a 4-tap filter used for intra prediction
  • FIG. 27B shows another example of a 4-tap filter used for intra prediction.
  • the prediction block generated using the left reference sample and the right reference sample are generated.
  • One of the predictive blows may be selected and used, or the average of the two predictive blocks may be used as the predictive block.
  • the prediction block may be formed by using both reference samples as in the Bilinear mode described above with reference to FIGS. 24A, 24B, and 24C according to the intra prediction mode of the current block. Can be generated.
  • prediction accuracy may be improved by using reference samples in various directions for the current block.
  • the prediction block is generated according to intra prediction
  • the intra prediction mode is selected as the directional mode
  • the boundary of the prediction block may be filtered using a reference sample.
  • discontinuity may occur between the prediction block and the right reference sample in a region adjacent to the right reference sample.
  • the line of pixels of the prediction block adjacent to the right reference sample may be smoothed to reduce the discontinuity pattern.
  • discontinuity occurs between prediction pixels located at the lower right end of the prediction block and right reference samples while generating the prediction pixels of the prediction block from the upper left to the lower right using the left and upper reference samples.
  • the prediction pixel may be filtered by applying a filter having a filter coefficient of f k, i using reference samples of a ⁇ 1 , a 0 , a 1 at the bottom right.
  • the region to which filtering is applied may be determined by one or two lines of pixels of the prediction block adjacent to the reference sample, and may be determined differently according to the size of the block and the intra mode. Since the discontinuity may occur even when the intra prediction mode is the DC mode rather than the directional mode, boundary filtering may be applied.
  • the discontinuity with neighboring blocks may be reduced by using more peripheral reference samples, and the efficiency of transformation may be improved by correcting the occurrence of a sudden prediction deviation by generating a predictive block having a natural pattern. .
  • FIG. 29A illustrates block indexes included in a coding unit
  • FIG. 29B illustrates an example of a scan order of a coding unit
  • FIG. 29C illustrates another example of a scan order in a block map of a coding unit
  • FIG. 29D The block map which shows the coded block of the block contained in a coding unit is shown.
  • a block index may be specified for samples of a block included in a coding unit.
  • the block index 26 of the reference block with respect to the block index 32 of the current block may not be determined as an available area because it is not encoded or reconstructed. Therefore, since it is impossible to determine all the available areas for the block index smaller than 32, it is necessary to generate the coded block map.
  • blocks encoded in the current coding unit are displayed in gray.
  • a block map indicating a block encoded in the coding unit it may be determined whether the area is available for a block index smaller than 32 even in FIG. 29C.
  • FIG. 30A illustrates a block to which a split unit coding order (SUCO) is applied in which a coding order is changed from right to left
  • FIG. 30B illustrates a scan order of a coding unit to which SUCO is applied
  • FIG. An example of a block map is shown
  • FIG. 30D illustrates an example of a coding unit including a current block
  • FIG. 30E illustrates a block map of a coding unit including a current block to which SUCO is applied.
  • SUCO split unit coding order
  • FIGS. 30A and 30B even if information on the right side is available to the coding unit including the SUCO to which the SUCO of FIG. 30A is applied, only the information on the left side is read using the existing block map. Can not. However, as shown in the scan order of FIG. 30B, since a reconstructed value is available when the index of a block is read, prediction may be performed using the block index 48 as a reference sample. Thus, as shown in FIG. 30C, an encoded block map to which SUCO is applied may be generated. In detail, if a block map of a coding unit including the current block of FIG. 30D is displayed as shown in FIG. 30E, reconstructed sample values located on the right side may be used through an availability check.
  • FIG. 31A shows PIMS when the left and top peripheral blocks of the current block are available
  • FIG. 31B shows PIMS when the right and top peripheral blocks of the current block are available
  • FIG. 31C shows the left side of the current block, PIMS is shown when both upper and right peripheral blocks are available.
  • the intra prediction modes of the upper peripheral block 3120 adjacent to the upper side of the current block 3110 and the left peripheral block 3130 adjacent to the left of the current block 3110 are vertical and horizontal modes, respectively.
  • the MPM mode of the current block is determined as the vertical mode and the horizontal mode
  • the PIMS 3140 is composed of modes close to the MPM mode and highly correlated with the MPM mode among the modes existing between the vertical mode and the horizontal mode.
  • the PIMS 3140 may include an intra prediction mode of an index increased by 1 from an intra prediction mode index of the vertical mode, an intra prediction mode of an index increased by 2 from an intra prediction mode index of the vertical mode, and an intra prediction of a horizontal mode.
  • Intra prediction mode of the index reduced by 2 from the mode index intra prediction mode of the index reduced by 1 from the intra prediction mode index of the horizontal mode, intra of the index rounded by averaging the intra prediction mode index of each of the vertical mode and the horizontal mode Prediction mode and the like.
  • the intra prediction modes of the upper peripheral block 3160 adjacent to the upper side of the current block 3150 and the right peripheral block 3170 adjacent to the right side of the current block 3150 are vertical and horizontal modes, respectively. If the left neighboring block is not available, the MPM mode of the current block is determined to be the vertical mode and the horizontal mode using the intra prediction mode of the right neighboring block instead of the left neighboring block, and the PIMS 3140 determines the vertical mode and Among the modes existing between the horizontal modes, the MPM mode may be configured to be close to the MPM mode.
  • the left peripheral block 3102 adjacent to the left side of the current block 3101, the upper peripheral block 3103 adjacent to the upper side of the current block 3101, and the right side of the current block 3101 are adjacent.
  • the intra prediction modes of the right neighboring block 3104 are different intra prediction modes, all of the intra prediction modes of the three neighboring blocks may be used to configure the PIMS 3105.
  • PIMS 3105 may be configured as an intra prediction mode of an index that is increased or decreased by L from the index of the intra prediction mode of the right neighboring block 3104.
  • N, M and L are non-zero integers.
  • the PIMS 3105 may be configured using two different intra prediction modes.
  • the PIMS 3105 may be configured such that an intra prediction mode in a direction similar to the same intra prediction mode is further included in the PIMS 3105.
  • the PIMS 3105 has an index of 34 and 35.
  • Intra prediction modes or indexes of 35, 36, 38, 39, 40, 23, and 25 may be configured as 35, 36, 38, 39, 23, and 25, DC mode, and Bilinear mode.
  • FIG. 32A shows syntax of a flag indicating whether MPM and PIMS are used
  • FIG. 32B shows syntax of PIMS.
  • intra prediction is performed by using the MPM mode.
  • the MPM flag is 0
  • the PIMS flag is checked.
  • N predetermined number of PIMS flags are set.
  • Intra prediction may be performed using a mode, and when the PIMS flag is 0, intra prediction may be performed in one of the remaining intra prediction modes.
  • the PIMS flag may be signaled after coding by allocating log 2 (N) bits when the number of additional mode sets is N.
  • FIG. 32B a syntax of PIMS coding in which PIMS is configured using an intra prediction mode of a right neighboring block if a right neighboring block is available is shown.
  • the PIMS is configured considering the intra prediction mode of the right neighboring block in addition to the intra prediction modes (mpm [0] and mpm [1]) of the left neighboring block and the upper neighboring block, which are conventional mpm modes. Can be.
  • multi-parameter intra prediction is a prediction method of generating a new prediction pixel value by using reference pixels or prediction pixels located on the left and top sides with respect to the current pixel.
  • the pattern of the predictive block is made natural and the efficiency of the prediction is improved.
  • the predicted prediction pixel (P HEVC [i, j]), the reference pixel located to the left of the prediction pixel, or the prediction pixel (P MPI [ i-1, j]) by applying a reference pixel or a prediction pixel (P MPI [i, j-1]) located above the prediction pixel to the following equation (Multi Parameter Intra; MPI) (i, j indicates the position of the pixel), a new prediction pixel P MPI [i, j] may be generated.
  • MPI Multi Parameter Intra
  • This multi-parameter intra prediction can be used symmetrically when the right reference sample is available.
  • pixels near the left side may use left information
  • pixels near the right side may use right information based on the center.
  • the discontinuity may be solved by filtering the middle region or using both information.
  • the prediction blocks may be generated and averaged using the reference samples on the left and the right, respectively, or the prediction blocks having the better performance may be selected and used.
  • FIG. 34A shows an example of the syntax of multi-parameter prediction used for intra prediction
  • FIG. 34B shows an example of the syntax of multi-parameter prediction according to an availability check.
  • multi parameter prediction (mpi_index ()) may be applied when multi parameter prediction is required (mpi_coded is 1).
  • FIG. 35A illustrates an example of a filtered reference sample used for multiple combined intra prediction
  • FIG. 35B illustrates an example where multiple combined intra prediction is applied.
  • the Infinite Impulse Response (IIR) method When generating a new prediction pixel through multi-parameter intra prediction on the current pixel, the Infinite Impulse Response (IIR) method recursively uses the new prediction pixel of the previous pixel generated by multi-parameter intra prediction on the previous pixel.
  • IIR Infinite Impulse Response
  • filtering cannot be applied in parallel, so there is a problem that a lot of time is used.
  • multiple combined intra prediction using first filtering the reference sample may be used.
  • a reference sample is filtered to obtain a filtered reference sample.
  • the filtered reference sample may be generated by combining using the current reference sample and the left samples positioned to the left of the current reference sample.
  • the filtered reference sample may be generated by combining using a weighted average using lower samples positioned below the current reference sample and the current reference sample.
  • the direction of filtering to generate the filtered reference sample may be predetermined. In detail, in the case of LR_00 or LR_10, the user may filter from the left to the right, and may filter from the top to the bottom.
  • the user may filter from the right to the left and the user may filter from the top to the bottom.
  • the upper reference sample may be filtered using both left and right pixels, and the left and right reference samples may be filtered from top to bottom.
  • the filtering of the reference sample may be performed according to the filtering direction, as shown in Equation 3 below.
  • j means a natural number in ascending order from left to right
  • j means a natural number in ascending order from top to bottom
  • the reference samples are filtered by weighting using the current reference sample a j and the sample a j-1 located to the left of the current reference sample. If the filtering direction is from top to bottom, the current sample is filtered.
  • the reference sample may be filtered by applying a weight using the reference sample a j and the sample a j-1 positioned above the current reference sample.
  • the reference samples are filtered by weighting using the current reference sample a j and the sample a j + 1 located to the right of the current reference sample, and the direction of filtering is from bottom to top.
  • the reference sample may be filtered by applying a weight using a current reference sample a j and a sample a j + 1 positioned below the current reference sample.
  • a prediction block may be generated by using an existing reference sample and a filtered reference sample together.
  • the methods of FIGS. 35A and 35B may be used by flipping symmetrically. If both left and right sides are available, only one of them can be selected and used depending on the location of the current pixel. If the position of the current pixel is close to the left, multi-coupled intra prediction is performed using the reference samples on the left. If the position of the current pixel is close to the right, multi-coupled intra prediction may be performed using the reference samples on the right. In addition, the pixel of the middle region may perform multi-coupled intra prediction by using both left and right reference samples. When both reference samples on the left and right sides are used regardless of the position of the current pixel, multi-integrated intra prediction may be performed by differently determining a weight.
  • both the left and right reference samples may be determined according to the size of the block.
  • the block size is large, one reference sample may be used, and when the block size is small, both reference samples may be used. This is because the smaller the block size is, the higher the similarity is to the left and right reference samples. For example, when the block size is larger than 16, only the left or right information may be used. When the block size is smaller than 16, both left and right information may be used.
  • MIP Multiple combined intra prediction
  • Equation 4 is an equation for generating a prediction sample to which the MIP is applied using the filtered reference sample obtained in Equation 3.
  • i or j is greater than 3
  • i or j is determined to be 3 and the coefficient is selected.
  • i and j mean row number and column number.
  • a i ′ refers to the left reference sample generated by filtering according to the filtering direction using Equation 3
  • a j ′ refers to the upper reference sample generated by filtering according to the filtering direction using Equation 3.
  • C a [i, j] means using the coefficients corresponding to the i row j columns of the matrix when multi-integrated intra prediction is applied to the pixels located in the i row j columns
  • C p [i, j ] Means to use the coefficients corresponding to the i-row j columns of the matrix when multi-integrated intra prediction is applied to the pixels located in the i-row j columns
  • C p [j, i] is located in the i-row j columns.
  • a coefficient corresponding to j rows and i columns of the corresponding matrix is used. For example, when the above equations are applied to the pixels of the second row and the third column, C a [i, j] is 1, C p [i, j] is 12, and C p [j, i] is 3 is selected.
  • the multiple combined intra prediction using Equation 4 is performed by using the weights of the predicted pixel p ij of the current pixel and the filtered left reference pixel a i ' and the filtered upper reference pixel a j ' generated by Equation 3. Generate predictive pixels.
  • the prediction pixel p ij of the current pixel when the filtering direction is from right to left, bottom to top, the prediction pixel p ij of the current pixel, the left reference pixel a i corresponding to the row of the current pixel, and the lower side of the left reference pixel
  • a new prediction pixel is added to the five points of the reference pixel a i + 1 at , the upper reference pixel a j corresponding to the column of the current pixel, and the reference pixel a j + 1 located at the right of the upper reference pixel. Is generated.
  • FIG. 36A shows an example of the syntax of multiple combined intra prediction used for intra prediction
  • FIG. 36B shows an example of the syntax of multiple combined intra prediction according to an availability check.
  • the multiple combined intra prediction (mip_index ()) is applied. Can be.
  • Computer-readable recording media include storage media such as magnetic storage media (eg, ROMs, floppy disks, hard disks, etc.) and optical reading media (eg, CD-ROMs, DVDs, etc.).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

비디오 부호화 및 복호화 과정 중에서, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하고, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하고, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정하는 비디오를 복호화하는 방법 및 장치를 제안한다.

Description

비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
본 개시는 비디오 복호화 방법 및 비디오 복호화 장치에 관한 것으로, 보다 구체적으로, 본 개시는 현재 블록의 좌측 및 상측의 주변 블록뿐만 아니라 우측의 주변 블록에 기초한 MPM(Most Probable Mode) 모드들과 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트를 이용하여 인트라 예측을 수행함으로써 영상을 부호화하는 방법 및 장치, 복호화하는 방법 및 장치에 관한 것이다.
영상 데이터는 소정의 데이터 압축 표준, 예를 들면 MPEG(Moving Picture Expert Group) 표준에 따른 코덱에 의하여 부호화된 후 비트스트림의 형태로 기록매체에 저장되거나 통신 채널을 통해 전송된다.
고해상도 또는 고화질 영상 컨텐트를 재생, 저장할 수 있는 하드웨어의 개발 및 보급에 따라, 고해상도 또는 고화질 영상 컨텐트를 효과적으로 부호화 또는 복호화 하는 코덱(codec)의 필요성이 증대하고 있다. 부호화된 영상 컨텐트는 복호화됨으로써 재생될 수 있다. 최근에는 이러한 고해상도 또는 고화질 영상 컨텐트를 효과적으로 압축하기 위한 방법들이 실시되고 있다. 예를 들면, 부호화 하려는 영상을 임의적 방법으로 분할하거나, 데이터를 조작하는 과정을 통해 영상 압축 기술이 효과적으로 구현될 수 있도록 제안되고 있다.
데이터를 조작하는 기법 중에 하나로서, 인트라 예측에 있어서 현재 블록의 좌측 및 상측의 주변 블록에 기초하여 결정된 2개 이상의 MPM (most probable mode)을 이용하고 그 외의 모드는 동일한 조건으로 코딩하여 시그널링하는 것이 일반적이다.
비디오 부호화 및 복호화 과정 중에서, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하고, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하고, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 결정된 상기 현재 블록의 인트라 예측 모드를 이용하여 인트라 예측을 수행하는 방법 및 장치를 제안한다.
상기 기술적 과제를 해결하기 위해 본 개시에서 제안하는 비디오 복호화 방법은, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하는 단계; 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하는 단계; 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정하는 단계를 포함할 수 있다.
상기 기술적 과제를 해결하기 위해 본 개시에서 제안하는 비디오 복호화 장치는, 메모리; 및 상기 메모리와 접속된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는: 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하고, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하고, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정하도록 구성될 수 있다.
상기 기술적 과제를 해결하기 위해 본 개시에서 제안하는 비디오 부호화 방법은, 현재 블록의 인트라 예측을 수행함으로써, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 생성하는 단계; 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 생성하는 단계; 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보를 부호화하는 단계를 포함할 수 있다.
상기 기술적 과제를 해결하기 위해 본 개시에서 제안하는 비디오 부호화 장치는, 상기 메모리와 접속된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는: 현재 블록의 인트라 예측을 수행함으로써, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 생성하고, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 생성하고, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보를 부호화하도록 구성될 수 있다.
비디오 부호화 및 복호화 과정 중에서, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하고, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하고, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정된 인트라 예측 모드로 현재 블록의 예측을 수행함으로써, MPM 모드 구성시 우측 주변 블록도 고려하여 MPM모드의 효율성이 개선되고, 인트라 예측 수행시 정확한 모드가 아닌 MPM 모드가 선택될 경우를 보완하여 예측 정확도가 향상되고, 종래의 MPM모드에 비해 다양한 인트라 모드에 적은 비트를 할당하여 후보로 제시함으로써 모드 코딩의 효율성이 향상될 수 있다.
도 1은 일 실시예에 따라 영상 복호화 장치의 개략적인 블록도를 도시한다.
도 2는 일 실시예에 따라 영상 복호화 방법의 흐름도를 도시한다.
도 3은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 4는 일 실시예에 따라 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 5는 일 실시예에 따라 영상 복호화 장치가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
도 6은 일 실시예에 따라 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 7은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
도 8은 일 실시예에 따라 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
도 9는 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
도 10은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
도 11은 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
도 16은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
도 17은 일 실시예에 따른 비디오 부호화 장치의 블록도를 도시한다.
도 18은 일 실시예에 따른 비디오 부호화 방법의 흐름도를 도시한다.
도 19는 일 실시예에 따른 비디오 복호화 장치의 블록도를 도시한다.
도 20은 일 실시예에 따른 비디오 복호화 방법의 흐름도를 도시한다.
도 21은 최대부호화 단위와 최대부호화 단위에 포함된 부호화 단위들의 부호화 순서를 설명하기 위한 도면이다.
도 22a는 주변 블록의 복원 여부에 따른 인트라 예측 방법을 나타내고, 도 22b은 현재 블록의 우측에 인접하는 우측 주변 블록을 이용할 수 있는 경우에 대한 수정된 알고리즘을 도시한다.
도 23은 인트라 예측 모드 방향의 일 실시예를 도시한다.
도 24a는 좌측 및 상측의 주변 블록을 이용하는 Bilinear 예측 모드, 도 24b는 상측 및 우측의 주변 블록을 이용하는 Bilinear 예측 모드, 도 24c는 좌측 및 우측의 주변 블록을 이용하는 Bilinear 예측 모드를 도시한다.
도 25는 인트라 예측에 이용되는 다중 4탭 필터의 일 예를 도시한다.
도 26은 인트라 예측에 이용되는 다중 4탭 필터의 다른 예를 도시한다.
도 27a는 인트라 예측에 이용되는 4탭 필터의 일 예를 도시하고, 도 27b는 인트라 예측에 이용되는 4탭 필터의 다른 예를 도시한다.
도 28은 예측 블록의 경계 필터링의 일 예를 도시한다.
도 29a는 부호화 단위에 포함된 블록 인덱스들을 도시하고, 도 29b는 부호화 단위의 스캔 순서의 일 예를 도시하고, 도 29c는 부호화 단위의 블록 맵에서 스캔 순서의 다른 예를 도시하고, 도 29d는 부호화 단위에 포함된 블록의 부호화된 블록을 나타내는 블록 맵을 도시한다.
도 30a는 부호화 순서가 오른쪽에서 왼쪽으로 변경된 분할 단위 부호화 순서 (Split Unit Coding Order; SUCO)가 적용된 블록을 도시하고, 도 30b는 SUCO가 적용된 부호화 단위의 스캔 순서를 도시하고, 도 30c는 부호화된 블록 맵의 일 예를 도시하고, 도 30d는 현재 블록을 포함하는 부호화 단위의 일 예를 도시하고, 도 30e는 SUCO가 적용된 현재 블록을 포함하는 부호화 단위의 블록 맵을 도시한다.
도 31a는 현재 블록의 좌측 및 상측 주변 블록이 이용가능한 경우의 가능성있는 인트라 모드 세트(Probable Intra Mode Set; PIMS)를 도시하고, 도 31b는 현재 블록의 우측 및 상측 주변 블록이 이용가능한 경우의 PIMS를 도시하고, 도 31c는 현재 블록의 좌측, 상측, 및 우측 주변 블록이 모두 이용가능한 경우의 PIMS를 도시한다.
도 32a는 MPM 및 PIMS의 이용여부를 나타내는 플래그의 신택스를 도시하고, 도 32b는 PIMS의 신택스를 도시한다.
도 33은 다중 파라미터 인트라 예측의 일 예를 도시한다.
도 34a는 인트라 예측에 이용되는 다중 파라미터 예측의 신택스의 일 예를 도시하고, 도 34b는 이용가능성 체크에 따른 다중 파라미터 예측의 신택스의 일 예를 도시한다.
도 35a는 다중 결합된 인트라 예측에 이용되는 필터링된 참조 샘플의 일 예를 도시하고, 도 35b는 다중 결합된 인트라 예측이 적용되는 일 예를 도시한다.
도 36a는 인트라 예측에 이용되는 다중 결합된 인트라 예측의 신택스의 일 예를 도시하고, 도 36b는 이용가능성 체크에 따른 다중 결합된 인트라 예측의 신택스의 일 예를 도시한다.
본 개시에서 제안하는 일 실시예에 따른 비디오 복호화 방법은 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하는 단계; 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하는 단계; 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정하는 단계를 포함할 수 있다.
일 실시예에 따라, 상기 MPM 모드 정보가 MPM 모드가 이용됨을 나타내면, 상기 MPM 모드 중 하나의 모드가 상기 현재 블록의 인트라 예측 모드로 결정되고, 상기 MPM 모드 정보가 MPM 모드가 이용되지 않음을 나타내고, 상기 확장 인트라 모드 세트 정보가 확장 인트라 모드 세트가 이용됨을 나타내면, 상기 확장 인트라 모드 세트 중 하나의 모드가 상기 현재 블록의 인트라 예측 모드로 결정되고, 상기 MPM 모드 정보가 MPM 모드가 이용되지 않음을 나타내고, 상기 확장 인트라 모드 세트 정보가 확장 인트라 모드 세트가 이용되지 않음을 나타내면, 상기 MPM 모드 및 상기 확장 인트라 모드 세트에 포함되지 않는 인트라 예측 모드 중 하나의 모드가 상기 현재 블록의 인트라 예측 모드로 결정될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드가 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록 모두의 인트라 예측 모드를 포함하면, 상기 확장 인트라 모드 세트는 상기 현재 블록의 MPM모드들을 이용하여 구성될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드가 상기 좌측 주변 블록 및 상기 상측 주변 블록의 인트라 예측 모드를 포함하면, 상기 확장 인트라 모드 세트는 상기 현재 블록의 MPM모드들 및 상기 우측 주변 블록의 예측 모드를 이용하여 구성될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록 모두 이용가능하면, 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록 중 2개의 블록의 예측 모드를 이용하여 상기 현재 블록의 MPM모드가 결정될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 우측 주변 블록이 이용가능하고, 상기 좌측 주변 블록 및 상기 상측 주변 블록 중 하나만 이용가능하면, 상기 우측 주변 블록의 예측 모드, 및 상기 상측 주변 블록 및 상기 우측 주변 블록 중 이용가능한 하나의 블록의 예측 모드를 이용하여 상기 현재 블록의 MPM모드가 결정될 수 있다.
일 실시예에 따라, 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록이 모두 이용가능하고, 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록의 예측 모드가 서로 다른 방향성 모드인 경우, 상기 확장 인트라 모드 세트는 상기 좌측 주변 블록의 인트라 예측 모드의 인덱스로부터 N만큼 증가된 인덱스의 인트라 예측 모드, 상기 좌측 주변 블록의 인트라 예측 모드의 인덱스로부터 N만큼 감소된 인덱스의 인트라 예측 모드, 상기 상측 주변 블록의 인트라 예측 모드의 인덱스로부터 M만큼 증가된 인덱스의 인트라 예측 모드, 상기 상측 주변 블록의 인트라 예측 모드의 인덱스로부터 M만큼 감소된 인덱스의 인트라 예측 모드, 상기 우측 주변 블록의 인트라 예측 모드의 인덱스로부터 L만큼 증가된 인덱스의 인트라 예측 모드, 및 상기 우측 주변 블록의 인트라 예측 모드의 인덱스로부터 L만큼 감소된 인덱스의 인트라 예측 모드를 포함하고, N, M, 및 L은 0이 아닌 정수일 수 있다.
일 실시예에 따라, 상기 확장 인트라 모드 세트는 상기 MPM모드들의 유형에 따라 구성될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 DC 모드 및 Bilinear 모드이면, 상기 확장 인트라 모드 세트는 플레인 모드, 수평 모드, 수직 모드 및 대각선 모드(Diagonal Mode)로 구성될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 DC 모드 및 방향성 모드이면, 상기 확장 인트라 모드 세트는 Bilinear 모드, 플레인 모드, 상기 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 2만큼 증가된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 2만큼 감소된 인덱스의 인트라 예측 모드, 제1 디폴트 모드, 제2 디폴트 모드로 구성되고, 상기 제1 디폴트 모드 및 상기 제2 디폴트 모드는 미리정해진 인트라 예측 모드일 수 있다.
일 실시예에 따라, 상기 제1 디폴트 모드 및 상기 제2 디폴트 모드는 통계적으로 선택될 확률이 높은 인트라 예측 모드들이 순차적으로 나열된 리스트에서 결정될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 제1 방향성 모드 및 제2 방향성 모드인 경우에, 상기 확장 인트라 모드 세트는 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 수평 모드, 수직 모드, DC 모드, Bilinear 모드로 구성될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드가 상기 좌측 주변 블록 및 상기 상측 주변 블록의 인트라 예측 모드를 포함하고, 상기 MPM모드가 DC 모드 및 제1 방향성 모드이고, 상기 우측 주변 블록의 예측 모드가 제2 방향성 모드인 경우, 상기 확장 인트라 모드 세트는 Bilinear 모드, 플레인 모드, 상기 제2 방향성 모드, 상기 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 디폴트 모드로 구성되고, 상기 디폴트 모드는 미리정해진 인트라 예측 모드일 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM모드가 제1 방향성 모드 및 제2 방향성 모드이고, 상기 우측 주변 블록의 예측 모드가 제3 방향성 모드인 경우, 상기 확장 인트라 모드 세트는 상기 제3 방향성 모드, 상기 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 상기 제3 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제3 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드로 구성될 수 있다.
본 개시에서 제안하는 일 실시예에 따른 비디오 부호화 방법은, 현재 블록의 인트라 예측을 수행함으로써, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 생성하는 단계; 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 생성하는 단계; 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보를 부호화하는 단계를 포함할 수 있다.
본 개시에서 제안하는 일 실시예에 따른 비디오 복호화 장치는, 메모리; 및 상기 메모리와 접속된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는: 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하고, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하고, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정하도록 구성될 수 있다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면 "부"는 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신, 및 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA), 등을 지칭할 수도 있다. 용어 "프로세서" 는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.
용어 "메모리" 는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 용어 메모리는 임의 액세스 메모리 (RAM), 판독-전용 메모리 (ROM), 비-휘발성 임의 액세스 메모리 (NVRAM), 프로그램가능 판독-전용 메모리 (PROM), 소거-프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능 PROM (EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들, 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리에 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
이하, "영상"은 비디오의 정지영상와 같은 정적 이미지이거나 동영상, 즉 비디오 그 자체와 같은 동적 이미지를 나타낼 수 있다.
이하 "샘플"은, 영상의 샘플링 위치에 할당된 데이터로서 프로세싱 대상이 되는 데이터를 의미한다. 예를 들어, 공간영역의 영상에서 픽셀값, 변환 영역 상의 변환 계수들이 샘플들일 수 있다. 이러한 적어도 하나의 샘플들을 포함하는 단위를 블록이라고 정의할 수 있다.
또한, 본 명세서에서, '현재 블록(Current Block)'은, 부호화 또는 복호화하고자 하는 현재 영상의 최대 부호화 단위, 부호화 단위, 예측 단위 또는 변환 단위의 블록을 의미할 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 개시를을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
이하 도 1 내지 도 16를 참조하여 일 실시예에 따라 영상 부호화 장치 및 영상 복호화 장치, 영상 부호화 방법 및 영상 복호화 방법이 상술된다. 도 3 내지 도 16을 참조하여 일 실시예에 따라 영상의 데이터 단위를 결정하는 방법이 설명되고, 도 17 내지 도 20, 도 23, 도 24 및 도 31a 내지 32b을 참조하여 일 실시예에 따른 현재 블록의 좌측, 상측, 및 우측 주변 블록의 인트라 예측 모드에 기초하여 결정된 MPM 모드 및 MPM 모드에 기초하여 구성된 확장 인트라 모드 세트를 이용하여 현재 블록의 인트라 예측 모드를 결정하는 비디오 복호화 방법이 후술되고, 도 21 내지 도 22를 참조하여 부호화 순서 및 주변 블록의 복원 여부에 따른 인트라 예측 방법이 후술되고, 도 25 내지 도 28을 참조하여 인트라 예측에 이용되는 필터링 방법이 후술되고, 도 29 내지 도30을 참조하여 인트라 예측에 이용되는 블록 맵이 후술되고, 도 33 내지 도 36b를 참조하여, 인트라 예측의 다른 방법들이 후술된다.
이하 도 1 및 도 2를 참조하여 본 개시의 일 실시예에 따라 컨텍스트 모델을 다양한 형태의 부호화 단위에 기초하여 적응적으로 선택하기 위한 방법 및 장치가 상술된다.
도 1은 일 실시예에 따라 영상 복호화 장치의 개략적인 블록도를 도시한다.
영상 복호화 장치(100)는 수신부(110) 및 복호화부(120)를 포함할 수 있다. 수신부(110) 및 복호화부(120)는 적어도 하나의 프로세서를 포함할 수 있다. 또한 수신부(110) 및 복호화부(120)는 적어도 하나의 프로세서가 수행할 명령어들을 저장하는 메모리를 포함할 수 있다.
수신부(110)는 비트스트림을 수신할 수 있다. 비트스트림은 후술되는 영상 부호화 장치(2200)가 영상을 부호화한 정보를 포함한다. 또한 비트스트림은 영상 부호화 장치(2200)로부터 송신될 수 있다. 영상 부호화 장치(2200) 및 영상 복호화 장치(100)는 유선 또는 무선으로 연결될 수 있으며, 수신부(110)는 유선 또는 무선을 통하여 비트스트림을 수신할 수 있다. 수신부(110)는 광학미디어, 하드디스크 등과 같은 저장매체로부터 비트스트림을 수신할 수 있다. 복호화부(120)는 수신된 비트스트림으로부터 획득된 정보에 기초하여 영상을 복원할 수 있다. 복호화부(120)는 영상을 복원하기 위한 신택스 엘리먼트를 비트스트림으로부터 획득할 수 있다. 복호화부(120)는 신택스 엘리먼트에 기초하여 영상을 복원할 수 있다.
영상 복호화 장치(100)의 동작에 대해서는 도 2와 함께 보다 자세히 설명한다.
도 2는 일 실시예에 따라 영상 복호화 방법의 흐름도를 도시한다.
본 개시의 일 실시예에 따르면 수신부(110)는 비트스트림을 수신한다.
영상 복호화 장치(100)는 비트스트림으로부터 부호화 단위의 분할 형태 모드에 대응하는 빈스트링을 획득하는 단계(210)를 수행한다. 영상 복호화 장치(100)는 부호화 단위의 분할 규칙을 결정하는 단계(220)를 수행한다. 또한 영상 복호화 장치(100)는 분할 형태 모드에 대응하는 빈스트링 및 상기 분할 규칙 중 적어도 하나에 기초하여, 부호화 단위를 복수의 부호화 단위들로 분할하는 단계(230)를 수행한다. 영상 복호화 장치(100)는 분할 규칙을 결정하기 위하여, 부호화 단위의 너비 및 높이의 비율에 따른, 상기 부호화 단위의 크기의 허용가능한 제 1 범위를 결정할 수 있다. 영상 복호화 장치(100)는 분할 규칙을 결정하기 위하여, 부호화 단위의 분할 형태 모드에 따른, 부호화 단위의 크기의 허용가능한 제 2 범위를 결정할 수 있다.
이하에서는 본 개시의 일 실시예에 따라 부호화 단위의 분할에 대하여 자세히 설명한다.
먼저 하나의 픽처 (Picture)는 하나 이상의 슬라이스 혹은 하나 이상의 타일로 분할될 수 있다. 하나의 슬라이스 혹은 하나의 타일은 하나 이상의 최대 부호화 단위(Coding Tree Unit; CTU)의 시퀀스일 수 있다. 최대 부호화 단위 (CTU)와 대비되는 개념으로 최대 부호화 블록 (Coding Tree Block; CTB)이 있다.
최대 부호화 블록(CTB)은 NxN개의 샘플들을 포함하는 NxN 블록을 의미한다(N은 정수). 각 컬러 성분은 하나 이상의 최대 부호화 블록으로 분할될 수 있다.
픽처가 3개의 샘플 어레이(Y, Cr, Cb 성분별 샘플 어레이)를 가지는 경우에 최대 부호화 단위(CTU)란, 루마 샘플의 최대 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 최대 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 모노크롬 픽처인 경우에 최대 부호화 단위란, 모노크롬 샘플의 최대 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽처인 경우에 최대 부호화 단위란, 해당 픽처와 픽처의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
하나의 최대 부호화 블록(CTB)은 MxN개의 샘플들을 포함하는 MxN 부호화 블록(coding block)으로 분할될 수 있다 (M, N은 정수).
픽처가 Y, Cr, Cb 성분별 샘플 어레이를 가지는 경우에 부호화 단위(Coding Unit; CU)란, 루마 샘플의 부호화 블록 및 그에 대응되는 크로마 샘플들의 2개의 부호화 블록과, 루마 샘플, 크로마 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 모노크롬 픽처인 경우에 부호화 단위란, 모노크롬 샘플의 부호화 블록과 모노크롬 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다. 픽처가 컬러 성분별로 분리되는 컬러 플레인으로 부호화되는 픽처인 경우에 부호화 단위란, 해당 픽처와 픽처의 샘플들을 부호화하는데 이용되는 신택스 구조들을 포함하는 단위이다.
위에서 설명한 바와 같이, 최대 부호화 블록과 최대 부호화 단위는 서로 구별되는 개념이며, 부호화 블록과 부호화 단위는 서로 구별되는 개념이다. 즉, (최대) 부호화 단위는 해당 샘플을 포함하는 (최대) 부호화 블록과 그에 대응하는 신택스 구조를 포함하는 데이터 구조를 의미한다. 하지만 당업자가 (최대) 부호화 단위 또는 (최대) 부호화 블록가 소정 개수의 샘플들을 포함하는 소정 크기의 블록을 지칭한다는 것을 이해할 수 있으므로, 이하 명세서에서는 최대 부호화 블록과 최대 부호화 단위, 또는 부호화 블록과 부호화 단위를 특별한 사정이 없는 한 구별하지 않고 언급한다.
영상은 최대 부호화 단위(Coding Tree Unit; CTU)로 분할될 수 있다. 최대 부호화 단위의 크기는 비트스트림으로부터 획득된 정보에 기초하여 결정될 수 있다. 최대 부호화 단위의 모양은 동일 크기의 정사각형을 가질 수 있다. 하지만 이에 한정되는 것은 아니다.
예를 들어, 비트스트림으로부터 루마 부호화 블록의 최대 크기에 대한 정보가 획득될 수 있다. 예를 들어, 루마 부호화 블록의 최대 크기에 대한 정보가 나타내는 루마 부호화 블록의 최대 크기는 4x4, 8x8, 16x16, 32x32, 64x64, 128x128, 256x256 중 하나일 수 있다.
예를 들어, 비트스트림으로부터 2분할이 가능한 루마 부호화 블록의 최대 크기와 루마 블록 크기 차이에 대한 정보가 획득될 수 있다. 루마 블록 크기 차이에 대한 정보는 루마 최대 부호화 단위와 2분할이 가능한 최대 루마 부호화 블록 간의 크기 차이를 나타낼 수 있다. 따라서, 비트스트림으로부터 획득된 2분할이 가능한 루마 부호화 블록의 최대 크기에 대한 정보와 루마 블록 크기 차이에 대한 정보를 결합하면, 루마 최대 부호화 단위의 크기가 결정될 수 있다. 루마 최대 부호화 단위의 크기를 이용하면 크로마 최대 부호화 단위의 크기도 결정될 수 있다. 예를 들어, 컬러 포맷에 따라 Y: Cb : Cr 비율이 4:2:0 이라면, 크로마 블록의 크기는 루마 블록의 크기의 절반일 수 있고, 마찬가지로 크로마 최대 부호화 단위의 크기는 루마 최대 부호화 단위의 크기의 절반일 수 있다.
일 실시예에 따르면, 바이너리 분할(binary split)이 가능한 루마 부호화 블록의 최대 크기에 대한 정보는 비트스트림으로부터 획득하므로, 바이너리 분할이 가능한 루마 부호화 블록의 최대 크기는 가변적으로 결정될 수 있다. 이와 달리, 터너리 분할(ternary split)이 가능한 루마 부호화 블록의 최대 크기는 고정될 수 있다. 예를 들어, I 픽처에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 32x32이고, P 픽처 또는 B 픽처에서 터너리 분할이 가능한 루마 부호화 블록의 최대 크기는 64x64일 수 있다.
또한 최대 부호화 단위는 비트스트림으로부터 획득된 분할 형태 모드 정보에 기초하여 부호화 단위로 계층적으로 분할될 수 있다. 분할 형태 모드 정보로서, 쿼드분할(quad split) 여부를 나타내는 정보, 다분할 여부를 나타내는 정보, 분할 방향 정보 및 분할 타입 정보 중 적어도 하나가 비트스트림으로부터 획득될 수 있다.
예를 들어, 쿼드분할(quad split) 여부를 나타내는 정보는 현재 부호화 단위가 쿼드분할(QUAD_SPLIT)될지 또는 쿼드분할되지 않을지를 나타낼 수 있다.
현재 부호화 단위가 쿼드분할지되 않으면, 다분할 여부를 나타내는 정보는 현재 부호화 단위가 더 이상 분할되지 않을지(NO_SPLIT) 아니면 바이너리/터너리 분할될지 여부를 나타낼 수 있다.
현재 부호화 단위가 바이너리 분할되거나 터너리 분할되면, 분할 방향 정보는 현재 부호화 단위가 수평 방향 또는 수직 방향 중 하나로 분할됨을 나타낸다.
현재 부호화 단위가 수평 또는 수직 방향으로 분할되면 분할 타입 정보는 현재 부호화 단위를 바이너리 분할) 또는 터너리 분할로 분할함을 나타낸다.
분할 방향 정보 및 분할 타입 정보에 따라, 현재 부호화 단위의 분할 모드가 결정될 수 있다. 현재 부호화 단위가 수평 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수평 분할(SPLIT_BT_HOR), 수평 방향으로 터너리 분할되는 경우의 터너리 수평 분할(SPLIT_TT_HOR), 수직 방향으로 바이너리 분할되는 경우의 분할 모드는 바이너리 수직 분할 (SPLIT_BT_VER) 및 수직 방향으로 터너리 분할되는 경우의 분할 모드는 터너리 수직 분할 (SPLIT_BT_VER)로 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 하나의 빈스트링으로부터 획득할 수 있다. 영상 복호화 장치(100)가 수신한 비트스트림의 형태는 Fixed length binary code, Unary code, Truncated unary code, 미리 결정된 바이너리 코드 등을 포함할 수 있다. 빈스트링은 정보를 2진수의 나열로 나타낸 것이다. 빈스트링은 적어도 하나의 비트로 구성될 수 있다. 영상 복호화 장치(100)는 분할 규칙에 기초하여 빈스트링에 대응하는 분할 형태 모드 정보를 획득할 수 있다. 영상 복호화 장치(100)는 하나의 빈스트링에 기초하여, 부호화 단위를 쿼드분할할지 여부, 분할하지 않을지 또는 분할 방향 및 분할 타입을 결정할 수 있다.
부호화 단위는 최대 부호화 단위보다 작거나 같을 수 있다. 예를 들어 최대 부호화 단위도 최대 크기를 가지는 부호화 단위이므로 부호화 단위의 하나이다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할되지 않음을 나타내는 경우, 최대 부호화 단위에서 결정되는 부호화 단위는 최대 부호화 단위와 같은 크기를 가진다. 최대 부호화 단위에 대한 분할 형태 모드 정보가 분할됨을 나타내는 경우 최대 부호화 단위는 부호화 단위들로 분할 될 수 있다. 또한 부호화 단위에 대한 분할 형태 모드 정보가 분할을 나타내는 경우 부호화 단위들은 더 작은 크기의 부호화 단위들로 분할 될 수 있다. 다만, 영상의 분할은 이에 한정되는 것은 아니며 최대 부호화 단위 및 부호화 단위는 구별되지 않을 수 있다. 부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다.
또한 부호화 단위로부터 예측을 위한 하나 이상의 예측 블록이 결정될 수 있다. 예측 블록은 부호화 단위와 같거나 작을 수 있다. 또한 부호화 단위로부터 변환을 위한 하나 이상의 변환 블록이 결정될 수 있다. 변환 블록은 부호화 단위와 같거나 작을 수 있다.
변환 블록과 예측 블록의 모양 및 크기는 서로 관련 없을 수 있다.
다른 실시예로, 부호화 단위가 예측 블록으로서 부호화 단위를 이용하여 예측이 수행될 수 있다. 또한 부호화 단위가 변환 블록으로서 부호화 단위를 이용하여 변환이 수행될 수 있다.
부호화 단위의 분할에 대해서는 도 3 내지 도 16에서 보다 자세히 설명한다. 본 개시의 현재 블록 및 주변 블록은 최대 부호화 단위, 부호화 단위, 예측 블록 및 변환 블록 중 하나를 나타낼 수 있다. 또한, 현재 블록 또는 현재 부호화 단위는 현재 복호화 또는 부호화가 진행되는 블록 또는 현재 분할이 진행되고 있는 블록이다. 주변 블록은 현재 블록 이전에 복원된 블록일 수 있다. 주변 블록은 현재 블록으로부터 공간적 또는 시간적으로 인접할 수 있다. 주변 블록은 현재 블록의 좌하측, 좌측, 좌상측, 상측, 우상측, 우측, 우하측 중 하나에 위치할 수 있다.
도 3은 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
블록 형태는 4Nx4N, 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N을 포함할 수 있다. 여기서 N은 양의 정수일 수 있다. 블록 형태 정보는 부호화 단위의 모양, 방향, 너비 및 높이의 비율 또는 크기 중 적어도 하나를 나타내는 정보이다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우(즉, 부호화 단위의 블록 형태가 4Nx4N 인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 정사각형으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 너비 및 높이의 길이가 다른 경우(즉, 부호화 단위의 블록 형태가 4Nx2N, 2Nx4N, 4NxN, Nx4N, 32NxN, Nx32N, 16NxN, Nx16N, 8NxN 또는 Nx8N인 경우), 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보를 비-정사각형으로 결정할 수 있다. 부호화 단위의 모양이 비-정사각형인 경우, 영상 복호화 장치(100)는 부호화 단위의 블록 형태 정보 중 너비 및 높이의 비율을 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 1:32, 32:1 중 적어도 하나로 결정할 수 있다. 또한, 부호화 단위의 너비의 길이 및 높이의 길이에 기초하여, 영상 복호화 장치(100)는 부호화 단위가 수평 방향인지 수직 방향인지 결정할 수 있다. 또한, 부호화 단위의 너비의 길이, 높이의 길이 또는 넓이 중 적어도 하나에 기초하여, 영상 복호화 장치(100)는 부호화 단위의 크기를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보를 이용하여 부호화 단위의 형태를 결정할 수 있고, 분할 형태 모드 정보를 이용하여 부호화 단위가 어떤 형태로 분할되는지를 결정할 수 있다. 즉, 영상 복호화 장치(100)가 이용하는 블록 형태 정보가 어떤 블록 형태를 나타내는지에 따라 분할 형태 모드 정보가 나타내는 부호화 단위의 분할 방법이 결정될 수 있다.
영상 복호화 장치(100)는 비트스트림으로부터 분할 형태 모드 정보를 획득할 수 있다. 하지만 이에 한정되는 것은 아니며, 영상 복호화 장치(100) 및 영상 부호화 장치(2200)는 블록 형태 정보에 기초하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 영상 복호화 장치(100)는 최대 부호화 단위 또는 최소 부호화 단위에 대하여 미리 약속된 분할 형태 모드 정보를 결정할 수 있다. 예를 들어 영상 복호화 장치(100)는 최대 부호화 단위에 대하여 분할 형태 모드 정보를 쿼드 분할(quad split)로 결정할 수 있다. 또한, 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 분할 형태 모드 정보를 "분할하지 않음"으로 결정할 수 있다. 구체적으로 영상 복호화 장치(100)는 최대 부호화 단위의 크기를 256x256으로 결정할 수 있다. 영상 복호화 장치(100)는 미리 약속된 분할 형태 모드 정보를 쿼드 분할로 결정할 수 있다. 쿼드 분할은 부호화 단위의 너비 및 높이를 모두 이등분하는 분할 형태 모드이다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 256x256 크기의 최대 부호화 단위로부터 128x128 크기의 부호화 단위를 획득할 수 있다. 또한 영상 복호화 장치(100)는 최소 부호화 단위의 크기를 4x4로 결정할 수 있다. 영상 복호화 장치(100)는 최소 부호화 단위에 대하여 "분할하지 않음"을 나타내는 분할 형태 모드 정보를 획득할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 현재 부호화 단위가 정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 예를 들어 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 정사각형의 부호화 단위를 분할하지 않을지, 수직으로 분할할지, 수평으로 분할할지, 4개의 부호화 단위로 분할할지 등을 결정할 수 있다. 도 3을 참조하면, 현재 부호화 단위(300)의 블록 형태 정보가 정사각형의 형태를 나타내는 경우, 복호화부(120)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(300)와 동일한 크기를 가지는 부호화 단위(310a)를 분할하지 않거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 기초하여 분할된 부호화 단위(310b, 310c, 310d, 310e, 310f 등)를 결정할 수 있다.
도 3을 참조하면 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 두 개의 부호화 단위(310b)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 두 개의 부호화 단위(310c)를 결정할 수 있다. 영상 복호화 장치(100)는 수직방향 및 수평방향으로 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향 및 수평방향으로 분할한 네 개의 부호화 단위(310d)를 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 수직방향으로 터너리(ternary) 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수직방향으로 분할한 세 개의 부호화 단위(310e)를 결정할 수 있다. 영상 복호화 장치(100)는 수평방향으로 터너리 분할됨을 나타내는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(300)를 수평방향으로 분할한 세 개의 부호화 단위(310f)를 결정할 수 있다. 다만 정사각형의 부호화 단위가 분할될 수 있는 분할 형태는 상술한 형태로 한정하여 해석되어서는 안되고, 분할 형태 모드 정보가 나타낼 수 있는 다양한 형태가 포함될 수 있다. 정사각형의 부호화 단위가 분할되는 소정의 분할 형태들은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
도 4는 일 실시예에 따라 영상 복호화 장치가 비-정사각형의 형태인 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 비-정사각형 형태임을 나타내는 블록 형태 정보를 이용할 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 비-정사각형의 현재 부호화 단위를 분할하지 않을지 소정의 방법으로 분할할지 여부를 결정할 수 있다. 도 4를 참조하면, 현재 부호화 단위(400 또는 450)의 블록 형태 정보가 비-정사각형의 형태를 나타내는 경우, 영상 복호화 장치(100)는 분할되지 않음을 나타내는 분할 형태 모드 정보에 따라 현재 부호화 단위(400 또는 450)와 동일한 크기를 가지는 부호화 단위(410 또는 460)를 결정하거나, 소정의 분할방법을 나타내는 분할 형태 모드 정보에 따라 기초하여 분할된 부호화 단위(420a, 420b, 430a, 430b, 430c, 470a, 470b, 480a, 480b, 480c)를 결정할 수 있다. 비-정사각형의 부호화 단위가 분할되는 소정의 분할 방법은 이하에서 다양한 실시예를 통해 구체적으로 설명하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 이용하여 부호화 단위가 분할되는 형태를 결정할 수 있고, 이 경우 분할 형태 모드 정보는 부호화 단위가 분할되어 생성되는 적어도 하나의 부호화 단위의 개수를 나타낼 수 있다. 도 4를 참조하면 분할 형태 모드 정보가 두 개의 부호화 단위로 현재 부호화 단위(400 또는 450)가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(400 또는 450)를 분할하여 현재 부호화 단위에 포함되는 두 개의 부호화 단위(420a, 420b, 또는 470a, 470b)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형의 형태의 현재 부호화 단위(400 또는 450)를 분할하는 경우, 영상 복호화 장치(100)는 비-정사각형의 현재 부호화 단위(400 또는 450)의 긴 변의 위치를 고려하여 현재 부호화 단위를 분할할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 형태를 고려하여 현재 부호화 단위(400 또는 450)의 긴 변을 분할하는 방향으로 현재 부호화 단위(400 또는 450)를 분할하여 복수개의 부호화 단위를 결정할 수 있다.
일 실시예에 따라, 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위를 분할(터너리 분할)하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있다. 예를 들면, 분할 형태 모드 정보가 3개의 부호화 단위로 현재 부호화 단위(400 또는 450)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)를 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)로 분할할 수 있다.
일 실시예에 따라, 현재 부호화 단위(400 또는 450)의 너비 및 높이의 비율이 4:1 또는 1:4 일 수 있다. 너비 및 높이의 비율이 4:1 인 경우, 너비의 길이가 높이의 길이보다 길므로 블록 형태 정보는 수평 방향일 수 있다. 너비 및 높이의 비율이 1:4 인 경우, 너비의 길이가 높이의 길이보다 짧으므로 블록 형태 정보는 수직 방향일 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위를 홀수개의 블록으로 분할할 것을 결정할 수 있다. 또한 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)의 블록 형태 정보에 기초하여 현재 부호화 단위(400 또는 450)의 분할 방향을 결정할 수 있다. 예를 들어 현재 부호화 단위(400)가 수직 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400)를 수평 방향으로 분할 하여 부호화 단위(430a, 430b, 430c)를 결정할 수 있다. 또한 현재 부호화 단위(450)가 수평 방향인 경우, 영상 복호화 장치(100)는 현재 부호화 단위(450)를 수직 방향으로 분할 하여 부호화 단위(480a, 480b, 480c)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있으며, 결정된 부호화 단위들의 크기 모두가 동일하지는 않을 수 있다. 예를 들면, 결정된 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c) 중 소정의 부호화 단위(430b 또는 480b)의 크기는 다른 부호화 단위(430a, 430c, 480a, 480c)들과는 다른 크기를 가질 수도 있다. 즉, 현재 부호화 단위(400 또는 450)가 분할되어 결정될 수 있는 부호화 단위는 복수의 종류의 크기를 가질 수 있고, 경우에 따라서는 홀수개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)가 각각 서로 다른 크기를 가질 수도 있다.
일 실시예에 따라 분할 형태 모드 정보가 홀수개의 블록으로 부호화 단위가 분할되는 것을 나타내는 경우, 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)에 포함되는 홀수개의 부호화 단위를 결정할 수 있고, 나아가 영상 복호화 장치(100)는 분할하여 생성되는 홀수개의 부호화 단위들 중 적어도 하나의 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 도 4을 참조하면 영상 복호화 장치(100)는 현재 부호화 단위(400 또는 450)가 분할되어 생성된 3개의 부호화 단위(430a, 430b, 430c, 480a, 480b, 480c)들 중 중앙에 위치하는 부호화 단위(430b, 480b)에 대한 복호화 과정을 다른 부호화 단위(430a, 430c, 480a, 480c)와 다르게 할 수 있다. 예를 들면, 영상 복호화 장치(100)는 중앙에 위치하는 부호화 단위(430b, 480b)에 대하여는 다른 부호화 단위(430a, 430c, 480a, 480c)와 달리 더 이상 분할되지 않도록 제한하거나, 소정의 횟수만큼만 분할되도록 제한할 수 있다.
도 5는 일 실시예에 따라 영상 복호화 장치가 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 정사각형 형태의 제1 부호화 단위(500)를 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 일 실시예에 따라 분할 형태 모드 정보가 수평 방향으로 제1 부호화 단위(500)를 분할하는 것을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(500)를 수평 방향으로 분할하여 제2 부호화 단위(510)를 결정할 수 있다. 일 실시예에 따라 이용되는 제1 부호화 단위, 제2 부호화 단위, 제3 부호화 단위는 부호화 단위 간의 분할 전후 관계를 이해하기 위해 이용된 용어이다. 예를 들면, 제1 부호화 단위를 분할하면 제2 부호화 단위가 결정될 수 있고, 제2 부호화 단위가 분할되면 제3 부호화 단위가 결정될 수 있다. 이하에서는 이용되는 제1 부호화 단위, 제2 부호화 단위 및 제3 부호화 단위의 관계는 상술한 특징에 따르는 것으로 이해될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 결정된 제2 부호화 단위(510)를 분할 형태 모드 정보에 기초하여 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다. 도 5를 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)를 분할하여 결정된 비-정사각형의 형태의 제2 부호화 단위(510)를 적어도 하나의 제3 부호화 단위(520a, 520b, 520c, 520d 등)로 분할하거나 제2 부호화 단위(510)를 분할하지 않을 수 있다. 영상 복호화 장치(100)는 분할 형태 모드 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)를 분할하여 다양한 형태의 복수개의 제2 부호화 단위(예를 들면, 510)를 분할할 수 있으며, 제2 부호화 단위(510)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(500)가 분할된 방식에 따라 분할될 수 있다. 일 실시예에 따라, 제1 부호화 단위(500)가 제1 부호화 단위(500)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(510)로 분할된 경우, 제2 부호화 단위(510) 역시 제2 부호화 단위(510)에 대한 분할 형태 모드 정보에 기초하여 제3 부호화 단위(예를 들면, 520a, 520b, 520c, 520d 등)으로 분할될 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 관련된 분할 형태 모드 정보에 기초하여 재귀적으로 분할될 수 있다. 따라서 비-정사각형 형태의 부호화 단위에서 정사각형의 부호화 단위가 결정될 수 있고, 이러한 정사각형 형태의 부호화 단위가 재귀적으로 분할되어 비-정사각형 형태의 부호화 단위가 결정될 수도 있다.
도 5를 참조하면, 비-정사각형 형태의 제2 부호화 단위(510)가 분할되어 결정되는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 부호화 단위(예를 들면, 가운데에 위치하는 부호화 단위 또는 정사각형 형태의 부호화 단위)는 재귀적으로 분할될 수 있다. 일 실시예에 따라 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 하나인 정사각형 형태의 제3 부호화 단위(520b)는 수평 방향으로 분할되어 복수개의 제4 부호화 단위로 분할될 수 있다. 복수개의 제4 부호화 단위(530a, 530b, 530c, 530d) 중 하나인 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 다시 복수개의 부호화 단위들로 분할될 수 있다. 예를 들면, 비-정사각형 형태의 제4 부호화 단위(530b 또는 530d)는 홀수개의 부호화 단위로 다시 분할될 수도 있다. 부호화 단위의 재귀적 분할에 이용될 수 있는 방법에 대하여는 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제3 부호화 단위(520a, 520b, 520c, 520d 등) 각각을 부호화 단위들로 분할할 수 있다. 또한 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제2 부호화 단위(510)를 분할하지 않는 것으로 결정할 수 있다. 영상 복호화 장치(100)는 일 실시예에 따라 비-정사각형 형태의 제2 부호화 단위(510)를 홀수개의 제3 부호화 단위(520b, 520c, 520d)로 분할할 수 있다. 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 소정의 제3 부호화 단위에 대하여 소정의 제한을 둘 수 있다. 예를 들면 영상 복호화 장치(100)는 홀수개의 제3 부호화 단위(520b, 520c, 520d) 중 가운데에 위치하는 부호화 단위(520c)에 대하여는 더 이상 분할되지 않는 것으로 제한하거나 또는 설정 가능한 횟수로 분할되어야 하는 것으로 제한할 수 있다.
도 5를 참조하면, 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(510)에 포함되는 홀수개의 제3 부호화 단위(520b, 520c, 520d)들 중 가운데에 위치하는 부호화 단위(520c)는 더 이상 분할되지 않거나, 소정의 분할 형태로 분할(예를 들면 4개의 부호화 단위로만 분할하거나 제2 부호화 단위(510)가 분할된 형태에 대응하는 형태로 분할)되는 것으로 제한하거나, 소정의 횟수로만 분할(예를 들면 n회만 분할, n>0)하는 것으로 제한할 수 있다. 다만 가운데에 위치한 부호화 단위(520c)에 대한 상기 제한은 단순한 실시예들에 불과하므로 상술한 실시예들로 제한되어 해석되어서는 안되고, 가운데에 위치한 부호화 단위(520c)가 다른 부호화 단위(520b, 520d)와 다르게 복호화 될 수 있는 다양한 제한들을 포함하는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하기 위해 이용되는 분할 형태 모드 정보를 현재 부호화 단위 내의 소정의 위치에서 획득할 수 있다.
도 6은 일 실시예에 따라 영상 복호화 장치가 홀수개의 부호화 단위들 중 소정의 부호화 단위를 결정하기 위한 방법을 도시한다.
도 6을 참조하면, 현재 부호화 단위(600, 650)의 분할 형태 모드 정보는 현재 부호화 단위(600, 650)에 포함되는 복수개의 샘플 중 소정 위치의 샘플(예를 들면, 가운데에 위치하는 샘플(640, 690))에서 획득될 수 있다. 다만 이러한 분할 형태 모드 정보 중 적어도 하나가 획득될 수 있는 현재 부호화 단위(600) 내의 소정 위치가 도 6에서 도시하는 가운데 위치로 한정하여 해석되어서는 안되고, 소정 위치에는 현재 부호화 단위(600)내에 포함될 수 있는 다양한 위치(예를 들면, 최상단, 최하단, 좌측, 우측, 좌측상단, 좌측하단, 우측상단 또는 우측하단 등)가 포함될 수 있는 것으로 해석되어야 한다. 영상 복호화 장치(100)는 소정 위치로부터 획득되는 분할 형태 모드 정보를 획득하여 현재 부호화 단위를 다양한 형태 및 크기의 부호화 단위들로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위가 소정의 개수의 부호화 단위들로 분할된 경우 그 중 하나의 부호화 단위를 선택할 수 있다. 복수개의 부호화 단위들 중 하나를 선택하기 위한 방법은 다양할 수 있으며, 이러한 방법들에 대한 설명은 이하의 다양한 실시예를 통해 후술하도록 한다.
일 실시예에 따라 영상 복호화 장치(100) 는 현재 부호화 단위를 복수개의 부호화 단위들로 분할하고, 소정 위치의 부호화 단위를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 홀수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600) 또는 현재 부호화 단위(650)를 분할하여 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)을 결정할 수 있다. 영상 복호화 장치(100)는 홀수개의 부호화 단위들(620a, 620b, 620c) 또는 홀수개의 부호화 단위들(660a, 660b, 660c)의 위치에 대한 정보를 이용하여 가운데 부호화 단위(620b)또는 가운데 부호화 단위(660b)를 결정할 수 있다. 예를 들면 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 포함되는 소정의 샘플의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 구체적으로, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보에 기초하여 부호화 단위들(620a, 620b, 620c)의 위치를 결정함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 포함할 수 있다. 일 실시예에 따라 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 정보는 현재 부호화 단위(600)에 포함되는 부호화 단위들(620a, 620b, 620c)의 너비 또는 높이를 나타내는 정보를 포함할 수 있고, 이러한 너비 또는 높이는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 좌표 간의 차이를 나타내는 정보에 해당할 수 있다. 즉, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 픽쳐 내에서의 위치 또는 좌표에 대한 정보를 직접 이용하거나 좌표간의 차이값에 대응하는 부호화 단위의 너비 또는 높이에 대한 정보를 이용함으로써 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다.
일 실시예에 따라, 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보는 (xa, ya) 좌표를 나타낼 수 있고, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(530b)의 위치를 나타내는 정보는 (xb, yb) 좌표를 나타낼 수 있고, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보는 (xc, yc) 좌표를 나타낼 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)에 각각 포함되는 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 이용하여 가운데 부호화 단위(620b)를 결정할 수 있다. 예를 들면, 좌측 상단의 샘플(630a, 630b, 630c)의 좌표를 오름차순 또는 내림차순으로 정렬하였을 때, 가운데에 위치하는 샘플(630b)의 좌표인 (xb, yb)를 포함하는 부호화 단위(620b)를 현재 부호화 단위(600)가 분할되어 결정된 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 좌측 상단의 샘플(630a, 630b, 630c)의 위치를 나타내는 좌표는 픽쳐 내에서의 절대적인 위치를 나타내는 좌표를 나타낼 수 있고, 나아가 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 기준으로, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 상대적 위치를 나타내는 정보인 (dxb, dyb)좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 상대적 위치를 나타내는 정보인 (dxc, dyc)좌표를 이용할 수도 있다. 또한 부호화 단위에 포함되는 샘플의 위치를 나타내는 정보로서 해당 샘플의 좌표를 이용함으로써 소정 위치의 부호화 단위를 결정하는 방법이 상술한 방법으로 한정하여 해석되어서는 안되고, 샘플의 좌표를 이용할 수 있는 다양한 산술적 방법으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있고, 부호화 단위들(620a, 620b, 620c) 중 소정의 기준에 따라 부호화 단위를 선택할 수 있다. 예를 들면, 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c) 중 크기가 다른 부호화 단위(620b)를 선택할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 좌측 상단의 샘플(630a)의 위치를 나타내는 정보인 (xa, ya) 좌표, 가운데 부호화 단위(620b)의 좌측 상단의 샘플(630b)의 위치를 나타내는 정보인 (xb, yb) 좌표, 하단 부호화 단위(620c)의 좌측 상단의 샘플(630c)의 위치를 나타내는 정보인 (xc, yc) 좌표를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(620a, 620b, 620c)의 위치를 나타내는 좌표인 (xa, ya), (xb, yb), (xc, yc)를 이용하여 부호화 단위들(620a, 620b, 620c) 각각의 크기를 결정할 수 있다. 일 실시예에 따라, 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 상단 부호화 단위(620a)의 높이를 yb-ya로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 너비를 현재 부호화 단위(600)의 너비로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(620b)의 높이를 yc-yb로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 하단 부호화 단위의 너비 또는 높이는 현재 부호화 단위의 너비 또는 높이와 상단 부호화 단위(620a) 및 가운데 부호화 단위(620b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(620a, 620b, 620c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 상단 부호화 단위(620a) 및 하단 부호화 단위(620c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(620b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 좌측 상단의 샘플(670a)의 위치를 나타내는 정보인 (xd, yd) 좌표, 가운데 부호화 단위(660b)의 좌측 상단의 샘플(670b)의 위치를 나타내는 정보인 (xe, ye) 좌표, 우측 부호화 단위(660c)의 좌측 상단의 샘플(670c)의 위치를 나타내는 정보인 (xf, yf) 좌표를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 너비 또는 높이를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위들(660a, 660b, 660c)의 위치를 나타내는 좌표인 (xd, yd), (xe, ye), (xf, yf)를 이용하여 부호화 단위들(660a, 660b, 660c) 각각의 크기를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 너비를 xe-xd로 결정할 수 있다. 영상 복호화 장치(100)는 좌측 부호화 단위(660a)의 높이를 현재 부호화 단위(650)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 너비를 xf-xe로 결정할 수 있다. 영상 복호화 장치(100)는 가운데 부호화 단위(660b)의 높이를 현재 부호화 단위(600)의 높이로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 우측 부호화 단위(660c)의 너비 또는 높이는 현재 부호화 단위(650)의 너비 또는 높이와 좌측 부호화 단위(660a) 및 가운데 부호화 단위(660b)의 너비 및 높이를 이용하여 결정할 수 있다. 영상 복호화 장치(100)는 결정된 부호화 단위들(660a, 660b, 660c)의 너비 및 높이에 기초하여 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정할 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 좌측 부호화 단위(660a) 및 우측 부호화 단위(660c)의 크기와 다른 크기를 가지는 가운데 부호화 단위(660b)를 소정 위치의 부호화 단위로 결정할 수 있다. 다만 상술한 영상 복호화 장치(100)가 다른 부호화 단위와 다른 크기를 갖는 부호화 단위를 결정하는 과정은 샘플 좌표에 기초하여 결정되는 부호화 단위의 크기를 이용하여 소정 위치의 부호화 단위를 결정하는 일 실시예에 불과하므로, 소정의 샘플 좌표에 따라 결정되는 부호화 단위의 크기를 비교하여 소정 위치의 부호화 단위를 결정하는 다양한 과정이 이용될 수 있다.
다만 부호화 단위의 위치를 결정하기 위하여 고려하는 샘플의 위치는 상술한 좌측 상단으로 한정하여 해석되어서는 안되고 부호화 단위에 포함되는 임의의 샘플의 위치에 대한 정보가 이용될 수 있는 것으로 해석될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 고려하여, 현재 부호화 단위가 분할되어 결정되는 홀수개의 부호화 단위들 중 소정 위치의 부호화 단위를 선택할 수 있다. 예를 들면, 현재 부호화 단위가 너비가 높이보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수평 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수평 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다. 현재 부호화 단위가 높이가 너비보다 긴 비-정사각형 형태라면 영상 복호화 장치(100)는 수직 방향에 따라 소정 위치의 부호화 단위를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 수직 방향으로 위치를 달리 하는 부호화 단위들 중 하나를 결정하여 해당 부호화 단위에 대한 제한을 둘 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 짝수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 짝수개의 부호화 단위들 각각의 위치를 나타내는 정보를 이용할 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위를 분할(바이너리 분할)하여 짝수개의 부호화 단위들을 결정할 수 있고 짝수개의 부호화 단위들의 위치에 대한 정보를 이용하여 소정 위치의 부호화 단위를 결정할 수 있다. 이에 대한 구체적인 과정은 도 6에서 상술한 홀수개의 부호화 단위들 중 소정 위치(예를 들면, 가운데 위치)의 부호화 단위를 결정하는 과정에 대응하는 과정일 수 있으므로 생략하도록 한다.
일 실시예에 따라, 비-정사각형 형태의 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여 분할 과정에서 소정 위치의 부호화 단위에 대한 소정의 정보를 이용할 수 있다. 예를 들면 영상 복호화 장치(100)는 현재 부호화 단위가 복수개로 분할된 부호화 단위들 중 가운데에 위치하는 부호화 단위를 결정하기 위하여 분할 과정에서 가운데 부호화 단위에 포함된 샘플에 저장된 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나를 이용할 수 있다.
도 6을 참조하면 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 현재 부호화 단위(600)를 복수개의 부호화 단위들(620a, 620b, 620c)로 분할할 수 있으며, 복수개의 부호화 단위들(620a, 620b, 620c) 중 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 분할 형태 모드 정보가 획득되는 위치를 고려하여, 가운데에 위치하는 부호화 단위(620b)를 결정할 수 있다. 즉, 현재 부호화 단위(600)의 분할 형태 모드 정보는 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)에서 획득될 수 있으며, 상기 분할 형태 모드 정보에 기초하여 현재 부호화 단위(600)가 복수개의 부호화 단위들(620a, 620b, 620c)로 분할된 경우 상기 샘플(640)을 포함하는 부호화 단위(620b)를 가운데에 위치하는 부호화 단위로 결정할 수 있다. 다만 가운데에 위치하는 부호화 단위로 결정하기 위해 이용되는 정보가 분할 형태 모드 정보로 한정하여 해석되어서는 안되고, 다양한 종류의 정보가 가운데에 위치하는 부호화 단위를 결정하는 과정에서 이용될 수 있다.
일 실시예에 따라 소정 위치의 부호화 단위를 식별하기 위한 소정의 정보는, 결정하려는 부호화 단위에 포함되는 소정의 샘플에서 획득될 수 있다. 도 6을 참조하면, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정된 복수개의 부호화 단위들(620a, 620b, 620c) 중 소정 위치의 부호화 단위(예를 들면, 복수개로 분할된 부호화 단위 중 가운데에 위치하는 부호화 단위)를 결정하기 위하여 현재 부호화 단위(600) 내의 소정 위치의 샘플(예를 들면, 현재 부호화 단위(600)의 가운데에 위치하는 샘플)에서 획득되는 분할 형태 모드 정보를 이용할 수 있다. 즉, 영상 복호화 장치(100)는 현재 부호화 단위(600)의 블록 형태를 고려하여 상기 소정 위치의 샘플을 결정할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위(600)가 분할되어 결정되는 복수개의 부호화 단위들(620a, 620b, 620c) 중, 소정의 정보(예를 들면, 분할 형태 모드 정보)가 획득될 수 있는 샘플이 포함된 부호화 단위(620b)를 결정하여 소정의 제한을 둘 수 있다. 도 6을 참조하면 일 실시예에 따라 영상 복호화 장치(100)는 소정의 정보가 획득될 수 있는 샘플로서 현재 부호화 단위(600)의 가운데에 위치하는 샘플(640)을 결정할 수 있고, 영상 복호화 장치(100)는 이러한 샘플(640)이 포함되는 부호화 단위(620b)를 복호화 과정에서의 소정의 제한을 둘 수 있다. 다만 소정의 정보가 획득될 수 있는 샘플의 위치는 상술한 위치로 한정하여 해석되어서는 안되고, 제한을 두기 위해 결정하려는 부호화 단위(620b)에 포함되는 임의의 위치의 샘플들로 해석될 수 있다.
일 실시예에 따라 소정의 정보가 획득될 수 있는 샘플의 위치는 현재 부호화 단위(600)의 형태에 따라 결정될 수 있다. 일 실시예에 따라 블록 형태 정보는 현재 부호화 단위의 형태가 정사각형인지 또는 비-정사각형인지 여부를 결정할 수 있고, 형태에 따라 소정의 정보가 획득될 수 있는 샘플의 위치를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위의 너비에 대한 정보 및 높이에 대한 정보 중 적어도 하나를 이용하여 현재 부호화 단위의 너비 및 높이 중 적어도 하나를 반으로 분할하는 경계 상에 위치하는 샘플을 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다. 또다른 예를 들면, 영상 복호화 장치(100)는 현재 부호화 단위에 관련된 블록 형태 정보가 비-정사각형 형태임을 나타내는 경우, 현재 부호화 단위의 긴 변을 반으로 분할하는 경계에 인접하는 샘플 중 하나를 소정의 정보가 획득될 수 있는 샘플로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 복수개의 부호화 단위로 분할한 경우, 복수개의 부호화 단위들 중 소정 위치의 부호화 단위를 결정하기 위하여, 분할 형태 모드 정보를 이용할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보를 부호화 단위에 포함된 소정 위치의 샘플에서 획득할 수 있고, 영상 복호화 장치(100)는 현재 부호화 단위가 분할되어 생성된 복수개의 부호화 단위들을 복수개의 부호화 단위 각각에 포함된 소정 위치의 샘플로부터 획득되는 분할 형태 모드 정보를 이용하여 분할할 수 있다. 즉, 부호화 단위는 부호화 단위 각각에 포함된 소정 위치의 샘플에서 획득되는 분할 형태 모드 정보를 이용하여 재귀적으로 분할될 수 있다. 부호화 단위의 재귀적 분할 과정에 대하여는 도 5를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정할 수 있고, 이러한 적어도 하나의 부호화 단위가 복호화되는 순서를 소정의 블록(예를 들면, 현재 부호화 단위)에 따라 결정할 수 있다.
도 7는 일 실시예에 따라 영상 복호화 장치가 현재 부호화 단위를 분할하여 복수개의 부호화 단위들을 결정하는 경우, 복수개의 부호화 단위들이 처리되는 순서를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정하거나 제1 부호화 단위(700)를 수평 방향으로 분할하여 제2 부호화 단위(730a, 730b)를 결정하거나 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 제2 부호화 단위(750a, 750b, 750c, 750d)를 결정할 수 있다.
도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 결정된 제2 부호화 단위(710a, 710b)를 수평 방향(710c)으로 처리되도록 순서를 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수평 방향으로 분할하여 결정된 제2 부호화 단위(730a, 730b)의 처리 순서를 수직 방향(730c)으로 결정할 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향 및 수평 방향으로 분할하여 결정된 제2 부호화 단위(750a, 750b, 750c, 750d)를 하나의 행에 위치하는 부호화 단위들이 처리된 후 다음 행에 위치하는 부호화 단위들이 처리되는 소정의 순서(예를 들면, 래스터 스캔 순서((raster scan order) 또는 z 스캔 순서(z scan order)(750e) 등)에 따라 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위들을 재귀적으로 분할할 수 있다. 도 7를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(700)를 분할하여 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 결정할 수 있고, 결정된 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d) 각각을 재귀적으로 분할할 수 있다. 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)을 분할하는 방법은 제1 부호화 단위(700)를 분할하는 방법에 대응하는 방법이 될 수 있다. 이에 따라 복수개의 부호화 단위들(710a, 710b, 730a, 730b, 750a, 750b, 750c, 750d)은 각각 독립적으로 복수개의 부호화 단위들로 분할될 수 있다. 도 7를 참조하면 영상 복호화 장치(100)는 제1 부호화 단위(700)를 수직 방향으로 분할하여 제2 부호화 단위(710a, 710b)를 결정할 수 있고, 나아가 제2 부호화 단위(710a, 710b) 각각을 독립적으로 분할하거나 분할하지 않는 것으로 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)를 수평 방향으로 분할하여 제3 부호화 단위(720a, 720b)로 분할할 수 있고, 우측의 제2 부호화 단위(710b)는 분할하지 않을 수 있다.
일 실시예에 따라 부호화 단위들의 처리 순서는 부호화 단위의 분할 과정에 기초하여 결정될 수 있다. 다시 말해, 분할된 부호화 단위들의 처리 순서는 분할되기 직전의 부호화 단위들의 처리 순서에 기초하여 결정될 수 있다. 영상 복호화 장치(100)는 좌측의 제2 부호화 단위(710a)가 분할되어 결정된 제3 부호화 단위(720a, 720b)가 처리되는 순서를 우측의 제2 부호화 단위(710b)와 독립적으로 결정할 수 있다. 좌측의 제2 부호화 단위(710a)가 수평 방향으로 분할되어 제3 부호화 단위(720a, 720b)가 결정되었으므로 제3 부호화 단위(720a, 720b)는 수직 방향(720c)으로 처리될 수 있다. 또한 좌측의 제2 부호화 단위(710a) 및 우측의 제2 부호화 단위(710b)가 처리되는 순서는 수평 방향(710c)에 해당하므로, 좌측의 제2 부호화 단위(710a)에 포함되는 제3 부호화 단위(720a, 720b)가 수직 방향(720c)으로 처리된 후에 우측 부호화 단위(710b)가 처리될 수 있다. 상술한 내용은 부호화 단위들이 각각 분할 전의 부호화 단위에 따라 처리 순서가 결정되는 과정을 설명하기 위한 것이므로, 상술한 실시예에 한정하여 해석되어서는 안되고, 다양한 형태로 분할되어 결정되는 부호화 단위들이 소정의 순서에 따라 독립적으로 처리될 수 있는 다양한 방법으로 이용되는 것으로 해석되어야 한다.
도 8는 일 실시예에 따라 영상 복호화 장치가 소정의 순서로 부호화 단위가 처리될 수 없는 경우, 현재 부호화 단위가 홀수개의 부호화 단위로 분할되는 것임을 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 획득된 분할 형태 모드 정보에 기초하여 현재 부호화 단위가 홀수개의 부호화 단위들로 분할되는 것을 결정할 수 있다. 도 8를 참조하면 정사각형 형태의 제1 부호화 단위(800)가 비-정사각형 형태의 제2 부호화 단위(810a, 810b)로 분할될 수 있고, 제2 부호화 단위(810a, 810b)는 각각 독립적으로 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)로 분할될 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제2 부호화 단위 중 좌측 부호화 단위(810a)는 수평 방향으로 분할하여 복수개의 제3 부호화 단위(820a, 820b)를 결정할 수 있고, 우측 부호화 단위(810b)는 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제3 부호화 단위들(820a, 820b, 820c, 820d, 820e)이 소정의 순서로 처리될 수 있는지 여부를 판단하여 홀수개로 분할된 부호화 단위가 존재하는지를 결정할 수 있다. 도 8를 참조하면, 영상 복호화 장치(100)는 제1 부호화 단위(800)를 재귀적으로 분할하여 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)를 결정할 수 있다. 영상 복호화 장치(100)는 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여, 제1 부호화 단위(800), 제2 부호화 단위(810a, 810b) 또는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 분할되는 형태 중 홀수개의 부호화 단위로 분할되는지 여부를 결정할 수 있다. 예를 들면, 제2 부호화 단위(810a, 810b) 중 우측에 위치하는 부호화 단위가 홀수개의 제3 부호화 단위(820c, 820d, 820e)로 분할될 수 있다. 제1 부호화 단위(800)에 포함되는 복수개의 부호화 단위들이 처리되는 순서는 소정의 순서(예를 들면, z-스캔 순서(z-scan order)(830))가 될 수 있고, 영상 복호화 장치(100)는 우측 제2 부호화 단위(810b)가 홀수개로 분할되어 결정된 제3 부호화 단위(820c, 820d, 820e)가 상기 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 판단할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(800)에 포함되는 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제3 부호화 단위(820a, 820b, 820c, 820d, 820e)의 경계에 따라 제2 부호화 단위(810a, 810b)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 예를 들면 비-정사각형 형태의 좌측 제2 부호화 단위(810a)의 높이를 반으로 분할하여 결정되는 제3 부호화 단위(820a, 820b)는 조건을 만족할 수 있다. 우측 제2 부호화 단위(810b)를 3개의 부호화 단위로 분할하여 결정되는 제3 부호화 단위(820c, 820d, 820e)들의 경계가 우측 제2 부호화 단위(810b)의 너비 또는 높이를 반으로 분할하지 못하므로 제3 부호화 단위(820c, 820d, 820e)는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 우측 제2 부호화 단위(810b)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
도 9은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위를 분할하여 적어도 하나의 부호화 단위를 결정하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(110)를 통해 획득한 분할 형태 모드 정보에 기초하여 제1 부호화 단위(900)를 분할할 수 있다. 정사각형 형태의 제1 부호화 단위(900)는 4개의 정사각형 형태를 가지는 부호화 단위로 분할되거나 또는 비-정사각형 형태의 복수개의 부호화 단위로 분할할 수 있다. 예를 들면 도 9을 참조하면, 제1 부호화 단위(900)는 정사각형이고 분할 형태 모드 정보가 비-정사각형의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(900)를 복수개의 비-정사각형의 부호화 단위들로 분할할 수 있다. 구체적으로, 분할 형태 모드 정보가 제1 부호화 단위(900)를 수평 방향 또는 수직 방향으로 분할하여 홀수개의 부호화 단위를 결정하는 것을 나타내는 경우, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900)를 홀수개의 부호화 단위들로서 수직 방향으로 분할되어 결정된 제2 부호화 단위(910a, 910b, 910c) 또는 수평 방향으로 분할되어 결정된 제2 부호화 단위(920a, 920b, 920c)로 분할할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(900)에 포함되는 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)가 소정의 순서에 따라 처리될 수 있는 조건을 만족하는지를 결정할 수 있으며, 상기 조건은 제2 부호화 단위(910a, 910b, 910c, 920a, 920b, 920c)의 경계에 따라 제1 부호화 단위(900)의 너비 및 높이 중 적어도 하나를 반으로 분할되는지 여부와 관련된다. 도 9를 참조하면 정사각형 형태의 제1 부호화 단위(900)를 수직 방향으로 분할하여 결정되는 제2 부호화 단위(910a, 910b, 910c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 또한 정사각형 형태의 제1 부호화 단위(900)를 수평 방향으로 분할하여 결정되는 제2 부호화 단위(920a, 920b, 920c)들의 경계가 제1 부호화 단위(900)의 너비를 반으로 분할하지 못하므로 제1 부호화 단위(900)는 소정의 순서에 따라 처리될 수 있는 조건을 만족하지 못하는 것으로 결정될 수 있다. 영상 복호화 장치(100)는 이러한 조건 불만족의 경우 스캔 순서의 단절(disconnection)로 판단하고, 판단 결과에 기초하여 제1 부호화 단위(900)는 홀수개의 부호화 단위로 분할되는 것으로 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 홀수개의 부호화 단위로 분할되는 경우 분할된 부호화 단위들 중 소정 위치의 부호화 단위에 대하여 소정의 제한을 둘 수 있으며, 이러한 제한 내용 또는 소정 위치 등에 대하여는 다양한 실시예를 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라, 영상 복호화 장치(100)는 제1 부호화 단위를 분할하여 다양한 형태의 부호화 단위들을 결정할 수 있다.
도 9을 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(900), 비-정사각형 형태의 제1 부호화 단위(930 또는 950)를 다양한 형태의 부호화 단위들로 분할할 수 있다.
도 10은 일 실시예에 따라 영상 복호화 장치가 제1 부호화 단위가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위가 소정의 조건을 만족하는 경우 제2 부호화 단위가 분할될 수 있는 형태가 제한되는 것을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 수신부(110)를 통해 획득한 분할 형태 모드 정보에 기초하여 정사각형 형태의 제1 부호화 단위(1000)를 비-정사각형 형태의 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)로 분할하는 것으로 결정할 수 있다. 제2 부호화 단위(1010a, 1010b, 1020a, 1020b)는 독립적으로 분할될 수 있다. 이에 따라 영상 복호화 장치(100)는 제2 부호화 단위(1010a, 1010b, 1020a, 1020b) 각각에 관련된 분할 형태 모드 정보에 기초하여 복수개의 부호화 단위로 분할하거나 분할하지 않는 것을 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할하여 제3 부호화 단위(1012a, 1012b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1010a)를 수평 방향으로 분할한 경우, 우측 제2 부호화 단위(1010b)는 좌측 제2 부호화 단위(1010a)가 분할된 방향과 동일하게 수평 방향으로 분할될 수 없도록 제한할 수 있다. 만일 우측 제2 부호화 단위(1010b)가 동일한 방향으로 분할되어 제3 부호화 단위(1014a, 1014b)가 결정된 경우, 좌측 제2 부호화 단위(1010a) 및 우측 제2 부호화 단위(1010b)가 수평 방향으로 각각 독립적으로 분할됨으로써 제3 부호화 단위(1012a, 1012b, 1014a, 1014b)가 결정될 수 있다. 하지만 이는 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1000)를 4개의 정사각형 형태의 제2 부호화 단위(1030a, 1030b, 1030c, 1030d)로 분할한 것과 동일한 결과이며 이는 영상 복호화 측면에서 비효율적일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 제1 부호화 단위(1000)가 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1020a 또는 1020b)를 수직 방향으로 분할하여 제3 부호화 단위(1022a, 1022b, 1024a, 1024b)를 결정할 수 있다. 다만 영상 복호화 장치(100)는 제2 부호화 단위 중 하나(예를 들면 상단 제2 부호화 단위(1020a))를 수직 방향으로 분할한 경우, 상술한 이유에 따라 다른 제2 부호화 단위(예를 들면 하단 부호화 단위(1020b))는 상단 제2 부호화 단위(1020a)가 분할된 방향과 동일하게 수직 방향으로 분할될 수 없도록 제한할 수 있다.
도 11은 일 실시예에 따라 분할 형태 모드 정보가 4개의 정사각형 형태의 부호화 단위로 분할하는 것을 나타낼 수 없는 경우, 영상 복호화 장치가 정사각형 형태의 부호화 단위를 분할하는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1100)를 분할하여 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다. 분할 형태 모드 정보에는 부호화 단위가 분할될 수 있는 다양한 형태에 대한 정보가 포함될 수 있으나, 다양한 형태에 대한 정보에는 정사각형 형태의 4개의 부호화 단위로 분할하기 위한 정보가 포함될 수 없는 경우가 있다. 이러한 분할 형태 모드 정보에 따르면, 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1100)를 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할하지 못한다. 분할 형태 모드 정보에 기초하여 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비-정사각형 형태의 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등)를 각각 독립적으로 분할할 수 있다. 재귀적인 방법을 통해 제2 부호화 단위(1110a, 1110b, 1120a, 1120b 등) 각각이 소정의 순서대로 분할될 수 있으며, 이는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1100)가 분할되는 방법에 대응하는 분할 방법일 수 있다.
예를 들면 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1112a, 1112b)를 결정할 수 있고, 우측 제2 부호화 단위(1110b)가 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1114a, 1114b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1110a) 및 우측 제2 부호화 단위(1110b) 모두 수평 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1116a, 1116b, 1116c, 1116d)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
또 다른 예를 들면 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1122a, 1122b)를 결정할 수 있고, 하단 제2 부호화 단위(1120b)가 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1124a, 1124b)를 결정할 수 있다. 나아가 영상 복호화 장치(100)는 상단 제2 부호화 단위(1120a) 및 하단 제2 부호화 단위(1120b) 모두 수직 방향으로 분할되어 정사각형 형태의 제3 부호화 단위(1126a, 1126b, 1126a, 1126b)를 결정할 수도 있다. 이러한 경우 제1 부호화 단위(1100)가 4개의 정사각형 형태의 제2 부호화 단위(1130a, 1130b, 1130c, 1130d)로 분할된 것과 동일한 형태로 부호화 단위가 결정될 수 있다.
도 12는 일 실시예에 따라 복수개의 부호화 단위들 간의 처리 순서가 부호화 단위의 분할 과정에 따라 달라질 수 있음을 도시한 것이다.
일 실시예에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1200)를 분할할 수 있다. 블록 형태가 정사각형이고, 분할 형태 모드 정보가 제1 부호화 단위(1200)가 수평 방향 및 수직 방향 중 적어도 하나의 방향으로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 제1 부호화 단위(1200)를 분할하여 제2 부호화 단위(예를 들면, 1210a, 1210b, 1220a, 1220b 등)를 결정할 수 있다. 도 12를 참조하면 제1 부호화 단위1200)가 수평 방향 또는 수직 방향만으로 분할되어 결정된 비-정사각형 형태의 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)는 각각에 대한 분할 형태 모드 정보에 기초하여 독립적으로 분할될 수 있다. 예를 들면 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 제1 부호화 단위(1200)가 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 이러한 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)의 분할 과정은 도 11과 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 순서에 따라 부호화 단위를 처리할 수 있다. 소정의 순서에 따른 부호화 단위의 처리에 대한 특징은 도 7와 관련하여 상술하였으므로 자세한 설명은 생략하도록 한다. 도 12를 참조하면 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1200)를 분할하여 4개의 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)를 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 제1 부호화 단위(1200)가 분할되는 형태에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)의 처리 순서를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수직 방향으로 분할되어 생성된 제2 부호화 단위(1210a, 1210b)를 수평 방향으로 각각 분할하여 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 결정할 수 있고, 영상 복호화 장치(100)는 좌측 제2 부호화 단위(1210a)에 포함되는 제3 부호화 단위(1216a, 1216c)를 수직 방향으로 먼저 처리한 후, 우측 제2 부호화 단위(1210b)에 포함되는 제3 부호화 단위(1216b, 1216d)를 수직 방향으로 처리하는 순서(1217)에 따라 제3 부호화 단위(1216a, 1216b, 1216c, 1216d)를 처리할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 수평 방향으로 분할되어 생성된 제2 부호화 단위(1220a, 1220b)를 수직 방향으로 각각 분할하여 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 결정할 수 있고, 영상 복호화 장치(100)는 상단 제2 부호화 단위(1220a)에 포함되는 제3 부호화 단위(1226a, 1226b)를 수평 방향으로 먼저 처리한 후, 하단 제2 부호화 단위(1220b)에 포함되는 제3 부호화 단위(1226c, 1226d)를 수평 방향으로 처리하는 순서(1227)에 따라 제3 부호화 단위(1226a, 1226b, 1226c, 1226d)를 처리할 수 있다.
도 12를 참조하면, 제2 부호화 단위(1210a, 1210b, 1220a, 1220b)가 각각 분할되어 정사각형 형태의 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)가 결정될 수 있다. 수직 방향으로 분할되어 결정된 제2 부호화 단위(1210a, 1210b) 및 수평 방향으로 분할되어 결정된 제2 부호화 단위(1220a, 1220b)는 서로 다른 형태로 분할된 것이지만, 이후에 결정되는 제3 부호화 단위(1216a, 1216b, 1216c, 1216d, 1226a, 1226b, 1226c, 1226d)에 따르면 결국 동일한 형태의 부호화 단위들로 제1 부호화 단위(1200)가 분할된 결과가 된다. 이에 따라 영상 복호화 장치(100)는 분할 형태 모드 정보에 기초하여 상이한 과정을 통해 재귀적으로 부호화 단위를 분할함으로써 결과적으로 동일한 형태의 부호화 단위들을 결정하더라도, 동일한 형태로 결정된 복수개의 부호화 단위들을 서로 다른 순서로 처리할 수 있다.
도 13은 일 실시예에 따라 부호화 단위가 재귀적으로 분할되어 복수개의 부호화 단위가 결정되는 경우, 부호화 단위의 형태 및 크기가 변함에 따라 부호화 단위의 심도가 결정되는 과정을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 심도를 소정의 기준에 따라 결정할 수 있다. 예를 들면 소정의 기준은 부호화 단위의 긴 변의 길이가 될 수 있다. 영상 복호화 장치(100)는 현재 부호화 단위의 긴 변의 길이가 분할되기 전의 부호화 단위의 긴 변의 길이보다 2n (n>0) 배로 분할된 경우, 현재 부호화 단위의 심도는 분할되기 전의 부호화 단위의 심도보다 n만큼 심도가 증가된 것으로 결정할 수 있다. 이하에서는 심도가 증가된 부호화 단위를 하위 심도의 부호화 단위로 표현하도록 한다.
도 13을 참조하면, 일 실시예에 따라 정사각형 형태임을 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는 ′0: SQUARE′를 나타낼 수 있음)에 기초하여 영상 복호화 장치(100)는 정사각형 형태인 제1 부호화 단위(1300)를 분할하여 하위 심도의 제2 부호화 단위(1302), 제3 부호화 단위(1304) 등을 결정할 수 있다. 정사각형 형태의 제1 부호화 단위(1300)의 크기를 2Nx2N이라고 한다면, 제1 부호화 단위(1300)의 너비 및 높이를 1/2배로 분할하여 결정된 제2 부호화 단위(1302)는 NxN의 크기를 가질 수 있다. 나아가 제2 부호화 단위(1302)의 너비 및 높이를 1/2크기로 분할하여 결정된 제3 부호화 단위(1304)는 N/2xN/2의 크기를 가질 수 있다. 이 경우 제3 부호화 단위(1304)의 너비 및 높이는 제1 부호화 단위(1300)의 1/4배에 해당한다. 제1 부호화 단위(1300)의 심도가 D인 경우 제1 부호화 단위(1300)의 너비 및 높이의 1/2배인 제2 부호화 단위(1302)의 심도는 D+1일 수 있고, 제1 부호화 단위(1300)의 너비 및 높이의 1/4배인 제3 부호화 단위(1304)의 심도는 D+2일 수 있다.
일 실시예에 따라 비-정사각형 형태를 나타내는 블록 형태 정보(예를 들면 블록 형태 정보는, 높이가 너비보다 긴 비-정사각형임을 나타내는 ′1: NS_VER′ 또는 너비가 높이보다 긴 비-정사각형임을 나타내는 ′2: NS_HOR′를 나타낼 수 있음)에 기초하여, 영상 복호화 장치(100)는 비-정사각형 형태인 제1 부호화 단위(1310 또는 1320)를 분할하여 하위 심도의 제2 부호화 단위(1312 또는 1322), 제3 부호화 단위(1314 또는 1324) 등을 결정할 수 있다.
영상 복호화 장치(100)는 Nx2N 크기의 제1 부호화 단위(1310)의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1310)를 수평 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 2NxN 크기의 제1 부호화 단위(1320) 의 너비 및 높이 중 적어도 하나를 분할하여 제2 부호화 단위(예를 들면, 1302, 1312, 1322 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1320)를 수직 방향으로 분할하여 NxN 크기의 제2 부호화 단위(1302) 또는 N/2xN 크기의 제2 부호화 단위(1312)를 결정할 수 있고, 수평 방향 및 수직 방향으로 분할하여 NxN/2 크기의 제2 부호화 단위(1322)를 결정할 수도 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN 크기의 제2 부호화 단위(1302) 의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1302)를 수직 방향 및 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304)를 결정하거나 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 N/2xN 크기의 제2 부호화 단위(1312)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1312)를 수평 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/2xN/4 크기의 제3 부호화 단위(1324)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 NxN/2 크기의 제2 부호화 단위(1322)의 너비 및 높이 중 적어도 하나를 분할하여 제3 부호화 단위(예를 들면, 1304, 1314, 1324 등)를 결정할 수도 있다. 즉, 영상 복호화 장치(100)는 제2 부호화 단위(1322)를 수직 방향으로 분할하여 N/2xN/2 크기의 제3 부호화 단위(1304) 또는 N/4xN/2 크기의 제3 부호화 단위(1314)를 결정하거나 수직 방향 및 수평 방향으로 분할하여 N/2xN/4크기의 제3 부호화 단위(1324)를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 부호화 단위(예를 들면, 1300, 1302, 1304)를 수평 방향 또는 수직 방향으로 분할할 수 있다. 예를 들면, 2Nx2N 크기의 제1 부호화 단위(1300)를 수직 방향으로 분할하여 Nx2N 크기의 제1 부호화 단위(1310)를 결정하거나 수평 방향으로 분할하여 2NxN 크기의 제1 부호화 단위(1320)를 결정할 수 있다. 일 실시예에 따라 심도가 부호화 단위의 가장 긴 변의 길이에 기초하여 결정되는 경우, 2Nx2N 크기의 제1 부호화 단위(1300)가 수평 방향 또는 수직 방향으로 분할되어 결정되는 부호화 단위의 심도는 제1 부호화 단위(1300)의 심도와 동일할 수 있다.
일 실시예에 따라 제3 부호화 단위(1314 또는 1324)의 너비 및 높이는 제1 부호화 단위(1310 또는 1320)의 1/4배에 해당할 수 있다. 제1 부호화 단위(1310 또는 1320)의 심도가 D인 경우 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/2배인 제2 부호화 단위(1312 또는 1322)의 심도는 D+1일 수 있고, 제1 부호화 단위(1310 또는 1320)의 너비 및 높이의 1/4배인 제3 부호화 단위(1314 또는 1324)의 심도는 D+2일 수 있다.
도 14은 일 실시예에 따라 부호화 단위들의 형태 및 크기에 따라 결정될 수 있는 심도 및 부호화 단위 구분을 위한 인덱스(part index, 이하 PID)를 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 정사각형 형태의 제1 부호화 단위(1400)를 분할하여 다양한 형태의 제2 부호화 단위를 결정할 수 있다. 도 14를 참조하면, 영상 복호화 장치(100)는 분할 형태 모드 정보에 따라 제1 부호화 단위(1400)를 수직 방향 및 수평 방향 중 적어도 하나의 방향으로 분할하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다. 즉, 영상 복호화 장치(100)는 제1 부호화 단위(1400)에 대한 분할 형태 모드 정보에 기초하여 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)를 결정할 수 있다.
일 실시예에 따라 정사각형 형태의 제1 부호화 단위(1400)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1402a, 1402b, 1404a, 1404b, 1406a, 1406b, 1406c, 1406d)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제1 부호화 단위(1400)의 한 변의 길이와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 긴 변의 길이가 동일하므로, 제1 부호화 단위(1400)와 비-정사각형 형태의 제2 부호화 단위(1402a, 1402b, 1404a, 1404b)의 심도는 D로 동일하다고 볼 수 있다. 이에 반해 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 제1 부호화 단위(1400)를 4개의 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)로 분할한 경우, 정사각형 형태의 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 한 변의 길이는 제1 부호화 단위(1400)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1406a, 1406b, 1406c, 1406d)의 심도는 제1 부호화 단위(1400)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 높이가 너비보다 긴 형태의 제1 부호화 단위(1410)를 분할 형태 모드 정보에 따라 수평 방향으로 분할하여 복수개의 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c)로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 너비가 높이보다 긴 형태의 제1 부호화 단위(1420)를 분할 형태 모드 정보에 따라 수직 방향으로 분할하여 복수개의 제2 부호화 단위(1422a, 1422b, 1424a, 1424b, 1424c)로 분할할 수 있다.
일 실시예에 따라 비-정사각형 형태의 제1 부호화 단위(1410 또는 1420)에 대한 분할 형태 모드 정보에 따라 결정되는 제2 부호화 단위(1412a, 1412b, 1414a, 1414b, 1414c. 1422a, 1422b, 1424a, 1424b, 1424c)는 긴 변의 길이에 기초하여 심도가 결정될 수 있다. 예를 들면, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 한 변의 길이는 높이가 너비보다 긴 비-정사각형 형태의 제1 부호화 단위(1410)의 한 변의 길이의 1/2배이므로, 정사각형 형태의 제2 부호화 단위(1412a, 1412b)의 심도는 비-정사각형 형태의 제1 부호화 단위(1410)의 심도 D보다 한 심도 하위의 심도인 D+1이다.
나아가 영상 복호화 장치(100)가 분할 형태 모드 정보에 기초하여 비-정사각형 형태의 제1 부호화 단위(1410)를 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 홀수개의 제2 부호화 단위(1414a, 1414b, 1414c)는 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c) 및 정사각형 형태의 제2 부호화 단위(1414b)를 포함할 수 있다. 이 경우 비-정사각형 형태의 제2 부호화 단위(1414a, 1414c)의 긴 변의 길이 및 정사각형 형태의 제2 부호화 단위(1414b)의 한 변의 길이는 제1 부호화 단위(1410)의 한 변의 길이의 1/2배 이므로, 제2 부호화 단위(1414a, 1414b, 1414c)의 심도는 제1 부호화 단위(1410)의 심도인 D보다 한 심도 하위인 D+1의 심도일 수 있다. 영상 복호화 장치(100)는 제1 부호화 단위(1410)와 관련된 부호화 단위들의 심도를 결정하는 상기 방식에 대응하는 방식으로, 너비가 높이보다 긴 비-정사각형 형태의 제1 부호화 단위(1420)와 관련된 부호화 단위들의 심도를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스(PID)를 결정함에 있어서, 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 홀수개로 분할된 부호화 단위들(1414a, 1414b, 1414c) 중 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 즉, 이 경우 가운데에 위치하는 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)의 두 개를 포함할 수 있다. 따라서, 스캔 순서에 따라 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 즉 인덱스의 값의 불연속성이 존재할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 이러한 분할된 부호화 단위들 간의 구분을 위한 인덱스의 불연속성의 존재 여부에 기초하여 홀수개로 분할된 부호화 단위들이 서로 동일한 크기가 아닌지 여부를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위로부터 분할되어 결정된 복수개의 부호화 단위들을 구분하기 위한 인덱스의 값에 기초하여 특정 분할 형태로 분할된 것인지를 결정할 수 있다. 도 14를 참조하면 영상 복호화 장치(100)는 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)를 분할하여 짝수개의 부호화 단위(1412a, 1412b)를 결정하거나 홀수개의 부호화 단위(1414a, 1414b, 1414c)를 결정할 수 있다. 영상 복호화 장치(100)는 복수개의 부호화 단위 각각을 구분하기 위하여 각 부호화 단위를 나타내는 인덱스(PID)를 이용할 수 있다. 일 실시예에 따라 PID는 각각의 부호화 단위의 소정 위치의 샘플(예를 들면, 좌측 상단 샘플)에서 획득될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 구분을 위한 인덱스를 이용하여 분할되어 결정된 부호화 단위들 중 소정 위치의 부호화 단위를 결정할 수 있다. 일 실시예에 따라 높이가 너비보다 긴 직사각형 형태의 제1 부호화 단위(1410)에 대한 분할 형태 모드 정보가 3개의 부호화 단위로 분할됨을 나타내는 경우 영상 복호화 장치(100)는 제1 부호화 단위(1410)를 3개의 부호화 단위(1414a, 1414b, 1414c)로 분할할 수 있다. 영상 복호화 장치(100)는 3개의 부호화 단위(1414a, 1414b, 1414c) 각각에 대한 인덱스를 할당할 수 있다. 영상 복호화 장치(100)는 홀수개로 분할된 부호화 단위 중 가운데 부호화 단위를 결정하기 위하여 각 부호화 단위에 대한 인덱스를 비교할 수 있다. 영상 복호화 장치(100)는 부호화 단위들의 인덱스에 기초하여 인덱스들 중 가운데 값에 해당하는 인덱스를 갖는 부호화 단위(1414b)를, 제1 부호화 단위(1410)가 분할되어 결정된 부호화 단위 중 가운데 위치의 부호화 단위로서 결정할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 분할된 부호화 단위들의 구분을 위한 인덱스를 결정함에 있어서, 부호화 단위들이 서로 동일한 크기가 아닌 경우, 부호화 단위들 간의 크기 비율에 기초하여 인덱스를 결정할 수 있다. 도 14를 참조하면, 제1 부호화 단위(1410)가 분할되어 생성된 부호화 단위(1414b)는 다른 부호화 단위들(1414a, 1414c)와 너비는 동일하지만 높이가 다른 부호화 단위들(1414a, 1414c)의 높이의 두 배일 수 있다. 이 경우 가운데에 위치하는 부호화 단위(1414b)의 인덱스(PID)가 1이라면 그 다음 순서에 위치하는 부호화 단위(1414c)는 인덱스가 2가 증가한 3일수 있다. 이러한 경우처럼 균일하게 인덱스가 증가하다가 증가폭이 달라지는 경우, 영상 복호화 장치(100)는 다른 부호화 단위들과 다른 크기를 가지는 부호화 단위를 포함하는 복수개의 부호화 단위로 분할된 것으로 결정할 수 있다, 일 실시예에 따라 분할 형태 모드 정보가 홀수개의 부호화 단위로 분할됨을 나타내는 경우, 영상 복호화 장치(100)는 홀수개의 부호화 단위 중 소정 위치의 부호화 단위(예를 들면 가운데 부호화 단위)가 다른 부호화 단위와 크기가 다른 형태로 현재 부호화 단위를 분할할 수 있다. 이 경우 영상 복호화 장치(100)는 부호화 단위에 대한 인덱스(PID)를 이용하여 다른 크기를 가지는 가운데 부호화 단위를 결정할 수 있다. 다만 상술한 인덱스, 결정하고자 하는 소정 위치의 부호화 단위의 크기 또는 위치는 일 실시예를 설명하기 위해 특정한 것이므로 이에 한정하여 해석되어서는 안되며, 다양한 인덱스, 부호화 단위의 위치 및 크기가 이용될 수 있는 것으로 해석되어야 한다.
일 실시예에 따라 영상 복호화 장치(100)는 부호화 단위의 재귀적인 분할이 시작되는 소정의 데이터 단위를 이용할 수 있다.
도 15는 일 실시예에 따라 픽쳐에 포함되는 복수개의 소정의 데이터 단위에 따라 복수개의 부호화 단위들이 결정된 것을 도시한다.
일 실시예에 따라 소정의 데이터 단위는 부호화 단위가 분할 형태 모드 정보를 이용하여 재귀적으로 분할되기 시작하는 데이터 단위로 정의될 수 있다. 즉, 현재 픽쳐를 분할하는 복수개의 부호화 단위들이 결정되는 과정에서 이용되는 최상위 심도의 부호화 단위에 해당할 수 있다. 이하에서는 설명 상 편의를 위해 이러한 소정의 데이터 단위를 기준 데이터 단위라고 지칭하도록 한다.
일 실시예에 따라 기준 데이터 단위는 소정의 크기 및 형태를 나타낼 수 있다. 일 실시예에 따라, 기준 부호화 단위는 MxN의 샘플들을 포함할 수 있다. 여기서 M 및 N은 서로 동일할 수도 있으며, 2의 승수로 표현되는 정수일 수 있다. 즉, 기준 데이터 단위는 정사각형 또는 비-정사각형의 형태를 나타낼 수 있으며, 이후에 정수개의 부호화 단위로 분할될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 복수개의 기준 데이터 단위로 분할할 수 있다. 일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐를 분할하는 복수개의 기준 데이터 단위를 각각의 기준 데이터 단위에 대한 분할 형태 모드 정보를 이용하여 분할할 수 있다. 이러한 기준 데이터 단위의 분할 과정은 쿼드 트리(quad-tree)구조를 이용한 분할 과정에 대응될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 픽쳐에 포함되는 기준 데이터 단위가 가질 수 있는 최소 크기를 미리 결정할 수 있다. 이에 따라, 영상 복호화 장치(100)는 최소 크기 이상의 크기를 갖는 다양한 크기의 기준 데이터 단위를 결정할 수 있고, 결정된 기준 데이터 단위를 기준으로 분할 형태 모드 정보를 이용하여 적어도 하나의 부호화 단위를 결정할 수 있다.
도 15를 참조하면, 영상 복호화 장치(100)는 정사각형 형태의 기준 부호화 단위(1500)를 이용할 수 있고, 또는 비-정사각형 형태의 기준 부호화 단위(1502)를 이용할 수도 있다. 일 실시예에 따라 기준 부호화 단위의 형태 및 크기는 적어도 하나의 기준 부호화 단위를 포함할 수 있는 다양한 데이터 단위(예를 들면, 시퀀스(sequence), 픽쳐(picture), 슬라이스(slice), 슬라이스 세그먼트(slice segment), 타일(tile), 타일 그룹(tile group), 최대부호화단위 등)에 따라 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(110)는 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보 중 적어도 하나를 상기 다양한 데이터 단위마다 비트스트림으로부터 획득할 수 있다. 정사각형 형태의 기준 부호화 단위(1500)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 3의 현재 부호화 단위(300)가 분할되는 과정을 통해 상술하였고, 비-정사각형 형태의 기준 부호화 단위(1502)에 포함되는 적어도 하나의 부호화 단위가 결정되는 과정은 도 4의 현재 부호화 단위(400 또는 450)가 분할되는 과정을 통해 상술하였으므로 자세한 설명은 생략하도록 한다.
일 실시예에 따라 영상 복호화 장치(100)는 소정의 조건에 기초하여 미리 결정되는 일부 데이터 단위에 따라 기준 부호화 단위의 크기 및 형태를 결정하기 위하여, 기준 부호화 단위의 크기 및 형태를 식별하기 위한 인덱스를 이용할 수 있다. 즉, 수신부(110)는 비트스트림으로부터 상기 다양한 데이터 단위(예를 들면, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 타일, 타일 그룹, 최대부호화단위 등) 중 소정의 조건(예를 들면 슬라이스 이하의 크기를 갖는 데이터 단위)을 만족하는 데이터 단위로서 슬라이스, 슬라이스 세그먼트, 타일, 타일 그룹, 최대부호화 단위 등 마다, 기준 부호화 단위의 크기 및 형태의 식별을 위한 인덱스만을 획득할 수 있다. 영상 복호화 장치(100)는 인덱스를 이용함으로써 상기 소정의 조건을 만족하는 데이터 단위마다 기준 데이터 단위의 크기 및 형태를 결정할 수 있다. 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 상대적으로 작은 크기의 데이터 단위마다 비트스트림으로부터 획득하여 이용하는 경우, 비트스트림의 이용 효율이 좋지 않을 수 있으므로, 기준 부호화 단위의 형태에 대한 정보 및 기준 부호화 단위의 크기에 대한 정보를 직접 획득하는 대신 상기 인덱스만을 획득하여 이용할 수 있다. 이 경우 기준 부호화 단위의 크기 및 형태를 나타내는 인덱스에 대응하는 기준 부호화 단위의 크기 및 형태 중 적어도 하나는 미리 결정되어 있을 수 있다. 즉, 영상 복호화 장치(100)는 미리 결정된 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 인덱스에 따라 선택함으로써, 인덱스 획득의 기준이 되는 데이터 단위에 포함되는 기준 부호화 단위의 크기 및 형태 중 적어도 하나를 결정할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 하나의 최대 부호화 단위에 포함하는 적어도 하나의 기준 부호화 단위를 이용할 수 있다. 즉, 영상을 분할하는 최대 부호화 단위에는 적어도 하나의 기준 부호화 단위가 포함될 수 있고, 각각의 기준 부호화 단위의 재귀적인 분할 과정을 통해 부호화 단위가 결정될 수 있다. 일 실시예에 따라 최대 부호화 단위의 너비 및 높이 중 적어도 하나는 기준 부호화 단위의 너비 및 높이 중 적어도 하나의 정수배에 해당할 수 있다. 일 실시예에 따라 기준 부호화 단위의 크기는 최대부호화단위를 쿼드 트리 구조에 따라 n번 분할한 크기일 수 있다. 즉, 영상 복호화 장치(100)는 최대부호화단위를 쿼드 트리 구조에 따라 n 번 분할하여 기준 부호화 단위를 결정할 수 있고, 다양한 실시예들에 따라 기준 부호화 단위를 블록 형태 정보 및 분할 형태 모드 정보 중 적어도 하나에 기초하여 분할할 수 있다.
도 16은 일 실시예에 따라 픽쳐에 포함되는 기준 부호화 단위의 결정 순서를 결정하는 기준이 되는 프로세싱 블록을 도시한다.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐를 분할하는 적어도 하나의 프로세싱 블록을 결정할 수 있다. 프로세싱 블록이란, 영상을 분할하는 적어도 하나의 기준 부호화 단위를 포함하는 데이터 단위로서, 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위는 특정 순서대로 결정될 수 있다. 즉, 각각의 프로세싱 블록에서 결정되는 적어도 하나의 기준 부호화 단위의 결정 순서는 기준 부호화 단위가 결정될 수 있는 다양한 순서의 종류 중 하나에 해당할 수 있으며, 각각의 프로세싱 블록에서 결정되는 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록마다 결정되는 기준 부호화 단위의 결정 순서는 래스터 스캔(raster scan), Z 스캔(Z-scan), N 스캔(N-scan), 우상향 대각 스캔(up-right diagonal scan), 수평적 스캔(horizontal scan), 수직적 스캔(vertical scan) 등 다양한 순서 중 하나일 수 있으나, 결정될 수 있는 순서는 상기 스캔 순서들에 한정하여 해석되어서는 안 된다.
일 실시예에 따라 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 영상 복호화 장치(100)는 프로세싱 블록의 크기에 대한 정보를 비트스트림으로부터 획득하여 영상에 포함되는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있다. 이러한 프로세싱 블록의 크기는 프로세싱 블록의 크기에 대한 정보가 나타내는 데이터 단위의 소정의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)의 수신부(110)는 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 특정의 데이터 단위마다 획득할 수 있다. 예를 들면 프로세싱 블록의 크기에 대한 정보는 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 타일, 타일 그룹 등의 데이터 단위로 비트스트림으로부터 획득될 수 있다. 즉 수신부(110)는 상기 여러 데이터 단위마다 비트스트림으로부터 프로세싱 블록의 크기에 대한 정보를 획득할 수 있고 영상 복호화 장치(100)는 획득된 프로세싱 블록의 크기에 대한 정보를 이용하여 픽쳐를 분할하는 적어도 하나의 프로세싱 블록의 크기를 결정할 수 있으며, 이러한 프로세싱 블록의 크기는 기준 부호화 단위의 정수배의 크기일 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 픽쳐(1600)에 포함되는 프로세싱 블록(1602, 1612)의 크기를 결정할 수 있다. 예를 들면, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 프로세싱 블록의 크기에 대한 정보에 기초하여 프로세싱 블록의 크기를 결정할 수 있다. 도 16을 참조하면, 영상 복호화 장치(100)는 일 실시예에 따라 프로세싱 블록(1602, 1612)의 가로크기를 기준 부호화 단위 가로크기의 4배, 세로크기를 기준 부호화 단위의 세로크기의 4배로 결정할 수 있다. 영상 복호화 장치(100)는 적어도 하나의 프로세싱 블록 내에서 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다.
일 실시예에 따라, 영상 복호화 장치(100)는 프로세싱 블록의 크기에 기초하여 픽쳐(1600)에 포함되는 각각의 프로세싱 블록(1602, 1612)을 결정할 수 있고, 프로세싱 블록(1602, 1612)에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서를 결정할 수 있다. 일 실시예에 따라 기준 부호화 단위의 결정은 기준 부호화 단위의 크기의 결정을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 비트스트림으로부터 적어도 하나의 프로세싱 블록에 포함되는 적어도 하나의 기준 부호화 단위의 결정 순서에 대한 정보를 획득할 수 있고, 획득한 결정 순서에 대한 정보에 기초하여 적어도 하나의 기준 부호화 단위가 결정되는 순서를 결정할 수 있다. 결정 순서에 대한 정보는 프로세싱 블록 내에서 기준 부호화 단위들이 결정되는 순서 또는 방향으로 정의될 수 있다. 즉, 기준 부호화 단위들이 결정되는 순서는 각각의 프로세싱 블록마다 독립적으로 결정될 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 특정 데이터 단위마다 기준 부호화 단위의 결정 순서에 대한 정보를 비트스트림으로부터 획득할 수 있다. 예를 들면, 수신부(110)는 기준 부호화 단위의 결정 순서에 대한 정보를 영상, 시퀀스, 픽쳐, 슬라이스, 슬라이스 세그먼트, 타일, 타일 그룹, 프로세싱 블록 등의 데이터 단위로마다 비트스트림으로부터 획득할 수 있다. 기준 부호화 단위의 결정 순서에 대한 정보는 프로세싱 블록 내에서의 기준 부호화 단위 결정 순서를 나타내므로, 결정 순서에 대한 정보는 정수개의 프로세싱 블록을 포함하는 특정 데이터 단위 마다 획득될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라 결정된 순서에 기초하여 적어도 하나의 기준 부호화 단위를 결정할 수 있다.
일 실시예에 따라 수신부(110)는 비트스트림으로부터 프로세싱 블록(1602, 1612)과 관련된 정보로서, 기준 부호화 단위 결정 순서에 대한 정보를 획득할 수 있고, 영상 복호화 장치(100)는 상기 프로세싱 블록(1602, 1612)에 포함된 적어도 하나의 기준 부호화 단위를 결정하는 순서를 결정하고 부호화 단위의 결정 순서에 따라 픽쳐(1600)에 포함되는 적어도 하나의 기준 부호화 단위를 결정할 수 있다. 도 16을 참조하면, 영상 복호화 장치(100)는 각각의 프로세싱 블록(1602, 1612)과 관련된 적어도 하나의 기준 부호화 단위의 결정 순서(1604, 1614)를 결정할 수 있다. 예를 들면, 기준 부호화 단위의 결정 순서에 대한 정보가 프로세싱 블록마다 획득되는 경우, 각각의 프로세싱 블록(1602, 1612)과 관련된 기준 부호화 단위 결정 순서는 프로세싱 블록마다 상이할 수 있다. 프로세싱 블록(1602)과 관련된 기준 부호화 단위 결정 순서(1604)가 래스터 스캔(raster scan)순서인 경우, 프로세싱 블록(1602)에 포함되는 기준 부호화 단위는 래스터 스캔 순서에 따라 결정될 수 있다. 이에 반해 다른 프로세싱 블록(1612)과 관련된 기준 부호화 단위 결정 순서(1614)가 래스터 스캔 순서의 역순인 경우, 프로세싱 블록(1612)에 포함되는 기준 부호화 단위는 래스터 스캔 순서의 역순에 따라 결정될 수 있다.
영상 복호화 장치(100)는 일 실시예에 따라, 결정된 적어도 하나의 기준 부호화 단위를 복호화할 수 있다. 영상 복호화 장치(100)는 상술한 실시예를 통해 결정된 기준 부호화 단위에 기초하여 영상을 복호화 할 수 있다. 기준 부호화 단위를 복호화 하는 방법은 영상을 복호화 하는 다양한 방법들을 포함할 수 있다.
일 실시예에 따라 영상 복호화 장치(100)는 현재 부호화 단위의 형태를 나타내는 블록 형태 정보 또는 현재 부호화 단위를 분할하는 방법을 나타내는 분할 형태 모드 정보를 비트스트림으로부터 획득하여 이용할 수 있다. 분할 형태 모드 정보는 다양한 데이터 단위와 관련된 비트스트림에 포함될 수 있다. 예를 들면, 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header), 타일 헤더(tile header), 타일 그룹 헤더(tile group header)에 포함된 분할 형태 모드 정보를 이용할 수 있다. 나아가, 영상 복호화 장치(100)는 최대 부호화 단위, 기준 부호화 단위, 프로세싱 블록마다 비트스트림으로부터 블록 형태 정보 또는 분할 형태 모드 정보에 대응하는 신택스 엘리먼트를 비트스트림으로부터 획득하여 이용할 수 있다.
이하 본 개시의 일 실시예에 따른 분할 규칙을 결정하는 방법에 대하여 자세히 설명한다.
영상 복호화 장치(100)는 영상의 분할 규칙을 결정할 수 있다. 분할 규칙은 영상 복호화 장치(100) 및 영상 부호화 장치(2200) 사이에 미리 결정되어 있을 수 있다. 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여 영상의 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 시퀀스 파라미터 세트(sequence parameter set), 픽쳐 파라미터 세트(picture parameter set), 비디오 파라미터 세트(video parameter set), 슬라이스 헤더(slice header), 슬라이스 세그먼트 헤더(slice segment header), 타일 헤더(tile header), 타일 그룹 헤더(tile group header) 중 적어도 하나로부터 획득된 정보에 기초하여 분할 규칙을 결정할 수 있다. 영상 복호화 장치(100)는 분할 규칙을 프레임, 슬라이스, 타일, 템포럴 레이어(Temporal layer), 최대 부호화 단위 또는 부호화 단위에 따라 다르게 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 수 있다. 블록 형태는 부호화 단위의 크기, 모양, 너비 및 높이의 비율, 방향을 포함할 수 있다. 영상 부호화 장치(2200) 및 영상 복호화 장치(100)는 부호화 단위의 블록 형태에 기초하여 분할 규칙을 결정할 것을 미리 결정할 수 있다. 하지만 이에 한정되는 것은 아니다. 영상 복호화 장치(100)는 영상 부호화 장치(2200)로부터 수신된 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
부호화 단위의 모양은 정사각형(square) 및 비-정사각형(non-square)을 포함할 수 있다. 부호화 단위의 너비 및 높이의 길이가 같은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 정사각형으로 결정할 수 있다. 또한, . 부호화 단위의 너비 및 높이의 길이가 같지 않은 경우, 영상 복호화 장치(100)는 부호화 단위의 모양을 비-정사각형으로 결정할 수 있다.
부호화 단위의 크기는 4x4, 8x4, 4x8, 8x8, 16x4, 16x8, ... , 256x256의 다양한 크기를 포함할 수 있다. 부호화 단위의 크기는 부호화 단위의 긴변의 길이, 짧은 변의 길이또는 넓이에 따라 분류될 수 있다. 영상 복호화 장치(100)는 동일한 그룹으로 분류된 부호화 단위에 동일한 분할 규칙을 적용할 수 있다. 예를 들어 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위를 동일한 크기로 분류할 수 있다. 또한 영상 복호화 장치(100)는 동일한 긴변의 길이를 가지는 부호화 단위에 대하여 동일한 분할 규칙을 적용할 수 있다.
부호화 단위의 너비 및 높이의 비율은 1:2, 2:1, 1:4, 4:1, 1:8, 8:1, 1:16, 16:1, 32:1 또는 1:32 등을 포함할 수 있다. 또한, 부호화 단위의 방향은 수평 방향 및 수직 방향을 포함할 수 있다. 수평 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 긴 경우를 나타낼 수 있다. 수직 방향은 부호화 단위의 너비의 길이가 높이의 길이보다 짧은 경우를 나타낼 수 있다.
영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 허용가능한 분할 형태 모드를 다르게 결정할 수 있다. 예를 들어, 영상 복호화 장치(100)는 부호화 단위의 크기에 기초하여 분할이 허용되는지 여부를 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 분할 방향을 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위의 크기에 따라 허용가능한 분할 타입을 결정할 수 있다.
부호화 단위의 크기에 기초하여 분할 규칙을 결정하는 것은 영상 부호화 장치(2200) 및 영상 복호화 장치(100) 사이에 미리 결정된 분할 규칙일 수 있다. 또한, 영상 복호화 장치(100)는 비트스트림으로부터 획득된 정보에 기초하여, 분할 규칙을 결정할 수 있다.
영상 복호화 장치(100)는 부호화 단위의 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다. 영상 복호화 장치(100)는 부호화 단위가 영상에서 차지하는 위치에 기초하여 분할 규칙을 적응적으로 결정할 수 있다.
또한, 영상 복호화 장치(100)는 서로 다른 분할 경로로 생성된 부호화 단위가 동일한 블록 형태를 가지지 않도록 분할 규칙을 결정할 수 있다. 다만 이에 한정되는 것은 아니며 서로 다른 분할 경로로 생성된 부호화 단위는 동일한 블록 형태를 가질 수 있다. 서로 다른 분할 경로로 생성된 부호화 단위들은 서로 다른 복호화 처리 순서를 가질 수 있다. 복호화 처리 순서에 대해서는 도 12와 함께 설명하였으므로 자세한 설명은 생략한다.
이하 도 17 내지 도 20을 참조하여 본 명세서에서 개시된 일 실시예에 따라 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드에 기초하여 결정된 상기 현재 블록의 MPM모드들 및 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트를 이용하여 현재 블록의 인트라 예측 모드를 결정하는 비디오를 부호화 또는 복호화하기 위한 방법 및 장치가 상술된다.
도 17는 일 실시예에 따른 비디오 부호화 장치의 블록도를 도시한다.
인트라 예측은 공간적인 참조만을 이용하는 예측 방법으로, 부호화할 블록의 주변에 있는 샘플들을 참조하여 현재 블륵을 예측하는 방법을 의미한다. 인트라 예측에서 이용되는 주변의 참조 샘플은 예측 및 복원을 통해 재구성된 밝기 값을 의미한다. 인트라 예측은 특히 연속성을 가지는 평탄한 영역 및 일정한 방향성을 가진 영역에 대해 효과적이다.
일 실시예에 따른 비디오 부호화 장치(1700)는 메모리(1710) 및 메모리(1710)에 접속된 적어도 하나의 프로세서(1720)를 포함할 수 있다. 일 실시예에 따른 비디오 부호화 장치(1700)의 동작들은 개별적인 프로세서로서 작동하거나, 중앙 프로세서의 제어에 의해 작동될 수 있다. 또한, 비디오 부호화 장치(1700)의 메모리(1710)는, 외부로부터 수신한 데이터와, 프로세서에 의해 생성된 데이터, 예를 들어, MPM모드 정보 및 확장 인트라 모드 세트 정보 (또는, 가능성있는 인트라 모드 세트(Probable Intra Mode Set; PIMS) 정보) 등을 저장할 수 있다.
비디오 부호화 장치(1700)의 프로세서(1720)는 현재 블록의 인트라 예측을 수행함으로써, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 생성하고, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 생성하고, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보를 부호화할 수 있다.
이하 도 18을 참조하여 일 실시예에 따른 비디오 부호화 장치(1700)가 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM 모드 정보 및 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 생성하는 비디오 부호화 방법에 대한 구체적인 동작을 상술한다.
도 18은 일 실시예에 따른 비디오 부호화 방법의 흐름도를 도시한다.
도 18을 참조하면, 단계 s1810에서, 비디오 부호화 장치(1700)는, 현재 블록의 인트라 예측을 수행함으로써, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 생성할 수 있다.
일 실시예에 따라, 현재 블록의 우측에 인접하는 우측 주변 블록이 미리 부호화됨으로써 이용가능하면, 현재 블록의 좌측 주변 블록 및 상측 주변 블록 대신 우측 주변 블록 및 상측 주변 블록을 이용하여 MPM 모드가 결정될 수 있다.
또한, 현재 블록의 좌측 주변 블록, 상측 주변 블록, 및 우측 주변 블록 모두가 이용가능하고, MPM 모드의 개수가 2개로 고정되어 있으면, 3개의 블록 중 2개의 블록의 인트라 예측 모드만 이용되거나 3개의 블록 중 2개의 블록의 인트라 예측 모드가 선택적으로 이용될 수 있다. 구체적으로, 우측의 인트라 예측 모드가 이용가능하고, 좌측 또는 상측 주변 블록의 인트라 예측 모드가 이용가능하지 않거나, 좌측 및 상측 주변 블록의 인트라 예측 모드가 동일한 경우에 우측 주변 블록의 인트라 예측 모드를 MPM 모드로 이용할 수 있다.
일 실시예에 따라, 좌측, 상측, 및 우측 주변 블록의 인트라 예측 모드가 모두 다르면, 통계적으로 주변 블록에서 더 자주 선택된 인트라 예측 모드가 MPM 모드로 선택될 수 있다. 또는, 3개의 주변 블록의 인트라 예측 모드 중 더 비슷한 인트라 예측 모드 2개를 MPM 모드로 시그널링없이 선택하거나 SATD(Sum of Transform Difference) 또는 RDO (Rate Distortion Optimization) 계산을 통해 레지듀얼 값이 적은 인트라 예측 모드 2개를 MPM 모드로 선택할 수 있다.
도 22a에서 후술되는 참조 샘플의 이용가능성 체크를 통해 좌측, 상측, 및 우측의 주변 블록의 인트라 예측 모드가 이용가능하다면, MPM 모드의 개수를 3개로 변경하여 이용할 수 있다.
단계 s1830에서, 비디오 부호화 장치(1700)는, MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 생성할 수 있다.
인트라 예측 모드의 개수가 증가함에 따라 MPM의 개수를 증가시키는 방법은 성능 향상에 한계가 있으므로, 모드 시그널링의 효율성을 높이기 위해 MPM 모드로 선택되지 않은 인트라 예측 모드 중 현재 블록의 인트라 예측 모드로 선택될 가능성이 높은 모드들의 세트(Probable Intra Mode Set; PIMS)를 따로 구성할 수 있다. PIMS를 구성하는 구체적인 방법은 도 31a 내지 도 31c를 참고하여 후술한다.
본 명세서에서, "확장 인트라 모드 세트" 또는 "PIMS"는 동일한 의미를 가지는 용어이고 혼용되어 기재될 수 있다.
단계 s1850에서, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보를 부호화할 수 있다.
일 실시예에 따라, MPM 모드의 결정 및 PIMS의 구성은 SATD 또는 RDO 계산을 통해 결정될 수 있다.
일 실시예에 따라, MPM 모드의 이용여부를 나타내는 MPM 모드 정보와 PIMS의 이용여부를 나타내는 PIMS 정보는 SATD 또는 RDO 계산을 통해 결정될 수 있다.
일 실시예에 따라, MPM 모드의 이용여부를 나타내는 MPM 모드 정보를 체크한 후, PIMS의 이용여부를 나타내는 PIMS 정보를 체크한다. PIMS 정보를 나타내는 PIMS 플래그가 1인 경우, PIMS에 log 2(N) 비트를 할당하여 부호화한다(N은 PIMS의 후보 개수를 의미한다).
일 실시예에 따라, PIMS의 개수와 확률에 따라, PIMS는 단방향(unary) 또는 절삭된 단방향 (truncated unary) 코딩을 이용하여 비트량이 절감될 수 있다.
일 실시예에 따라, PIMS에 동일한 비트를 할당하고, 각 비트별로 컨텍스트 모델링을 이용하여 효율적으로 부호화할 수 있다.
일 실시예에 따라, MPM이나 PIMS가 아닌 인트라 예측 모드가 선택되는 경우에, MPM과 PIMS를 제외하고 남은 모드에 대해서만 비트를 할당함으로써 효율적으로 부호화할 수 있다.
일 실시예에 따라, MPM과 동일하게 블록 단위 플래그를 이용하거나, 영상에 따라 혹은 사용되는 모드의 총 개수에 따라 MPM만 이용할지 PIMS도 이용할지 결정할 수 있다.
일 실시예에 따라, PIMS의 이용여부를 나타내는 플래그는 프레임 단위로 전송될 수 있다.
일 실시예에 따라, 블록의 크기에 따라 PIMS의 이용여부와 PIMS의 개수가 다르게 적용될 수 있다.
일 실시예에 따라, 도 22a를 참조하여 후술되는 이용가능성 체크 결과에 따라 PIMS의 이용여부와 PIMS의 개수가 다르게 적용될 수 있다.
도 19 및 도 20은 위에서 설명한 비디오 부호화 장치 및 비디오 부호화 방법에 각각에 대응하는 일 실시예에 따른 비디오 복호화 장치의 블록도 및 일 실시예에 따른 비디오 복호화 방법의 흐름도를 도시한다.
도 19는 일 실시예에 따른 비디오 복호화 장치의 블록도를 도시한다.
일 실시예에 따른 비디오 복호화 장치(1900)는 메모리(1910) 및 메모리(1910)에 접속된 적어도 하나의 프로세서(1920)를 포함할 수 있다. 일 실시예에 따른 비디오 복호화 장치(1900)의 동작들은 개별적인 프로세서로서 작동하거나, 중앙 프로세서의 제어에 의해 작동될 수 있다. 또한, 비디오 복호화 장치(1900)의 메모리(1910)는, 외부로부터 수신한 데이터와, 프로세서에 의해 생성된 데이터, 예를 들어, MPM모드 정보 및 확장 인트라 모드 세트 정보(또는 PIMS 정보) 등을 저장할 수 있다.
비디오 복호화 장치(1900)의 프로세서(1920)는 비디오 복호화 장치(1900)는, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하고, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하고, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정할 수 있다.
이하 도 20을 참조하여 일 실시예에 따른 비디오 복호화 장치(1900)가 인트라 예측 모드를 결정하는데 있어서, 현재 블록의 좌측, 상측, 및 우측에 인접하는 주변 블록들에 기초한 MPM 모드들의 이용여부에 대한 MPM 모드 정보 및 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트의 이용여부에 대한 확장 인트라 모드 세트 정보를 이용하는 비디오 복호화 방법에 대한 구체적인 동작을 상술한다.
도 20은 일 실시예에 따른 비디오 복호화 방법의 흐름도를 도시한다.
도 20을 참조하면, 단계 s2010에서, 비디오 복호화 장치(1900)는, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득할 수 있다.
일 실시예에 따라, 좌측 주변 블록 및 상측 주변 블록이 이용가능하면, 현재 블록의 MPM 모드는 좌측 주변 블록 및 상측 주변 블록의 인트라 예측 모드로 결정될 수 있다.
일 실시예에 따라, 우측 주변 블록 및 상측 주변 블록이 이용가능하면, 현재 블록의 MPM 모드는 우측 주변 블록 및 상측 주변 블록의 인트라 예측 모드로 결정될 수 있다.
일 실시예에 따라, 좌측, 상측, 및 우측 주변 블록이 모두 이용가능하고 3개의 주변 블록의 인트라 예측 모드가 서로 다르면, 현재 블록의 MPM 모드는 3개의 주변 블록의 인트라 예측 모드들로 결정될 수 있다.
일 실시예에 따라, 좌측, 상측, 및 우측 주변 블록이 모두 이용가능하고 인트라 예측 모드가 동일한 주변 블록들이 존재하면, 현재 블록의 MPM 모드는 인트라 예측 모드가 동일한 주변 블록의 인트라 예측 모드와 나머지 하나의 주변 블록의 인트라 예측 모드로 결정될 수 있다. 예를 들어, 좌측 및 상측 주변 블록의 인트라 예측 모드가 동일하면, 현재 블록의 MPM 모드는 좌측 주변 블록의 인트라 예측 모드 및 우측 주변 블록의 인트라 예측 모드로 결정될 수 있다.
일 실시예에 따라, 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 좌측, 상측, 및 우측 주변 블록 모두 이용가능하면, 좌측, 상측, 및 우측 주변 블록 중 2개의 블록의 인트라 예측 모드를 이용하여 상기 현재 블록의 MPM모드가 결정될 수 있다. 선택된 2개의 블록의 인트라 예측 모드는 통계적으로 주변 블록에서 더 자주 선택된 인트라 예측 모드일 수 있다.
일 실시예에 따라, 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 우측 주변 블록이 이용가능하고, 좌측 및 상측 주변 블록 중 하나만 이용가능하면, 우측 주변 블록의 인트라 예측 모드, 및 상측 주변 블록 및 우측 주변 블록 중 이용가능한 하나의 블록의 인트라 예측 모드를 이용하여 현재 블록의 MPM모드가 결정될 수 있다.
단계 s2030에서, 상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득할 수 있다.
일 실시예에 따라, 현재 블록의 MPM 모드가 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록 모두의 인트라 예측 모드를 포함하면, 상기 확장 인트라 모드 세트는 상기 현재 블록의 MPM모드들을 이용하여 구성될 수 있다. 구체적으로, 확장 인트라 모드 세트는 MPM 모드의 인덱스에 가까운 인덱스를 가지는 인트라 예측 모드들로 구성될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드가 상기 좌측 주변 블록 및 상기 상측 주변 블록의 인트라 예측 모드를 포함하면, 상기 확장 인트라 모드 세트는 상기 현재 블록의 MPM모드들 및 상기 우측 주변 블록의 예측 모드를 이용하여 구성될 수 있다. 예를 들어, MPM 모드는 좌측 주변 블록 및 상측 주변 블록의 인트라 예측 모드로 결정되더라도, 현재 블록의 모드와 연관성이 높은 우측 주변 블록이 이용가능하므로, 확장 인트라 모드 세트를 구성하는데 있어서, 우측 주변 블록의 인트라 예측 모드가 이용될 수 있다.
일 실시예에 따라, 확장 인트라 모드 세트는 현재 블록의 MPM 모드들의 유형에 따라 구성될 수 있다. 구체적으로, MPM 모드가 모두 비방향성 모드인 경우, 모두 방향성 모드인 경우, 비방향성 모드와 방향성 모드가 둘 다 존재하는 경우에 따라 확장 인트라 모드 세트를 구성하는 모드의 개수가 각각 다르게 결정될 수 있다. MPM 모드가 모두 비방향성 모드인 경우, 확장 인트라 모드 세트는 적은 개수로 구성되고, MPM 모드에 포함되지 않은 비방향성 모드, 대각선 모드, 수평 모드, 또는 수직 모드 등으로 구성될 수 있다.
일 실시예에 따라, 좌측 주변 블록, 상측 주변 블록, 및 우측 주변 블록이 모두 이용가능하고, 좌측 주변 블록, 상측 주변 블록, 및 우측 주변 블록의 예측 모드가 서로 다른 방향성 모드인 경우, 확장 인트라 모드 세트는 좌측 주변 블록의 인트라 예측 모드의 인덱스로부터 N만큼 증가된 인덱스의 인트라 예측 모드, 좌측 주변 블록의 인트라 예측 모드의 인덱스로부터 N만큼 감소된 인덱스의 인트라 예측 모드, 상측 주변 블록의 인트라 예측 모드의 인덱스로부터 M만큼 증가된 인덱스의 인트라 예측 모드, 상측 주변 블록의 인트라 예측 모드의 인덱스로부터 M만큼 감소된 인덱스의 인트라 예측 모드, 우측 주변 블록의 인트라 예측 모드의 인덱스로부터 L만큼 증가된 인덱스의 인트라 예측 모드, 및 우측 주변 블록의 인트라 예측 모드의 인덱스로부터 L만큼 감소된 인덱스의 인트라 예측 모드를 포함하고, N, M, 및 L은 0이 아닌 정수일 수 있다.
일 실시예에 따라, 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 DC 모드 및 Bilinear 모드이면, 상기 확장 인트라 모드 세트는 플레인 모드, 수평 모드, 수직 모드 및 대각선 모드(Diagonal Mode)로 구성될 수 있다. Bilinear 모드는 도 24a 내지 도24c를 참조하여 후술된다.
일 실시예에 따라, 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 DC 모드 및 방향성 모드이면, 상기 확장 인트라 모드 세트는 Bilinear 모드, 플레인 모드, 상기 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 2만큼 증가된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 2만큼 감소된 인덱스의 인트라 예측 모드, 제1 디폴트 모드, 제2 디폴트 모드로 구성되고, 상기 제1 디폴트 모드 및 상기 제2 디폴트 모드는 미리정해진 인트라 예측 모드일 수 있다. "디폴트 모드"는 통계적으로 선택될 확률이 높은 인트라 예측 모드들이 순차적으로 나열된 리스트 중에서 결정될 수 있다. 예를 들어, MPM모드가 DC 모드 및 인덱스가 57인 인트라 예측 모드이면, 확장 인트라 모드 세트는 Bilinear 모드, 플레인 모드, 인덱스가 각각 55, 56, 58, 59인 모드들, 디폴트 모드[0], 디폴트 모드[1]로 구성될 수 있다.
일 실시예에 따라, 상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 제1 방향성 모드 및 제2 방향성 모드인 경우에, 상기 확장 인트라 모드 세트는 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 수평 모드, 수직 모드, DC 모드, Bilinear 모드로 구성될 수 있다. 예를 들어, MPM 모드가 인덱스가 30 및 40인 인트라 예측 모드이면, 확장 인트라 모드 세트는 인덱스가 29, 31, 39, 41인 모드들, 수직 모드, 수평 모드, DC 모드, Bilinear 모드로 구성될 수 있다.
일 실시예에 따라, 상기 MPM모드가 좌측 및 상측 주변 블록의 인트라 예측 모드인 DC 모드 및 제1 방향성 모드이고, MPM 모드로 결정되지 않은 우측 주변 블록의 예측 모드가 제2 방향성 모드인 경우, 상기 확장 인트라 모드 세트는 Bilinear 모드, 플레인 모드, 상기 제2 방향성 모드, 상기 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 디폴트 모드로 구성되고, 상기 디폴트 모드는 미리정해진 인트라 예측 모드일 수 있다. 예를 들어, MPM 모드가 DC 모드 및 인덱스가 57인 모드이고, 우측 주변 블록의 인트라 예측 모드의 인덱스가 40이면, 확장 인트라 모드 세트는 Bilinear 모드, 플레인 모드, 인덱스가 40, 56, 58, 39, 41인 모드들 및 디폴트 모드[0]으로 구성될 수 있다.
일 실시예에 따라, MPM모드가 좌측 및 상측 주변 블록의 인트라 예측 모드인 제1 방향성 모드 및 제2 방향성 모드이고, MPM 모드로 이용되지 않은 우측 주변 블록의 예측 모드가 제3 방향성 모드인 경우, 상기 확장 인트라 모드 세트는 상기 제3 방향성 모드, 상기 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 상기 제3 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제3 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드로 구성될 수 있다. 예를 들어, MPM 모드의 인덱스가 40 및 57이고 우측 주변 블록의 인트라 예측 모드의 인덱스가 55이면, 확장 인트라 모드 세트는 인덱스가 55, 39, 41, 53, 54, 56, 58, 59인 인트라 예측 모드로 구성될 수 있다.
단계 s2050에서, 상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정할 수 있다.
구체적으로, MPM 모드 이용여부에 대한 MPM 모드 정보가 MPM 모드를 이용함을 나타내면 MPM 모드의 인트라 예측 모드 중 하나의 모드가 현재 블록의 인트라 예측 모드로 결정될 수 있고, MPM 모드 정보가 MPM 모드를 이용하지 않음을 나타내고 확장 인트라 모드 세트 정보가 확장 인트라 모드 세트를 이용함을 나타내면, 확장 인트라 모드 세트에 포함된 인트라 예측 모드 중 하나의 모드가 현재 블록의 인트라 예측 모드로 결정될 수 있고, 확장 인트라 모드 세트 정보가 확장 인트라 모드 세트를 이용하지 않음을 나타내면, MPM 모드 및 확장 인트라 모드 세트에 포함된 모드들 외의 나머지 인트라 예측 모드 중 하나가 현재 블록의 인트라 예측 모드로 결정될 수 있다. 단계 s2050에 대한 신택스는 도 32a를 참조하여 후술된다.
MPM 모드외에 확장 인트라 모드 세트를 추가로 구성함으로써 인트라 예측에 있어서, 모드 부호화 효율에 의해 정확한 모드가 아닌 MPM 모드가 선택되는 경우가 보완되어 예측 정확도가 향상되고, 우측 주변 블록의 정보을 추가로 이용함으로써 다양한 인트라 예측 모드에 적은 비트를 할당하여 후보로 제시하여 모드 부호화의 효율이 높아질 수 있다.
좌측, 상측, 및 우측 주변 블록이 이용가능한지를 판단하는 방법은 도 21 및 도 22a를 참고하여 후술된다.
도 21은 최대부호화 단위와 최대부호화 단위에 포함된 부호화 단위들의 부호화 순서를 설명하기 위한 도면이다.
최대 부호화 단위(2150)는 복수 개의 부호화 단위들(2156, 2158, 2160, 2162, 2168, 2170, 2172, 2174, 2180, 2182, 2184, 2186)로 분할된다. 최대 부호화 단위(2150)는 트리 구조의 최상위 노드(2100)에 대응된다. 그리고 복수 개의 부호화 단위들(2156, 2158, 2160, 2162, 2168, 2170, 2172, 2174, 2180, 2182, 2184, 2186)은 각각 복수 개의 노드들(2106, 2108, 2110, 2112, 2118, 2121, 2122, 2124, 2130, 2132, 2134, 2136)에 대응된다. 트리 구조에서 부호화 순서를 나타내는 상단 부호화 순서 플래그(2102, 2114, 2126)는 화살표(2152, 2164, 2176)에 대응되고, 상단 부호화 순서 플래그(2104, 2116, 2128)는 화살표(2154, 2166, 2178)에 대응된다.
상단 부호화 순서 플래그는 하나의 부호화 단위로부터 분할된 네 개의 부호화 단위들 중 상단에 위치한 두 개의 부호화 단위들의 부호화 순서를 나타낸다. 만약 상단 부호화 순서 플래그가 0일 경우, 부호화는 정방향으로 수행된다. 반대로 상단 부호화 순서 플래그가 1일 경우, 부호화는 역방향으로 수행된다.
마찬가지로 하단 부호화 순서 플래그는 하나의 부호화 단위로부터 분할된 네 개의 부호화 단위들 중 하단에 위치한 두 개의 부호화 단위들의 부호화 순서를 나타낸다. 만약 하단 부호화 순서 플래그가 0일 경우, 부호화는 정방향으로 수행된다. 반대로 하단 부호화 순서 플래그가 1일 경우, 부호화는 역방향으로 수행된다.
예를 들어, 상단 부호화 순서 플래그(2114)가 0이므로 부호화 단위들(2168, 2170) 간의 부호화 순서는 정방향인 좌측에서 우측 방향으로 결정된다. 그리고 하단 부호화 순서 플래그(2116)가 1이므로 부호화 단위들(2172, 2174) 간의 부호화 순서는 역방향인 우측에서 좌측 방향으로 결정된다.
실시 예에 따라, 상단 부호화 순서 플래그와 하단 부호화 순서 플래그가 동일한 값을 가지도록 설정될 수 있다. 예를 들어, 상단 부호화 순서 플래그(2102)가 1로 결정될 경우, 상단 부호화 순서 플래그(2102)에 대응되는 하단 부호화 순서 플래그(2104)도 1로 결정될 수 있다. 1비트로 상단 부호화 순서 플래그와 하단 부호화 순서 플래그의 값이 결정되므로 부호화 순서 정보의 정보량이 감소한다.
실시 예에 따라, 현재 부호화 단위의 상단 부호화 순서 플래그와 하단 부호화 순서 플래그는 현재 부호화 단위보다 큰 부호화 단위에 적용된 상단 부호화 순서 플래그 및 하단 부호화 순서 플래그 중 적어도 하나를 참조하여 결정될 수 있다. 예를 들어, 부호화 단위(2180, 2182, 2184, 2186)에 적용된 상단 부호화 순서 플래그(2126)와 하단 부호화 순서 플래그(2128)는 부호화 단위들(2172, 2174)에 적용된 하단 부호화 순서 플래그(2116)에 기초하여 결정될 수 있다. 따라서 상단 부호화 순서 플래그(2126)와 하단 부호화 순서 플래그(2128)는 부호화 순서 플래그(2116)와 동일한 값으로 결정될 수 있다. 상단 부호화 순서 플래그와 하단 부호화 순서 플래그의 값을 현재 부호화 단위의 상위 부호화 단위로부터 결정하므로, 부호화 순서 정보가 비트스트림으로부터 획득되지 않는다. 따라서 부호화 순서 정보의 정보량이 감소한다.
실시 예에 따라, 블록의 크기 또는 심도에 따라 블록에 대한 부호화 순서 플래그가 획득되는지 여부가 결정될 수 있다. 예를 들면, 미리 정해진 크기의 블록에 대하여만 부호화 순서 플래그가 획득되고, 다른 크기의 블록에 대하여는 부호화 순서 플래그가 획득되지 않을 수 있다. 현재 블록이 미리 정해진 크기의 블록보다 큰 경우, 부호화 순서 플래그의 획득 없이 부호화 순서가 정방향으로 결정될 수 있다. 현재 블록이 미리 정해진 크기의 블록보다 작은 경우, 부호화 순서 플래그의 획득 없이 부호화 순서가 현재 블록의 상위 블록에 따라 결정될 수 있다. 상기 부호화 순서 플래그가 획득되는 블록의 크기는 임의적으로 결정될 수 있다. 예를 들어, 부호화 순서 플래그가 획득되는 블록의 크기 16x16 및 32x32로 결정될 수 있다.
도 22a는 주변 블록의 복원 여부에 따른 인트라 예측 방법을 나타낸다.
도 21에서 전술한 부호화 순서에 따라 현재 블록에서 이용할 수 있는 참조 블록의 위치가 달라질 수 있다. 현재 이용가능한 참조 블록의 위치를 이용가능성 체크(availabilty check)를 통해 분류할 수 있다. 구체적으로, 왼쪽을 L, 오른쪽을 R로 나타내고, 0 또는 1은 참조 가능여부를 나타냄으로써, LR_10 (2200), LR_01 (2210), LR_11 (2220), LR_00 (2230)으로 분류할 수 있다.
LR_01 (2210) 및 LR_11(2220)의 경우에는 종래 기술에서는 이용되지 않았던 실시예이고, 특히, LR_11(2220)의 경우에는 종래보다 더 많은 정보를 이용할 수 있으므로, 좌측, 상측, 우측이 모두 이용가능한 경우에 대하여 알고리즘이 수정될 필요가 있다. 수정된 알고리즘에 대해서는, 도 22b에서 후술된다.
제1 실시예(2200)는 복호화 순서에 따라 상측 블록과 좌측 블록이 현재 블록(2201)보다 먼저 복원된 경우 인트라 예측 방법을 나타낸다. 제1 실시 예(2200)에서는 상측 참조 샘플들(2202), 우상측 참조 샘플들(2203), 좌측 참조 샘플들(2204), 좌하측 참조 샘플들(2205)이 인트라 예측에 사용될 수 있다. 제1 실시 예(2200)는 복호화 순서의 전환이 없던 종래 비디오 복호화 방법에서 발생하며, 종래의 인트라 예측 방법에 따라 현재 블록(2201)이 예측된다.
제2 실시예(2210)는 복호화 순서에 따라 상측 블록과 우측 블록이 현재 블록(2211)보다 먼저 복원된 경우 인트라 예측 방법을 나타낸다. 제2 실시 예(2210)에서는 상측 참조 샘플들(2212), 좌상측 참조 샘플들(2213), 우측 참조 샘플들(2214), 우하측 참조 샘플들(2215)이 인트라 예측에 사용될 수 있다. 제2 실시 예(2210)는 제1 실시 예(2200)와 좌우 대칭되므로, 제2 실시 예(2210)에 따른 인트라 예측 방법은 제1 실시 예(2200)에 따른 인트라 예측 방법과 좌우 대칭된다. 예를 들어, 현재 블록에 수평 모드가 적용될 경우, 제1 실시 예(2200)에서는 좌측 참조 샘플들(2204)이 참조되는 반면, 제2 실시 예(2210)에서는 우측 참조 샘플들(2214)이 참조된다. 마찬가지로, 제2 실시 예(2210)의 다른 방향성 인트라 모드 및 플래너 모드에 따른 인트라 예측 방법 역시 제1 실시 예(2200)의 다른 방향성 인트라 모드 및 플래너 모드에 따른 인트라 예측 방법과 좌우 대칭될 수 있다.
제3 실시예(2220)는 복호화 순서에 따라 상측 블록, 좌측 블록, 우측 블록이 현재 블록보다 먼저 복원된 경우 인트라 예측 방법을 나타낸다. 제3실시 예(2220)에서는 상측 참조 샘플들(2222), 좌측 참조 샘플들(2223), 우측 참조 샘플들(2224), 좌하측 참조 샘플들(2225), 우하측 참조 샘플들(2226)이 인트라 예측에 사용될 수 있다. 제3 실시 예(2220)에서는 좌측 참조 샘플들(2223), 우측 참조 샘플들(2224)이 현재 블록(2221)의 예측에 같이 사용될 수 있다. 예를 들어, 현재 블록(2221)에 수평 모드가 적용될 경우, 비디오 복호화 장치(1900)는 좌측 참조 샘플들(2223)로부터 획득된 제1 참조 값과 우측 참조 샘플들(2224)로부터 획득된 제2 참조 값의 평균 또는 가중 평균을 이용하여, 현재 블록(2221)을 예측할 수 있다.
다른 실시예에 따르면, 비디오 복호화 장치(1900)는 제1 실시 예(2200)의 인트라 예측 방법에 따른 제1 중간 예측 값과 제2 실시 예(2210)의 인트라 예측 방법에 따른 제2 중간 예측 값의 평균 값을 이용하여 제3 실시 예(2220)의 현재 블록(2221)을 예측할 수 있다. 예를 들어, 현재 블록(2221)에 수평 모드가 적용될 경우, 비디오 복호화 장치(1900)는 제1 실시 예(2200)에 따른 인트라 예측 방법에 따라 좌측 참조 샘플들(2204)로부터 획득된 제1 중간 예측 값과 제2 실시 예(2210)에 따른 인트라 예측 방법에 따라 우측 참조 샘플들(2214)로부터 획득된 제2 중간 예측 값에 기초하여 제3 실시 예(2220)에 따른 현재 블록(2221)의 최종 예측 값을 구할 수 있다.
다른 실시예에 따르면, 비디오 복호화 장치(1900)는 제1 실시 예(2200)의 인트라 예측 방법에 따른 제1 예측 값과 제2 실시 예(2210)의 인트라 예측 방법에 따른 제2 예측 값 중 하나를 이용하여 제3 실시 예(2220)의 현재 블록(2221)을 예측할 수 있다. 예를 들어, 비디오 복호화 장치(1900)는 현재 블록(2221)에 수평 모드가 적용될 경우, 제1 실시 예(2200)에 따른 인트라 예측 방법에 따라 좌측 참조 샘플들(2204)로부터 획득된 제1 예측 값과 제2 실시 예(2210)에 따른 인트라 예측 방법에 따라 우측 참조 샘플들(2214)로부터 획득된 제2 예측 값 중 선택된 하나를 이용하여 제3 실시 예(2220)에 따른 현재 블록(2221)의 최종 예측 값을 구할 수 있다.
제4 실시예(2230)는 상측 블록, 좌상측 블록, 우상측 블록만이 현재 블록(2231)보다 먼저 복원된 경우 인트라 예측 방법을 나타낸다. 제4실시 예(2230)에서는 상측 참조 샘플들(2232), 좌상측 참조 샘플들(2233), 우상측 참조 샘플들(2234)이 인트라 예측에 사용될 수 있다. 따라서 제4 실시 예(2230)에서 좌측 참조 샘플들(2235), 좌하측 참조 샘플들(2236), 우측 참조 샘플들(2237), 우하측 참조 샘플들(2238)이 필수적으로 사용되는 인트라 예측 방법은 사용될 수 없다. 예를 들어, 수평 모드는 좌측 참조 샘플들 또는 우측 참조 샘플들을 사용하기 때문에, 제4 실시 예(2230)에서 사용될 수 없다.
제4 실시 예(2230)에서는 복호화 순서에 따라 현재 블록(2231)과 인접하는 참조 샘플이 상측 참조 샘플들(2232) 밖에 없다. 또한 좌상측 참조 샘플들(2233), 우상측 참조 샘플들(2234)은 현재 블록으로부터 공간적으로 떨어져 있어, 다른 실시 예들(2200, 2210, 2220)에 비하여 예측 정확도가 낮을 수 있다. 그러므로 제4 실시 예(2230)에 사용되는 인트라 예측 방법은, 현재 블록(2231)과 인접한 상측 블록의 참조 샘플(2232)를 이용하는 수직 모드 또는 수직 모드와 인접한 방향의 방향성 예측 모드인 것이 바람직하다.
다만, 상측 참조 샘플들(2232), 좌상측 참조 샘플들(2233), 우상측 참조 샘플들(2234)에 기초하여 좌측 참조 샘플들(2235), 좌하측 참조 샘플들(2236), 우측 참조 샘플들(2237), 우하측 참조 샘플들(2238)이 패딩될 경우, 비디오 복호화 장치(1900)는 제3 실시 예(2220)의 인트라 예측 방법에 따라 제4 실시 예(2230)의 현재 블록(2231)을 예측할 수 있다.
도 22b은 현재 블록의 우측에 인접하는 우측 주변 블록을 이용할 수 있는 경우에 대한 수정된 알고리즘을 도시한다.
도 22b을 참고하면, 이용가능성 체크를 통해, 좌측, 상측, 및 우측 모두 이용가능함을 나타내는 LR_11가 획득되면, 좌측, 상측, 및 우측의 참조 블록 모두를 이용하는 확장된 알고리즘이 적용되고, 상측 및 우측이 이용가능함을 나타내는 LR_01이 획득되면 상측 및 우측의 참조 블록을 이용하는 확장된 알고리즘이 적용되고, 나머지 경우(LR_00 및 LR_10)에는 상측 또는 좌측과 상측의 참조 블록을 이용하는 기존의 알고리즘이 적용된다.
기존의 알고리즘과 달리, 좌측이 아닌 우측의 참조 블록을 이용할 수 있으므로, 기존의 알고리즘을 좌우대칭적으로 확장함으로써 확장된 알고리즘이 사용될 수 있다. 예를 들어, 필터나 가중치 계수에 대한 테이블을 좌우로 플립한 테이블이 사용될 수 있다.
일 실시예에 따라, LR_11의 경우, 좌측 및 우측 참조 블록이 모두 이용가능하므로, 더욱 정확한 예측을 위해 양측의 참조 블록이 모두 이용될 수 있다. 구체적으로, 양측의 참조 블록이 동일한 비율로 예측에 이용되거나, 거리(위치 차이)에 따라 가중치를 계산하여 선형 결합(linear combination) 또는 비선형 결합(non-linear combination)을 수행하여 예측에 이용될 수 있다.
참조 블록의 이용가능성 체크를 통해, 참조 블록의 이용가능성을 체크하여, 현재 블록의 인트라 모드에 따라 이용가능한 참조 블록 중에서 선택적으로 참조 블록이 이용될 수 있다. 선택적으로 참조 블록을 이용하는 경우에는 주변 정보를 이용하여 시그널링 없이 이용할 참조 블록을 선택할 수 있다. 또는, 인트라 모드를 확장하여 율-왜곡 최적화(Rate-Distortion Optimization; RDO)를 수행함으로써 이용할 참조 블록을 결정할 수 있다.
도 22b에 따라, 참조 블록의 이용가능성 체크 결과에 따라 예측 방식이 결정되므로, 우측 참조 블록을 이용하는 LR_01 및 LR_11에서는 별도의 시그널링 없이 확장된 알고리즘으로 기존 알고리즘이 대체될 수 있다.
도 21 내지 도 22b을 참고하면 우측의 참조 샘플들을 포함한 주변의 정보를 다양하게 활용함으로써 예측 정확도가 향상되고, 이용가능성 체크를 통해 이용할 정보가 결정되고 시그널링이 필요없어 부호화 효율이 높아질 수 있다.
도 23은 인트라 예측 모드 방향의 일 실시예를 도시한다.
구체적으로, 도 23의 인트라 예측 모드의 인트라 예측 방향 중 y축의 양의 방향인 수직 방향(2340) 및 x축의 음의 방향인 수평 방향(2320)은 인트라 예측 모드의 수직 모드 및 수평 모드를 각각 도시한다. 또한, 도 23에는 인트라 예측 방향 중 인트라 예측 방향의 마지막 방향인 1사분면 상의 대각선 방향성 모드(2350), 방향성 모드의 시작 방향인 제 3사분면 상의 대각선 방향성 모드(2310)가 도시되어 있고, 45도 방향의 방향성 모드(2350)의 방향에 수직인 대각선 모드(2330)(diagonal mode)를 도시되어 있다. 도 23의 인트라 예측 모드 중 방향성 모드(2350)의 방향은 45도 방향이 아닌 다른 각도 방향일 수 있다.
일 실시예에 따라, 인트라 예측 모드는 67개로 구성될 수 있다. 구체적으로, DC 모드, 플라나 모드, 및 65개의 방향성 모드들로 구성될 수 있고, 인트라 예측 모드는 인트라 예측 모드의 인덱스를 0 내지 66 (0은 플라나 모드, 1은 DC 모드, 2 내지 66은 방향성 모드)으로 표시하여 구분될 수 있다.
도 23를 참조하면, 인트라 예측 모드의 인덱스가 2인 모드는 45도 방향의 방향성 모드(2350)의 반대 방향의 방향성 모드(2310)일 수 있고, 인트라 예측 모드의 인덱스가 34인 모드는 45도 방향의 방향성 모드(2350)의 방향에 수직인 대각선 모드(2330)(diagonal mode)일 수 있고, 인트라 예측 모드의 인덱스가 66인 모드는 45도 방향(2350)의 인트라 예측 모드일 수 있고, x축의 음의 방향인 수평 모드(2320)의 인덱스는 18일 수 있고, y축의 양의 방향인 수직 모드(2340)의 인덱스는 50일 수 있다.
도 24a는 좌측 및 상측의 주변 블록을 이용하는 Bilinear 예측 모드, 도 24b는 상측 및 우측의 주변 블록을 이용하는 Bilinear 예측 모드, 도 24c는 좌측 및 우측의 주변 블록을 이용하는 Bilinear 예측 모드를 도시한다.
"Bilinear 예측 모드"는 참조 블록으로부터 현재 블록의 경계(boundary) 값들을 생성하고, 경계 값들의 선형 겹함을 통해 현재 블록의 현재 픽셀의 예측 값을 획득하는 인트라 예측 모드이고, 인트라 예측에서 DC 모드와 함께 자주 선택되는 모드이다.
도 24a를 참고하면, 현재 블록의 좌측에 인접하는 참조 샘플 및 현재 블록의 상측에 인접하는 참조 샘플이 이용가능한 경우, 현재 블록의 우상측에 위치하는 참조 샘플(2410)을 이용하여 가상의 제1 픽셀을 생성하고, 현재 블록의 좌하측에 위치하는 참조 샘플(2402)을 이용하여 가상의 제2 픽셀을 생성한다. 이에 따라, 현재 블록의 우측 경계의 픽셀들(제1 픽셀이 포함된 세로 줄의 픽셀들(2403))은 제1 픽셀의 값을 가지고, 현재 블록의 하측 경계의 픽셀들(제2 픽셀이 포함된 가로 줄의 픽셀들(2404))은 제2 픽셀의 값을 가진다. 그 후, 수평 및 수직 방향의 선형 보간(linear interpolation)을 이용하여 현재 픽셀의 예측 값이 생성된다.
도 24b를 참고하면, 현재 블록의 우측에 인접하는 참조 샘플 및 현재 블록의 상측에 인접하는 참조 샘플이 이용가능한 경우, 도 24a와 대칭적으로, 현재 블록의 좌상측에 위치하는 참조 샘플(2411)을 이용하여 가상의 제1 픽셀을 생성하고, 현재 블록의 우하측(2412)에 위치하는 참조 샘플을 이용하여 가상의 제2 픽셀을 생성한다. 이에 따라, 현재 블록의 좌측 경계의 픽셀들(제1 픽셀이 포함된 세로 줄의 픽셀들(2413))은 제1 픽셀의 값을 가지고, 현재 블록의 하측 경계의 픽셀들(제2 픽셀이 포함된 가로 줄의 픽셀들(2414))은 제2 픽셀의 값을 가진다. 그 후, 수평 및 수직 방향의 선형 보간(linear interpolation)을 이용하여 현재 픽셀의 예측 값이 생성된다.
도 24c를 참고하면, 현재 블록의 좌측에 인접하는 참조 샘플 및 현재 블록의 우측에 인접하는 참조 샘플이 모두 이용가능한 경우, 좌측 또는 우측의 경계 값을 따로 생성하지 않고, 이용가능한 참조 샘플들을 이용할 수 있다. 또한, 제2 픽셀이 포함된 하측의 가로줄에 포함된 픽셀들(2423)은 좌하측(2421) 및 우하측(2422)의 참조 픽셀들을 이용하여 예측 값이 생성된다.
도 25는 인트라 예측에 이용되는 다중 4탭 필터의 일 예를 도시한다.
본 명세서에서, 4탭 필터는 N탭 필터의 일 예이고, N탭 필터는 4탭 필터에 한정되지 않고, 7탭 필터, 8탭 필터, 10탭 필터, 12탭 필터 등 다양한 필터를 포함한다. 다만, 설명을 위해 4탭 필터를 이용하여 기재한다.
인트라 예측 수행시, 한가지 세기의 4탭 필터 대신 거리(위치 차이)에 따라 서로 다른 세기의 4탭 필터를 이용함으로써 복잡도의 증가 없이 효율적으로 예측 블록을 생성하고 예측 성능을 높일 수 있다.
필터의 종류가 변경되는 기준이 되는 거리는 블록의 크기에 비례하여 상대적인 비율로 결정되거나, 특정한 필터의 경우에는 절대적인 거리로 결정될 수 있다. 절대적인 거리로 필터의 종류를 결정하는 경우에는 하나의 블록에 이용되는 필터의 개수가 달라질 수 있다. 크기가 작은 블록은 적은 수의 필터가 이용되고, 크기가 큰 블록은 모든 필터가 다 이용될 수 있다.
또한, 블록의 크기에 따라 한 개의 필터가 각각 다르게 적용될 수 있다. 예를 들어, 블록의 크기가 작은 경우, 블록의 인트라 예측 모드에 따라 사용할 스무딩 필터(smoothing filter)가 선택될 수 있다.
필터의 종류를 결정할 때, 우측의 참조 샘플이 이용가능하면 미리정해진 필터 결정 방향을 좌우대칭적으로 플립하여 필터가 적용될 수 있다. 우측의 참조 샘플이 이용가능하면, 참조 샘플로부터의 거리에 따라 필터의 세기를 다르게 적용함으로써 효율적인 예측이 가능하다.
도 25를 참고하면, 현재 예측 블록의 예측 샘플(p x,y)는 인트라 예측 모드의 인트라 예측 방향에 따라, 상측 주변 블록의 참조 샘플(a -1, a 0, a 1, a 2)를 이용하여 예측된다. 이러한 경우에, 필터 계수 f k,i는 참조 샘플과의 거리에 따라 필터의 세기가 다르게 결정된다. 예측 블록 내의 참조 영역으로부터 가장 먼 영역(2510)의 샘플들은 강한 세기의 필터가 적용되고, 예측 블록 내의 참조 영역으로부터 가까운 영역(2530)의 샘플들은 약한 세기 혹은 가장 약한 보간 필터가 적용되고, 예측 블록 내의 참조 영역으로부터 중간 지점의 영역(2520)의 샘플들은 중간 세기의 필터가 적용된다.
참조 샘플과의 거리에 따라 다른 세기의 필터링이 적용되는 신택스는 수학식 1과 같이 구현될 수 있다.
Figure PCTKR2019002652-appb-img-000001
여기서 i, j는 가로 및 세로의 참조 샘플로부터의 거리를 의미하고, 0 내지 4는 4탭 필터의 종류를 의미한다.
도 26은 인트라 예측에 이용되는 다중 4탭 필터의 다른 예를 도시한다.
현재 블록에 인접하는 주변 참조 블록의 참조 샘플들이 여러 방향에 존재하는 경우, 모든 참조 샘플들을 이용하거나 선택적으로 한 방향 또는 두 반향의 참조 샘플만을 이용할 수 있다.
도 26은 도 25의 예를 좌우대칭적으로 플립한 예를 도시한다. 좌측 및 우측의 참조 샘플이 모두 이용가능한 경우에 현재 예측 블록의 인트라 예측 모드에 따라 참조 샘플을 선택적으로 이용할 수 있고, 선택된 참조 샘플과의 거리에 따라 4탭 필터의 세기가 달라질 수 있다.
도 25 내지 도 26을 참고하면, 다중 N탭 필터를 이용하여 참조 샘플과 가까운 영역은 예측 정확도가 향상되고, 참조 샘플에서 먼 영역은 자연스러운 패턴의 예측 블록이 생성될 수 있다.
도 27a는 인트라 예측에 이용되는 4탭 필터의 일 예를 도시하고, 도 27b는 인트라 예측에 이용되는 4탭 필터의 다른 예를 도시한다.
도 27a를 참고하면, 좌측 및 우측의 참조 샘플이 둘 다 이용가능하고 현재 블록의 인트라 예측 모드가 대각선 방향성 모드인 경우에, 좌측 참조 샘플을 이용하여 생성한 예측 블록과 우측 참조 샘플을 이용하여 생성한 예측 블로 중 하나를 선택하여 사용하거나, 두 예측 블록의 평균을 예측 블록으로 사용할 수 있다.
도 27b를 참고하면, 좌측 및 우측의 참조 샘플이 둘 다 이용가능한 경우, 현재 블록의 인트라 예측 모드에 따라 도 24a, 24b, 24c에서 전술된 Bilinear 모드처럼 양측의 참조 샘플들을 모두 이용하여 예측 블록이 생성될 수 있다.
도 27a 및 도 27b를 참고하면, 현재 블록에 대해 여러 방향의 참조 샘플들을 이용함으로서 예측 정확도가 향상될 수 있다.
도 28은 예측 블록의 경계 필터링의 일 예를 도시한다.
인트라 예측에 따라 예측 블록이 생성될 때, 인트라 예측 모드가 방향성 모드로 선택된 경우, 모드에 따라 사용되지 않는 참조 샘플이 존재할 수 있다. 이 때, 생성된 예측 블록과 참조 샘플 사이에 불연속이 발생할 수 있다. 이러한 문제점을 해결하기 위해 예측 블록의 경계를 참조 샘플을 이용하여 필터링할 수 있다.
도 28을 참고하면, 인트라 예측 모드 중 방향성 모드의 방향이 좌상단에서 우하단의 방향으로 선택된 경우, 우측 참조 샘플에 인접한 영역에서 예측 블록과 우측 참조 샘플 간의 불연속이 발생할 수 있다. 이러한 경우, 우측 참조 샘플과 인접한 예측 블록의 픽셀들의 라인(line)을 스무딩(smoothing)하여 불연속 패턴을 감소시킬 수 있다. 구체적으로, 좌측 및 상측의 참조 샘플들을 이용하여 좌상측에서 우하단의 방향으로 예측 블록의 예측 픽셀들을 생성하는 중에 예측 블록의 우하단에 위치하는 예측 픽셀들과 우측 참조 샘플들 사이에 불연속이 발생하면, 우하단의 a -1, a 0, a 1의 참조 샘플을 이용하여 f k,i의 필터 계수를 가진 필터를 적용함으로써 예측 픽셀이 필터링될 수 있다. 반대로, 우측 및 상측의 참조 샘플들을 이용하여 우상측에서 좌하단의 방향으로 예측 블록의 예측 픽셀들을 생성하는 중에 예측 블록의 좌하단에 위치하는 예측 픽셀들과 좌측 참조 샘플들 사이에 불연속이 발생하면, 도 28과 좌우대칭적으로 필터링을 적용함으로써 불연속의 문제가 해결될 수 있다.
필터링이 적용되는 영역은 참조 샘플과 인접한 예측 블록의 픽셀들의 1개 또는 2개의 라인으로 결정될 수 있고, 블록의 크기와 인트라 모드에 따라 다르게 결정될 수 있다. 인트라 예측 모드가 방향성 모드가 아니라 DC 모드인 경우에도 불연속이 발생할 수 있으므로, 경계 필터링이 적용될 수 있다.
도 28을 참고하면, 더 많은 주변 참조 샘플들을 이용함으로써 주변 블록과의 불연속성을 감소시킬 수 있고, 자연스러운 패턴의 예측 블록을 생성함으로써 급격한 예측 편차가 발생하는 것을 보정하여 변환의 효율성이 향상될 수 있다.
도 29a는 부호화 단위에 포함된 블록 인덱스들을 도시하고, 도 29b는 부호화 단위의 스캔 순서의 일 예를 도시하고, 도 29c는 부호화 단위의 블록 맵에서 스캔 순서의 다른 예를 도시하고, 도 29d는 부호화 단위에 포함된 블록의 부호화된 블록을 나타내는 블록 맵을 도시한다.
도 29a를 참고하면, 부호화 단위에 포함된 블록의 샘플들에 대하여 블록 인덱스가 지정될 수 있다.
도 29b를 참고하면, 도 29b의 화살표 순서대로 스캐닝이 발생하면, 현재 블록의 블록 인덱스 32에 대한 참조 블록의 블록 인덱스가 26인 경우에, 이용가능한 미리 처리된 값이 존재하므로, 예측에 이용할 수 있다.
그러나, 도 29c를 참고하면, 도 29c의 화살표 순서대로 스캐닝이 발생하면, 현재 블록의 블록 인덱스 32에 대한 참조 블록의 블록 인덱스 26은 부호화되거나 복원되지 않았기 때문에 이용가능한 영역으로 판단될 수 없다. 따라서, 32보다 작은 블록 인덱스에 대해 모두 이용가능한 영역으로 판단하는 것이 불가능하기 때문에 부호화된 블록 맵을 생성할 필요가 있다.
도 29d를 참고하면, 현재 부호화 단위에서 부호화된 블록이 회색으로 표시되어 있다. 부호화 단위에서 부호화된 블록을 나타내는 블록 맵을 생성함으로써, 도 29c의 경우에도 32보다 작은 블록 인덱스에 대해 이용가능한 영역인지 판단될 수 있다.
도 30a는 부호화 순서가 오른쪽에서 왼쪽으로 변경된 분할 단위 부호화 순서 (Split Unit Coding Order; SUCO)가 적용된 블록을 도시하고, 도 30b는 SUCO가 적용된 부호화 단위의 스캔 순서를 도시하고, 도 30c는 부호화된 블록 맵의 일 예를 도시하고, 도 30d는 현재 블록을 포함하는 부호화 단위의 일 예를 도시하고, 도 30e는 SUCO가 적용된 현재 블록을 포함하는 부호화 단위의 블록 맵을 도시한다.
도 30a 및 도 30b를 참고하면, 도 30a의 SUCO가 적용된 현재 블록의 포함하는 부호화 단위에는 기존의 블록 맵을 이용하면 좌측의 정보만 읽어오기 때문에 우측의 정보가 이용가능함에도 불구하고, 이용가능성 체크를 할 수 없다. 그러나, 도 30b의 스캔 순서와 같이, 블록의 인덱스를 읽어오면 복원된 값이 이용가능하므로, 블록 인덱스 48을 참조 샘플로 이용하여 예측을 수행할 수 있다. 따라서, 도 30c와 같이, SUCO가 적용된 부호화된 블록 맵이 생성될 수 있다. 구체적으로, 도 30d의 현재 블록을 포함하는 부호화 단위의 블록 맵이 도 30e와 같이 표시되어 있으면, 이용가능성 체크를 통해 오른쪽에 위치한 복원된 샘플 값들을 이용할 수 있다.
도 29a 내지 도 30e을 참고하여, 블록 맵을 생성하여 참조 샘플들의 이용가능성을 체크하는데 이용하고, 이용가능성 체크를 통해 다양한 부호화 순서를 이용할 수 있으므로, 예측의 효율이 향상될 수 있다.
도 31a는 현재 블록의 좌측 및 상측 주변 블록이 이용가능한 경우의 PIMS를 도시하고, 도 31b는 현재 블록의 우측 및 상측 주변 블록이 이용가능한 경우의 PIMS를 도시하고, 도 31c는 현재 블록의 좌측, 상측, 및 우측 주변 블록이 모두 이용가능한 경우의 PIMS를 도시한다.
도 31a를 참조하면, 현재 블록(3110)의 상측에 인접하는 상측 주변 블록(3120) 및 현재 블록(3110)의 좌측에 인접하는 좌측 주변 블록(3130)의 인트라 예측 모드가 각각 수직 모드 및 수평 모드인 경우에, 현재 블록의 MPM 모드가 수직 모드 및 수평 모드로 결정되고, PIMS(3140)는 수직 모드 및 수평 모드 사이에 존재하는 모드들 중 MPM 모드와 연관성이 높고 MPM모드에 가까운 모드들로 구성될 수 있다. 예를 들어, PIMS(3140)는 수직 모드의 인트라 예측 모드 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 수직 모드의 인트라 예측 모드 인덱스로부터 2만큼 증가된 인덱스의 인트라 예측 모드, 수평 모드의 인트라 예측 모드 인덱스로부터 2만큼 감소된 인덱스의 인트라 예측 모드, 수평 모드의 인트라 예측 모드 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 수직 모드와 수평 모드 각각의 인트라 예측 모드 인덱스를 평균내어 반올림한 인덱스의 인트라 예측 모드 등으로 구성될 수 있다.
도 31b를 참조하면, 현재 블록(3150)의 상측에 인접하는 상측 주변 블록(3160) 및 현재 블록(3150)의 우측에 인접하는 우측 주변 블록(3170)의 인트라 예측 모드가 각각 수직 모드 및 수평 모드이고, 좌측 주변 블록이 이용가능하지 않은 경우에, 좌측 주변 블록 대신 우측 주변 블록의 인트라 예측 모드를 이용하여 현재 블록의 MPM 모드가 수직 모드 및 수평 모드로 결정되고, PIMS(3140)는 수직 모드 및 수평 모드 사이에 존재하는 모드들 중 MPM 모드와 연관성이 높고 MPM모드에 가까운 모드들로 구성될 수 있다.
도 31c를 참조하면, 현재 블록(3101)의 좌측에 인접하는 좌측 주변 블록(3102), 현재 블록(3101)의 상측에 인접하는 상측 주변 블록(3103), 및 현재 블록(3101)의 우측에 인접하는 우측 주변 블록(3104)의 인트라 예측 모드가 각각 다른 인트라 예측 모드인 경우에, 3개의 주변 블록의 인트라 예측 모드 모두가 PIMS(3105)를 구성하는데 이용될 수 있다. 예를 들어, 좌측 주변 블록(3102)의 인트라 예측 모드의 인덱스로부터 N만큼 증가 또는 감소한 인덱스의 인트라 예측 모드, 상측 주변 블록(3103)의 인트라 예측 모드의 인덱스로부터 M만큼 증가 또는 감소한 인덱스의 인트라 예측 모드, 우측 주변 블록(3104)의 인트라 예측 모드의 인덱스로부터 L만큼 증가 또는 감소한 인덱스의 인트라 예측 모드로 PIMS(3105)가 구성될 수 있다. 여기서, N, M, L은 0이 아닌 정수이다.
또 다른 예로, 3개의 주변 블록의 인트라 예측 모드 중 일부가 동일한 경우에, 서로 다른 2개의 인트라 예측 모드를 이용하여 PIMS(3105)가 구성될 수 있다. 또한, 동일한 인트라 예측 모드와 비슷한 방향의 인트라 예측 모드는 PIMS(3105)에 더 포함되도록 PIMS(3105)가 구성될 수 있다. 구체적으로, 좌측 및 우측 주변 블록(3102, 3103)의 인트라 예측 모드의 인덱스가 37이고, 상측 주변 블록(3104)의 인트라 예측 모드의 인덱스가 24인 경우, PIMS(3105)는 인덱스가 34, 35, 36, 38, 39, 40, 23, 25인 인트라 예측 모드들 또는 인덱스가 35, 36, 38, 39, 23, 25인 모드, DC 모드, Bilinear 모드로 구성될 수 있다.
도 32a는 MPM 및 PIMS의 이용여부를 나타내는 플래그의 신택스를 도시하고, 도 32b는 PIMS의 신택스를 도시한다.
도 32a를 참고하면, MPM 플래그가 1인 경우에는 MPM 모드를 이용하여 인트라 예측을 수행하고, MPM 플래그가 0인 경우에는 PIMS의 플래그를 확인하여 PIMS 플래그가 1인 경우에는 PIMS의 미리정해진 N개의 모드를 이용하여 인트라 예측을 수행하고, PIMS 플래그가 0인 경우에는 나머지 인트라 예측 모드 중 하나의 모드로 인트라 예측을 수행할 수 있다. PIMS 플래그는 추가적인 모드 세트의 모드 개수가 N개이면 log 2(N) 비트를 할당하여 코딩 후 시그널링될 수 있다.
도 32b를 참고하면, 우측 주변 블록이 이용가능하면 우측 주변 블록의 인트라 예측 모드(right block mode)를 이용하여 PIMS가 구성되는 PIMS 코딩의 신택스를 도시한다. 예를 들어, 종래의 mpm모드인 좌측 주변 블록 및 상측 주변 블록의 인트라 예측 모드(mpm[0], mpm[1])외에 우측 주변 블록의 인트라 예측 모드(right block mode)를 고려하여 PIMS가 구성될 수 있다.
도 33은 다중 파라미터 인트라 예측의 일 예를 도시한다.
도 33을 참고하면, 다중 파라미터 인트라 예측은 현재 픽셀을 기준으로 좌측 및 상측에 위치하는 참조 픽셀 또는 예측 픽셀들을 이용하여 새로운 예측 픽셀 값을 생성하는 예측 방법이다. 이러한 방법을 이용함으로써 예측 블록의 패턴을 자연스럽게 하여 예측의 효율성이 향상된다. 구체적으로, 임의의 방향으로 인트라 예측(Arbitraty Direction Intra; ADI)를 수행한 뒤 예측된 예측 픽셀(P HEVC[i, j]), 예측 픽셀의 좌측에 위치하는 참조 픽셀 또는 예측 픽셀 (P MPI[i-1, j]), 예측 픽셀의 상측에 위치하는 참조 픽셀 또는 예측 픽셀(P MPI[i, j-1])을 아래의 수학식 2에 적용(Multi Parameter Intra; MPI)함으로써(i, j는 픽셀의 위치를 가리킨다), 새로운 예측 픽셀 P MPI[i,j]이 생성될 수 있다.
Figure PCTKR2019002652-appb-img-000002
이러한 다중 파라미터 인트라 예측은 우측의 참조 샘플이 이용가능한 경우, 대칭적으로 이용될 수 있다.
또한, 좌측 및 우측 모두 이용가능한 경우, 가운데를 기준으로 좌측에 가까운 픽셀은 좌측 정보를 이용하고, 우측에 가까운 픽셀은 우측 정보를 이용할 수 있다. 이 경우에 불연속성이 나타나면, 가운데 영역은 필터링해주거나 양쪽의 정보를 모두 이용하는 방식으로 불연속성이 해결될 수 있다.
다른 예로, 좌측 및 우측의 참조 샘플을 이용하여 각각 예측 블록을 생성한 뒤 평균하여 이용하거나, 둘 중 더 성능이 좋은 예측 블록을 선택하여 이용할 수 있다.
도 34a는 인트라 예측에 이용되는 다중 파라미터 예측의 신택스의 일 예를 도시하고, 도 34b는 이용가능성 체크에 따른 다중 파라미터 예측의 신택스의 일 예를 도시한다.
도 34a를 참고하면, MPM 모드, PIMS의 이용여부를 확인하여 인트라 예측을 적용한 뒤, 다중 파라미터 예측이 필요한 경우(mpi_coded가 1인 경우)에 다중 파라미터 예측(mpi_index())이 적용될 수 있다.
도 34b를 참고하면, 이용가능성 체크 결과, 우측의 참조 샘플이 이용가능한 경우(avail_lr == LR_01 || avail_lr == LR_11)에 대칭적으로 다중 파라미터 예측이 적용될 수 있다.
도 35a는 다중 결합된 인트라 예측에 이용되는 필터링된 참조 샘플의 일 예를 도시하고, 도 35b는 다중 결합된 인트라 예측이 적용되는 일 예를 도시한다.
현재 픽셀에 대한 다중 파라미터 인트라 예측을 통해 새로운 예측 픽셀을 생성할 때, 이전 픽셀에 대한 다중 파라미터 인트라 예측을 통해 생성된 이전 픽셀의 새로운 예측 픽셀을 재귀적으로 이용하는 IIR(Infinite Impulse Response) 방식으로 인해, 병렬적으로 필터링이 적용될 수 없어, 시간이 많이 소용된다는 문제점이 있다. 이러한 문제점을 해결하기 위해, 참조 샘플을 먼저 필터링하여 이용하는 다중 결합된 인트라 예측이 이용될 수 있다.
도 35a를 참고하면, 다중 결합 인트라 예측에서는 참조 샘플을 필터링하여 필터링된 참조 샘플을 획득한다. 상측 참조 샘플에서 필터링의 방향이 왼쪽에서 오른쪽이라면, 현재 참조 샘플과 현재 참조 샘플의 좌측에 위치하는 좌측 샘플들을 이용하여 결합함으로써 필터링된 참조 샘플이 생성될 수 있다. 마찬가지로, 좌측 참조 샘플에서 필터링의 방향이 아래쪽에서 위쪽이라면, 현재 참조 샘플과 현재 참조 샘플의 하측에 위치하는 하측 샘플들을 이용하여 가중치 평균을 이용하여 결합함으로써 필터링된 참조 샘플이 생성될 수 있다. 또한, 필터링된 참조 샘플을 생성하기 위한, 필터링의 방향은 미리 결정될 수 있다. 구체적으로, LR_00 또는 LR_10의 경우, 왼쪽에서 오른쪽으로 필터링하고, 위쪽에서 아래쪽으로 필터링 할 수 있고, LR_01의 경우, 오른쪽에서 왼쪽으로 필터링하고, 위쪽에서 아래쪽으로 필터링할 수 있다. LR_11의 경우에는 상측의 참조 샘플은 좌측 및 우측의 픽셀 모두를 사용하여 필터링하고, 좌측 및 우측의 참조 샘플은 위쪽에서 아래쪽으로 필터링할 수 있다.
참조 샘플의 필터링은 아래 수학식 3과 같이, 필터링 방향에 따라 수행될 수 있다.
Figure PCTKR2019002652-appb-img-000003
여기서, 가로방향에서 j는 왼쪽에서 오른쪽으로 오름차순인 자연수를 의미하고, 세로방향에서 j는 위쪽에서 아래쪽으로 오름차순인 자연수를 의미한다.
필터링의 방향이 왼쪽에서 오른쪽이면, 현재 참조 샘플 a j와 현재 참조 샘플의 왼쪽에 위치하는 샘플 a j-1를 이용하여 가중치를 적용하여 참조 샘플이 필터링되고, 필터링의 방향이 위쪽에서 아래쪽이면 현재 참조 샘플 a j와 현재 참조 샘플의 위쪽에 위치하는 샘플 a j-1를 이용하여 가중치를 적용하여 참조 샘플이 필터링될 수 있다.
반대로, 필터링의 방향이 오른쪽에서 왼쪽이면, 현재 참조 샘플 a j와 현재 참조 샘플의 오른쪽에 위치하는 샘플 a j+1를 이용하여 가중치를 적용하여 참조 샘플이 필터링되고, 필터링의 방향이 아래쪽에서 위쪽이면 현재 참조 샘플 a j와 현재 참조 샘플의 아래쪽에 위치하는 샘플 a j+1를 이용하여 가중치를 적용하여 참조 샘플이 필터링될 수 있다.
도 35b를 참고하면, 기존의 참조 샘플과 필터링된 참조 샘플을 함께 이용하여 예측 블록이 생성될 수 있다.
다중 결합된 인트라 예측 방법에서도, 우측의 참조 샘플이 이용가능하면, 도 35a 및 도 35b의 방법이 좌우대칭적으로 플립하여 이용될 수 있다. 좌측 및 우측 모두 이용가능한 경우, 현재 픽셀의 위치에 따라 둘 중 하나만 선택하여 이용할 수 있다. 현재 픽셀의 위치가 좌측에 가까우면 좌측의 참조 샘플들을 이용하여 다중 결합된 인트라 예측을 수행하고, 현재 픽셀의 위치에 우측에 가까우면 우측의 참조 샘플들을 이용하여 다중 결합된 인트라 예측을 수행할 수 있고, 가운데 영역의 픽셀은 좌측 및 우측의 참조 샘플들 모두를 이용하여 다중 결합된 인트라 예측을 수행할 수 있다. 현재 픽셀의 위치에 관계없이 좌측 및 우측의 참조 샘플들을 모두 이용하는 경우에는 가중치를 다르게 결정하여 다중 결합된 인트라 예측을 수행할 수 있다.
또한, 좌측 및 우측의 참조 샘플들을 모두 이용할지, 둘 중 하나만 이용할지 여부는 블록의 크기에 따라 결정될 수 있다. 블록의 크기가 큰 경우에는 한쪽의 참조 샘플들을 이용하고, 블록의 크기가 작은 경우에는 양측의 참조 샘플들을 이용할 수 있다. 이는 블록의 크기가 작을수록 좌측 및 우측의 참조 샘플들과의 유사성이 높기 때문이다. 예를 들어, 블록의 크기가 16보다 큰 경우에는 좌측 또는 우측의 정보만 이용하고, 블록의 크기가 16보다 작은 경우에는 좌측 및 우측 모두의 정보를 이용할 수 있다. 예를 들어, 블록 좌측 상단의 픽셀을 생성할 때에 블록의 크기가 16보다 큰 경우, 가중치는 [left up right] = (1/16)*[8 8 0]로 나타낼 수 있고, 블록의 크기가 16보다 작은 경우, 가중치는 [left up right] = (1/16)*[6 8 2]로 나타낼 수 있다.
다중 결합된 인트라 예측(MIP)은 필터링 방향에 따라 아래의 수학식 4에 기초하여 예측 픽셀에 적용될 수 있다.
수학식 4는 수학식 3에서 획득된 필터링된 참조 샘플을 이용한 MIP가 적용된 예측 샘플을 생성하는 수학식이다.
Figure PCTKR2019002652-appb-img-000004
여기서,
Figure PCTKR2019002652-appb-img-000005
이고, i 또는 j가 3보다 크면, i 또는 j는 3으로 판단하여 계수를 선택한다.
여기서, i 및 j는 행번호 및 열번호를 의미한다. a i'는 수학식 3을 이용하여 필터링 방향에 따라 필터링함으로써 생성된 좌측 참조 샘플을 의미하고, a j'는 수학식 3을 이용하여 필터링 방향에 따라 필터링함으로써 생성된 상측 참조 샘플을 의미한다. 좌측 C a[i,j]는 i행 j열에 위치하는 픽셀에 대해 다중 결합된 인트라 예측을 적용하는 경우에 해당 매트릭스의 i행 j열에 해당하는 계수를 이용하는 것을 의미하고, C p[i,j]는 i행 j열에 위치하는 픽셀에 대해 다중 결합된 인트라 예측을 적용하는 경우에 해당 매트릭스의 i행 j열에 해당하는 계수를 이용하는 것을 의미하고, C p[j,i]는 i행 j열에 위치하는 픽셀에 대해 다중 결합된 인트라 예측을 적용하는 경우에 해당 매트릭스의 j행 i열에 해당하는 계수를 이용하는 것을 의미한다. 예를 들어, 2번째 행, 3번째 열의 픽셀에 대해 상기 수학식들을 적용하는 경우, C a[i,j]는 1, C p[i,j]는 12, C p[j,i]는 3이 선택된다.
상기 수학식 4를 이용하는 다중 결합된 인트라 예측은 현재 픽셀의 예측 픽셀 p ij과 수학식 3에 의해 생성된 필터링 된 좌측 참조 픽셀 a i '과 필터링 된 상측 참조 픽셀 a j '의 가중치를 이용하여 새로운 예측 픽셀을 생성한다.
이는 필터링의 방향이 왼쪽에서 오른쪽, 위쪽에서 아래쪽일 때, 현재 픽셀의 예측 픽셀 p ij, 현재 픽셀의 행에 해당하는 좌측 참조 픽셀 a i, 좌측 참조 픽셀의 상측에 위치하는 참조 픽셀 a i-1, 현재 픽셀의 열에 해당하는 상측 참조 픽셀 a j, 상측 참조 픽셀의 좌측에 위치하는 참조 픽셀 a j-1의 5개 포인트에 대하여 가중치 이용하여 새로운 예측 픽셀이 생성되는 것을 의미한다.
또한, 다중 결합된 인트라 예측을 통해, 필터링의 방향이 오른쪽에서 왼쪽, 아래쪽에서 위쪽일 때, 현재 픽셀의 예측 픽셀 p ij, 현재 픽셀의 행에 해당하는 좌측 참조 픽셀 a i, 좌측 참조 픽셀의 하측에 위치하는 참조 픽셀 a i+1, 현재 픽셀의 열에 해당하는 상측 참조 픽셀 a j, 상측 참조 픽셀의 우측에 위치하는 참조 픽셀 a j+1의 5개 포인트에 대하여 가중치를 이용하여 새로운 예측 픽셀이 생성된다.
도 36a는 인트라 예측에 이용되는 다중 결합된 인트라 예측의 신택스의 일 예를 도시하고, 도 36b는 이용가능성 체크에 따른 다중 결합된 인트라 예측의 신택스의 일 예를 도시한다.
도 36a를 참고하면, MPM 모드, PIMS의 이용여부를 확인하여 인트라 예측을 적용한 뒤, 다중 결합된 인트라 예측이 필요한 경우(mip_coded가 1인 경우)에 다중 결합된 인트라 예측(mip_index())이 적용될 수 있다.
도 36b를 참고하면, 이용가능성 체크 결과, 우측의 참조 샘플이 이용가능한 경우(avail_lr == LR_01)에는 대칭적으로 다중 결합된 인트라 예측이 적용될 수 있다.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 본 개시가 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.
한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.

Claims (15)

  1. 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하는 단계;
    상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하는 단계;
    상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정하는 단계를 포함하는, 비디오 복호화 방법.
  2. 제 1 항에 있어서,
    상기 MPM 모드 정보가 MPM 모드가 이용됨을 나타내면, 상기 MPM 모드 중 하나의 모드가 상기 현재 블록의 인트라 예측 모드로 결정되고,
    상기 MPM 모드 정보가 MPM 모드가 이용되지 않음을 나타내고, 상기 확장 인트라 모드 세트 정보가 확장 인트라 모드 세트가 이용됨을 나타내면, 상기 확장 인트라 모드 세트 중 하나의 모드가 상기 현재 블록의 인트라 예측 모드로 결정되고,
    상기 MPM 모드 정보가 MPM 모드가 이용되지 않음을 나타내고, 상기 확장 인트라 모드 세트 정보가 확장 인트라 모드 세트가 이용되지 않음을 나타내면, 상기 MPM 모드 및 상기 확장 인트라 모드 세트에 포함되지 않는 인트라 예측 모드 중 하나의 모드가 상기 현재 블록의 인트라 예측 모드로 결정되는, 비디오 복호화 방법.
  3. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드가 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록 모두의 인트라 예측 모드를 포함하면,
    상기 확장 인트라 모드 세트는 상기 현재 블록의 MPM모드들을 이용하여 구성되는, 비디오 복호화 방법.
  4. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드가 상기 좌측 주변 블록 및 상기 상측 주변 블록의 인트라 예측 모드를 포함하면,
    상기 확장 인트라 모드 세트는 상기 현재 블록의 MPM모드들 및 상기 우측 주변 블록의 예측 모드를 이용하여 구성되는, 비디오 복호화 방법.
  5. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록 모두 이용가능하면,
    상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록 중 2개의 블록의 예측 모드를 이용하여 상기 현재 블록의 MPM모드가 결정되는, 비디오 복호화 방법.
  6. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 우측 주변 블록이 이용가능하고, 상기 좌측 주변 블록 및 상기 상측 주변 블록 중 하나만 이용가능하면,
    상기 우측 주변 블록의 예측 모드, 및 상기 상측 주변 블록 및 상기 우측 주변 블록 중 이용가능한 하나의 블록의 예측 모드를 이용하여 상기 현재 블록의 MPM모드가 결정되는, 비디오 복호화 방법.
  7. 제 1 항에 있어서,
    상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록이 모두 이용가능하고, 상기 좌측 주변 블록, 상기 상측 주변 블록, 및 상기 우측 주변 블록의 예측 모드가 서로 다른 방향성 모드인 경우,
    상기 확장 인트라 모드 세트는 상기 좌측 주변 블록의 인트라 예측 모드의 인덱스로부터 N만큼 증가된 인덱스의 인트라 예측 모드, 상기 좌측 주변 블록의 인트라 예측 모드의 인덱스로부터 N만큼 감소된 인덱스의 인트라 예측 모드, 상기 상측 주변 블록의 인트라 예측 모드의 인덱스로부터 M만큼 증가된 인덱스의 인트라 예측 모드, 상기 상측 주변 블록의 인트라 예측 모드의 인덱스로부터 M만큼 감소된 인덱스의 인트라 예측 모드, 상기 우측 주변 블록의 인트라 예측 모드의 인덱스로부터 L만큼 증가된 인덱스의 인트라 예측 모드, 및 상기 우측 주변 블록의 인트라 예측 모드의 인덱스로부터 L만큼 감소된 인덱스의 인트라 예측 모드를 포함하고,
    N, M, 및 L은 0이 아닌 정수인, 비디오 복호화 방법.
  8. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 DC 모드 및 Bilinear 모드이면,
    상기 확장 인트라 모드 세트는 플레인 모드, 수평 모드, 수직 모드 및 대각선 모드(Diagonal Mode)로 구성되는, 비디오 복호화 방법.
  9. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 DC 모드 및 방향성 모드이면,
    상기 확장 인트라 모드 세트는 Bilinear 모드, 플레인 모드, 상기 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 2만큼 증가된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 상기 방향성 모드의 인덱스로부터 2만큼 감소된 인덱스의 인트라 예측 모드, 제1 디폴트 모드, 제2 디폴트 모드로 구성되고,
    상기 제1 디폴트 모드 및 상기 제2 디폴트 모드는 미리정해진 인트라 예측 모드인, 비디오 복호화 방법.
  10. 제 9 항에 있어서,
    상기 제1 디폴트 모드 및 상기 제2 디폴트 모드는 통계적으로 선택될 확률이 높은 인트라 예측 모드들이 순차적으로 나열된 리스트에서 결정되는, 비디오 복호화 방법.
  11. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드의 미리정해진 개수가 2개이고, 상기 MPM 모드가 제1 방향성 모드 및 제2 방향성 모드인 경우에,
    상기 확장 인트라 모드 세트는 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 수평 모드, 수직 모드, DC 모드, Bilinear 모드로 구성되는, 비디오 복호화 방법.
  12. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드가 상기 좌측 주변 블록 및 상기 상측 주변 블록의 인트라 예측 모드를 포함하고,
    상기 MPM모드가 DC 모드 및 제1 방향성 모드이고, 상기 우측 주변 블록의 예측 모드가 제2 방향성 모드인 경우,
    상기 확장 인트라 모드 세트는 Bilinear 모드, 플레인 모드, 상기 제2 방향성 모드, 상기 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 디폴트 모드로 구성되고,
    상기 디폴트 모드는 미리정해진 인트라 예측 모드인, 비디오 복호화 방법.
  13. 제 1 항에 있어서,
    상기 현재 블록의 MPM모드가 상기 좌측 주변 블록 및 상기 상측 주변 블록의 인트라 예측 모드를 포함하고,
    상기 MPM모드가 제1 방향성 모드 및 제2 방향성 모드이고, 상기 우측 주변 블록의 예측 모드가 제3 방향성 모드인 경우,
    상기 확장 인트라 모드 세트는 상기 제3 방향성 모드, 상기 제1 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제1 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제2 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드, 상기 제3 방향성 모드의 인덱스로부터 1만큼 증가된 인덱스의 인트라 예측 모드, 제3 방향성 모드의 인덱스로부터 1만큼 감소된 인덱스의 인트라 예측 모드로 구성되는, 비디오 복호화 방법.
  14. 메모리; 및
    상기 메모리와 접속된 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는:
    현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 획득하고,
    상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 획득하고,
    상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보에 기초하여, 상기 현재 블록의 인트라 예측 모드를 결정하는, 비디오 복호화 장치.
  15. 현재 블록의 인트라 예측을 수행함으로써, 현재 블록의 좌측에 인접하는 좌측 주변 블록의 예측 모드, 상기 현재 블록의 상측에 인접하는 상측 주변 블록의 예측 모드, 및 상기 현재 블록의 우측에 인접하는 우측 주변 블록의 예측 모드 중 적어도 2개 이상에 기초하여 결정된 상기 현재 블록의 MPM모드들의 이용여부를 나타내는 MPM(Most Probable Mode) 모드 정보를 생성하는 단계;
    상기 MPM 모드들에 기초하여 구성된 확장 인트라 모드 세트에 대한 이용여부를 나타내는 확장 인트라 모드 세트 정보를 생성하는 단계;
    상기 MPM 모드 정보 및 상기 확장 인트라 모드 세트 정보를 부호화하는 단계를 포함하는, 비디오 부호화 방법.
PCT/KR2019/002652 2018-03-08 2019-03-07 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치 WO2019172676A1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201980017820.2A CN111819845A (zh) 2018-03-08 2019-03-07 视频解码方法和装置以及视频编码方法和装置
US16/970,179 US11381814B2 (en) 2018-03-08 2019-03-07 Video decoding method and device, and video encoding method and device
KR1020227024238A KR102618498B1 (ko) 2018-03-08 2019-03-07 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
KR1020207024549A KR102422798B1 (ko) 2018-03-08 2019-03-07 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
KR1020237044412A KR20240005173A (ko) 2018-03-08 2019-03-07 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
US17/853,430 US11917140B2 (en) 2018-03-08 2022-06-29 Selection of an extended intra prediction mode
US18/417,778 US20240163428A1 (en) 2018-03-08 2024-01-19 Selection of an extended intra prediction mode

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201862640164P 2018-03-08 2018-03-08
US201862640108P 2018-03-08 2018-03-08
US201862640289P 2018-03-08 2018-03-08
US62/640,289 2018-03-08
US62/640,164 2018-03-08
US62/640,108 2018-03-08

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/970,179 A-371-Of-International US11381814B2 (en) 2018-03-08 2019-03-07 Video decoding method and device, and video encoding method and device
US17/853,430 Continuation US11917140B2 (en) 2018-03-08 2022-06-29 Selection of an extended intra prediction mode

Publications (1)

Publication Number Publication Date
WO2019172676A1 true WO2019172676A1 (ko) 2019-09-12

Family

ID=67846775

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/002652 WO2019172676A1 (ko) 2018-03-08 2019-03-07 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치

Country Status (4)

Country Link
US (3) US11381814B2 (ko)
KR (3) KR102422798B1 (ko)
CN (1) CN111819845A (ko)
WO (1) WO2019172676A1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021063270A1 (en) * 2019-10-04 2021-04-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Encoding and decoding method, apparatus and communication system
WO2021083188A1 (en) * 2019-10-28 2021-05-06 Beijing Bytedance Network Technology Co., Ltd. Syntax signaling and parsing based on colour component
WO2021139572A1 (zh) * 2020-01-08 2021-07-15 Oppo广东移动通信有限公司 编码方法、解码方法、编码器、解码器以及存储介质
US11425389B2 (en) 2019-04-12 2022-08-23 Beijing Bytedance Network Technology Co., Ltd. Most probable mode list construction for matrix-based intra prediction
US11451784B2 (en) 2019-05-31 2022-09-20 Beijing Bytedance Network Technology Co., Ltd. Restricted upsampling process in matrix-based intra prediction
US11457207B2 (en) 2019-04-16 2022-09-27 Beijing Bytedance Network Technology Co., Ltd. Matrix derivation in intra coding mode
US11463729B2 (en) 2019-05-01 2022-10-04 Beijing Bytedance Network Technology Co., Ltd. Matrix-based intra prediction using filtering
US11546633B2 (en) 2019-05-01 2023-01-03 Beijing Bytedance Network Technology Co., Ltd. Context coding for matrix-based intra prediction
US11659185B2 (en) 2019-05-22 2023-05-23 Beijing Bytedance Network Technology Co., Ltd. Matrix-based intra prediction using upsampling
US11805275B2 (en) 2019-06-05 2023-10-31 Beijing Bytedance Network Technology Co., Ltd Context determination for matrix-based intra prediction

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019335453B2 (en) * 2018-09-03 2023-06-15 Huawei Technologies Co., Ltd. Method and apparatus for intra prediction
US11134257B2 (en) * 2019-04-04 2021-09-28 Tencent America LLC Simplified signaling method for affine linear weighted intra prediction mode
US11363279B2 (en) * 2019-04-15 2022-06-14 Tencent America LLC Method and apparatus in video coding with flexible coding order
US11388419B2 (en) * 2020-02-05 2022-07-12 Apple Inc. Smoothed directional and DC intra prediction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130031078A (ko) * 2011-09-20 2013-03-28 한양대학교 산학협력단 적응적인 부호화 순서를 이용한 영상 부호화/복호화 장치 및 방법
KR20140098113A (ko) * 2011-11-04 2014-08-07 퀄컴 인코포레이티드 인트라 모드 비디오 코딩
KR20160009109A (ko) * 2011-06-17 2016-01-25 미디어텍 인크. 인트라 예측 모드의 코딩을 위한 방법 및 장치
KR20170095792A (ko) * 2011-09-28 2017-08-23 한국전자통신연구원 인트라 예측 모드 부호화/복호화 방법 및 장치
KR20170136411A (ko) * 2016-06-01 2017-12-11 삼성전자주식회사 부호화 순서 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070479A (ko) 2010-12-21 2012-06-29 한국전자통신연구원 화면 내 예측 방향 정보 부호화/복호화 방법 및 그 장치
LT2773118T (lt) * 2011-10-24 2020-10-12 Innotive Ltd Vaizdo dekodavimo būdas ir aparatas
KR20130049525A (ko) 2011-11-04 2013-05-14 오수미 잔차 블록 복원을 위한 역변환 방법
CN110740320B (zh) 2013-12-19 2022-07-05 三星电子株式会社 视频编码方法和设备以及视频解码方法和设备
KR20180008797A (ko) * 2015-06-15 2018-01-24 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10142627B2 (en) * 2015-06-18 2018-11-27 Qualcomm Incorporated Intra prediction and intra mode coding
US20160373742A1 (en) * 2015-06-18 2016-12-22 Qualcomm Incorporated Intra prediction and intra mode coding
CN109314790A (zh) * 2016-05-23 2019-02-05 佳稳电子有限公司 影像处理方法、利用其的影像解码及编码方法
US10880548B2 (en) 2016-06-01 2020-12-29 Samsung Electronics Co., Ltd. Methods and apparatuses for encoding and decoding video according to coding order
WO2018034374A1 (ko) * 2016-08-19 2018-02-22 엘지전자(주) 인트라 예측 필터링을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
EP3301914A1 (en) * 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for encoding and decoding a large field of view video
CN117119179A (zh) * 2016-11-18 2023-11-24 株式会社Kt 视频解码方法、视频编码方法和压缩视频数据发送设备
CN117119185A (zh) * 2017-01-02 2023-11-24 Lx 半导体科技有限公司 图像编码/解码设备以及发送图像数据的设备
US11102509B2 (en) * 2017-04-28 2021-08-24 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bit stream
EP3661212A4 (en) 2017-09-28 2020-11-25 Samsung Electronics Co., Ltd. IMAGE CODING PROCESS AND APPARATUS, AND IMAGE DECODING PROCESS AND APPARATUS
KR102596433B1 (ko) 2017-10-18 2023-10-31 삼성전자주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
KR102539068B1 (ko) 2017-10-31 2023-06-01 삼성전자주식회사 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160009109A (ko) * 2011-06-17 2016-01-25 미디어텍 인크. 인트라 예측 모드의 코딩을 위한 방법 및 장치
KR20130031078A (ko) * 2011-09-20 2013-03-28 한양대학교 산학협력단 적응적인 부호화 순서를 이용한 영상 부호화/복호화 장치 및 방법
KR20170095792A (ko) * 2011-09-28 2017-08-23 한국전자통신연구원 인트라 예측 모드 부호화/복호화 방법 및 장치
KR20140098113A (ko) * 2011-11-04 2014-08-07 퀄컴 인코포레이티드 인트라 모드 비디오 코딩
KR20170136411A (ko) * 2016-06-01 2017-12-11 삼성전자주식회사 부호화 순서 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11451782B2 (en) 2019-04-12 2022-09-20 Beijing Bytedance Network Technology Co., Ltd. Calculation in matrix-based intra prediction
US11831877B2 (en) 2019-04-12 2023-11-28 Beijing Bytedance Network Technology Co., Ltd Calculation in matrix-based intra prediction
US11463702B2 (en) 2019-04-12 2022-10-04 Beijing Bytedance Network Technology Co., Ltd. Chroma coding mode determination based on matrix-based intra prediction
US11457220B2 (en) 2019-04-12 2022-09-27 Beijing Bytedance Network Technology Co., Ltd. Interaction between matrix-based intra prediction and other coding tools
US11425389B2 (en) 2019-04-12 2022-08-23 Beijing Bytedance Network Technology Co., Ltd. Most probable mode list construction for matrix-based intra prediction
US11457207B2 (en) 2019-04-16 2022-09-27 Beijing Bytedance Network Technology Co., Ltd. Matrix derivation in intra coding mode
US11546633B2 (en) 2019-05-01 2023-01-03 Beijing Bytedance Network Technology Co., Ltd. Context coding for matrix-based intra prediction
US11463729B2 (en) 2019-05-01 2022-10-04 Beijing Bytedance Network Technology Co., Ltd. Matrix-based intra prediction using filtering
US11659185B2 (en) 2019-05-22 2023-05-23 Beijing Bytedance Network Technology Co., Ltd. Matrix-based intra prediction using upsampling
US11943444B2 (en) 2019-05-31 2024-03-26 Beijing Bytedance Network Technology Co., Ltd. Restricted upsampling process in matrix-based intra prediction
US11451784B2 (en) 2019-05-31 2022-09-20 Beijing Bytedance Network Technology Co., Ltd. Restricted upsampling process in matrix-based intra prediction
US11805275B2 (en) 2019-06-05 2023-10-31 Beijing Bytedance Network Technology Co., Ltd Context determination for matrix-based intra prediction
US11785221B2 (en) 2019-10-04 2023-10-10 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Encoding and decoding method, apparatus and communication system
WO2021063270A1 (en) * 2019-10-04 2021-04-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Encoding and decoding method, apparatus and communication system
US11388407B2 (en) 2019-10-04 2022-07-12 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Encoding and decoding method, apparatus and communication system
US11606570B2 (en) 2019-10-28 2023-03-14 Beijing Bytedance Network Technology Co., Ltd. Syntax signaling and parsing based on colour component
WO2021083188A1 (en) * 2019-10-28 2021-05-06 Beijing Bytedance Network Technology Co., Ltd. Syntax signaling and parsing based on colour component
WO2021139572A1 (zh) * 2020-01-08 2021-07-15 Oppo广东移动通信有限公司 编码方法、解码方法、编码器、解码器以及存储介质
US11843781B2 (en) 2020-01-08 2023-12-12 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Encoding method, decoding method, and decoder

Also Published As

Publication number Publication date
KR102618498B1 (ko) 2023-12-27
KR102422798B1 (ko) 2022-07-19
US20220345696A1 (en) 2022-10-27
US20210105464A1 (en) 2021-04-08
KR20240005173A (ko) 2024-01-11
US11917140B2 (en) 2024-02-27
KR20200109378A (ko) 2020-09-22
KR20220103832A (ko) 2022-07-22
CN111819845A (zh) 2020-10-23
US11381814B2 (en) 2022-07-05
US20240163428A1 (en) 2024-05-16

Similar Documents

Publication Publication Date Title
WO2019172676A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2021006692A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020040619A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020027551A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2018012808A1 (ko) 크로마 인트라 예측 방법 및 그 장치
WO2020060158A1 (ko) 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
WO2019168347A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020130730A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2019209028A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2019066514A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2020013627A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2019066384A1 (ko) 크로스-성분 예측에 의한 비디오 복호화 방법 및 장치, 크로스-성분 예측에 의한 비디오 부호화 방법 및 장치
WO2017090968A1 (ko) 영상을 부호화/복호화 하는 방법 및 그 장치
WO2019066574A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019216716A2 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2019143093A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020076130A1 (ko) 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 방법, 및 타일 및 타일 그룹을 이용하는 비디오 부호화 및 복호화 장치
WO2020117010A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2020040623A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2019066472A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2020130712A1 (ko) 삼각 예측 모드를 이용하는 영상 부호화 장치 및 영상 복호화 장치, 및 이에 의한 영상 부호화 방법 및 영상 복호화 방법
WO2019135558A1 (ko) 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
WO2019216712A1 (ko) 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
WO2020235951A1 (ko) 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
WO2019240458A1 (ko) 부호화 방법 및 그 장치, 복호화 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19763454

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20207024549

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19763454

Country of ref document: EP

Kind code of ref document: A1